Hablar de Inteligencia Artificial (IA) ha dejado de ser algo excepcional y se ha convertido en un tema cada vez más común en el discurso público y empresarial, dejando de ser un asunto de “ciencia ficción” para convertirse en algo cada vez más omnipresente en nuestras vidas. A medida que la tecnología continúa avanzando y soluciones como ChatGPT están revolucionando la forma en que interactuamos con la Inteligencia Artificial y con los llamados modelos de Procesamiento de Lenguaje Natural, surge la necesidad de abordar los desafíos éticos y sociales que plantea su uso.
En este sentido, estamos viendo cómo desde Europa se está prestando una especial atención al impulso de la Inteligencia Artificial desde una perspectiva basada en tres pilares fundamentales: el ético, el técnico y el legislativo. Son numerosos los trabajos que se están realizando en este ámbito desde que en abril de 2018 la Comisión Europea publicara su intención de crear un documento de recomendaciones con la opinión de expertos y stakeholders. En junio de ese mismo año, se constituyó un grupo independiente de expertos (AI HLEG) que posteriormente, en abril de 2019 publicaron las Directrices Éticas para una IA confiable. En febrero del 2020 se publicó el Libro Blanco sobre ética e Inteligencia Artificial y en abril de 2021 la Propuesta de Regulación Europea sobre la IA, sobre la que se ha estado trabajando estos últimos años, a la espera de su aprobación definitiva.
A su vez, la IA en España es un tema cada vez más relevante y crucial debido al potente ecosistema tecnológico que existe en el país, impulsado por una amplia variedad de empresas e instituciones académicas que investigan y desarrollan tecnologías relacionadas con la IA. Este auge ha llevado a que las principales organizaciones del país hayan puesto en marcha diversos observatorios y programas para fomentar el uso y desarrollo de esta tecnología, teniendo en cuenta las directrices marcadas en las diversas normativas y directrices para el desarrollo ético y responsable de la IA:
- Estrategia España Digital 2026, cuyos objetivos específicos pretenden convertir a España en un referente en la economía del dato, impulsar la IA como motor de innovación y crecimiento económico social, inclusivo y sostenible, preparar al país para las transformaciones socioeconómicas que origina la IA y fortalecer su competitividad a través de las tecnologías habilitadoras digitales (THD).
- Estrategia Nacional de Inteligencia Artificial (ENIA), que se centra en promulgar una IA con foco en las personas y el bienestar de la sociedad, que a su vez permita la innovación con esta tecnología haciendo un uso adecuado de ella. A su vez, plantea la necesidad de que los sistemas de IA sean robustos, seguros e imparciales y cuenten con unos principios de transparencia, explicabilidad e inclusividad. En definitiva, una IA que respete los derechos fundamentales y la regulación vigente.
- Plan de Recuperación, Transformación y Resiliencia, que en su componente 16 se centra en la promoción de la investigación, el desarrollo y la innovación en el campo de la IA. El objetivo principal que plantea este componente es impulsar la creación de un ecosistema de innovación y emprendimiento de IA en España, fomentando la colaboración entre empresas, instituciones académicas y centros de investigación. Para ello, se establecen diferentes medidas, como la creación de programas de apoyo a la investigación y el emprendimiento, la promoción de la transferencia de conocimiento y la atracción de talento, así como la colaboración con otros países y organizaciones internacionales para compartir conocimientos y buenas prácticas.
Asimismo, destaca la importancia superlativa que tiene la creación de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) con sede en la ciudad de A Coruña y cuya misión será el desarrollo, supervisión y seguimiento de los proyectos derivados de la ENIA y de la UE, minimizando los riesgos que pueda traer la IA en campos como la seguridad, la privacidad, la salud y otros derechos fundamentales, entre otros.
Ante este nuevo escenario marcado por la capacidad generativa de la IA, en el que los datos son el “nuevo petróleo” de la economía de un país, desde el área de Smart Data & Analytics de Crowe Spain abogamos por el desarrollo de una Inteligencia Artificial humanista que nos permita asegurar que la tecnología se aplica de forma coherente con los valores humanos, basándonos en los siguientes principios:
- Responsabilidad y Gobernanza, referidas a la obligación de las personas y organizaciones que desarrollan, utilizan o aplican sistemas de IA, de actuar de manera responsable y ética en todo momento, con capacidad para rendir cuentas a lo largo del proceso. Esto requiere de un nuevo marco de gobernanza que asegure una supervisión efectiva en el suministro e implementación de dichos sistemas, así como la garantía en la aplicación y cumplimiento de las normas regulatorias.
- Privacidad y seguridad que busca proteger los datos personales de los usuarios finales. Se deben tomar medidas adecuadas para garantizar la protección de los datos, como el uso de técnicas de encriptación y medidas de seguridad robustas. Además, es necesario establecer políticas claras y transparentes de privacidad y seguridad, y garantizar que los usuarios tengan control sobre sus datos. Es importante abordar ambos principios de manera integral, ya que la falta de privacidad puede poner en riesgo la seguridad de los datos y viceversa. De esta manera, se puede garantizar la confianza y la protección de los derechos humanos en el desarrollo y uso de la IA.
- Equidad, como principio que busca garantizar que los sistemas de IA sean justos e imparciales, evitando cualquier tipo de discriminación por motivos de género, raza, etnia, religión, orientación sexual o cualquier otra característica personal o social. Para cumplir con este principio, se deben utilizar datos y algoritmos que no contengan sesgos y se debe prestar atención a la diversidad en la selección de conjuntos de datos y en la configuración de los sistemas de IA. Además, es importante considerar los posibles efectos adversos de los sistemas de IA en diferentes grupos de personas, y tomar medidas para reducir o evitar cualquier tipo de discriminación o injusticia.
- Transparencia y Explicabilidad, que implica que los sistemas de IA deben ser comprensibles y explicables, evitando la llamada opacidad algorítmica, de manera que los usuarios finales puedan entender cómo se han tomado las decisiones y por qué se han obtenido determinados resultados. Consiste en proporcionar información clara y sencilla sobre los sistemas de IA para que las personas puedan comprenderlos y confiar en ellos. Ambos principios son esenciales para garantizar la confianza, la seguridad y la protección de los derechos humanos en el desarrollo y uso de la IA.
Como podemos observar, en los últimos años se ha trabajado de forma incesante tanto a nivel europeo como nacional para regular el uso de la IA. Sin embargo, este marco regulatorio no debe verse como un obstáculo, sino como una oportunidad para potenciar aún más su desarrollo. De la misma forma que unos buenos frenos en un automóvil pueden permitir conducir a mayor velocidad, contar con mecanismos de confianza y seguridad en la IA nos permitirá reaccionar mejor ante posibles incidentes y fomentar la innovación con mayor seguridad y confianza.