Europa regula el desarrollo ético de la inteligencia artifical con urgencia

Bruselas quiere que el contenido generado por la inteligencia artificial lleve las debidas advertencias para combatir abusos. Así consta en el proyecto de reglamento que será debatido en el Europarlamento. El sector legal español espera con esperanza y temor a partes iguales la generalización de estas tecnologías.

Miguel Roca Junyent, abogado y padre de la Constitución, ha reivindicado en el XIII Congreso de la Abogacía el papel de este colectivo ante el reto que supone la digitalización y la inteligencia artificial para la profesión: “No nos van a sustituir, vamos a complementar nuestra actividad profesional con estos mecanismos. Este reto no nos da miedo”. La velocidad con que se está produciendo el desarrollo tecnológico de la inteligencia artificial (IA) hace que ya no se trate de una cuestión puntual para convertirse en un importante reto presente y futuro para la integración de las herramientas digitales en el ámbito legal. Entre los expertos en Derecho de nuevas tecnologías, tanto en España como en la Unión Europea (UE), se ha situado en primera línea de preocupación la falta de una regulación específica, unida a la necesidad de su aprendizaje de manera ética y responsable.

Eugenia Navarro, directora del programa INON de operaciones legales y legaltech de Esade Law School, ha comentado en unas recientes jornadas de trabajo sobre la IA en sector legal, que “la gran novedad de la IA generativa es su valor para crear contenido único y nuevo, situándonos en los albores del inicio de una nueva era como hace unos años lo hizo Internet. Modelos como el ChatGPT hacen reflexionar a los abogados sobre cómo pueden transformar la profesión y tendrán un impacto relevante en los servicios legales en investigación, redacción y servicio al cliente. Sin embargo, la tecnología requiere de la interpretación, de la aplicación del conocimiento y de la experiencia humana, así como de las consideraciones éticas y legales. Nos adentramos en una era fascinante en el sector legal en la que la tecnología va a generar retos y nuevas áreas del derecho sin reemplazar al abogado”.

Por su parte, Sonsoles Rubio, presidenta del Instituto de Auditores Internos de España, en el encuentro Esfera Consejeros, ha explicado que servicios como ChatGPT, BARD Google y otros son fácilmente accesibles, pero “entrañan riesgos de los que no siempre somos conscientes, ni como sociedad ni como empresa. Por eso, inteligencia artificial o cualquier otro avance que se incorpore a los procesos y a la manera de trabajar en nuestras empresas debe venir acompañado de una reflexión sobre los potenciales impactos que estos puedan tener sobre los modelos de gobierno y control y, en última instancia, sobre el deber de supervisión que tenemos todos los que velamos por el futuro de las compañías y su sostenibilidad”.

Ante estas y otras preocupaciones, el Parlamento Europeo ha aprobado por abrumadora mayoría un proyecto de mandato de negociación sobre el proyecto de reglamento propuesto por la Comisión Europea en 2021 que busca garantizar el desarrollo ético de la IA. Se prevé que el Pleno vote este mandato durante las sesiones que se celebrarán entre el 12 y el 15 de junio. Al ser un Reglamento, una vez aprobado se aplicará inmediatamente en los 27 países de la UE sin necesidad de transponerlo a la normativa nacional.

Bruselas considera que la IA puede ayudar a encontrar soluciones a muchos problemas de la sociedad. Estima que esto solo se puede lograr si la tecnología es de alta calidad y se desarrolla y utiliza de manera que se gane la confianza de los ciudadanos. Por lo tanto, impulsa un marco estratégico basado en los valores de la UE que ofrezca a los ciudadanos la confianza para aceptar soluciones basadas en IA, al tiempo que alentará a las empresas a desarrollarlas e implementarlas. En esta propuesta legislativa, la Comisión introduce nuevas normas y medidas destinadas a convertir a la UE en el centro mundial de una IA digna de confianza. La combinación de establecer el primer marco jurídico sobre la IA de la historia y de un nuevo plan coordinado con los Estados miembros tratará de garantiza la seguridad y los derechos fundamentales de las personas y las empresas, al tiempo que reforzará la adopción, la inversión y la innovación en materia de IA en toda la UE. Complementarán este enfoque las nuevas normas sobre maquinaria, que adaptarán las normas de seguridad para dar mayor confianza a los usuarios en la nueva y versátil generación de productos. La legislación propuesta refuerza las normas sobre calidad de los datos, transparencia, supervisión humana y rendición de cuentas. También pretende abordar cuestiones éticas y retos de aplicación en diversos sectores, desde la sanidad y la educación hasta las finanzas y la energía.

La norma sigue un planteamiento basado en el riesgo. El más elevado será el considerado Riesgo inadmisible, que obligará a prohibir los sistemas que se consideren una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Esto abarca los sistemas o las aplicaciones de IA que manipulan el comportamiento humano para eludir la voluntad de los usuarios (por ejemplo, juguetes que utilicen asistencia vocal para incitar a comportamientos peligrosos a los menores) y sistemas que permitan la categorización social por parte de los Gobiernos. El segundo nivel será el considerado de Alto riesgo, en el que se incluyen los sistemas que afectan a las infraestructuras críticas (por ejemplo, transportes), que pueden poner en peligro la vida y la salud de los ciudadanos; los que pueden determinar el acceso a la enseñanza o las carreras profesionales; los de seguridad de los productos; los de acceso al empleo o servicios públicos y privados esenciales (como el acceso al crédito); los de acceso a los servicios por el ciudadano; los de aplicación de las leyes, la gestión de la migración, el asilo y el control de las fronteras y los referidos a la administración de la Justicia y los procesos democráticos. En estos casos, los sistemas estarán sujetos a obligaciones estrictas antes de su comercialización. En especial, se consideran de Alto riesgo y estarán sujetos a requisitos estrictos todos los sistemas de identificación biométrica remota. Su uso en directo en espacios de acceso público con fines policiales está prohibido en principio. Se definen y regulan estrictamente excepciones estrictas (por ejemplo, para detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave o de un atentado terrorista inminente). Su uso estará sujeto a la autorización de un órgano judicial u otro organismo independiente y a los límites adecuados desde el punto de vista de la duración, el alcance geográfico y las bases de datos exploradas.

En el ranking de riesgo, sigue la categoría de Riesgo limitado, es decir, sistemas de IA con obligaciones específicas de transparencia: al utilizar sistemas de IA como robots conversacionales, los usuarios deberán ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o no. Y, finalmente, el Riesgo mínimo o nulo, que permitirá el uso gratuito de aplicaciones tales como videojuegos basados en la IA o filtros de correo basura. La inmensa mayoría de los sistemas de IA entra en esta categoría.

La tramitación del reglamento es seguido muy de cerca por los expertos. Así, la Federación de Consumidores y Usuarios (CECU) ha lamentado que el Parlamento Europeo “haya rebajado la aplicabilidad” del Reglamento Europeo de Inteligencia Artificial “al limitar la definición de sistemas de IA e introducir limitaciones adicionales para clasificar a los sistemas de alto riesgo”. Esto, según ha advertido la experta en derechos digitales de CECU Anabel Arias en un comunicado, “podría permitir que los operadores de IA puedan eludir las reglas del reglamento simplemente diciendo que sus servicios no son de alto riesgo”. Para garantizar que la definición de los sistemas de IA proporcione criterios suficientemente claros para distinguirlos de otros sistemas de software más sencillos, el texto apoyado por el Consejo Europeo, en su texto de posición común restringe la definición a los sistemas desarrollados a través de estrategias de aprendizaje automático y estrategias basadas en la lógica y el conocimiento.

La Comisión Europea estima a través de sus informes, que la UE tiene potencial para convertirse en el líder mundial en IA segura. Al desarrollar un marco regulatorio sólido basado en los derechos humanos y los valores fundamentales, la UE puede desarrollar un sistema de IA que beneficie a las personas, las empresas y los gobiernos. Por ello, Bruselas tiene previsto invertir 1.000 millones de euros al año en IA con cargo a sus programas Europa Digital y Horizonte Europa.

El objetivo es atraer más de 20.000 millones de euros de inversión total en IA por año en la UE durante esta década. El Mecanismo de Recuperación y Resiliencia ayudará a acelerar las inversiones e irá más allá de este objetivo. En la actualidad más del 25% de todos los robots industriales y de servicios personales se producen en territorio de la UE.

Italia ha sido el primer país europeo en prohibir el uso de la aplicación ChatGPT, de la empresa Open AI al considerar que expone a los usuarios al contenido de la plataforma sin comprobar antes su edad. Esta inteligencia artificial creativa permite a través de palabras generar imágenes de alta calidad. Además, la Administración italiana considera que carece de base jurídica que justifique la recogida y almacenamiento masivo de datos personales para entrenar a su inteligencia artificial.