El ‘sandbox’ de Inteligencia Artificial es una oportunidad de oro para desarrollos más éticos

Son diversas las polémicas que han surgido en los últimos años en relación con la inteligencia artificial. Algunas empresas han sido investigadas por crear algoritmos que supuestamente priorizaban a personas blancas sobre negras o que discriminaban a las mujeres a la hora de conceder determinados servicios financieros. Hasta no hace demasiado, las discusiones sobre la ética de la IA estaban reservadas para académicos y profesionales del sector legal, pero por fin escalan a un plano mayor.

Es en este contexto en el que coge valor la decisión de la Comisión Europea y del Gobierno de España de poner en marcha el primer sandbox de la Unión Europea sobre inteligencia artificial. Su objetivo es brindar a las autoridades competentes los mecanismos necesarios para aproximarse a las empresas que desarrollan esta tecnología y así definir las mejores prácticas posibles. La meta final es crear un reglamento de la IA a nivel europeo que pueda aplicarse en un plazo previsto de dos años.

Se trata del primer paquete de normas a gran escala para que la IA deje de ser una tecnología sin regular, del que pymes y startups podrán beneficiarse. Al poner en práctica el reglamento que se está elaborando, será posible detectar fallos y poder solucionarlos a tiempo para la fecha de implantación. Es una buena decisión que establece flexibilidad para que autoridades y empresas encuentren el mejor punto de unión.

Más cerca de una inteligencia artificial ética

La inteligencia artificial procesa un gran número de datos mediante algoritmos, que son unas listas de instrucciones que pueden emplearse para diversos fines. Prácticamente cualquier servicio puede beneficiarse de esa capacidad resolutiva, de cruce de conexiones e incluso de toma de decisiones, desde la gestión administrativa y la salud pública hasta la educación, el transporte o la industria.

Sin embargo, cabe recordar que la tecnología no es neutra, al fin y al cabo, su misión se amolda a las actividades humanas. Por eso es fundamental promover la inclusión y la justicia para evitar sesgos y prejuicios. Esto ayudará también a que la tecnología sea mejor aceptada por la ciudadanía. Es esencial trabajar en una IA que no discrimine y que no se rija por los estereotipos.

La UNESCO, por ejemplo, pide que los avances con la inteligencia artificial se lleven a cabo de forma que los resultados cumplan con el concepto de justicia, es decir, que no haga sesgos como lo haría un humano. Se trata de aplicar valores y principios universales, con el respaldo de una amplia diversidad de voces de distintos grupos de interés, para que la base ética sea lo suficientemente sólida para el beneficio de la sociedad.

Para lograr algo así, debe proyectarse la IA desde la llamada justicia algorítmica. Un nuevo concepto, necesitado de un marco ético, que permita desarrollos tecnológicos transparentes, que no vulnere los derechos humanos ni los ODS. Es, de alguna manera, la justicia automatizada o incluso la robotización judicial, términos que emergen de la mano de los expertos y que nos muestran un futuro en el que las decisiones estarán basadas en el análisis de datos.

La evolución de la inteligencia artificial

Las pruebas del sandbox europeo de IA comenzarán a partir de este próximo octubre y los resultados se publicarán en el segundo semestre de 2023. La experiencia recogida en este banco de pruebas se presentará en forma de buenas prácticas y guías de implementación y se pondrá a disposición de todos los Estados miembros de la UE y de la Comisión Europea. Estos resultados podrán utilizarse en la preparación de la aplicación del futuro reglamento sobre inteligencia artificial.

Es importante que los actores implicados en todo este proceso piensen de manera ética en el desarrollo de la IA, pero también en todo aquello que afecta a la privacidad de los ciudadanos. Proteger los datos personales, evitar la fuga de información y la falta de transparencia en su recogida, así como proteger a las personas del uso fraudulento de la IA, son solo algunos de los factores que deberán tenerse en cuenta en las futuras pruebas que se realicen.