¿Por qué no me enseñas tu algoritmo?

La inteligencia artificial empieza a impregnarlo todo. Para el año 2030, las previsiones hablan de que su contribución al PIB mundial será de 14.000 millones de euros, un pronóstico que podría quedarse corto. Hay algoritmos predictivos y otros que ya toman decisiones en múltiples campos. El debate ético sobre su uso está servido

La inteligencia artificial (IA) y sus algoritmos ya saben adivinar el próximo grupo de música que nos gustará, la película o serie que disfrutaremos o la prenda que nos quedará perfecta. También estos mecanismos pueden anticiparse a nuestras necesidades, analizar pruebas diagnósticas médicas, ayudar en el desarrollo de nuevos fármacos, señalar a la Hacienda pública los contribuyentes sospechosos de estar cometiendo fraude... Tal es su sabiduría y su nivel de auto aprendizaje, que muchas de las decisiones empiezan a delegarse en estas máquinas. Entre otros ejemplos, podemos recordar que, en Cataluña, desde 2016, un algoritmo evalúa si un recluso merece o no disfrutar de un permiso penitenciario. Aunque cabe esperar que la decisión final la toma un juez, éste ya se apoya en los dictámenes que le formula este instrumento para valorar los posibles riesgos de su excarcelación. Por no hablar de las bolsas de valores, donde los algoritmos ya marcan con sus decisiones de compra y venta las subidas y bajadas de los títulos. O de los bancos y organismos que adoptan estas herramientas para determinar quién merece o no que se le conceda un crédito o una ayuda...

La inteligencia artificial empieza a impregnarlo todo, con algoritmos predictivos y con otros que ya toman sus propias decisiones. De ahí que nos parezcan cortas las previsiones que apuntan a que en el año 2030 su aportación al PIB mundial será de 14.000 millones de euros. En ese escenario, son muchas las voces que ya se levantan para advertir de los riesgos de dejar al arbitrio de las máquinas según qué decisiones. El tema no debe de ser baladí cuando, en plena pandemia, el Gobierno español ha decidido destinar 600 millones de euros en el periodo 2021-2023 a su Estrategia Nacional de Inteligencia Artificial. Desde Moncloa justifican esta decisión argumentando que “la estrategia resultará fundamental de cara a incorporar la IA como factor de mejora de la competitividad y el desarrollo social, y lo hará, además, impulsando desarrollos tecnológicos que ayuden a proyectar el uso de la lengua española en los ámbitos de aplicación de la IA”.

Llueven las propuestas para marcar los límites de una tecnología que, según los peores agoreros, puede superar a la inteligencia humana y dejarla en evidencia. O igual ya lo está haciendo: “En la interpretación de pruebas diagnósticas, los algoritmos han demostrado que pueden predecir enfermedades importantes con mayor precisión que el ojo clínico del profesional. Este tiene siempre una experiencia más limitada frente a la máquina, que maneja millones de resonancias o radiografías previas. Estos sistemas pueden ayudar a detectar enfermedades en una etapa anterior. Es un claro ejemplo de cómo los algoritmos pueden mejorar la vida de las personas, pero tampoco podemos pensar que la inteligencia artificial es perfecta. De hecho, no ha sido capaz de prevenir una pandemia como la que estamos sufriendo”, explica Alejandro Huergo, catedrático de Derecho Administrativo en la Universidad de Oviedo. Huergo intervino ayer en un debate en la Fundación Ramón Areces sobre ‘La regulación de los algoritmos’. Tanto Huergo como otros juristas que participaron en este foro pidieron más transparencia en el uso de estos sistemas de IA. “Hay resistencia a mostrar cómo funcionan los algoritmos. Por ejemplo, la Administración no quiere mostrar los que utiliza para identificar a presuntos infractores. Tampoco las empresas enseñan cómo funciona. Se teme que, si se conoce el algoritmo, se le intente engañar. Eso mismo pasa con el posicionamiento web, cuyo objetivo es engañar a su vez al algoritmo de Google”, añade Huergo.

Para Jesús Mercader, catedrático de Derecho del Trabajo en la Universidad Carlos III, conocer la lógica del algoritmo puede ayudar a descubrir los posibles sesgos que contiene: “Los tribunales están empezando a reconocer como discriminatorios algunos algoritmos”. “Hay que dar un paso más en la protección de datos, por ejemplo, a través de la anonimización, de un mayor control sobre esas informaciones, de una mayor transparencia... No es que haya que conocer el algoritmo entero, que puede ser en algunos casos el corazón estratégico de una empresa, pero sí su lógica”, añade.

En estos momentos, algunas de las empresas con mayor valor y capitalización bursátil, entre ellas Amazon, Google, Facebook o Netflix son compañías que se basan en el análisis de datos y en los algoritmos. “La automatización facilita a las empresas reducir costes y ser más eficientes, por ejemplo, con el análisis automático de datos para conocer las conductas de los usuarios de Internet, anticiparse a los deseos de sus clientes, enviarles publicidad personalizada... En el mundo de los seguros también se ha avanzado mucho en este campo”, señala Alejandro Huergo.

Pero el alcance de esta tecnología va también bastante más allá de los intereses mercantiles. “La IA puede ayudar en 129 de los principios que ha marcado la Organización de Naciones Unidas dentro de sus Objetivos de Desarrollo Sostenible (ODS)”, explica Lucila García, subdirectora general de Fundación Seres citando un estudio de la Universidad de Estocolmo. Seres ha elaborado con Everis y la colaboración de 17 empresas de todos los sectores (consultar texto de apoyo) un decálogo que quiere comprometer a todos sobre un uso ético y responsable de la IA. Para el presidente de la Fundación Seres, Francisco Román, “se trata de alinear esta tecnología con los objetivos más amplios de la humanidad. Apostamos por alcanzar un impacto social inclusivo y que se eviten los sesgos de la IA”. También el presidente de Telefónica, José María Álvarez-Pallete, en el punto quinto de su reciente Pacto Digital, aboga por “mejorar la confianza mediante un uso ético y responsable de la tecnología”.

¿Deberíamos tener miedo a esos avances de la IA? Para Sergi Biosca, CEO de Everis en España, “la IA es posiblemente la tecnología con mayor potencial para reformular cómo desarrollamos las actividades humanas”. “Asistimos a un impacto cuya dimensión supera el concepto de transformación para aproximarse más acertadamente al de redefinición”. Añade Biosca que la IA pone sobre la mesa una serie de retos que tienen origen en valores éticos y que transcienden el ámbito tecnológico: “No hay duda de que el impacto creciente en la toma de decisiones automatizadas plantea tantas oportunidades para la generación de valor como interrogantes acerca del modelo a construir para situar al individuo en el centro del progreso tecnológico”. En este sentido, el presidente de Everis España recuerda lo sucedido en las elecciones presidenciales de Estados Unidos hace cuatro años y cómo pudieron influir en los resultados de aquellos comicios las redes sociales soportadas en IA. “Tenemos que asegurar que los algoritmos tomen decisiones justas o que contribuyan a aumentar las oportunidades de los individuos...” Y apunta también “a la reducción de los sesgos, a poder explicar los cómos y porqués de esas decisiones automatizadas y asegurar la privacidad y datos de los ciudadanos”.

Sobre los posibles sesgos se habló también en el debate de ayer en la Fundación Ramón Areces: “El aire que respiran los algoritmos son los datos y, al respirar, también pueden contraer virus. Los algoritmos, en principio, son neutros y no tienen imaginación ni emociones, pero si nosotros les entregamos datos sesgados, el resultado tendrá ese sesgo discriminatorio que luego podemos descubrir en procesos de selección de personal, en la concesión de ayudas...”, señala Jesús Mercader, de la Universidad Carlos III. Y deja claro este jurista que, en caso de que se produzcan sesgos o de que las decisiones tomadas por las máquinas fueran erróneas, la responsabilidad recaería en la empresa que ha delegado en ellas. “Aún no podemos decir que el jefe sea un algoritmo, pero sí es cierto que cada vez está empezando a delegar muchas facultades y decisiones en un algoritmo”, matiza Mercader.

De momento, la presencia del hombre o de la mujer para validar las decisiones de las máquinas sigue siendo el mejor garante para evitar que puedan producirse sesgos o errores. Tampoco podemos olvidar que la IA está en continuo desarrollo y que aún presenta sus carencias y limitaciones. Tal es el caso, por ejemplo, de la tantas veces anunciada conducción autónoma, que se retrasa continuamente por la incapacidad de que un ordenador pueda atender y valorar todos los elementos que entran en juego al volante. Otro sistema que aplica el sistema Watson de IBM en el campo de la abogacía hace aguas, según el profesor Mercader: “Este algoritmo predictivo acierta en un 70% de los casos en qué dirección va a ir la sentencia del juez, pero tampoco aporta demasiado si tenemos en cuenta que de partida, con solo tirar una moneda al aire, ya tenemos un 50% de posibilidades de acertar”.