Las empresas no deben pasar por alto la problemática de la inteligencia artificial

Los recientes acontecimientos vividos en Estados Unidos han puesto de manifiesto que el empleo de la inteligencia artificial (IA) puede traer consigo importantes problemas sociales. Las personas que estén interesadas en un tema, como fraude electoral en EEUU, solo verán información que confirme su postura, debido a los algoritmos utilizados por las empresas de redes sociales. No estarán expuestas a otros hechos y opiniones, y esto puede resultar perjudicial. En un estudio realizado por McKinsey, se muestra que diversas organizaciones están utilizando la IA como herramienta para generar valor. Las entidades que más la emplean pertenecen a muy diversos sectores, y hoy por hoy ya atribuyen el 20% o más de sus ganancias antes de intereses e impuestos a la IA.

Aunque es un dato positivo para los inversores, creemos que las empresas deben hacer frente a los riesgos de la utilización de la IA. Durante nuestra interacción con distintas empresas, a menudo nos comentan que los organismos reguladores deberían establecer normas claras acerca del uso de la IA. Las empresas mejor preparadas para el futuro no deben esperar a que llegue la regulación, sino asumir su responsabilidad ya.

¿Cuáles son algunos de sus problemas sociales? Derechos civiles: los sistemas de IA se utilizan en espacios socialmente sensibles como la educación, el empleo, la vivienda, la calificación crediticia, la vigilancia policial y el sistema de justicia penal. A menudo, se despliegan sin conocimiento contextual o consentimiento informado, de manera que suponen una amenaza para los derechos y libertades civiles.

Mano de obra y automatización: la automatización de procesos de trabajo puede mejorar la eficiencia y reducir las tareas repetitivas. La IA puede dar lugar a una mayor vigilancia de nuestro trabajo, lo que significa que las empresas deben asegurarse de que sus trabajadores son conscientes de cómo se les rastrea y evalúa.

Seguridad y responsabilidad: la IA tiene a su cargo la toma de decisiones en muchos sectores, como servicios financieros, hospitales y redes de energía. Debido a la presión del mercado por la innovación, se han desplegado sistemas de IA antes incluso de verificar su seguridad técnica. El vehículo sin conductor de Uber, que mató a una mujer, o el sistema de IBM que recomendaba tratamientos poco seguros e incorrectos para casos de cáncer, son ejemplos de lo que puede salir mal.

Prejuicios: los sistemas de IA presentan propensión al sesgo, que puede dar cabida a prejuicios y desigualdades sociales. Los sesgos pueden provenir de datos que reflejen la discriminación existente, o que no sean representativos de la sociedad actual. Incluso aunque los datos subyacentes estén libres de prejuicios, su despliegue puede codificar sesgos de distintas formas. En un informe publicado por la Unesco [1] se recoge que los asistentes por voz basados en IA, desde el Alexa de Amazon hasta el Siri de Apple, refuerzan los prejuicios de género. También es posible la introducción intencionada de ciertos prejuicios en los algoritmos.

El protagonismo de la moderación del contenido

Las plataformas de redes sociales utilizan algoritmos de moderación de contenido y equipos de revisión humana para supervisar las publicaciones generadas por los usuarios, conforme a un conjunto predeterminado de reglas y directrices. El trabajo de moderación del contenido requiere de una gran capacidad de concentración mental; no suele ser compatible con trabajar desde casa con familiares yendo y viniendo. Por ello, durante la crisis del Covid-19, las empresas han tenido que reducir la cantidad de contenido que se podía verificar.

La inversión requiere interacción. Por las razones descritas, iniciamos un tema de interacción centrado en el impacto social de la inteligencia artificial en 2019. En el informe elaborado por nuestro equipo de inversión de tendencias se ofrece información detallada sobre la inteligencia artificial como oportunidad de inversión. Sin embargo, somos conscientes de que la IA puede ejercer efectos no deseados que nuestras participadas deberían atajar. Pedimos a estas empresas que hagan cinco cosas: elaborar y publicar políticas para el uso, adquisición y desarrollo de soluciones de IA en las que se traten explícitamente sus repercusiones sociales y en materia de derechos humanos; realizar evaluaciones de impacto periódicas de sus actividades de IA; establecer normativas de gobierno sólidas, ante las complejidades de control que rodean al aprendizaje automático; tener en cuenta los aspectos sociales de la IA en la etapa de diseño y desarrollo; y adoptar un enfoque que dé cabida a los intereses de múltiples interlocutores en el desarrollo y uso de la IA por parte de la empresa.

Necesidad de mayor concienciación. A lo largo de 2020, hemos hablado con la mayoría de las empresas que nos acompañan en nuestro grupo de interacción. En las conversaciones iniciales, algunas empresas dudaron de la relevancia de esta cuestión. Esta postura parece estar cambiando en cierta medida para algunas de ellas. En la temporada de votaciones en junta de 2020 se registró un aumento en el número de propuestas de accionistas centradas en los derechos humanos digitales. Robeco colideró la presentación de una propuesta de accionistas presentada en la JGO de Alphabet, solicitando la creación de un Comité de Supervisión de Riesgos para los Derechos Humanos. Alrededor del 16% de los socios votó a favor de nuestra propuesta, lo que representa una parte sustancial de los votos de accionistas no mayoritarios.

Como la moral y la ética no pueden codificarse computacionalmente, consideramos que las empresas deben asumir su responsabilidad en este sentido. Todavía queda mucho por hacer.