FACET: ética para algoritmos

La Inteligencia Artificial (IA) basa sus decisiones en reglas inferidas de datos pasados, pero carece del juicio humano. Los algoritmos no cambian de opinión, no hacen excepciones ni reconsideran sus decisiones en función de las circunstancias.

En la era del Big Data, es fácil dejarnos arrastrar por la fiebre de los datos. Sin embargo, somos las personas quienes debemos aportar la conciencia y marcar los límites. La adopción de una mentalidad de cero humanos en donde la IA tome decisiones críticas implica grandes riesgos, y el coste puede ser muy alto, y no sólo en términos monetarios. La IA avanzada está aprendiendo constantemente, pero no está exenta de cometer errores, e incluso puede dar lugar a decisiones éticamente cuestionables, como la de una universidad que utilizaba la IA para el cribado en su proceso de admisión, rechazando a todos los alumnos de un determinado código postal en el que, tradicionalmente, había un alto fracaso escolar.

En Boston Consulting Group (BCG) siempre hemos abogado por un uso de la tecnología ético y responsable, posicionando a los humanos en el centro de todas las decisiones basadas en IA. El factor humano no sólo debe formar parte de la ecuación, sino que tiene que ser la parte con mayor peso. Nuestra fórmula para el éxito es “10-20-70”: el 10% del esfuerzo para codificar algoritmos, el 20% para construir la tecnología en torno a ellos y el 70% de capital humano para enlazar la IA con las personas y los procesos, resolviendo conjuntamente los problemas más difíciles y maximizando el resultado. Las empresas llevan años invirtiendo en soluciones de IA, pero la comprensión de los modelos ha sido siempre una de las grandes asignaturas pendientes. El objetivo de FACET, la primera biblioteca de software de código abierto de Inteligencia Artificial Explicable, creada conjuntamente por la división de BCG GAMMA y Scikit-Learn, es precisamente explicar las variables clave tras los modelos de predicción. Este software, intuitivo y fácil de implementar, aportará mayor claridad en el diálogo entre científicos de datos y equipos operativos y permitirá a los usuarios tomar mejores decisiones y más éticas, fortaleciendo el control y la confianza en la IA.