Desmontando el ChatGPT

El robot conversacional por el que Microsoft va a pagar 9.200 millones de euros es capaz de mantener todo tipo de conversaciones y de salir airoso de cualquier situación. Pero también tiene sus carencias...

Si le preguntamos al robot conversacional ChatGPT cómo iniciaría un artículo sobre él mismo, nos suelta esta respuesta: “ChatGPT, un modelo de procesamiento de lenguaje de última generación desarrollado por OpenAI, está revolucionando la forma en que interactuamos con las máquinas. Con sus capacidades avanzadas de comprensión del lenguaje natural, ChatGPT puede entender y responder a una amplia gama de preguntas humanas, desde cuestiones simples hasta conversaciones complejas”. Incluso nos sugiere, ojo, sin que se lo pidamos, un titular para el reportaje: “ChatGPT: El futuro de la tecnología de procesamiento del lenguaje”.

Así se las gasta el robot por el que Microsoft ha anunciado que desembolsará en los próximos años 9.200 millones de euros. La herramienta de inteligencia artificial (IA) está accesible en modo de pruebas para cualquier lector que quiera experimentar con ella a través en este enlace https://chat.openai.com. Y recomendamos hacerlo para comprender el nivel de desarrollo que ha alcanzado esta tecnología. Es más, admitimos que seguramente les resulte mucho más esclarecedor que leer este reportaje...

Y es que el dichoso robot ya ha sido capaz de sacar notable en un examen de la escuela de negocios Wharton, de la Universidad de Pensilvania. A un profesor de MBA de este campus le dio por hacer la prueba y se llevó una sorpresa al comprobar que había obtenido un notable, una nota superior a la que consiguen muchos de sus alumnos.

Hazme los deberes

Si le preguntamos a ChatGPT si puede ayudar a los estudiantes a hacer sus deberes, él mismo nos responde nada más teclear la cuestión: “Puedo ayudar a los estudiantes con diversas tareas relacionadas con el lenguaje, como escribir ensayos, investigar temas y responder preguntas sobre una amplia gama de temas. Sin embargo, los estudiantes siempre deben verificar la información proporcionada por mí, ya que es posible que no tenga la información más actualizada y no puedo reemplazar la guía de un maestro o las habilidades de pensamiento crítico que los estudiantes desarrollan al hacer su propio trabajo”. Así demuestra su razonamiento lógico. Vemos que tiene la cabeza bastante bien amueblada.

Cuando nos registramos en ChatGPT, se nos advierte de que ocasionalmente puede generar información incorrecta y producir instrucciones dañinas o contenido sesgado y de que no está del todo actualizado, que solo maneja información hasta 2021. El modelo se encuentra en pruebas y sus responsables agradecen que enviemos comentarios para mejorarlo.

Como cualquier sistema de inteligencia artificial con el que hemos interactuado hasta ahora -Google Assistant, Alexa, Siri, etc.- va aprendiendo a medida que va generando más respuestas. De ahí que nos sugieran en ChatGPT que no incluyamos información personal en las preguntas para evitar disgustos innecesarios en el futuro. Entre sus virtudes, destaca que es capaz de contextualizar y de entender nuevas preguntas sobre un tema anterior. Por todo ello, muchos ya ven en ChatGPT la herramienta que podría enterrar a los buscadores como Google.

¿Quién es mejor: Real Madrid o Barca?

También ha sido entrenado para declinar proposiciones deshonestas, incluso se mantiene totalmente imparcial si le preguntamos por quién es mejor, si el Real Madrid o el Barcelona: “Es difícil decir qué equipo es mejor, ya que ambos equipos tienen una gran historia y han logrado un éxito significativo en competiciones nacionales e internacionales. Ambos tienen una gran base de seguidores y las opiniones sobre qué equipo es mejor pueden variar ampliamente. En última instancia, es una cuestión de preferencia personal”. Y si le preguntamos qué país cree que ganará el próximo Mundial, también echa balones fuera con elegancia: “Lo siento, no puedo predecir el resultado de eventos futuros”.

Nos explica Jorge Cuevas, Tech Lead de Wehumans, que “la inteligencia artificial que emplea ChatGPT es generativa, o sea, capaz de crear algo nuevo a partir de datos existentes, y de carácter generalista: puede hacer los deberes de un niño de 13 años, componer un poema o escribir código informático, traducir textos en muchos idiomas, etc. La IA que genera las respuestas se ha entrenado con 300.000 millones de palabras extraídas de internet, más de 570 gigas de datos”. Añade que también está dotada de “una serie de filtros éticos para prevenir respuestas sesgadas o contenidos tóxicos, aunque esto último es muy mejorable”.

Esto es algo que reconoce hasta el propio robot cuando le preguntamos por ello: “A pesar de sus muchas aplicaciones potenciales, también existen algunas limitaciones para ChatGPT. Una limitación es que el modelo es tan bueno como los datos con los que se entrena. Si esos datos están sesgados o incompletos, los resultados del modelo también estarán sesgados o incompletos. Además, la capacidad del modelo para comprender y responder a las entradas del lenguaje natural sigue siendo limitada y es posible que no pueda comprender o responder a ciertos tipos de entradas”.

Algoritmos en cuestión

Añade el Tech Lead de Wehumans que “es un hecho constatado que los algoritmos que generan la IA están en tela de juicio en este sentido”. “Considerando un entorno en donde la IA se utiliza cada vez más para la toma de decisiones importantes, esta realidad puede agravar las desigualdades existentes y los resultados son potencialmente peligrosos: sexismo, racismo, edadismo...”, añade. Y admite que los sesgos en los algoritmos son reales y que los esfuerzos éticos en su eliminación no parecen suficientes para erradicarlos. “Pero en el caso de ChatGPT esto tiene una razón de ser. Esta herramienta fue entrenada con un gran conjunto de datos, que incluye textos de varias fuentes como noticias, libros, artículos, sitios web, entre otros, por lo que controlar todo lo que se dice en esos medios es difícil y extremadamente caro. Se tendría que revisar texto por texto la existencia de este tipo de juicios o sesgos”, añade Jorge Cuevas.

El boom que ha vivido esta tecnología es incuestionable. En la primera semana de pruebas, tuvo más de un millón de usuarios registrados. Los expertos consultados admiten que queda un largo trabajo por delante para afinar el funcionamiento de la máquina, pero que el “potencial es real y existe”. Así lo manifiesta el portavoz de Wehumans y aún más contundente es José Antonio Suárez, director general de Exceltic: “Pienso que se está subestimando todo el potencial que tiene esta herramienta. A día de hoy, cuenta con muchas limitaciones a nivel de interpretación del sentido y la intención del texto introducido, y también con la autenticidad y veracidad del texto generado, junto con todos los modelos de subscripción que puedan surgir de esta herramienta destinados para el ámbito corporativo o privado. Queda un largo camino y aún es buen momento para entender la herramienta y aprovechar al máximo sus posibles casos de uso”. Añade que, como toda tecnología disruptiva, trae consigo un impacto tanto positivo como negativo, pero eso dependerá siempre del uso que se le dé y de la capacidad que tengamos todos de adaptarnos a esta nueva aplicación.

Respuestas demasiado frías

“La herramienta por sí misma necesita a día de hoy de seres humanos para formular correctamente las consultas, para interpretar y validar la veracidad del texto generado, y para implantar las recomendaciones empleadas”, explica el director general de Exceltic. Y pone como ejemplo que, si ofrece recetas de cocina a un perfil de paciente, tiene que haber un especialista en nutrición que supervise esas recomendaciones. Sobre la frialdad de sus respuestas, que parecen sacadas del político mejor entrenado para no dar titulares, José Antonio Suárez no ve remedio: “Al ser una herramienta tecnológica no tiene sentimientos, por lo que tratar de humanizar esta herramienta es un error desde mi punto de vista”.

Desde Wehumans nos explican que precisamente esa es su misión: “Convertir lo que el ChatGPT no puede realizar en realidad, tratando de conectar con el lado más humano de la tecnología digital. Nuestros humanos digitales están dotados de capacidad de aprendizaje, movimiento y simulación de sentimientos a través del uso de inteligencia artificial. Así, los humanos digitales pueden mejorar la disposición de las personas a compartir información confidencial, aumentar la sensación de comodidad en situaciones en las que alguien podría tener que admitir algo negativo y también reducir los temores de los clientes ante el juicio externo, por mencionar algunas cualidades”.

Y lo que está por venir

Lo que en estos momentos nos parece tan sofisticado puede quedarse en pañales a tenor de las futuras versiones en las que ya trabajan en OpenAI. Se habla de que la siguiente versión, ChatGPT4, puede ser hasta 500 veces más potente y que, entre otras posibilidades, admitiría que el sistema fuera entrenado con documentos particulares. “Si eso es así, el chat tendrá un contexto de trabajo que le permitirá resolver mejor las preguntas y cuestiones específicas que se le planteen. Otra posible derivación del producto se cree que puede ser la combinación de modelos de lenguaje natural sumados a modelos de generación de vídeos o imágenes”, destaca Jorge Cuevas.

Marcar unas reglas del juego

Ante este panorama, también los expertos coinciden en ir poniendo puertas al campo y llaman la atención sobre la necesidad de fijar unas reglas de juego. “Desde el punto de vista regulatorio, es importante establecer límites. Por ejemplo, la inclusión de textos de advertencia que especifique que las recomendaciones deben ser validadas por un especialista, y citar fuentes válidas que sirvan de referencia”, explica el director general de Exceltic. La Ley de Inteligencia Artificial que acaban de aprobar las instituciones comunitarias va en esa dirección. Así lo corroboran desde Wehumans: “Sin duda. La regulación de los usos de IA es absolutamente necesaria. Europa lo ha hecho con el fin de abordar adecuadamente los beneficios y riesgos de esta tecnología con un alto nivel de protección del interés público, la seguridad y los derechos y libertades fundamentales”. Así que vuelve a repetirse el tópico de que Estados Unidos crea, China copia y Europa regula. En este caso, el enfoque utilizado por los reguladores del viejo continente se basa en cuatro niveles de riesgo, por lo que se aplicarán distintas obligaciones y restricciones según el nivel de riesgo derivado del uso de la IA.

Recuperar terreno frente a Google

Microsoft quiere utilizar la inteligencia artificial que OpenAI ha demostrado con ChatGPT para dar nueva vida -o más bien nuevos poderes- a su buscador Bing y a su navegador Edge. Su CEO, Satya Nadella, ha anunciado que ya trabajan en un chatbot basado en esa tecnología y desarrollado también por OpenAI. El robot responderá a todas nuestras preguntas directamente desde esas aplicaciones. Con esta estrategia, se propone aprovechar el tirón que está provocando entre los usuarios ChatGPT para recuperar terreno frente a Google en ese campo. Pero Alphabet tampoco se ha quedado cruzada de brazos y ya ha anunciado que “en las próximas semanas” encontraremos en su buscador la herramienta Bard, su propio chatbot que también responderá a todas nuestras cuestiones. Promete, además, que estará actualizado con toda la información disponible en Internet.

“En conclusión, ChatGPT es un poderoso modelo de procesamiento de lenguaje que tiene el potencial de revolucionar la forma en que interactuamos con las máquinas. Su capacidad para comprender y responder a las entradas de lenguaje natural y generar texto similar al humano se puede aplicar en una amplia gama de industrias, desde el servicio al cliente hasta la creación de contenido. Sin embargo, es importante tener en cuenta que ChatGPT es una herramienta y sus resultados deben verificarse y usarse con pensamiento crítico”. Este último entrecomillado lo firma ChatGPT. Si no ha respondido a sus expectativas el artículo que modestamente hemos intentado elaborar con la experiencia y sentido crítico que dan los 25 años de trayectoria profesional de quien esto firma, puede probar a pedirle directamente a ChatGPT un artículo de 1.800 palabras sobre el tema.