La inteligencia artificial también quiere ser artista

Más allá del célebre ChatGPT ya podemos usar otras muchas herramientas de inteligencia artificial que nos ayudan a fabricar imágenes, hacer presentaciones, crear vídeos y hasta doblaje de voz... Exploramos aquí las más curiosas.

Advertimos desde ya que no siempre la inteligencia artificial (IA) es capaz de cumplir nuestros deseos. Cuando usamos algunas de las herramientas basadas en esta tecnología podemos llevarnos bastantes sorpresas sobre cómo interpretan nuestras ocurrencias. Quizá haya que ser algo pacientes con su desarrollo y evolución. Aun así, no paran de proliferar. Ahora que el generador de textos ChatGPT se ha colado en bastantes conversaciones cotidianas, queremos mostrar los nuevos límites de la IA con otras muchas aplicaciones capaces de generar imágenes, contenidos para publicidad, presentaciones, realidad aumentada, vídeos e incluso doblaje de voz. Así que ahora la inteligencia artificial también quiere ser artista.

Gracias a Dall-E, por ejemplo, podemos crear una imagen de un osito de peluche que se desplaza sobre un patinete por el centro de Nueva York. O imaginarnos cómo hubiera pintado Matisse a un robot humanoide jugando al ajedrez. Gracias a SlidesAI, podemos generar una serie de presentaciones a partir de material en bruto. DeepDub.ai es capaz de doblar automáticamente la voz de un locutor a cualquier otro idioma o dialecto. Con Runway, los artistas visuales pueden tirar del machine learning para crear animaciones y vídeos. Si queremos rizar el rizo, Aug X Labs está especializada en crear contenido de realidad aumentada también a golpe de clic. En el texto de apoyo que acompaña a este reportaje encontrarán las aplicaciones más interesantes.

¿Es realmente inteligente?

Ramón López de Mántaras, uno de los pioneros españoles de esta tecnología, explicaba en el anterior número de esta revista que, a su modo de entender, “la inteligencia artificial aún no había conseguido algo que pudiera ser considerado como inteligente”. Discrepa Gianluca Pereyra, cofundador Visor.ai, una plataforma de conversación automatizada: “En tecnología, la inteligencia se puede medir por la capacidad de aumentar la eficiencia de un proceso/trabajo de forma autónoma, la capacidad de interpretar los resultados y una mejora constante sin intervención humana. En realidad, esta capacidad de concluir y mejorar se produce a velocidades que el ser humano es humanamente incapaz de alcanzar”. Y recuerda al respecto cómo en este momento ya vemos competiciones de algoritmos de aprendizaje automático en la adquisición de conocimientos para completar determinadas tareas. “La IA bien preparada hace las cosas increíblemente bien. Esta capacidad de autoaprendizaje a una velocidad inigualable para el ser humano hace que esta tecnología sea innegablemente inteligente”, asegura.

¿Llegará el momento en el que no sepamos distinguir si estamos ante un contenido (texto, imagen, presentación, voz...) realizado por un robot o por una persona? Tiene la respuesta Pascual Parada, director académico y de innovación de IEBS, primera escuela nativa digital online en español: “Para contenido en texto, por la calidad alcanzada, es muy, muy difícil llegar a detectar si un contenido ha sido generado por una IA o por una persona. En cuanto a contenido digital de tipo imagen, aún podemos detectar un porcentaje alto del contenido por fallos en ciertos elementos, aunque con las sucesivas versiones cada vez será más difícil hacerlo. En cuanto a la voz, la creación del tono y de las emociones aún están alejadas de la realidad y es fácil detectar la diferencia. Y por último, el vídeo es el contenido donde la tecnología se encuentra en un estado más incipiente, y los resultados generados por IA son fácilmente identificables”. Para el fundador de Visor.ai, ese momento en el que no sepamos distinguir entre esa autoría humana-máquina “ya está más que superado”. “Tenemos modelos de inteligencia artificial que producen imágenes y textos en los que todavía se nota la diferencia, pero hay soluciones de mercado en las que se hace muy difícil, si no imposible, distinguir lo producido por un robot frente a una persona”, asegura.

El texto como protagonista

Aunque podamos usar ya todas estas aplicaciones con diferentes -y muchas veces sorprendentes y surrealistas resultados- los expertos coinciden en que el texto sigue siendo el protagonista. “El texto es la base de prácticamente toda la tecnología de inteligencia artificial que nos rodea. Como tal, creo que las plataformas de generación de texto tendrán el futuro más prometedor. El texto es y seguirá siendo la principal forma de comunicación, no solo entre el usuario y la máquina, sino también entre distintas máquinas”, recuerda Gianluca Pereyra, CEO de Visor.ai. Y nos pone como ejemplo un asistente virtual: cuando un usuario hace una pregunta, aunque sea por voz, existe un reconocimiento por texto, que marca la recopilación de mensajes e información entre los distintos sistemas. “Las distintas máquinas se comunican y seguirán comunicándose a través del texto e incluso nuestras peticiones de contenidos de estilo visual siguen estando vinculadas a nuestra descripción textual. Creo que esta dependencia del componente escrito dará lugar a avances más significativos en el ámbito de la generación de texto, lo que a su vez repercutirá en todos los demás”, añade.

Coindice en el diagnóstico Pascual Parada, para quien es inevitable pensar que la generación de texto seguirá siendo el líder indiscutible en el corto y medio plazo. Sin embargo, en cuanto a plataformas de generación de imágenes, “Dall-e será sostenible en el tiempo por la fuerza que está tomando Open AI y su capacidad de evolucionar la herramienta”. También muestra su confianza en Runway y sus herramientas para la generación de vídeo.

El papel de la conciencia

En contra de lo que muchos pudieran pensar, todavía falta bastante también para que estas herramientas se popularicen. Según una reciente encuesta de Softonic, el 65% de los entrevistados no había utilizado ninguna aplicación de inteligencia artificial como ChatGPT. Desde esta compañía recuerdan que estos programas “no son tan inteligentes ni creativos como los humanos”. Insisten en que, a pesar de sus impresionantes capacidades, estos programas carecen de conciencia, lo que es un “aspecto crucial del potencial de la inteligencia humana”. Explican también que la conciencia permite a los humanos pensar abstractamente, hacer juicios éticos y participar en la resolución creativa de problemas que actualmente no son posibles para la IA. “Aunque la IA puede replicar ciertos aspectos de la creatividad humana, estos programas carecen de la habilidad única de producir ideas realmente originales”, explican los responsables de realizar este estudio.

No cabe mucha duda de que las oportunidades que ofrece la inteligencia artificial son casi infinitas y que éstas llevan mucho tiempo implementándose también en muy distintos sectores industriales, anticipándose a averías, evitando las indeseables paradas de producción... “Desde la atención al cliente, en la creación de contenidos o incluso en la investigación, la IA viene a optimizar muchos procesos que, hasta ahora, eran lentos, haciéndolos ágiles, eficaces y fáciles de usar”, destaca Pereyra. Pero el fundador de Visor.ai tampoco olvida los riesgos y se refiere a la otra cara de la moneda. “Especialmente cuando hablamos de IA Generativa, que creo que es el gran foco de atención para el futuro, es necesario prestar atención a la legitimidad de la información que se crea”. Y plantea una discusión que podría extrapolarse a otras muchas situaciones: “Si un ingeniero civil utiliza herramientas de inteligencia artificial para realizar parte de su trabajo, pero la información creada no es correcta, ¿de quién es la responsabilidad? Es necesario comprender en qué medida la optimización de los procesos se contrapone al riesgo de error”. Y lanza una advertencia: “Confiar únicamente en estas soluciones para realizar el trabajo sin una mirada crítica puede conducir a malos resultados. Todo se resume en cuánto poder ponemos en manos de las máquinas”.

A vueltas con la regulación

¿Estamos a tiempo de regular el uso de todas estas aplicaciones? Desde Softonic explican que las herramientas de IA actuales son programas que dependen de datos y que aún no han aprendido a completar tareas de manera autónoma, lo que indica que aún hay tiempo para abordar los desafíos éticos y de seguridad asociados con esta tecnología emergente. Para el director académico de IEBS, “en primer lugar será indispensable regular las acciones que siguen las empresas de IA a la hora de entrenar sus modelos para evitar los sesgos. Y en segundo lugar, habrá que regular de alguna forma la protección del contenido utilizado en el entrenamiento de una IA frente al contenido del resultado. Del mismo modo que un artista se inspira en otros para desarrollar sus creaciones y no ser acusado de plagio, una IA tendrá que proceder bajo las mismas reglas”.

Aquellos interesados en formarse en el uso de estas aplicaciones tienen ya a su disposición una amplia variedad de cursos. Muchos de ellos son gratuitos, a través de plataformas online como Udemy. En su catálogo encontramos una quincena de propuestas, desde el básico Inteligencia Artificial para todo el mundo a otros más específicos que explican cómo gestionar el tiempo con ChatGPT y que nos invitan a usar el programa y la IA como asistente personal.

El director académico de IEBS cree que “el riesgo de la tecnología IA Generativa es no hacer nada por comprenderla y adoptarla como una herramienta más en pro de la productividad”. Añade Pascual Parada que “el otro riesgo es hacer cosas porque la tecnología lo permite sin detenernos a pensar si debemos o no hacerlo. Que algo se pueda hacer no significa que se deba hacer”. Y concluye: “Las oportunidades de la Inteligencia Artificial Generativa son innumerables, el único límite es nuestra imaginación”.