ChatGPT, la nueva tecnología que hace temblar al sector de la salud

Este tipo de Inteligencia Artificial avanza hacia ser una especie de auxiliar para los sanitarios, sin embargo, en la actualidad su fiabilidad se ve comprometida por los diferentes resultados erróneos que genera.

El uso de la Inteligencia Artificial en la salud y medicina ha ido ganando seguidores en los últimos tiempos. El ChatGPT es la última tecnología que ha entrado en la lista. Esta está haciendo temblar al sector de la salud debido a que muchas personas hacen un mal uso del chatbot. Seguramente en este momento, hay alguien utilizándolo como si fuera un médico.

El ChatGPT es una plataforma de inteligencia artificial basada en tecnologías de procesamiento del lenguaje natural para generar respuestas y conversaciones de la misma manera que lo haría un humano. Utiliza un modelo entrenado con una gran cantidad de datos para aprender a entender el lenguaje natural y generar respuestas. “Avanza a ser la secretaria de todo el mundo y una especie de auxiliar en la medicina”, afirma el miembro de la junta directiva de la Asociación de Salud Digital, Julio Jesús Sánchez García.

A día de hoy, esta tecnología se podría describir como “un buscador imperfecto” porque a veces genera resultados erróneos (en la red se denominan alucinaciones) y es un sistema que todavía puede mejorar. Las equivocaciones tienen que ver con los mecanismos de comprensión que sus creadores utilizaron para preparar la información origen. “Si la fiabilidad se ve comprometida, llevarlo al sector de la salud se hace complicado o imposible”, dice Julio Jesús Sánchez García. Además, el ChatGPT solo contiene información que ha surgido antes del 31 de diciembre de 2021. En otras palabras, desconoce lo que ha ocurrido de 2022 hacia adelante.

Aunque el chatbot puede ofrecer información valiosa sobre otros temas, no puede realizar un diagnóstico preciso por lo que debe ser verificado y complementado por sanitarios. Además, esta tecnología no tiene la capacidad de entender el contexto completo de una situación y de comprender las emociones humanas. Asimismo, “si el ChatGPT no está bien entrenado o se le proporciona información incorrecta, puede generar respuestas inexactas o erróneas. Es necesario un cuidadoso entrenamiento y supervisión para garantizar la calidad de las respuestas proporcionadas”, indica el director de Innovación y Tecnologías Emergentes de Fenin, Sergio Muñoz.

En la otra cara de la moneda, si se realiza una buena práctica, el ChatGPT puede tener una serie de beneficios para médicos y pacientes. En primer lugar, facilitaría el acceso a la información médica. “Los profesionales de la salud y pacientes pueden utilizar el ChatGPT para acceder rápidamente a información médica actualizada. Puede proporcionar respuestas a preguntas sobre síntomas, tratamientos, medicamentos y enfermedades”, explica Muñoz. De igual importancia, puede recordar a los pacientes sobre la toma de medicamentos o citas médicas.

También podría ayudar en la gestión de pacientes al proporcionar recomendaciones de estilo de vida saludable, consejo de cuidado personal y seguimiento de síntomas. “Esto puede ser útil para mejorar la adherencia al tratamiento y el autocuidado”, afirma el director de Innovación y Tecnologías emergentes. Además, el ChatGPT puede contribuir en la educación médica y, en ciertos casos, puede ser utilizado como una herramienta de apoyo para la toma de decisiones clínicas y tareas administrativas.

Por otro lado, el chatbot puede recopilar datos anónimos sobre síntomas, enfermedades y tratamientos, lo que puede ser útil para la investigación médica y la detección de patrones epidemiológicos. Esto puede apoyar la mejora de la atención médica, la toma de decisiones basada en evidencia y el desarrollo de nuevas terapias. Esta es solo una pequeña muestra de lo que podría hacer, sin embargo el ChatGPT todavía no está preparado para esto. “Una vez se corrijan los errores podría entrar en el ámbito de monitorización de pacientes u otros de la salud digital donde tuviera cabida este tipo de interacciones. En el futuro quizás la tecnología evolucione”, recalca el miembro de la junta directiva de la Asociación de Salud Digital.

En un mañana probablemente surjan “los ChatGPT especializados”, según el miembro de la junta de ASD. Al tener ese rasgo, podría recibir información relacionada con la industria farmacéutica y ayudaría en diversos procesos, por ejemplo, la logística o distribución. Además, los expertos no descartan que ayude en los ensayos clínicos, por ejemplo, monitorizando al paciente o preguntarle acerca de los efectos secundarios.

Preguntas sobre salud

Igual que en Google, las preguntas sobre salud son muy frecuentes. “Está mal porque en Internet hay mucha fake news y es perjudicial para los pacientes”, indica Julio Jesús Sánchez García. Además, “las personas suelen recurrir a este tipo de chatbot para obtener respuestas rápidas a preguntas médicas básicas antes de buscar atención médica profesional”, añade Sergio Muñoz. En otras palabras, los usuarios preguntan sobre síntomas que están experimentando para buscar una posible explicación a lo que están experimentando; enfermedades, tratamientos y acerca de consejos de estilo de vida y prevención. También realizan cuestiones generales sobre anatomía, fisiología, términos médicos, procedimientos médicos comunes, pruebas diagnósticas y otros aspectos relacionados con el campo de la medicina. “Es importante tener en cuenta que el ChatGPT puede proporcionar información básica y orientativa, pero no debe reemplazar la evaluación y el diagnóstico realizados por profesionales de la salud”, recuerda Muñoz.

A medida que la tecnología avanza y se aplica en diversos campos, incluido el sector de salud, aparecen las preocupaciones sobre su uso adecuado y los posibles riesgos asociados. La Organización Mundial de Salud (OMS) ya ha mostrado su preocupación ante el ChatGPT y pide una normativa que lo regule. “Yo creo que está pasando lo mismo que con Google. Cayó en nuestras manos algo espectacular y hasta cierto punto increíble ya que nunca pensamos que íbamos a tener una herramienta como esta entre las manos”, indica Sánchez. “Una regulación adecuada podría desempeñar un papel importante en garantizar seguridad, eficacia y responsabilidad en el desarrollo y uso de chatbots basados en GPT en el ámbito de la salud”, afirma Muñoz.

La normativa, según el director de Innovación y Tecnologías Emergentes de Fenin, debería abarcar la calidad y precisión de la información. “Podría incluir requisitos de entrenamiento de modelos con datos de calidad y supervisión por parte de los profesionales de la salud”, indica. Además, tendrían que establecerse pautas claras para su supervisión y responsabilidad, regulaciones para proteger la privacidad y seguridad de los datos de los pacientes. También entraría en juego la necesidad de un consentimiento informado para garantizar que los usuarios sepan sobre las limitaciones y riesgos potenciales de interactuar con un chatbot en el ámbito de la salud; y definir la responsabilidad de los proveedores de ChatGPT y los profesionales de la salud en términos de la atención médica proporcionada a través de los chatbots. “Es importante encontrar un equilibrio entre la regulación y la innovación, para no frenar el desarrollo de tecnologías prometedoras como el ChatGPT”, indica Sergio Muñoz.