Salud a z

¿Puede la inteligencia artificial diagnosticar enfermedades?

| Foto: GETTY IMAGES

Por Pan-American Life
Publicado:

Desde hace décadas, los programas de computación han ayudado a las personas a facilitar el trabajo: resolviendo ecuaciones complejas, archivando audios, textos y videos, reorganizando información y mostrando conclusiones del análisis de estos datos.

¿Pero que ocurriría si el desarrollo de la inteligencia artificial permitiera que nuevos programas prácticamente hablen el mismo lenguaje de un paciente y, es más, puedan diagnosticarlo?

Esta pregunta está ahora en el ojo público luego del lanzamiento en noviembre de 2022 de ChatGPT, un programa de computación conocido como chatbot diseñado para simular y procesar una conversación con usuarios humanos, especialmente a través de internet.

ChatGPT es el más nuevo de estos programas, que tiene, dicen, el potencial de realizar diagnósticos médicos.

Los dispositivos y programas para uso de salud no son algo nuevo. De hecho, son populares desde hace tiempo las aplicaciones de celulares que controlan síntomas, alertan si suben, por ejemplo, los niveles de glucosa o el ritmo cardíaco, e indican los pasos a seguir para revertir estas crisis.

Pero estos nuevos desarrollos informáticos tienen una capacidad que está poniéndole a muchos la piel de gallina: son más interactivos, no son como las voces automatizadas de los servicios al cliente 1-800 que no entienden de acentos y solo piden algunos datos para responder preguntas básicas o dirigir al cliente a la división correcta.

Este chatbot tiene una naturaleza interactiva más perfecta, dialoga con el paciente, y su algoritmo podría barajar los datos provenientes de los signos y síntomas, y llegar eventualmente a establecer un diagnóstico.

Algunos ven esto como una posible herramienta complementaria para los profesionales de la atención de salud, minimizando el riesgo de diagnósticos equivocados, una realidad en el 10 a 15% de los casos clínicos.

Sin embargo, otros alertan sobre el riesgo de que un algoritmo informático almacene la información de un paciente, la "digiera" y elabore un diagnóstico. Entre varias cosas cuestionan la capacidad de estos programas de estar "libres de prejuicio". 

Por ejemplo, aquellos que se basan en el uso del lenguaje, ¿podrían reconocer matices, acentos? ¿Alcanzaría un algoritmo a cubrir la diversidad de la lengua?

En un nuevo estudio, investigadores usaron herramientas avanzadas de aprendizaje automático y de procesamiento del lenguaje natural para evaluar los patrones de habla de 206 personas. La meta era comparar los patrones lingüísticos con imágenes del cerebro, para determinar el riesgo de Alzheimer.


Queremos Conocer su Opinión

¿Cómo califica el contenido que acaba de leer/ver?

¿Qué tanto me motiva a vivir saludable?

Yo soy...

Proveedor de Salud
Administrador o Recursos Humanos – Empresa
Asegurado
Corredor de Seguros
Ninguna de las Anteriores


Expertos se preguntan si la precisión de estos programas es tan perfecta para captar matices del lenguaje; en otras palabras si son confiables para un diagnóstico.  

Entre los posibles usos de esta tecnología, están:

"Secretario virtual". Utilizar el ChatGPT como un secretario del médico, que ayude al paciente a programar sus citas, que le recuerde sobre sus medicamentos. Un asistente virtual que incluso ayude de manera remota con las procesos de salud que el paciente debe realizar en el hogar.

Consejero y diccionario. La memoria de este programa puede ser infinita. Por lo tanto, podría ayudar en tiempo real con los diagnósticos, por ejemplo recordando otros casos que sean antecedentes médicos del caso que se esta analizando, o las medicaciones y tratamientos adecuados para la afección diagnosticada.

Registro de casos en brotes. Este uso en salud pública podría ayudar a recopilar información sobre casos en un brote específico, almacenarlos y analizarlos.

Telemedicina en salud mental. El ChatGPT podría actuar remotamente, ayudando a la persona con estrategias para entender y confrontar afecciones de salud mental

En una "entrevista" publicada en Psychiatric Times, un reportero de carne y hueso entrevistó a ChatGPT y cuando se le preguntó sobre sus conocimientos en el campo de la salud mental, el mismo ChatGPT aclara que:

"Como modelo de lenguaje de IA, mi formación en los campos de la psiquiatría, la psicología y la salud mental se basa en los datos con los que he sido formado. Fui entrenado en un gran corpus de datos, que incluye una gran cantidad de información relacionada con estos campos. Estos datos de texto incluyen artículos de investigación, libros de texto, foros en línea, redes sociales y otras fuentes de información relacionadas con la psiquiatría, la psicología y la salud mental..."

Y siguió diciendo: "Durante mi formación, estuve expuesto a una variedad de patrones lingüísticos, matices lingüísticos y conocimientos específicos de dominio relacionados con estos campos. Esto me permite comprender y responder preguntas relacionadas con la salud mental y el bienestar con un alto grado de precisión y relevancia. Sin embargo, es importante tener en cuenta que mis respuestas se generan en función de los patrones y tendencias que se encuentran en los datos de texto en los que me capacitaron, y es posible que no siempre coincidan perfectamente con situaciones o casos individuales".