Estudio advierte que ChatGPT no es recomendable para diagnósticos médicos

Publicado:
Autor: Cooperativa.cl

El artículo científico detalla que la plataforma sólo realizó un diagnóstico el 49% de las veces.

 iStock / Referencial

Un estudio realizado por la revista científica PLOS ONE, concluyó que los diagnósticos médicos realizados por ChatGPT no son confiables.

El equipo científico eligió 150 casos médicos reales, y tras entrenar a la inteligencia artificial con datos como el historial del paciente, los resultados de laboratorio y los hallazgos de exámenes en el consultorio, le pidió que diagnosticara cada una de las enfermedades.

La plataforma dio un diagnóstico correcto sólo el 49% de las veces, y aunque los científicos aseguraron que sirve para eliminar las respuestas equivocadas, no es lo mismo que tomar una decisión correcta en un entorno clínico.

"ChatGPT no necesariamente proporciona exactitud factual, a pesar de la gran cantidad de información con la que fue entrenado. En su forma actual no es precisa como herramienta de diagnóstico", se detalla en el artículo.

El estudio concluyó que "la precisión y la sensibilidad son cruciales para una herramienta de diagnóstico porque los diagnósticos perdidos pueden llevar a consecuencias significativas para los pacientes, como la falta de tratamientos necesarios o pruebas diagnósticas adicionales, resultando en peores resultados de salud".

Cabe destacar que en febrero de 2023, la inteligencia artificial de la OpenAI aprobó por poco el examen para ser médico en Estados Unidos, situación que fue catalogada como "notable" en el mundo de la IA.