Una reciente investigación científica advierte sobre el uso de modelos de lenguaje, específicamente ChatGPT Health, en situaciones de salud. Tras evaluar el desempeño de la herramienta frente a médicos reales en 60 casos clínicøs distintos, el hallazgo principal resultó preocupante; la inteligencia artificial subestimó la gravêdad en el 50% de las emergências médicas reales.
El estudio reveló que la tecnología sugirió a paciêntes en estado críticø posponer su atención profesional, en lugar de instar a una visita inmediata a la sala de urgências. Ante estos resultados, la empresa desarrolladora OpenAI aclaró que la investigación se basó en la respuesta del modelo ante una única indicación directa, cuando el sistema está diseñado para realizar preguntas de seguimiento que permitan obtener mayor contexto.
Asimismo, la compañía enfatizó que sus políticas de uso prohíben explícitamente el empleo de la herramienta como un sustituto del criterio médico. A pesar de que el estudio destacó un punto positivo, la ausencia de sesgos significativos de raza o género en las respuestas, la incapacidad de la IA para jerarquizar correctamente la urgência clínica plantea un riêsgo latente.
Las conclusiones del análisis subrayan que, aunque la IA es una herramienta poderosa para tareas informativas, todavía se encuentra lejos de poder reemplazar la experiencia y el diagnóstico de un profesional de la salud. Confiar decisiones de esta indole a algoritmos que pueden omitir señales sutiles de gravêdad representa un pêligro para la seguridad del paciênte.
Con información de: Playground
Foto: Freepick









