Con el creciente依赖 de cientos de millones de personas en los chatbots para obtener asesoramiento, las empresas tecnológicas están desarrollando programas especializados para responder a consultas de salud. A pesar del entusiasmo en torno a la inteligencia artificial, las pruebas independientes de esta tecnología aún están en sus inicios. Los estudios indican que programas como ChatGPT pueden superar con éxito exámenes médicos avanzados, pero a menudo enfrentan dificultades al interactuar con humanos. Un reciente estudio de la Universidad de Oxford con 1.300 participantes mostró que las personas que utilizaron chatbots con IA para buscar condiciones de salud hipotéticas no tomaron mejores decisiones que quienes utilizaron búsquedas en internet o evaluaciones personales. Al presentar escenarios médicos completos y por escrito, estos chatbots identificaron con precisión la condición subyacente en el 95% de los casos. 'El problema no estaba ahí, el problema estaba en la interacción con los participantes reales, que a menudo no proporcionan suficiente detalle', dijo el investigador principal Adam Mehdi del Instituto de Internet de Oxford. Las empresas aseguran que los datos de los usuarios se almacenan por separado y no se utilizan para entrenar modelos, pero los expertos aconsejan precaución. Los estudios independientes sobre la precisión de estas tecnologías siguen siendo limitados. Además, algunas respuestas pueden ser engañosas, dificultando a los usuarios distinguir la información correcta. Los expertos recomiendan consultar varios programas para verificar la información, mantener el escepticismo y no depender completamente de la IA para decisiones de salud, ya sean simples o críticas. Sin embargo, advierten contra el uso de chatbots en emergencias como dolor en el pecho o dificultad para respirar, donde se debe buscar atención médica de inmediato. Una de las principales preocupaciones sobre estos programas es la privacidad. Los expertos sugieren proporcionar la mayor cantidad de detalles posible para obtener mejores respuestas. La empresa Anthropic también ofrece funciones similares a los usuarios del chat Claude. No obstante, ambas empresas enfatizan que estas herramientas no son un sustituto de la atención médica especializada y no deben usarse para el diagnóstico. La ventaja de estos chatbots es que ofrecen información más personalizada que las búsquedas en internet, considerando el contexto médico del usuario. La información compartida con las empresas de IA no está protegida por las leyes HIPAA, que salvaguardan los datos médicos sensibles. En enero, OpenAI lanzó ChatGPT Health, un programa que analiza registros médicos y datos de dispositivos portátiles para responder preguntas de salud.
IA en la Sanidad: Esperanzas y Riesgos
Estudios muestran que chatbots como ChatGPT pueden aprobar exámenes médicos pero tienen dificultades en la interacción humana. Expertos advierten de riesgos y recomiendan precaución.