ChatGPT son las siglas de Conversational Graph-To-Text y es una herramienta de inteligencia artificial creada por OpenAI en noviembre de 2022. Esta herramienta se considera una revolución en el procesamiento del lenguaje natural, ya que puede entrenarse para generar conversaciones similares a las humanas. Las crecientes capacidades de la herramienta han generado cierta inquietud debido a las posibles aplicaciones de dicha tecnología.
En una investigación realizada por la Universidad de Stanford y titulada "¿Puede ChatGPT diagnosticarme? How Large Language Models Will Transform Clinical Care", se exploró el uso de esta herramienta de IA. Pretendían responder a la pregunta de si ChatGPT puede utilizarse para diagnosticar a los pacientes en lugar de a los profesionales médicos. Este estudio pretendía investigar las posibles aplicaciones y beneficios del uso de modelos de lenguaje y ChatGPT en el diagnóstico médico.
El equipo de investigación comenzó examinando dos casos concretos de uso potencial de ChatGPT. Estos dos casos se centraban en el diagnóstico de la depresión y la regurgitación aórtica. En el caso de la regurgitación aórtica, el modelo pudo utilizar el procesamiento del lenguaje natural y producir resultados positivos. Esto podría indicar que la herramienta podría, de hecho, presentar utilidad en el ámbito médico, ya que fue capaz de ofrecer resultados precisos con una tasa de error baja. Cabe decir que la investigación realizada aún se encuentra en una fase inicial y todavía podría mejorar.
También hay que tener en cuenta la privacidad de los historiales médicos de los pacientes, ya que las herramientas de IA podrían considerar que los datos les pertenecen y utilizarlos a su antojo. También hay que tener en cuenta las implicaciones legales del uso de la IA en el ámbito médico. Hay otras muchas cuestiones y retos que deben abordarse antes de que la tecnología pueda ponerse en práctica.
Sin embargo, esta tecnología aún se encuentra en fase experimental y debe investigarse y desarrollarse adecuadamente antes de que pueda utilizarse en un entorno clínico. Las herramientas y tecnologías de IA plantean retos relativos a la privacidad y la normativa. Todos estos aspectos deben tenerse en cuenta a la hora de utilizar la IA en el ámbito médico.
El estudio realizado por el equipo de la Universidad de Stanford se titula "¿Puede ChatGPT diagnosticarme? How Large Language Models Will Transform Clinical Care" y ofrece una visión del potencial que posee la IA médica. Presenta una idea revolucionaria que podría mejorar los índices de diagnóstico y la atención a los pacientes. Sin embargo, antes de que la tecnología pueda utilizarse en el ámbito médico, deben abordarse los retos que plantean la regulación y la privacidad de esta revolución médica.
1:45 PM | Check-In (en persona) |
2:00 PM | Bienvenida y comentarios introductorios¿De qué manera vemos que los modelos de lenguaje grandes impactan la atención y el diagnóstico del paciente? |
2:30 PM | Panel 1: Usos directos al consumidor de ChatGPT / LLM: ¿Cómo podrían los LLM transformar la capacidad de un consumidor para diagnosticar y manejar mejor sus condiciones de salud?Un alto porcentaje de pacientes actualmente utilizan motores de búsqueda en línea para autodiagnosticarse cuando experimentan nuevos síntomas. ¿De qué manera ChatGPT / LLM cambia la forma en que un paciente interactúa con la información de salud en línea para tomar decisiones sobre si buscar atención o no? |
3:00 PM | Panel 2: ¿Cómo podrían los LLM/ChatGPT apoyar a los médicos en la toma de decisiones diagnósticas?¿De qué manera podrían estos LLM apoyar o incluso reemplazar a los médicos en el proceso de diagnóstico? ¿Qué tipos de productos encontrarían útiles los médicos? ¿Cuáles son algunas de las trampas de las que los médicos deben tener cuidado al usar estas herramientas? |
3:30 PM | Panel 3: La ética, la equidad y la regulación en torno a LLM / ChatGPT¿De qué manera podrían estas nuevas herramientas afectar las disparidades diagnósticas en los Estados Unidos? ¿Cómo podrían los sesgos preexistentes en los datos de entrenamiento perpetuar potencialmente las disparidades? ¿Cómo podríamos mitigar estos efectos? ¿Cómo deben clasificarse estas herramientas desde una perspectiva regulatoria (por ejemplo, como un dispositivo médico o como una herramienta de bienestar general)? ¿Y cómo podría influir eso en su seguridad, eficacia y utilidad? Otras consideraciones éticas (por ejemplo, consentimiento del paciente, privacidad de datos, riesgo de seguridad / ataques adversarios) |
4:00 PM | Recepción de networking (en persona)Fuente: Centro de Inteligencia Artificial en Medicina e Imágenes de Stanford (AIMI) y el Instituto de Inteligencia Artificial Centrada en el Ser Humano (HAI) de Stanford. |