Noticias destacadas

Hable con los médicos de Antario Hable con expertos médicos, chatgpt no solo

ChatGPT y tales herramientas de inteligencia artificial a veces pueden responder las preguntas del paciente, pero los investigadores médicos canadienses advierten que necesita verificar cuidadosamente la información antes de lidiar con lo que ve.

La Asociación Médica de Antario (OMA) ha celebrado una sesión informativa de los medios esta semana y discutiendo fuentes de información de bricolaje Motores de búsqueda Para los chatbats de las redes sociales, y sus efectos, así como lo que se puede hacer en lugar de los pacientes.

Ahora es importante advertir a las personas, dice la Dra. Valerie Primo, una psiquiatra que dirigió programas de pacientes hospitalizados y comunitarios para la salud mental y la adicción, dice el Dr. Valerie Primo, porque los pacientes están recurriendo a las herramientas de IA.

Los chatbots le dan confiable Simpático Resultados, pero puede haber información Ser falso.

«Ahora tengo pacientes. Están hablando con ChatGPT para obtener consejos y conversar», dijo Primo. «Así que me gustaría continuar con este problema para este problema, y si no lo solucionamos ahora y ayudamos a las personas NavegarloSon duros. «

Londres, que dirige la investigación clínica sobre tratamientos basados en la película para el cáncer, dice que el oncólogo radiando en ONT, el Dr. David DeSouza, dijo que los pacientes pueden detener los tratamientos tradicionales.

«Un paciente vino a mí. Preguntó si tenía que esperar su cáncer que fue diagnosticado con unos años, porque creía que la IA favorecería los tratamientos contra el cáncer para los pacientes», dijo De Souza a los periodistas. «Tuve que convencerlo de por qué debería ser tratado ahora».

Risas mujer
El Dr. Zainab Abdurrahman sugiere que los pacientes deben consultar las respuestas de chatbat a lo que dicen los sitios web de la organización médica profesional. (Tiphani Mongo/CBC)

Ella sugiere que los usuarios usan herramientas y el presidente de la OMA, el Dr. Zainab Abdurrahman, dice que «los médicos lo ocultan», sugiere verificar sitios web de grupos especializados relacionados como las asociaciones provinciales de atención al cáncer.

Anuncios duplicadosAbdurrahman, inmunólogo clínico y alergista, también se ha advertido que los pacientes, incluidas las imágenes producidas por AI, pueden ser estropeadas.

El matiz perdido hace que sea difícil confiar en los resultados de IA

Cuando la tecnología progresa, los chatbots de hoy responden preguntas de salud con información falsa Aparece oficialmente.

En Un estudioDr. Benjamin Chin-Yee, Profesor Asistente en Departamento de Patología y Medicina de Laboratorio Universidad occidental Y sus compañeros de escritores alimentaron a casi 5,000 citaciones de literatura médica y científica como chatgt en modelos de idiomas grandes y preguntaron.

Descubrieron que tres cuartos de las versiones de IA habían perdido las partes principales de la publicidad que estaban cuidadosamente vigiladas.

Por ejemplo, el artículo de la revista solo es efectivo en un grupo de pacientes específicos, pero la esencia es dejar los detalles cruciales, dice el hematólogo Chin-Yee.

ఓపెన్-సోర్స్ పెద్ద భాషా నమూనాలను అభివృద్ధి చేసే చైనీస్ ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ సంస్థ లోగో యొక్క లోగోను ప్రదర్శించే స్క్రీన్‌లను ఒక ఛాయాచిత్రం చూపిస్తుంది మరియు జనవరి 29, 2025 న నైరుతి ఫ్రాన్స్‌లోని టౌలౌస్‌లోని ఓపెనాయ్ యొక్క ఇంటెలిజెన్స్ చాట్‌బాట్ చాట్‌బాట్ చాట్‌బాట్ చాట్‌బాట్ చాట్‌బాట్ చాట్‌బాట్ చాట్‌బాట్ చాట్‌బాట్ చాట్‌బాట్.
Las tecnologías productivas de IA, como los chatbots, dependen de las tecnologías de mecanizado modelo, que les dan la mayor producción para una pregunta dada. (Lionel Bonaventher/AFP/Getty Images)

«La preocupación es que cuando ese matiz está en detalle, puede ser engañosos a los alumnos quienes intentan usar ese conocimiento para influir en su práctica clínica».

Chin-Yi AI es un área de investigación activa, que se está volviendo más rápida, más humana con nuevos modelos, pero puede haber fallas solo para confiar en las herramientas.

Del mismo modo, el estudiante de medicina David Chen en la Universidad de Toronto, Los resultados se compararon Se han proporcionado chatbots para 200 preguntas sobre el cáncer del Foro Reddit, para las respuestas proporcionadas por los oncólogos.

«Nos preguntamos que estos chatbots se basaron en la calidad, la empatía y la lectura de nuestros médicos, y nos preguntamos que estos chatbots pudieron demostrar la capacidad de estar cerca del nivel de expertos», dijo Chen.

Pero resultados experimentales Puede no ser reflejado Lo que sucede en el mundo real.

«Sin supervisión médica, es muy difícil creer en algunas de estas tecnologías de producción, es muy difícil confiar en el 100 por ciento», dijo Chen, «la privacidad, la seguridad y las creencias del paciente aún no se exploran completamente.

Ver | Los investigadores usan IA para tratar a los pacientes con cerebro:

La Facultad de Medicina de Mun está utilizando IA para tratar a los pacientes con cerebro

La inteligencia artificial hace cambios revolucionarios en la atención médica. Y en la facultad de medicina de la Universidad de Memorial, la IA ya se está utilizando en el tratamiento de pacientes con diversas afecciones cerebrales. La profesora de neurociencia Michelle Plowman mostró a Caroline Stokes de CBC alrededor de su laboratorio en el Centro Miller y mostró cómo la IA cambió la atención al paciente.

No confíes en un solo chatbat

Las tecnologías productivas de IA, como los chatbots, se basan en tecnologías relacionadas con la muestra, que dan a la pregunta una pregunta dada, basada en cualquier información capacitada. Sin embargo, en el sharam de la medicina, los posibles diagnósticos también son importantes y no deben descartarse.

Además, los chatbots se pueden hacer Bateador – Producir productos que parecen confiables pero incorrectos, hechos, sin sentido o absurdos.

«También hay estudios de investigación que sugieren que las alucinaciones de estos bots de chat tienen tasas, que son un 20 por ciento al alza», dice Chen, lo que hace que la producción sea «clínicamente incorrecta».

El hombre en la chaqueta deportiva y el bolsillo sonríe a la cámara
La información médica proporcionada por los chatbats no se ha evaluado completamente para el uso del público, dijo el Dr. Eric Topole. (Nicholas Barrett)

En la primavera, el profesor de investigación de SCRIPS y vicepresidente ejecutivo del cardiólogo Eric Topole publicó un libro en San Diego, California,, Supergers: enfoque basado en la evidencia para la longevidadVio el efecto de AI Sobre longevidad Y la calidad de vida.

«Hay muy buenas historias. Hay historias malas», dijeron los pacientes de Topole que estaban usando chatbots. «No se evalúa sistemático en un modo significativo para uso público».

Topole dijo que contactaría a múltiples chatbots y verificaría si recibía información confiable. Sugirió pedir perpetraciones de la literatura médica, y a veces no eran ciertas y necesitaban verificar.

Idealmente, Topole dijo que no había pruebas, ni diagnóstico, y aquellos que no usaban fuentes de IA, y los resultados de las respuestas de chatbot de diez mil personas se realizarían. Pero no es probable que las empresas tecnológicas participen porque todos pueden obtenerlo.

«Es un mundo diferente ahora y no puedes volver a tiempo», dijo sobre el uso de herramientas de topole sabiamente.

Source link

Publicaciones relacionadas

Botón volver arriba