Close Menu
LISTIN DIARIO – RD EN VIVO Noticia de ultimo minutoLISTIN DIARIO – RD EN VIVO Noticia de ultimo minuto

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    EE.UU. UU. rescata a uno de dos tripulantes del caza derribado por Irán

    3 de abril de 2026

    Tres muertos y 29 accidentes durante la Semana Santa

    3 de abril de 2026

    Domínguez Brito llama a manejar con prudencia en Semana Santa

    3 de abril de 2026
    Facebook X (Twitter) Instagram
    • Sobre Nosotros
    • Contáctanos
    Facebook X (Twitter) Instagram Pinterest Vimeo
    LISTIN DIARIO – RD EN VIVO Noticia de ultimo minutoLISTIN DIARIO – RD EN VIVO Noticia de ultimo minuto
    • Home
    • Deportes
    • Economía
    • Entretenimiento
    • Internacionales
    • Nacionales
    • Política
    • Salud
    • Tecnología
    LISTIN DIARIO – RD EN VIVO Noticia de ultimo minutoLISTIN DIARIO – RD EN VIVO Noticia de ultimo minuto
    Home»Tecnología»¿ChatGPT puede ser tu médico? Cuando el acceso a datos médicos se disfraza de servicio al paciente » Enrique Dans
    Tecnología

    ¿ChatGPT puede ser tu médico? Cuando el acceso a datos médicos se disfraza de servicio al paciente » Enrique Dans

    LISTIN DIARIO NOTICIA DE HOYBy LISTIN DIARIO NOTICIA DE HOY9 de enero de 2026No hay comentarios5 Mins Read
    Share Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
    Logo de Enrique Dans
    Share
    Facebook Twitter LinkedIn Pinterest Email

    OpenAI acaba de dar un paso al frente que muchos anticipaban pero que pocos esperaban tan pronto: el lanzamiento de ChatGPT Saluduna nueva experiencia dentro de ChatGPT diseñada para permitir que los usuarios conecten sus historiales médicos y aplicaciones de salud como Apple Health o MyFitnessPal para obtener respuestas más personalizadas a sus preguntas sobre salud y bienestar.

    la compañía destaca que se trata de una respuesta a una demanda masiva: según sus propios datos, más de doscientos millones de usuarios preguntan sobre salud al chatbot cada semanay que la herramienta busca ayudar a los pacientes a entender resultados de laboratorio, a preparar para citas médicas o a comparar opciones de seguros.

    Desde una perspectiva superficial, este movimiento puede parecer razonable: un asistente de salud digital que utiliza datos personales para contextualizar y mejorar sus respuestas, respuestas que, de todas formas, los usuarios estaban demandando y obteniendo ya. Pero si uno mira con detenimiento, resulta inevitable plantearse una pregunta incómoda: ¿es esta apuesta realmente para empoderar a los pacientes o, ante todo, para acceder a más datos médicos, uno de los activos más valiosos que aún queda en manos de los usuarios, para alimentar y fortalecer los modelos de inteligencia artificial de una compañía?

    OpenAI afirma que las conversaciones dentro de ChatGPT Health no se usan para entrenar sus modelos de base y que los datos médicos «se aíslan» y protegen con un cifrado especializado. Pero esta promesa, repetida machaconamente como una advertencia legal que afirma que, «no está destinado para diagnóstico ni tratamiento», no altera el hecho de que el producto invita activamente a los usuarios a subir y enlazar sus datos de salud más sensibles. En realidad, esa insistencia en que el sistema «no reemplaza a un médico» funciona más como un escudo legal que como una barrera real que modifica el comportamiento de los usuarios.

    El atractivo de poseer datos médicos estructurados y longitudinales es enorme para cualquier empresa de tecnología que busque mejorar sus modelos de inteligencia artificial. La medicina, con su riqueza de pruebas diagnósticas, historiales clínicos y narrativas de enfermedad, ofrece un terreno de entrenamiento incomparablemente más valioso que los datos de texto genéricos que han dominado el entrenamiento de LLMs hasta ahora. aunque OpenAI no utiliza esos datos para entrenamiento directo según sus términos actualesla simple recolección y procesamiento de información estructurada de salud crea un precedente de acumulación de datos que muchas compañías pagarían millones por obtener a través de alianzas con hospitales o aseguradoras.

    Además, incluso con las advertencias, existe un riesgo real de sobreconfianza por parte de los usuarios. Numerosos estudios han demostrado que los modelos de lenguaje generan respuestas que suenan médicamente plausibles aunque no lo seany esto no es una ocurrencia aislada: investigaciones académicas independientes han encontrado tasas no despreciables de respuestas inseguras o incorrectas en chatbots generativos cuando se les formulan preguntas médicas sensibles. Cuando una persona interpreta esto como un «segundo diagnóstico» o como una confirmación alternativa a la opinión de un médico, estamos activando una auténtica bomba de relojería.

    No es una preocupación abstracta: existen evidencias de casos en los que las respuestas automatizadas sobre salud han inducido a decisiones peligrosas oa la mala interpretación de síntomas, desde retrasos en buscar atención hasta malos hábitos terapéuticos. aunque OpenAI lanzó herramientas anteriores como banco de saludconcebidas supuestamente para medir la seguridad y precisión de las respuestas de sus modelos en escenarios médicos, estos esfuerzos siguen siendo evaluaciones, no garantías de seguridad clínica.

    Además de los problemas de precisión, surgen tensiones sociales claras. ¿Cuántos médicos verán a pacientes llegar a consulta discutiendo diagnósticos sugeridos por un chatbot? ¿Cuántos profesionales de la salud tendrán que dedicarse a deshacer malentendidos sembrados por una herramienta que muchos creen omnisciente, que combina datos reales con razonamientos generativos que pueden sonar convincentes, pero que no están clínicamente validados? ¿Está para eso el escaso y tasado tiempo de los facultativos? La tecnología no sólo transforma datos: transforma expectativas, narrativas personales e interacciones de confianza entre pacientes y proveedores de salud.

    La propia dinámica de anunciar que «esto no es diagnóstico ni tratamiento» no es inocua: muchos usuarios no están preparados para ponderar esa limitación cuando reciben una interpretación de sus análisis de sangre o un resumen aparentemente comprensible de síntomas complejos. El simple hecho de que la herramienta acceda a tu historial completo y lo sintético puede crear en el usuario la ilusión de autoridad médica, independientemente de lo que diga la pequeña advertencia legal en letra pequeña en un rincón de la pantalla.

    Por último, está la cuestión de la regulación y la responsabilidad. ChatGPT Health se presenta como un producto de consumo, no como un dispositivo médico regulado, lo que significa que no está sujeto a los mismos estándares de evidencia, supervisión ni rendición de cuentas que las herramientas clínicas. Esto abre un vacío normativo peligroso cuando los datos, por sensibles que sean, se integran en un sistema que también es un servicio masivo de inteligencia artificial con fines comerciales.

    ChatGPT Health puede representar un momento definitorio en la relación entre inteligencia artificial y salud: no solo por lo que ofrece, sino por cómo ya quién lo ofrece. La promesa de empoderamiento del paciente puede ser real en algunos aspectos, pero no puede concebirse al margen de los incentivos de la empresa que lo desarrolla.

    En un momento en que los datos son la materia prima de la economía digital, el acceso a historiales médicos completos no es sólo una funcionalidad, sino una jugada estratégica de enorme valor. Y mientras los usuarios celebran la comodidad de respuestas personalizadas y la aparente democratización del conocimiento médico, los límites de responsabilidad, seguridad y ética siguen siendo nebulosos y peligrosamente abiertos. Antes de aceptar que una inteligencia artificial te «ayude a navegar tu salud», convendría preguntarse si estamos preparados, como sociedad, para gestionar las consecuencias de poner un médico digital con acceso a tus datos, pero sin regulación clínica, en el bolsillo de millones de personas.

    Comparte esto:

    • Haz clic para compartir en Facebook (Se abre en una ventana nueva) Facebook
    • Haz clic para compartir en X (Se abre en una ventana nueva) X

    Me gusta esto:

    Me gusta Cargando...

    Relacionado

    acceso ChatGPT Cuando Dans datos disfraza Enrique médico médicos paciente puede ser servicio
    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleInforme desde Ciudad del Vaticano: papa León XIV se reúne con sus cardenales
    Next Article Visión 360 (Radio)
    LISTIN DIARIO NOTICIA DE HOY
    • Website

    Related Posts

    Entretenimiento

    Exposición de datos personales en especias y bicarbonato

    3 de abril de 2026
    Nacionales

    Despega la histórica misión Artemis II, que regresará al ser humano a la Luna tras 50 años – El Nuevo Diario (República Dominicana)

    1 de abril de 2026
    Salud

    ¿Cómo revisar mi puesto de votación para las elecciones presidenciales? ¿Cuándo cierra el plazo de inscripción de cédulas?| noticias hoy

    1 de abril de 2026
    Add A Comment

    Deja un comentarioCancelar respuesta

    Our Picks

    EE.UU. UU. rescata a uno de dos tripulantes del caza derribado por Irán

    3 de abril de 2026

    Tres muertos y 29 accidentes durante la Semana Santa

    3 de abril de 2026

    Domínguez Brito llama a manejar con prudencia en Semana Santa

    3 de abril de 2026

    Diputado Ignacio Aracena entrega más de dos mil kits para habichuelas con dulce en SDO – El Nuevo Diario (República Dominicana)

    3 de abril de 2026
    Stay In Touch
    • Facebook
    • Twitter
    • Pinterest
    • Instagram
    • YouTube
    • Vimeo

    Subscribe to Updates

    Get the latest creative news from SmartMag about art & design.

    Top Posts

    La identidad de las víctimas de feminicidio en Bosa: una madre y sus hijas de 17 y 20 años.

    24 de marzo de 202668 Views

    Mujer encontrada sin vida en Sabana Iglesia tras recibir llamada

    29 de marzo de 202635 Views

    Facultades y obligaciones de los órganos auxiliares en el Nuevo Código Procesal Penal – El Nuevo Diario (República Dominicana)

    19 de diciembre de 202523 Views
    About Us

    Listindiario es tu fuente confiable de noticias en la República Dominicana. Nos dedicamos a ofrecer información actual, precisa y relevante en categorías como Política, Economía, Deportes, Tecnología, Salud, Internacionales y Entretenimiento. Nuestro equipo de periodistas y colaboradores trabaja constantemente para mantenerte informado y conectado con los acontecimientos más importantes del país y del mundo.

    Our Picks

    EE.UU. UU. rescata a uno de dos tripulantes del caza derribado por Irán

    3 de abril de 2026

    Tres muertos y 29 accidentes durante la Semana Santa

    3 de abril de 2026

    Domínguez Brito llama a manejar con prudencia en Semana Santa

    3 de abril de 2026

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    LISTIN DIARIO – RD EN VIVO Noticia de ultimo minuto
    Facebook X (Twitter) Instagram Pinterest
    • Sobre Nosotros
    • Contáctanos
    • Términos y Condiciones
    • Aviso Legal
    • Política de Privacidad

    © 2025 listindiario.es All rights reserved. Designed by DD.

    Type above and press Enter to search. Press Esc to cancel.

    %d