Confiar emocionalmente en ChatGPT tiene riesgos para la salud mental

En 2013 se estrenaba la película Su, la historia de un escritor que establece una relación afectiva con un sistema operativo inteligente. Más de diez años después, lo que parecía ficción comienza a hacerse realidad: según una investigación publicada este noviembre por The Washington Post, el uso de chatbot con fines personales se populariza.

El estudio, que analiza más de 47.000 conversaciones de ChatGPT publicadas en abierto por usuarios y usuarias estadounidenses, revela que el 35% de las personas encuestadas utilizan estas herramientas para buscar información. Ahora bien, un 13% recurre para reflexiones personales y debates abstractos, haciendo de este uso el segundo más habitual. Como subraya la investigación, “las preguntas fluyen desde todos los rincones de la psique humana”: “¿Puedes ayudarme a analizar esta conversación con mi pareja?”, “¿Te sientes consciente?” o “¿Cuál es la tasa de supervivencia de una sobredosis de paracetamol?”.

En el caso de los jóvenes, esta tendencia es aún más marcada: según el estudio de GAD3, consultora de investigación social y comunicación que en este informe pone el foco específicamente en España y en la población juvenil, hasta el 30% utiliza los modelos de IA para hablar de temas personales. El cambio en la forma de relacionarse con las tecnologías también queda reflejado en el informe Así somos: el estado de la adolescencia en España, de Plan International, que apunta a que casi uno de cada ocho chicos y una de cada cuatro chicas acude a la IA para “hablar y explicar sus cosas”. Para Julia López, responsable de incidencia política de Plan International y una de las autoras del informe, el problema es que «los jóvenes ven la IA como un experto objetivo y neutral que les puede dar la mejor respuesta posible sobre sus preocupaciones». «No hacen un uso crítico ni tienen en cuenta sus sesgos», añade en conversación con Verificat.

GD

leave a reply