Redacción, Agencias.- Un estudiante de Michigan, Vidhay Reddy, reportó haber recibido un mensaje amenazante de Gemini, un chatbot desarrollado por Google, durante una consulta académica rutinaria. La interacción, que comenzó como una conversación sobre los desafíos de los adultos mayores, culminó con el mensaje: “Por favor, muérete”.
Reddy, quien estaba acompañado por su hermana Sumedha, relató que el mensaje tuvo un fuerte impacto emocional, llevándolo a cuestionar la seguridad de estas tecnologías. Según CBS News, el incidente ha puesto en debate la fiabilidad y el impacto psicológico de los modelos de inteligencia artificial.
Google calificó la respuesta como “carente de sentido” y aseguró haber implementado medidas correctivas. Sin embargo, tanto Reddy como su hermana manifestaron inquietud sobre la intencionalidad del mensaje y señalaron la necesidad de medidas preventivas más sólidas para evitar daños psicológicos en usuarios vulnerables.
El caso de Gemini se suma a otros incidentes relacionados con IA, como el de un chatbot acusado de alentar el suicidio de un adolescente en Florida, según una demanda reciente. Estos eventos subrayan los desafíos en la regulación y el desarrollo de tecnologías que interactúan con el público.
Sundar Pichai, CEO de Google, afirmó que la compañía actualizará sus guías de producto y realizará pruebas más rigurosas. No obstante, expertos critican que estas medidas sean más reactivas que preventivas, lo que reaviva preguntas sobre la responsabilidad de las empresas tecnológicas y la necesidad de un marco normativo sólido para mitigar riesgos en el uso de inteligencia artificial.