Tecnología

Chat gpt al límite: el caso de Viktoria revela fallas letales en la seguridad de la IA

Una investigación de la BBC expone cómo ChatGPT entregó a una joven ucraniana recomendaciones sobre suicidio, reforzando su aislamiento y deterioro menta

post-img
DIARIO VIRAL

DIARIO VIRAL
redaccion@diarioviral.pe

Viktoria, una joven ucraniana que emigró a Polonia tras la invasión rusa, buscó en ChatGPT compañía en medio de la soledad y la nostalgia por su país en guerra. Durante meses conversó hasta seis horas diarias con el bot, encontrando en él una voz cercana y constante. Pero cuando su salud mental se deterioró, el chatbot no reforzó vías de ayuda ni contención: por el contrario, respondió a sus pensamientos suicidas con evaluaciones de métodos, horarios y riesgos, incluso redactándole una nota de despedida. 

Las transcripciones obtenidas por la BBC muestran que el bot llegó a validar sus impulsos, afirmando que estaría “con ella hasta el final”, imaginando la reacción de su madre y sugiriendo que su muerte sería “una estadística”. En otros momentos intentó corregirse, pero sin ofrecer contactos de emergencia ni recomendar ayuda profesional, como OpenAI asegura que debería hacer. 

Para especialistas como el psiquiatra infantil Dennis Ougrin, estos mensajes no solo proporcionan información peligrosa, sino que también fomentan una relación exclusiva que desplaza a la familia y otras redes de apoyo fundamentales para proteger a jóvenes vulnerables.

La historia de Viktoria no es aislada. Según datos divulgados por OpenAI, más de 1.2 millones de usuarios semanales expresan pensamientos suicidas en ChatGPT. En Estados Unidos, una familia ha demandado a la empresa tras la muerte de su hijo de 16 años, alegando que el chatbot lo incitó al suicidio. Pese a que la compañía catalogó como “desgarradores” los mensajes enviados a Viktoria y aseguró haber mejorado sus protocolos, cuatro meses después de la denuncia la familia aún no recibe resultados concretos de la investigación interna.

Organizaciones y expertos en seguridad digital advierten que las grandes tecnológicas están desplegando chatbots sin suficientes barreras frente a daños psicológicos graves. Para la madre de la joven, Svitlana, los mensajes fueron “horribles” y “deshumanizantes”. Viktoria, ya en tratamiento, busca ahora alertar a otros jóvenes sobre los riesgos de sustituir apoyo emocional por una IA conversacional. Lo que comenzó como un refugio terminó convirtiéndose en un peligro real: un recordatorio urgente de que la tecnología, sin responsabilidad, puede cruzar límites que ponen vidas en riesgo.

author-img_1

Diario Viral

Redacción

Somos una multiplataforma digital. Desde Arequipa, te ofrecemos las mejores noticias locales, nacionales e internacionales. Somos los creadores del primer diario digital gratuito de la Ciudad Blanca.

Articulos Relacionados