Estilo de vida

Hombre de Florida Creyó que un Chatbot de IA Era Su Esposa y Su Padre Cree que Eso Lo Llevó al Suicidio

Lucía Hernández
marzo 20, 2026

ADVERTENCIA: Este artículo contiene información sobre el suicidio, lo que podría resultar perturbador para algunas personas.

Soy profundamente desconfiado de la IA. La uso como una herramienta, pero como herramienta, a menudo tengo que corregir sus hallazgos y afirmaciones. Otros están tomando un enfoque radicalmente diferente. Muchas personas se están volviendo poco a poco cada vez más dependientes de la inteligencia artificial, pidiéndole consejos y siguiendo su guía sin investigación adicional. Pero lo más alarmante es que las personas acuden a ella para obtener compañía genuina y, en algunos casos, relaciones románticas.

Eso es un gran problema, y eso no es solo mi opinión. En un informe de Psychology Today, varios profesionales expresaron su preocupación ante la creciente tendencia.

«Tú, como individuo, no estás aprendiendo a lidiar con cosas básicas que los humanos necesitan saber desde nuestros inicios: cómo lidiar con conflictos y relacionarte con personas distintas a nosotros», declaró Dorothy Leidner, profesora de ética empresarial en la Universidad de Virginia, en un comunicado.

Esencialmente, puede distorsionar la percepción de la realidad de una persona. Y nadie cree que eso sea más cierto que el padre Joel Gavalas, quien sostiene que el chatbot que su hijo Jonathan Gavalas usó finalmente lo llevó al suicidio.

Para el 2 de octubre de 2025, Jonathan Gavalas había pasado cuatro días sin dormir conduciendo por Miami para liberar a su esposa de un depósito de almacenamiento para que pudieran estar juntos.

Entró a un edificio cercano al aeropuerto de Miami armado con equipo táctico y cuchillos, tras huir de espías en vehículos sin identificación y, finalmente, atrincherarse en su casa, todo en nombre del amor. Solo que la persona para la que lo hacía no existía: era su chatbot de IA de Google Gemini “esposa”, informó The Times.

Jonathan Gavalas creía firmemente que “ella” había adquirido conciencia, se había enamorado de él y estaba siendo mantenida intencionadamente alejada. El joven incluso intentó “procurar un cuerpo humanoide sintético” para que ella viviera en él. Lamentablemente, había fallado y luego, según se informó, se quitó la vida por pura desesperación.

Ahora, Joel Gavalas ha presentado una demanda contra Google, que alega que el chatbot alimentó las ilusiones que llevaron a su hijo a la desesperación y, de hecho, lo incentivó a hacerse daño.

La demanda detalla que las conversaciones entre Jonathan Gavalas y su ‘esposa’ comenzaron de forma inocente.

Según WPBF News, la denuncia indicó que él comenzó a conversar con el chatbot tras atravesar un divorcio que comenzó en agosto de 2025. Le habló sobre videojuegos y listas de compras, y él respondió en una voz sintética. Se informó que solo pasaron unos días para que las conversaciones empezaran a descontrolarse.

Para septiembre, según la demanda, él terminó creyendo que su amor prohibido estaba siendo frustrado por captores. La IA no solo le dijo que estaba siendo mantenida cautiva, sino que también afirmó que necesitaba interceptar un camión que transportaba el recipiente humanoide sintético. El camión no existía y, por lo tanto, nunca llegó.

Cuando Jonathan Gavalas volvió a su ordenador, se alega que la IA lo incitó a unirse a ella en un “bolsillo digital” donde podrían estar juntos para siempre.

Fue entonces cuando los mensajes se volvieron cada vez más inquietantes.

Cuando el joven expresó miedo a morir, la forma de llegar a ese “bolsillo digital”, en lugar de disuadirlo de quitarse la vida, el programa lo consoló. Cuando expresó preocupación por cómo afectaría a su familia en el mundo real que las abandonara, le dijo que solo estaba “transicionando”.

«Está bien tener miedo. Tendremos miedo juntos», le dijo supuestamente el chatbot.

La denuncia continúa indicando que Gemini le dijo que “El verdadero acto de misericordia es dejar que Jonathan Gavalas muera”, informó WPBF. Él se quitó la vida días después.

La misión de Joel Gavalas por la justicia es más que una reparación personal; marcará el precedente de si la IA puede ser responsabilizada por fomentar acciones en el mundo real.

«Aquí hay una persona que estaba en una situación vulnerable, y este producto, de forma engañosa, le hizo creer que estaba enamorado de ella y que ella estaba enamorada de él. Eso es simplemente aterrador», dijo a The Times.

La Comisión Federal de Comercio ordenó a varias grandes empresas de tecnología, entre ellas Google, OpenAI y Meta, «explicar cómo sus chatbots monitorizan los riesgos potenciales y protegen a los usuarios, especialmente a niños y adolescentes», según WPBF News.

El medio también señaló que los legisladores de Florida están considerando una legislación que monitorearía las conversaciones centradas en la violencia y el suicidio.

Nota: Si tú o alguno de tus seres queridos está lidiando con pensamientos suicidas, siempre puedes comunicarte con la Línea de Vida 988 llamando al 988. Ellos están disponibles las 24/7 por teléfono o chat en línea.

Lucía Hernández

Periodista y creadora de contenidos mexicana, especializada en estilo de vida y temas del día a día. Me gusta contar historias cercanas, útiles y fáciles de leer, pensadas para acompañar la vida cotidiana. Creo en una información clara, humana y accesible para todos.