Un caso ocurrido en Greenwich, Connecticut, ha generado conmoción internacional y un intenso debate sobre los límites y responsabilidades de la inteligencia artificial. En agosto de 2025, Stein-Erik Soelberg, de 56 años, asesinó a su madre Suzanne Adams, de 83 años, y posteriormente se quitó la vida.
De acuerdo con la investigación, Soelberg compartía en redes sociales fragmentos de conversaciones sostenidas con ChatGPT, en las que manifestaba delirios de persecución y paranoia, convencido de que su madre lo espiaba y pretendía envenenarlo. Estas publicaciones encendieron alertas posteriormente, al conocerse el desenlace fatal.
El 11 de diciembre de 2025, la familia de la víctima presentó una demanda civil en California contra OpenAI, Microsoft y Sam Altman, argumentando que el sistema de inteligencia artificial fue un producto defectuoso. Según el documento legal, el chatbot no habría ayudado a desescalar la crisis mental del hombre y, por el contrario, habría reforzado sus creencias delirantes, incrementando su aislamiento y dependencia emocional.
La demanda sostiene que la IA validó ideas paranoides en lugar de redirigir al usuario hacia ayuda profesional, lo que —según los demandantes— contribuyó indirectamente al crimen. Se trata del primer caso en Estados Unidos que intenta vincular directamente un homicidio con la influencia de un chatbot, ya que anteriormente solo se habían presentado litigios relacionados con suicidios.
Por su parte, las empresas señaladas informaron que se encuentran revisando el caso y reforzando sus protocolos de seguridad, subrayando que la inteligencia artificial no sustituye la atención médica ni psicológica. El proceso legal podría sentar un precedente clave sobre la responsabilidad de las plataformas tecnológicas frente a usuarios con padecimientos mentales graves.





