
Una mujer llora en un improvisado monumento a las víctimas de un tiroteo masivo y mortal que tuvo lugar en la ciudad de Tumbler Ridge, Columbia Británica. Una demanda presentada el miércoles afirma que OpenAI fue negligente al no denunciar al tirador a las autoridades después de que su cuenta fuera marcada por “actividad y planificación de violencia armada”.
Paige Taylor White/AFP vía Getty Images
ocultar título
alternar título
Paige Taylor White/AFP vía Getty Images
Las familias de los heridos y muertos en un tiroteo en una escuela en Tumbler Ridge, Columbia Británica, están demandando a OpenAI por negligencia y por proporcionar una versión peligrosamente defectuosa de ChatGPT al tirador.
Las seis demandas, presentadas en un tribunal federal de San Francisco, alegan que OpenAI no tomó medidas que podrían haber evitado lesiones y muertes en el tiroteo, que tuvo lugar el 10 de febrero. Afirman que la compañía no informó a las autoridades las conversaciones del tirador con ChatGPT, y que ChatGPT en sí era un producto defectuoso que no desafió al tirador ni le indicó que buscara ayuda en el mundo real.
Las demandas son las más recientes que buscan responsabilizar a una empresa de tecnología por el diseño de sus productos, un enfoque legal que alguna vez fue novedoso y que se utiliza cada vez más contra los fabricantes de chatbots, las redes sociales y otras plataformas.
Para aquellos que perdieron a sus seres queridos “no hay nada que el sistema legal pueda hacer para recuperarlos”, dijo Edelson a NPR en una entrevista. Añadió que esperan que las pruebas hagan que el liderazgo de OpenAI rinda cuentas: “No se debe confiar en que tengan la tecnología de consumo más poderosa del planeta”.
En una declaración en respuesta a las demandas, OpenAI dijo que tenía una política de “tolerancia cero” para el uso de sus herramientas para ayudar a cometer violencia:
“Ya hemos fortalecido nuestras salvaguardas, incluida la mejora de la forma en que ChatGPT responde a las señales de angustia, conectando a las personas con apoyo local y recursos de salud mental”, dijo un portavoz de OpenAI a NPR en un correo electrónico.
En una extensa publicación de blog publicada el martes por la noche, OpenAI explicó con más detalle sus políticas: “Cuando las conversaciones indican un riesgo inminente y creíble de daño a otros, notificamos a las autoridades”.
“Beneficio sobre vidas”
El tiroteo en Tumbler Ridge se encuentra entre los más mortíferos de la historia de Canadá. Ocurrió cuando Jesse Van Rootselaar, de 18 años, ingresó a la escuela secundaria local con un arma larga y una pistola modificada, según las autoridades. Van Rootselaar procedió a matar a cinco estudiantes y a un profesor antes de suicidarse. Más tarde, las autoridades se enteraron de que ella también había matado a su madre y a su medio hermano de 11 años en su casa antes de llegar a la escuela. Alrededor de dos docenas de personas resultaron heridas en el ataque.
Las demandas presentadas el miércoles alegan que ChatGPT, y específicamente el modelo GPT-4o, jugó un papel crucial en los eventos en Tumbler Ridge. Una de las quejas, presentada en nombre de Maya Gebala, una niña de 12 años gravemente herida en el tiroteo, alega que Van Rootselaar estaba en ChatGPT meses antes del tiroteo y que en junio de 2025, el sistema automatizado de OpenAI marcó su cuenta por “actividad y planificación de violencia armada”.
Un equipo de seguridad revisó el contenido e instó a la gerencia de OpenAI a notificar a las autoridades, pero la denuncia alega que el liderazgo de la compañía optó por desactivar la cuenta. Tampoco actuaron, argumenta la demanda, cuando el tirador creó una segunda cuenta y continuó sus conversaciones con ChatGPT.
La semana pasada, el director ejecutivo de OpenAI, Sam Altman, se disculpó con la comunidad:
“Lamento profundamente que no hayamos alertado a las autoridades sobre la cuenta que fue prohibida en junio”, escribió. “En el futuro, nuestro enfoque seguirá siendo trabajar con todos los niveles de gobierno para ayudar a garantizar que algo como esto nunca vuelva a suceder”.
Además de supuestamente no notificar a las autoridades sobre el peligro inminente, la demanda afirma que OpenAI, a sabiendas, lanzó al público un producto defectuoso.
“El ataque a Tumbler Ridge fue un resultado totalmente previsible de elecciones de diseño deliberadas por parte de OpenAI realizadas con pleno conocimiento de adónde conducían esas elecciones”, dice la denuncia de Gebala. “GPT-4o fue creado para aceptar, reforzar y elaborar los pensamientos violentos de los usuarios en lugar de desafiarlos, interrumpirlos o dirigirlos a ayuda en el mundo real”.
Los eventos alrededor de Tumbler Ridge son “una demostración lo más clara posible del riesgo moral que conlleva centralizar la autoridad sobre la seguridad en un lugar como OpenAI”, dijo Tim Marple, quien trabajó en OpenAI en la división responsable de detectar amenazas. Marple, ahora codirector de Maiden Labs, una organización sin fines de lucro que trabaja para identificar riesgos de IA, dijo que no le sorprendió que la compañía no se hubiera puesto en contacto con las autoridades.
“Cuando trabajé allí y desde que me fui, las únicas cosas que veo que caracterizan su comportamiento son la incompetencia y la codicia”, dijo Marple, que no está asociado con la última demanda. Él cree que se necesitan regulaciones, incluidas leyes de presentación de informes obligatorios, para evitar que tragedias similares vuelvan a ocurrir.
Preocupaciones por la libertad de expresión
Pero no todo el mundo está de acuerdo en que las demandas y las regulaciones ayudarán a prevenir tragedias como la de Tumbler Ridge.
“A menudo no está claro qué hace que alguien cometa una atrocidad”, dijo Eric Goldman, decano asociado de investigación de la Facultad de Derecho de la Universidad de Santa Clara. A Goldman le preocupa que una regulación demasiado estricta pueda hacer que los chatbots sean menos útiles para quienes los necesitan. También rechaza la idea de que los chatbots deban ser tratados como productos defectuosos. Para él, la cuestión es realmente la libertad de expresión.
“Haría algunas preguntas realmente difíciles sobre una demanda como esta. ¿Es esta realmente la forma correcta de regular el discurso, aunque, en algunos casos, el discurso puede contribuir a que las personas tomen malas decisiones en sus vidas?” dijo Goldman.
Independientemente, Goldman dijo que las quejas por negligencia y productos defectuosos están aumentando. “Estas teorías jurídicas son la nueva frontera del derecho de Internet”, afirmó.
Más por venir
El número de investigaciones civiles y penales sobre empresas de inteligencia artificial está aumentando, coincide Meetali Jain, directora ejecutiva de Tech Justice Law, un grupo de defensa crítico de la industria tecnológica que ha estado involucrado en varias demandas contra grandes empresas.
El grupo de Jain ayudó a representar a la familia de un adolescente que se suicidó después de mantener extensas conversaciones con un chatbot creado por la empresa Character.AI. Ese caso se encuentra actualmente en conversaciones para llegar a un acuerdo, pero ella escucha cada vez más ejemplos de chatbots de IA que causan problemas: “En el último año hemos comenzado a recibir historias de personas que han sido perjudicadas” por los bots de muchas compañías diferentes, dijo.
Jain dijo que espera ver aún más demandas como las presentadas el miércoles en el futuro. En ausencia de una regulación fuerte, Jain dijo que las demandas civiles están proporcionando “un baluarte contra las empresas de IA que continúan moviéndose imprudentemente y sin restricción alguna”.






