Home Noticias Florida AG inicia una investigación criminal sobre ChatGPT por el tiroteo en...

Florida AG inicia una investigación criminal sobre ChatGPT por el tiroteo en FSU

12
0

Florida AG inicia una investigación criminal sobre ChatGPT por el tiroteo en FSU

La policía investiga la escena de un tiroteo cerca del sindicato de estudiantes de la Universidad Estatal de Florida el 17 de abril de 2025 en Tallahassee, Florida. En el ataque murieron dos personas y cinco resultaron heridas. El fiscal general de Florida ahora está investigando OpenAI porque el presunto tirador utilizó ChatGPT para ayudar a planificar el ataque.

Miguel J. Rodríguez Carrillo/Getty Images


ocultar título

alternar título

Miguel J. Rodríguez Carrillo/Getty Images

El fiscal general de Florida está iniciando una investigación criminal sobre ChatGPT y su empresa matriz OpenAI por acusaciones de que el pistolero acusado de un tiroteo en la Universidad Estatal de Florida el año pasado consultó el chatbot de IA antes de matar a dos personas e herir a cinco más.

El fiscal general republicano, James Uthmeier, dijo en una conferencia de prensa en Tampa el martes que el pistolero acusado Phoenix Ikner consultó a ChatGPT para pedir consejo antes del tiroteo, incluido qué tipo de arma usar, qué munición iba con ella y a qué hora ir al campus para encontrarse con más personas, según una revisión inicial de los registros de chat de Ikner.

“Mis fiscales examinaron esto y me dijeron que si hubiera una persona al otro lado de la pantalla, la acusaríamos de asesinato”, dijo Uthmeier. “No podemos tener robots de inteligencia artificial que aconsejen a la gente sobre cómo matar a otros”.

La portavoz de OpenAI, Kate Waters, dijo en una declaración escrita a NPR: “El tiroteo masivo del año pasado en la Universidad Estatal de Florida fue una tragedia, pero ChatGPT no es responsable de este terrible crimen”. Dijo que la compañía se acercó para compartir información sobre la cuenta del presunto tirador con las autoridades después del tiroteo y continúa cooperando con las autoridades.

La oficina de Uthmeier está emitiendo citaciones a OpenAI en busca de información sobre sus políticas y materiales de capacitación internos relacionados con las amenazas de daño de los usuarios y cómo coopera y reporta delitos a las fuerzas del orden, que se remontan a marzo de 2024. En la conferencia de prensa, Uthmeier reconoció que la investigación está entrando en un territorio inexplorado y no está seguro de si OpenAI tiene responsabilidad penal.

“Vamos a ver quién sabía qué, quién diseñó qué o quién debería haber hecho qué”, afirmó. “Y si está claro que las personas sabían que este tipo de comportamiento peligroso podría tener lugar, que este tipo de eventos desafortunados y trágicos podrían ocurrir, y aun así buscaron ganancias y permitieron que este negocio operara, entonces las personas deben rendir cuentas”.

Waters de OpenAI dijo que el chatbot “proporcionó respuestas objetivas a preguntas con información que se podía encontrar ampliamente en fuentes públicas en Internet, y no fomentó ni promovió actividades ilegales o dañinas”.

Continuó: “ChatGPT es una herramienta de uso general utilizada por cientos de millones de personas todos los días con fines legítimos. Trabajamos continuamente para fortalecer nuestras salvaguardas para detectar intenciones dañinas, limitar el uso indebido y responder adecuadamente cuando surgen riesgos de seguridad”.

Ikner, de 21 años, enfrenta múltiples cargos de asesinato e intento de asesinato por el tiroteo de abril de 2025 cerca del sindicato de estudiantes en el campus de FSU en Tallahassee, donde era estudiante en ese momento. Su juicio comenzará el 19 de octubre. Según documentos judiciales, más de 200 mensajes de inteligencia artificial se han presentado como prueba en el caso.

Crecientes preocupaciones sobre los chatbots de IA

La investigación de Florida se produce en medio de crecientes preocupaciones sobre el papel de los chatbots de IA en la violencia masiva. Uthmeier ya había anunciado una investigación civil sobre el papel de ChatGPT en el tiroteo de la FSU, que está en curso, y los abogados de la familia de una de las víctimas dicen que planean demandar a OpenAI.

OpenAI ya se enfrenta a una demanda de la familia de una víctima gravemente herida en un ataque en Columbia Británica en febrero de 2026 que mató a ocho personas e hirió a decenas más. El presunto tirador discutió escenarios de violencia armada con ChatGPT e incluso fue expulsado de la plataforma meses antes del tiroteo, pero pudo evadir la detección y crear otra cuenta, dijo OpenAI a las autoridades canadienses.

El Diario de Wall Street informó que los sistemas internos de OpenAI marcaron las publicaciones de la cuenta y el personal se alarmó lo suficiente como para considerar alertar a las autoridades, pero que la compañía decidió no hacerlo. OpenAI ha dicho que está realizando cambios para “fortalecer” su protocolo para remitir cuentas a las autoridades tras el tiroteo en Canadá.

También están aumentando las demandas contra OpenAI y otros fabricantes de chatbots de IA, alegando que han contribuido a crisis de salud mental y suicidios. (OpenAI ha dicho que los casos son “una situación increíblemente desgarradora” y que está trabajando con expertos en salud mental para mejorar la forma en que ChatGPT responde a los signos de angustia mental o emocional).

Una demanda por muerte por negligencia presentada contra Google en marzo por el suicidio de un hombre de Florida acusa al chatbot Gemini de la compañía de presionar al hombre para “organizar un ataque con víctimas masivas cerca del Aeropuerto Internacional de Miami”. [and] cometer violencia contra extraños inocentes”, según documentos judiciales.

En respuesta a esa demanda, Google dijo: “Gemini está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones. Nuestros modelos generalmente funcionan bien en este tipo de conversaciones desafiantes y dedicamos importantes recursos a esto, pero desafortunadamente no son perfectos”. La compañía añadió que en este caso específico, Gemini había “remitido al individuo a una línea directa de crisis muchas veces”.