Palm Springs

El FBI afirma que sospechosos del atentado de Palm Springs utilizaron IA para planificar el ataque 

Telemundo

Lo que debes saber

  • Dos hombres vinculados al atentado con bomba en una clínica de fertilidad de Palm Springs, California, el mes pasado, utilizaron un programa de chat con inteligencia artificial para ensamblar su bomba, informaron las autoridades federales.
  • Guy Edward Bartkus, principal sospechoso del atentado, utilizó un programa de inteligencia artificial (IA) anónimo para buscar información sobre “explosivos, diésel, mezclas de gasolina y velocidad de detonación”
  • El uso de IA generativa se ha disparado en los últimos años con el auge de chatbots como ChatGPT de OpenAI, Claude de Anthropic y Gemini de Google.

Dos hombres sospechosos del atentado con bomba del mes pasado en una clínica de fertilidad de Palm Springs, California, utilizaron un programa de chat con inteligencia artificial para planificar el ataque, informaron las autoridades federales el miércoles.

Noticias California 24/7 en Telemundo 52.

Mira  MIRA AQUÍ GRATIS

Los registros de una aplicación de chat con IA muestran que Guy Edward Bartkus, principal sospechoso del atentado, “investigó cómo producir explosiones potentes utilizando nitrato de amonio y combustible”, informaron las autoridades.

Las autoridades no identificaron el programa de inteligencia artificial utilizado por Bartkus.

Las autoridades policiales de la ciudad de Nueva York arrestaron el martes a Daniel Park, un hombre de Washington sospechoso de ayudar a suministrar grandes cantidades de sustancias químicas utilizadas por Bartkus en un coche bomba que dañó la clínica de fertilidad.

Bartkus murió en la explosión, mientras que otras cuatro personas resultaron heridas.

Manténte al tanto de las noticias locales y del estado del tiempo. Suscríbete a nuestros newsletters gratuitos aquí.

Subscribe  SUSCRÍBETE

El FBI declaró en una denuncia penal contra Park que Bartkus presuntamente usó su teléfono para buscar información sobre “explosivos, diésel, mezclas de gasolina y velocidad de detonación”, según informó NBC News.

Este es el segundo caso este año en el que las autoridades señalan el uso de IA para ayudar en un atentado o intento de atentado. En enero, las autoridades afirmaron que un soldado que hizo explotar un Tesla Cybertruck frente al Hotel Trump en Las Vegas utilizó IA generativa, incluyendo ChatGPT, para planificar el ataque.

El soldado Matthew Livelsberger utilizó ChatGPT para buscar información sobre cómo fabricar un explosivo, la velocidad a la que se desplazarían ciertas municiones, entre otras cosas, según las autoridades.

En respuesta al incidente de Las Vegas, OpenAI expresó su tristeza por la revelación de que su tecnología se utilizó para planear el ataque y su compromiso de garantizar que las herramientas de IA se utilicen de forma responsable.

El uso de la IA generativa se ha disparado en los últimos años con el auge de chatbots como ChatGPT de OpenAI, Claude de Anthropic y Gemini de Google. Esto ha impulsado un gran desarrollo de servicios de IA orientados al consumidor.

Sin embargo, en su afán por mantenerse competitivas, las empresas tecnológicas están tomando cada vez más atajos en las pruebas de seguridad de sus modelos de IA antes de su lanzamiento al público, según informó CNBC el mes pasado.

OpenAI presentó el mes pasado un nuevo “centro de evaluaciones de seguridad” para mostrar los resultados de seguridad de los modelos de IA y su rendimiento en pruebas de alucinaciones, fugas de la seguridad y contenido dañino, como contenido de odio o consejos ilícitos.

El mes pasado, Anthropic añadió medidas de seguridad adicionales a su modelo Claude Opus 4 para evitar su uso indebido en el desarrollo de armas.

Los chatbots de IA se han enfrentado a numerosos problemas causados ​​por manipulaciones y alucinaciones desde que ganaron popularidad.

El mes pasado, Grok, el chatbot xAI de Elon Musk, proporcionó a los usuarios afirmaciones falsas sobre el “genocidio blanco” en Sudáfrica, un error que la compañía atribuyó posteriormente a la manipulación humana.

En 2024, Google suspendió su función de generación de imágenes con IA Gemini después de que los usuarios se quejaran de que la herramienta generaba imágenes históricamente inexactas de personas de color.

Este artículo fue publicado originalmente en inglés por Annie Palmer para nuestra cadena hermana CNBC.com. Para más de CNBC entra aquí.  

Contáctanos