Shopping cart

Magazines cover a wide array subjects, including but not limited to fashion, lifestyle, health, politics, business, Entertainment, sports, science,

  • Home
  • Seguridad
  • El sospechoso de la explosión de la Cybertruck en Las Vegas preguntó a ChatGPT cómo causar detonaciones
Seguridad

El sospechoso de la explosión de la Cybertruck en Las Vegas preguntó a ChatGPT cómo causar detonaciones

12

El Departamento de Policía Metropolitana de Las Vegas ha revelado que el sospechoso de la explosión de una Cybertruck ocurrida frente al hotel Trump International consultó a ChatGPT para obtener información sobre la adquisición y activación de materiales explosivos. La situación ha reavivado las preocupaciones acerca de la seguridad de los sistemas de inteligencia artificial (IA) y su posible uso en actividades ilícitas.

El hecho ocurrió el pasado 1 de enero. Un conductor en una camioneta eléctrica Tesla ingresó al área de valet del hotel, donde el vehículo explotó. Las autoridades identificaron al presunto responsable como Matthew Livelsberger, un soldado activo del Ejército de Estados Unidos, quien murió en el lugar. El caso está siendo investigado como un posible acto criminal y de terrorismo.


ametralladora montada sobre pickup

El Pentágono está buscando todas las opciones disponibles para mantener a las tropas estadounidenses a salvo de la creciente oleada de drones adversarios, incluyendo un giro robótico en sus armas pequeñas de serie.


Los cuerpos de seguridad locales accedieron al smartphone y algunas cuentas digitales de Livelsberger. Encontraron que el militar accedió a ChatGPT el 27 de diciembre para obtener referencias generales de diferentes detonantes, mecanismos de activación y disponibilidad de ciertas armas de fuego.

Las conversaciones del sujeto con la IA de OpenAI se presentaron esta semana en una rueda de prensa, junto con algunos videos, fotografías y documentos relacionados. Entre los materiales, destacan un correo electrónico enviado a un podcaster no identificado y “posible manifiesto” en el que Matthew relaciona sus intenciones suicidas con el servicio que prestó en la guerra de Afganistán. Los agentes a cargo del caso no profundizaron sobre la posible influencia que tuvo la IA en lo sucedido.

Las causas de la explosión de la Cybertruck aún no se han determinado. En las primeras indagatorias, un funcionario con información sobre los hechos dijo que el vehículo transportaba una carga de explosivos similares a fuegos artificiales. Elon Musk, CEO de Tesla y aliado cercano de Trump, aseguró que el equipo directivo de la compañía está investigando. “Hemos confirmado que la explosión fue causada por fuegos artificiales de gran tamaño o una bomba transportada en la parte trasera de la Cybertruck alquilada y que no está relacionada con el vehículo en sí. Toda la telemetría de la camioneta dio positivo en el momento de la explosión”, escribió en X (anteriormente conocida como Twitter).

Captura de las conversiones de Matthew Livelsberger con ChatGPT antes de la explosión de la Cybertruck en Las Vegas.Cortesía Departamento de Policía Metropolitana de Las Vegas

El uso seguro de la IA y ChatGPT está en duda

Liz Bourgeois, portavoz de OpenAI, lamentó el incidente y aseguró que la startup liderada por Sam Altman está comprometida con garantizar el uso responsable de su tecnología. “Nuestros modelos están diseñados para rechazar instrucciones dañinas y minimizar el contenido dañino. En esta ocasión, ChatGPT respondió con información que ya estaba disponible públicamente en internet y brindó advertencias contra actividades dañinas o ilegales. Estamos trabajando con las autoridades para respaldar su investigación”, afirma en una declaración retomada por The Verge.

Los expertos sugieren que la información que el bot entregó a Livelsberger no parece estar restringida y podría obtenerse a través de la mayoría de los servicios de búsqueda en la red. Pese a ello, los acontecimientos han avivado las inquietudes sobre el uso de la IA generativa para el desarrollo de armamento con fines fuera de la ley.

OpenAI prohíbe el uso de sus algoritmos para desarrollar armas, vigilar comunicaciones, destruir propiedad y crear cualquier clase de herramienta que produzca algún daño. No obstante, a principios del año pasado, actualizó su política de uso para suprimir la norma que impedía utilizar su tecnología en tareas “militares y de guerra”.

Algunos expertos señalan que la implementación de la IA en el sector militar carece de salvaguardas y políticas que garanticen su adecuada utilización. La creación de armas biológicas con este tipo de sistemas han ocupado un lugar de especial interés en las discusiones. En noviembre de 2023, el Gobierno de Reino Unido publicó un informe en el que enlistó el desarrollo de armas biológicas mortales, ataques automatizados a la ciberseguridad y el diseño de potentes modelos de inteligencia artificial autónomos como principales riesgos del uso de la IA con fines bélicos y de defensa. Por su parte, en febrero del año pasado, OpenAI reconoció que su modelo GPT-4 tiene “un ligero potencial” para ser utilizado como un habilitador en el desarrollo de armas biológicas.

source

Leave a Reply

Your email address will not be published. Required fields are marked *