Shopping cart

Magazines cover a wide array subjects, including but not limited to fashion, lifestyle, health, politics, business, Entertainment, sports, science,

  • Home
  • Seguridad
  • OpenAI incorpora a su junta directiva a Paul M. Nakasone, exjefe de la Agencia de Seguridad Nacional de Estados Unidos
Seguridad

OpenAI incorpora a su junta directiva a Paul M. Nakasone, exjefe de la Agencia de Seguridad Nacional de Estados Unidos

79

OpenAI ha nombrado a Paul M. Nakasone, exjefe de la Agencia de Seguridad Nacional de Estados Unidos (NSA, por sus siglas en inglés), como miembro de su junta directiva. El general retirado del ejército estadounidense se unirá al comité de seguridad de la startup para hacer recomendaciones sobre el uso de algoritmos de inteligencia artificial (IA) para detectar y responder a las amenazas de ciberseguridad relacionadas con la tecnología.

Nakasone dirigió la NSA durante la administración del expresidente Donald Trump. Se mantuvo en el cargo desde 2018 hasta febrero pasado. Tenía la encomienda de desarrollar mecanismos y políticas para salvaguardar la infraestructura digital de Estados Unidos y promover las capacidades de ciberdefensa del país. Participó en la fundación del Comando Cibernético, una unidad encargada de planificar, conducir y sincronizar las operaciones militares en el espacio virtual.


Sam Altman

La Junta de Seguridad de Inteligencia Artificial de Estados Unidos contribuirá en el diseño de pautas y estándares para garantizar el uso seguro de la IA en el país.


Bret Taylor, presidente de la junta directiva de OpenAI, asegura que “la inteligencia artificial tiene el potencial de tener enormes impactos positivos en la vida de las personas, pero solo si se construye e implementa de forma segura. La experiencia incomparable del general Nakasone ayudará a guiar a OpenAI en el logro de su misión de garantizar que la inteligencia artificial general (AGI, por sus siglas en inglés) beneficie a toda la humanidad”.

La empresa detrás de ChaGPT ha sido señalada por supuestas omisiones de seguridad en los procesos de producción y comercialización de sus modelos de IA. Algunos ejecutivos de la compañía abandonaron sus puestos alegando preocupaciones al respecto. Ilya Sutskever, cofundador de OpenAI, anunció su salida hace unas semanas. Codirigió el equipo Superalignment que fue creado para “conducir y controlar sistemas de IA mucho más inteligentes que nosotros”. Jan Leike, que se desempeñaba como colíder de la unidad, también dejó su cargo. Acusó en redes sociales que la seguridad en la compañía “ha pasado a un segundo plano frente a la urgencia de lanzar productos brillantes”. WIRED confirmó que la unidad de gestión se disolvió por completo.



OpenAI quiere demostrar su compromiso con la seguridad

La organización ha emprendido una serie de acciones en respuesta a estos señalamientos. En mayo, anunció la formación de su comité de seguridad. Está dirigido por Sam Altman, CEO de la organización, Adam D’Angelo y Nicole Seligman, miembros de la junta directiva. Su función es realizar recomendaciones sobre “decisiones críticas” de protección y control para el desarrollo de nuevos proyectos.

OpenAI publicó a finales del año pasado un documento bajo el nombre ‘Marco de Preparación’. El texto detalla los procedimientos internos que la empresa seguirá para evaluar, rastrear y contener sus algoritmos de IA en función de los posibles peligros que puedan representar. “Por riesgo catastrófico nos referimos a cualquier amenaza que pueda generar cientos de miles de millones de dólares en daños económicos o provocar daños graves o la muerte de muchas personas; esto incluye, entre otros, el riesgo existencial”, aclara el protocolo. El mecanismo de gobernanza evalúa los modelos de IA en cuatro categorías: ciberseguridad, QBRN (amenazas químicas, biológicas, radiológicas y nucleares), persuasión y autonomía.

El reclutamiento de Nakasone es el último movimiento de la campaña que pretende restablecer la confianza alrededor del desarrollo de sistemas de IA. “La dedicación de OpenAI y su misión se alinea estrechamente con mis propios valores y experiencia en el servicio público. Espero contribuir a los esfuerzos de organización para garantizar que la inteligencia artificial general sea segura y beneficiosa para las personas de todo el mundo”, dijo el exfuncionario estadounidense.

source

Leave a Reply

Your email address will not be published. Required fields are marked *