OpenAI prohíbe a sus empleados advertir a los reguladores sobre los “graves riesgos” que representan sus sistemas de inteligencia artificial (IA), de acuerdo con un informe publicado en The Washington Post. El reporte hace referencia a una nueva demanda presentada ante la Comisión de Bolsa y Valores de Estados Unidos (SEC, por sus siglas en inglés). Los denunciantes anónimos han solicitado al organismo que investigue los acuerdos de indemnización, no desprestigio y confidencialidad impuestos por la compañía. Califican estas políticas como “ilegales” y “excesivamente restrictivas”.
El rotativo estadounidense tuvo acceso a una carta enviada por los abogados de los demandantes a Gary Gensler, presidente de la SEC. El documento acusa que los convenios de la startup “prohibían y desalentaban tanto a los empleados como a los inversores para comunicar a las autoridades violaciones de valores; obligaban a los trabajadores a renunciar a sus derechos, incentivos y compensaciones para denunciantes, y exigían a los colaboradores que notificaran a la empresa sobre cualquier comunicación con los reguladores gubernamentales”.
Los representantes legales afirman que han presentado evidencia ante la SEC que prueba que los pactos de confidencialidad de OpenAI violan la ley “al exigir que sus empleados firmen contratos ilegalmente restrictivos para obtener un puesto, pagos de compensación y otras contraprestaciones financieras”. La misiva señala que la compañía detrás de ChatGPT obliga a su personal a renunciar al derecho de recibir una indemnización por denuncia de irregularidades.
Los demandantes indican que la Comisión de Valores “debe tomar medidas rápidas y agresivas” para hacer cumplir las normas consideradas en las leyes federales y en la orden ejecutiva relacionada con la industria de la IA emitida por el presidente Joe Biden. Pidieron al organismo que exija a OpenAI todos los contratos de empleo y confidencialidad para su revisión.
Stephen Kohn, uno de los abogados involucrados en el caso, subraya que “en términos de supervisión de la IA, estamos en el comienzo. Necesitamos que los empleados den un paso adelante y que OpenAI sea una empresa más abierta y transparente”.
La copia de la carta fue enviada al periódico y al Congreso por la oficina de Chuck Grassley, senador republicano de Iowa. El funcionario advirtió que “las políticas y prácticas de OpenAI parecen tener un efecto amedrentador sobre el derecho de los denunciantes a hablar y recibir la compensación debida por sus divulgaciones. Monitorear y mitigar las amenazas que plantea la IA es parte de la responsabilidad constitucional del Congreso y los denunciantes serán esenciales para resguardar la seguridad nacional”.
Hannah Wong, portavoz de OpenAI, respondió a los señalamientos. Declaró que la política de denuncia de irregularidades de la firma protege los derechos de los empleados. “Es esencial un debate riguroso sobre esta tecnología y ya hemos realizado cambios importantes en nuestro proceso de salida para eliminar las condiciones de no desprestigio”, sostuvo.
La transparencia de OpenAI
Los convenios de salida de empleados de OpenAI han sido objeto de diversas críticas. A principios de este año, un artículo publicado en el portal Vox reveló que la empresa había amenazado con recuperar el capital de los empleados si no firmaban los acuerdos de no desacreditación. Sam Altman, CEO de OpenAI, comunicó que desconocía la existencia de tales tratos. Anunció que la cláusula se eliminaría y se modificarían los procesos de renuncia y despido.
El director ejecutivo está evaluando la posibilidad de convertir a OpenAI en una organización con fines de lucro, de acuerdo con un reporte de The Information. El cambio permitiría a la compañía obtener ganancias de forma ilimitada y facilitaría su posible salida a la bolsa. El éxito que ChatGPT alcanzó a finales de 2022 elevó el interés comercial alrededor de startup. No obstante, la empresa ha sido señalada por supuestas omisiones de seguridad y ética en los procesos de producción y venta de sus modelos de IA. Los analistas sugieren que con el cambio de modelo es posible que la organización se vea obligada a priorizar proyectos con mayor potencial comercial. Anticipan un ritmo de innovación acelerado que podría incrementar los temores sobre los riesgos alrededor del uso de estos sistemas.
OpenAI ha puesto en marcha una campaña que pretende restablecer la confianza en sus principios, operaciones y la seguridad de sus sistemas. En mayo anunció la formación de un comité de seguridad dirigido por Sam Altman, Adam D’Angelo y Nicole Seligman, miembros de la junta directiva. Su función es realizar recomendaciones sobre “decisiones críticas” de protección y control para el desarrollo de nuevos proyectos.