OpenAI, Google, Meta, Microsoft, Amazon y cinco empresas tecnológicas más se han comprometido a combatir la creación y difusión de material de abuso sexual infantil (CSAM, por sus siglas en inglés) generado con sistemas de inteligencia artificial (IA). Pactaron públicamente la adopción de principios Safety by Design, un enfoque que pone la seguridad y los derechos de los usuario en el centro del diseño y desarrollo de productos y servicios.
La iniciativa está respaldada por Thorn, una organización internacional contra la trata de personas, y All Tech is Human, un organismo sin fines de lucro que aborda problemas tecnológicos y sociales complejos. Establece una serie de principios que deberán ser aplicados en los procedimientos de construcción, entrenamiento, difusión y mantenimiento de los modelos de IA generativa.
“La IA generativa hace que la creación de volúmenes de contenido sea más fácil que nunca. La tecnología desbloquea la capacidad que puede alcanzar un solo depredador infantil para crear rápidamente CSAM a escala. Estos actores dañinos pueden adaptar imágenes y videos originales en nuevo material de abuso, revictimizando a los niños. Pueden manipular material benigno de infantes para convertirlo en contenido sexualizado o crear CSAM totalmente generado por una IA”, advierte Thorn.
La organización afirma que en 2023 y solo en Estados Unidos se denunciaron más de 104 millones de archivos sospechosos de ser CSAM. Sostiene que el creciente acceso y uso de sistemas basados en IA plantea riesgos significativos para la seguridad infantil. La tecnología puede frenar los esfuerzos para identificar a víctimas de abuso sexual, crear nuevas formas de victimizar y revictimizar a los niños, incrementar la demanda de contenidos explícitos y facilitar el intercambio de información entre depredadores. “La prevalencia de CSAM creado con IA es pequeña, pero está creciendo. La necesidad de una respuesta proactiva para proteger a los niños es clara”, continuó Thorn.
Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI, OpenAI y Stability AI se comprometieron a cumplir una serie de acuerdos, mediadas de mitigación y estrategias definidos colectivamente y plasmados en un documento titulado ‘Safety by Design for Generative AI: Preventing Child Sexual Abuse’. El escrito establece tres principios básicos:
Desarrollar, construir y publicar modelos de IA generativa que aborden de manera proactiva los riesgos de seguridad infantil
Las empresas deberán asegurarse que los conjuntos de datos utilizados para el entrenamiento de sus algoritmos de IA no contengan contenidos que dañen la integridad de los niños. En caso de identificar materiales de esta naturaleza, tendrán que eliminarlos. Evadir el uso de bases de información con alto riesgo de contener CSAM es parte del compromiso. Se recomienda “realizar pruebas de estrés estructuradas, escalables y consistentes de los modelos durante todo el proceso de desarrollo para determinar su capacidad de producir CSAM dentro de los límites de la ley”, puntualiza el documento.
Distribuir modelos de IA generativa con salvaguardas para garantizar la seguridad infantil
Las compañías pactaron establecer más y mejores mecanismos para proteger a sus productos y servicios de IA generativa de conductas y contenidos abusivos. También prometen alojar sus algoritmos de forma responsable en servidores con reglas y políticas claras en torno a la protección infantil.
Mantener la seguridad del modelo y de la plataforma de forma proactiva
Las organizaciones deberán establecer políticas y mecanismos que eviten que sus desarrollos puedan ampliar el acceso a herramientas dañinas. Asumieron la responsabilidad de aumentar sus inversiones en investigación y soluciones tecnológicas para identificar y combatir nuevos factores de riesgo y amenazas. Las big tech acordaron luchar contra el CSAM y frustrar cualquier intento para que sus plataformas se utilicen en la creación, almacenamiento, solicitud y distribución de este tipo de contenidos.
“Instamos a todas las empresas que desarrollan, implementan, mantienen y utilizan tecnologías y productos de IA generativa a que se comprometan a adoptar estos principios y demuestren su dedicación para prevenir actos de abuso o explotación sexual infantil”, concluyó Thorn.
El uso indebido de la IA atenta contra la seguridad infantil
En febrero pasado, más de cuatro centenas de expertos en inteligencia artificial (IA), tecnología, seguridad en línea, ética digital y política global han firmado una carta abierta para exigir a los gobiernos de todo el mundo tomar medidas vinculantes urgentes en contra de los deepfakes.
El documento titulado Disrupting the Deepfake Supply Chain sostuvo que los contenidos audiovisuales hiperrealistas creados con IA “son una amenaza creciente para la sociedad y que los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener su proliferación”.
El escrito advirtió que los contenidos lascivos y ficticios creados con IA representan el 98% de todos los videos deepfake en línea. Durante el último año, el contenido sexual ultrafalso registró un aumento del 400%. Alcanzó un tráfico mensual superior a 34 millones de usuarios en 2023.
Una investigación publicada por The Washington Post en junio del año pasado alertó que las imágenes falsas creadas con inteligencia artificial mostrando a menores de edad en actividades sexuales están migrando de la dark web a las redes sociales. Los contenidos nocivos hechos con la tecnología también contribuyen a revictimizar a cualquier persona cuyas imágenes de abusos anteriores se utilicen para entrenar modelos de IA que generen fotos falsas, según los especialistas.