Shopping cart

Magazines cover a wide array subjects, including but not limited to fashion, lifestyle, health, politics, business, Entertainment, sports, science,

  • Home
  • Ciencia
  • Qué ocurre cuando se usa IA para interrogar a los testigos de un crimen
Ciencia

Qué ocurre cuando se usa IA para interrogar a los testigos de un crimen

14

En mayo de 2023, al abogado Steven A. Schwartz se le ocurrió utilizar ChatGPT en un caso en el que estaba trabajando. Para simplificar la investigación que tenía que hacer, le había pedido al chatbot una lista de casos similares, que luego incluyó en la demanda que su cliente había presentado contra la aerolínea Avianca. Sin embargo, los resultados propuestos eran falsos, y Schwartz se hizo famoso por mostrar las consecuencias del uso incontrolado de la IA generativa en un contexto legal. El caso terminó con una multa de 5,000 dólares impuesta al abogado caído en desgracia por no revisar los resultados proporcionados por el chatbot. Sin embargo, la exploración de la IA como herramienta para facilitar el trabajo de los abogados (al igual que el de muchos otros, incluyendo el de los investigadores) no se ha detenido. Entre las diversas posibilidades está la de utilizarla para entrevistar a los testigos de un crimen. Un estudio reciente, sin embargo, sugiere que esto puede no ser una buena idea.

Se trata de una investigación del MIT Medialab que examinó recientemente el impacto de la inteligencia artificial en la fabricación de falsos recuerdos durante las entrevistas a testigos. Los investigadores les pidieron a doscientos participantes que vieran videos captados por cámaras de seguridad y, a continuación, utilizaron distintos métodos para interrogar a la muestra sobre lo que habían visto en dos momentos: inmediatamente después del visionado y una semana más tarde. Los encuestados se dividieron en cuatro grupos: uno fue entrevistado con un cuestionario, otro con un chatbot preestablecido, el tercero había interactuado con otro chatbot y el último era el grupo de control. Entre las preguntas había cinco engañosas. Por ejemplo, los distintos grupos podían haber visto un video de un crimen en el que el agresor sostenía un cuchillo. Durante el cuestionario, se le preguntó a la muestra qué tipo de arma se había utilizado. Tras esta respuesta, el chatbot podía preguntar de qué color era. En otra interacción, el bot preguntó si había una cámara de CCTV delante de la tienda cuando los atracadores llegaron en auto, cuando en cambio habían llegado a pie. Cuando se respondía afirmativamente, la IA confirmaba que era la correcta, facilitando una reconstrucción falsa de los hechos.

Los resultados del estudio

Son bastante claros: los chatbots que utilizan IA generativa inducen la creación de recuerdos alterados, denominados “falsos recuerdos”. Los falsos recuerdos se han estudiado ampliamente en el campo de la psicología. Son recuerdos parcialmente alterados, totalmente inventados o inauténticos. Esto puede ocurrir por varias razones, y son derivados de la composición de recuerdos reales, o del fenómeno psíquico de la confabulación. Su papel es fundamental dentro de los procesos por razones obvias. Una de las principales contribuciones a esta rama de la investigación fue la de Frederic Charles Bartlett, quien definió los recuerdos como un proceso constructivo influido por componentes culturales, psicológicos y contextuales, y no como una reproducción fiel de hechos pasados. Las implicaciones de este fenómeno trascienden los límites de la psicología y son especialmente importantes en campos como la educación y el Derecho. Estudios posteriores, como los de Elizabeth F. Loftus y sus colegas, han demostrado cómo la elección de determinadas palabras en las entrevistas a testigos presenciales puede inducir la aparición de falsos recuerdos. “Lost in mall”, una investigación fundamental en este campo, demostró cómo se pueden fabricar recuerdos completamente inventados de la propia infancia. Como se afirma en el artículo del MIT Medialab, la combinación de estudios conductuales, técnicas de neuroimagen y análisis a gran escala proporcionó una visión polifacética y multidisciplinar del fenómeno de los falsos recuerdos. Y ahí es donde entra esta investigación, en el estudio de la relación entre los sistemas de IA y la formación de la memoria.

El 36.4% de los encuestados se sintieron “engañados” al interactuar con chatbots. Los datos mostraron que los asistentes virtuales que utilizaban IA generativa tenían hasta tres veces más probabilidades de amplificar los recuerdos falsos que el grupo de control inmediatamente después de la visualización, y 1.7 veces más que el cuestionario tradicional. Esta tendencia se consolidó con el tiempo. Una semana después, los recuerdos falsos se mantuvieron constantes, pero la confianza en los recuerdos alterados fue mayor entre las personas que habían interactuado con un chatbot. El problema se agrava por la tendencia de los grandes modelos de lenguaje a “alucinar”, un asunto aún no resuelto.

Como conclusión del estudio, el equipo de investigadores sostiene que “a medida que los sistemas de IA se hacen cada vez más sofisticados y generalizados, es crucial considerar su impacto potencial en los procesos cognitivos y desarrollar directrices éticas para su aplicación en contextos delicados. Los resultados ponen de relieve la necesidad de actuar con cautela y de seguir investigando para garantizar que las ventajas de la tecnología de IA puedan aprovecharse sin comprometer la integridad de la memoria humana y los procesos de toma de decisiones”.

Artículo originalmente publicado en WIRED Italia. Adaptado por Andrea Baranenko.

source

Leave a Reply

Your email address will not be published. Required fields are marked *