¿Sería internet más segura si pudieras saber si se manipularon las imágenes publicadas?

Crédito: Arte: Arlene Fioravanti
¿Crees que eres capaz de distinguir fotos reales de fotos totalmente creadas por inteligencia artificial? ¿Crees que sabrías distinguir un rostro verdadero de un rostro falso? Pues un estudio realizado por las universidades de Lancaster, en Reino Unido, y de Berkeley, en California, indica que probablemente no. Que la tecnología por detrás de las imágenes digitales ya está tan desarrollada que el ojo humano ya se pierde, se confunde.
El experimento realizado por las universidades fue razonablemente sencillo. En un primer momento, 315 personas vieron un total de 125 imágenes y las clasificaron como verdaderas o artificiales. No pasó del 48% el índice de acierto. En la segunda fase del estudio, otras 219 personas recibieron entrenamiento para identificar rostros creados por computadoras pero, aun así, la tasa de éxito no subió tanto. Sólo un 59% supo indicar cuáles rostros eran falsos.
Y son datos aterrorizantes como estos los que llevaron a un grupo de empresas –entre ellas Adobe, Nikon, Getty Images, Microsoft, AFP y The New York Times– a formar la Content Authenticity Initiative, CAI, (Iniciativa para Contenidos Auténticos, en la traducción del inglés). Desde 2019, el colectivo trabaja de forma coordinada para lograr que, en un futuro cercano, ciudadanos comunes tengan más datos a su disposición para evaluar si una imagen, una fotografía, es verdadera o si ha sido artificialmente creada.
El 2 de abril, tuve la oportunidad de participar de un taller ofrecido por Santiago Lyon, el gerente de Educación de la CAI, y me impresioné con los grandes pasos dados por el grupo para facilitar la identificación de fotos manipuladas.
Envíanos al chat algo que quieres que verifiquemos. Pincha aquí:
En una pantalla gigante, Lyon enseñó una fotografía –real– de las pirámides de Egipto. En seguida empezó a añadirle cambios: filtros, colores, nubes… Y, en menos de un minuto, las pirámides estaban cubiertas por una gran cantidad de nieve, algo como la Antártida.
¿Qué podríamos ofrecer a la gente para que pudieran ver que esta imagen ha sido manipulada?, preguntó Lyon. “¡Muy fácil! El Photoshop ahora registra de forma indeleble cada una de las intervenciones hechas en una foto y esos registros históricos, de cambios realizados, seguirán conectados a ese archivo digital para siempre”.
El objetivo de CAI es que más y más herramientas tengan la capacidad de guardar datos sobre el historial de una determinada imagen, sobre todos los cambios que ella pueda haber sufrido. Lyon se refiere a las cámaras de foto de nuestros móviles y a los sistemas de publicación de grandes periódicos y agencias de notícias. Lyon lucha para que un día los responsables de los algoritmos de las redes sociales entiendan que no deben aceptar que se suban a ellas contenidos visuales que no traigan datos sobre su procedencia, y que deben dar a los usuarios la posibilidad de cliquear en un botoncito para que se desplieguen todas las alteraciones que han afectado determinado registro.
“La ausencia de datos relativos a la procedencia y a la historia de una fotografía serán, un día, señal clara de que el ciudadano no puede fiarse de ese contenido”, explicó el experto. “Llegará el momento en que los usuarios de redes sociales se preguntarán sobre por qué un determinado registro no tiene datos históricos”.
Puede que Lyon esté depositando demasiada confianza en la capacidad de los ciudadanos comunes de preocuparse con ese tipo de información o de aprender a leerlas. Pero el camino propuesto no solo es interesante. Puede ser a la vez divertido y peligroso.
En el caso de la diversión, pensemos, por ejemplo, qué pasaría si las portadas de las revistas y de las páginas web tuvieran que traer datos claros y accesibles sobre las ediciones hechas en Photosphop sobre las imágenes utilizadas. Sabríamos, por ejemplo, qué imperfecciones han sido borradas en los cuerpos de los/las modelos o en una infinidad de paisajes.
En el caso de lo peligroso, vale pensar en cómo determinada información sobre las imágenes puede terminar poniendo en riesgo a fotógrafos y fotografiados. ¿Qué podría hacer el ejército ruso si cogiese datos de geolocalización de los profesionales que sacaron las tristes fotos del exterminio realizado en la ciudad ucraniana de Bucha? La cautela es fundamental. Tu reflexión y contribución también.
Aprovecha las próximas veces que estés en las redes sociales e imagina cómo sería si pudieras saber la procedencia de cada foto. ¿Te sentirías más o menos protegido de las falsedades online?
Cristina Tardáguila es directora de programas de ICFJ y fundadora de la Agência Lupa.
¿Viste algún error o imprecisión? Ayúdanos a corregirlo. También queremos leer si hay algún mensaje o imagen que quieres que verifiquemos. Escríbenos a eldetector@univision.net
Aquí te contamos sobre nuestra metodología y política de corrección.