Los retos y las apuestas equivocadas de Elon Musk a un año de su compra de Twitter

Al menos dos deepfakes sobre la guerra entre Israel y el grupo palestino Hamas han sido identificados esta semana. En esta edición de la columna "Crónicas de la desinformación" te contamos por qué en X (Twitter) circulan con facilidad contenidos desinformantes.

"En su primer año al frente de X, Musk acumula una serie de fracasos".
"En su primer año al frente de X, Musk acumula una serie de fracasos".
Imagen Arlene Fioravanti Müller.

No pasó ni un mes antes de que los deepfakes sobre la guerra entre Israel y el grupo palestino Hamas, que comenzó el 7 de octubre de 2023, sorprendieran a las redes sociales. Entretanto, el multimillonario Elon Musk realizó un cambio significativo (y nuevamente controvertido) en su forma de moderar el contenido en X (antes Twitter).

PUBLICIDAD

El pasado lunes, los verificadores de BOOM, en India, descubrieron que un video que mostraba a la modelo y celebridad estadounidense Bella Hadid expresando su apoyo a Israel había sido manipulado utilizando inteligencia artificial (IA) y, a pesar de ello, se estaba volviendo viral en X y Facebook sin ninguna barrera. En la versión original de la grabación, hecha en 2016, Hadid en realidad habla sobre los desafíos que enfrentó al crecer con la enfermedad de Lyme, que produce manchas y erupciones en la piel.

Al día siguiente, nuevamente en X, BOOM identificó el segundo deepfake sobre el conflicto en el Medio Oriente. Era un video, también manipulado con IA, en el que se veía a la reina Rania Al Abdullah, de Jordania, condenando a Hamas y brindando apoyo a Israel. Los verificadores encontraron la grabación original y destacaron en su trabajo que lo que realmente estaba haciendo la reina era criticar a Occidente por no condenar el alto número de muertes civiles registradas en Gaza después de los bombardeos israelíes.

Con Instagram y Facebook no fue difícil que las dos grabaciones fueran verificadas por profesionales. BOOM y otras organizaciones que forman parte del programa de verificación de datos independiente de Meta (llamado Third-Party Fact-Checking Program, que fu creado en 2016 y del que forma parte elDetector) enviaron sus enlaces a la plataforma y esta, siguiendo las normas públicamente acordadas en la iniciativa, proporcionó la URL de los verificadores junto a los videos falsos. Así, aquellos que veían la falsedad también observaban la corrección.

PUBLICIDAD

Con X, la situación es mucho más complicada.

Hace un año, el multimillonario Elon Musk adquirió la red social y prometió que sería una "plaza pública". En los últimos 12 meses, realizó cambios en el producto (disminuyendo su credibilidad), despidió a gran parte del equipo de "Seguridad e Integridad" de la plataforma y eliminó el consejo legal que lo asesoraba en la moderación de contenido.

Musk optó por apostar todo en las "notas de la comunidad", una iniciativa colaborativa que se basa en la contribución gratuita de usuarios de X que permite indicar si un contenido desinforma. Para que los videos de Rania y Hadid tuvieran alguna señal de su inautenticidad, era necesario esperar a que un usuario de la plataforma vinculara una URL que revelara su falsedad, y muchos de los verificadores profesionales no tienen acceso a ese sistema (que solo aceptan individuos - no organizaciones). Por lo tanto, llevó más tiempo desmentir la publicación en X que en las redes sociales de Meta, en la que participan unidades de verificación de datos. ¿Quiénes verdaderamente ganan con eso? Nadie.

En su primer año al frente de X, Musk acumula una serie de fracasos. La cantidad de descargas de la aplicación cayó un 38% a nivel mundial. El tiempo promedio de permanencia diaria de cada usuario en la plataforma disminuyó un 2%. El número total de sesiones abiertas en la red social se redujo un 4%. El valor de mercado de X se desplomó un 65%, y la calidad del contenido en esa red empeora.

PUBLICIDAD

Estudios compilados por The New York Times muestran que el discurso de odio, incluyendo mensajes racistas, antisemitas y homofóbicos, ha aumentado en la plataforma desde que Musk asumió el control. La desinformación sobre el cambio climático, las vacunas y otras teorías conspirativas también se propaga más fácilmente en X que en el antiguo Twitter. Además, gobiernos extranjeros, como el ruso y el chino, junto con actores no estatales, como el grupo palestino Hamas, han utilizado esta red social para difundir propaganda con poca o ninguna interferencia.

Pero Musk insiste en seguir apostando en las "notas de la comunidad", ese sistema colaborativo de moderación que, hasta el 17 de octubre de 2023, ni siquiera requería que los autores proporcionaran una URL como fuente. Un sistema que ya he mencionado en un artículo (en portugués) que no funciona bien en Brasil y en otras partes del mundo (ver, por ejemplo, Wired y Le Monde ).

Hace una semana, el dueño de X anunció que las publicaciones que reciban "notas de la comunidad" no podrán generar ningún centavo para sus creadores. Es decir, si publicas algo en su red social y alguien viene y dice que es falso o que le falta contexto, no ganarás nada por tu contenido. En teoría, no suena mal, pero el mundo real es muy diferente.

PUBLICIDAD

"Veremos personas presionando por notas comunitarias sobre tecnicismos intrascendentes solo para impactar perfiles con los cuales no están de acuerdo", comentó el influencer Scott Manley.

Y hay un ejemplo claro, que se ha vuelto viral en X, de lo que Manley menciona. En este experimento, un periodista de investigación publicó un video y proporcionó deliberadamente una descripción incorrecta de lo que se veía en la grabación. Dijo que un niño palestino compartía pan con un perro. "Se trata de un gato", agregó una nota de la comunidad.

Una información bastante inútil que no cambia nada y que ahora impide que el reportero (o cualquier otra persona en su lugar) cobre por la publicación que compartió en la plataforma.

"Las notas de la comunidad no solo se utilizan para corregir publicaciones, sino también para proporcionar un contexto importante que no es una corrección del post original, sino información adicional proporcionada por los usuarios de las notas de la comunidad", reflexionó otra usuaria verificada en X, que pidió que Musk reconsidere su decisión.

Es evidente que el caos de la desinformación ha invadido el antiguo Twitter y que Musk todavía da señales de creer que el trabajo de verificación, como el realizado por BOOM en los dos casos de deepfake, es fácil y que cualquiera puede hacerlo, además sin recibir ninguna compensación financiera.

El modelo colaborativo de contribución de Wikipedia puede funcionar (¿o no?) para una enciclopedia digital, pero no resiste al monstruo de la desinformación. Solo Musk no lo ve.

PUBLICIDAD

Cristina Tardáguila es la fundadora de Lupa.

Envíanos al chat de elDetector algo que quieres que verifiquemos: