¿A qué estado te debes mudar en función de tu personalidad? ¿Qué personaje de “Downton Abbey” serías? ¿Qué raza de perro es mejor para ti? Un gran porcentaje de los 2,130 millones de usuarios de Facebook han visto a sus amigos de Facebook compartir los resultados de uno o más cuestionarios en línea. A veces son molestos, insensatos y una pérdida de tiempo total. Pero son irresistibles. Además, solo compartes los resultados con tu familia y con tus amigos. Nada más inocente, ¿verdad?
Facebook está matando la democracia con sus perfiles de personalidad
“Facebook es hoy el tesoro más grande del mundo en datos psicográficos. Esto no es un problema cuando los datos se usan de forma ética. Pero importa mucho cuando se usan maliciosamente para manipular las opiniones y acciones de las personas”.
Incorrecto.
El negocio de Facebook es explotar tus datos. La compañía vale miles de millones de dólares porque recoge tus datos y los vende a los anunciantes. Los usuarios son alentados a aprobar, compartir y comentar sus vidas en nombre de una conexión permanente con familiares y amigos. Sin embargo, como hacker ético, investigador de seguridad y analista de datos, sé que hay mucho más en esa historia. El fundamento de la democracia moderna está en juego.
Estás siendo psicográficamente perfilado
La mayoría de la gente ha oído hablar de datos demográficos, el término utilizado por los anunciantes para dividir un mercado por edad, género, etnia y otras variables que les ayudan a comprender a los clientes. Por el contrario, los datos psicográficos miden la personalidad, los valores, las opiniones, las actitudes, los intereses y los estilos de vida de las personas. Ayudan a los anunciantes a comprender quién eres y cómo actúas.
Históricamente, los datos psicográficos fueron mucho más difíciles de recopilar y de analizar que los datos demográficos. Hoy, Facebook es el tesoro más grande del mundo de estos datos. Todos los días, miles de millones de personas le dan a la empresa una enorme cantidad de información sobre su vida y sus sueños.
Esto no es un problema cuando los datos se usan de forma ética, como cuando una empresa te muestra un anuncio de un par de gafas de sol que has buscado recientemente.
Pero importa mucho cuando los datos se usan maliciosamente: segmentando a la sociedad en cajas de resonancia desconectadas y elaborando mensajes confusos (y a la medida) para manipular las opiniones y acciones de las personas.
Eso es exactamente lo que Facebook permitió que sucediera.
Cuestionarios para leer tu mente y predecir tus actuaciones políticas
Informes recientes han revelado que Cambridge Analytica, una compañía del Reino Unido de propiedad de un multimillonario enigmático y liderada en ese momento por el asesor clave del candidato Donald Trump, Steve Bannon, utilizó datos psicográficos de Facebook para perfilar a los votantes estadounidenses en los meses previos a las elecciones presidenciales de 2016. ¿Para qué? Para dirigirse a ellos con mensajes políticos personalizados e influir en su comportamiento electoral.
Uno de los denunciantes de Cambridge Analytica, Christopher Wylie, describió en detalle cómo explotó la compañía a los usuarios de Facebook al recopilar sus datos y crear modelos para “atacar sus demonios internos”.
¿Cómo permitió Facebook que esto sucediera?
La compañía hace más que vender sus datos. Desde principios de la década de 2000 Facebook ha dado acceso a investigadores académicos que desean estudiarte. Muchos psicólogos y científicos sociales han hecho sus carreras analizando formas de predecir tu personalidad y tu ideología haciendo preguntas simples. Esas preguntas, como las que se usan en los cuestionarios de las redes sociales, no parecen tener conexiones obvias con la política. Pero incluso la decisión que tomaste sobre qué navegador web usar para leer este artículo está llena de pistas sobre tu personalidad.
En 2015, Facebook dio permiso al académico Aleksandr Kogan para desarrollar su propio cuestionario. Al igual que otros test, el suyo era capaz de capturar toda tu información pública: nombre, foto de perfil, edad, sexo y cumpleaños; todo lo que has publicado en tu línea de tiempo; toda tu lista de amigos; todas tus fotos y las fotos en las que estás etiquetado; historia educativa; ciudad natal y ciudad actual; todo lo que siempre te ha gustado, e información sobre el dispositivo que estabas utilizando, incluido tu navegador y tu idioma preferido.
Kogan compartió los datos que recopiló con Cambridge Analytica, lo que iba en contra de las políticas de Facebook, pero aparentemente la compañía rara vez hace cumplir sus reglas.
Ir de compras con usuarios impresionables
Analizando estos datos, Cambridge Analytica identificó qué temas intrigarían a los usuarios, a qué tipo de mensaje político serían susceptibles, cómo enmarcar los mensajes, el contenido y el tono que motivaría a los usuarios, y cómo lograr que los compartieran con los demás. Hizo una “lista de compras” de rasgos que podrían predecirse de los votantes.
Luego, la compañía creó sitios web, blogs y anuncios que buscaban atraer a los usuarios de Facebook y alentarlos a correr la voz. En palabras de Wylie: “ellos los veían... les hacían clic... y descendían por el agujero del conejo”.
Fue así como los votantes estadounidenses fueron blanco de noticias falsas, información engañosa y mensajes contradictorios con la intención de influir en cómo votaron, o si votaron.
Es así como se explotan las relaciones de los usuarios de Facebook con familiares y amigos para obtener ganancias monetarias y obtener beneficios políticos.
Poniendo a los usuarios en riesgo, a sabiendas
Facebook podría haber hecho más para proteger a los usuarios.
La compañía alentó a los desarrolladores a crear aplicaciones para su plataforma. A cambio, las aplicaciones tenían acceso a grandes cantidades de datos del usuario, sujetos a unas reglas que rara vez se aplicaban. Pero Facebook recaudó el 30% de los pagos hechos a través de las aplicaciones, así que su interés comercial hizo que quisiera más aplicaciones, que hicieran más cosas.
Las personas que no completaban los cuestionarios también eran vulnerables. Facebook permitió a compañías como Cambridge Analytica recopilar datos personales de amigos de las personas que hacían los test, sin su conocimiento o consentimiento. Se recolectaron datos de millones de personas, y muchos más usuarios de Facebook pudieron haber sido afectados por otras aplicaciones.
Cambiando cultura y política
En una entrevista en video con The Observer, Wylie explicó que “la política fluye de la cultura... tienes que cambiar a la gente para cambiar la cultura”.
Eso es exactamente lo que Facebook le permitió a Cambridge Analytica. En 2017, el CEO de la compañía se jactó públicamente de que era “capaz de usar datos para identificar... grandes cantidades de votantes persuasibles... que podrían ser influenciados para votar por la campaña de Trump”.
Para ejercer esa influencia, Cambridge Analytica –que afirma tener hasta 5,000 puntos de datos de cada estadounidense–, utilizó los datos de la gente para estimularlos psicológicamente a modificar sus comportamientos de manera predecible.
Esto incluyó lo que se conoció como “noticias falsas”. En una investigación encubierta, el canal 4 británico grabó a los ejecutivos de Cambridge Analytica hablando de su disposición a diseminar información errónea, incluyendo esta afirmación de su CEO: “estas son cosas que no necesariamente tienen que ser verdad, siempre y cuando se crean”.
La sociedad estadounidense no estaba preparada: el 62% de los adultos estadounidenses reciben noticias por las redes sociales, y muchas personas que ven noticias falsas dicen que las creen. Por eso las tácticas de Cambridge Analytica funcionaron: 115 historias falsas a favor de Trump se compartieron en Facebook un total de 30 millones de veces. De hecho, las noticias falsas más populares se compartieron más ampliamente en Facebook que las noticias más populares de los medios tradicionales.
Para esta guerra psicológica, la campaña de Trump pagó a Cambridge Analytica millones de dólares.
Una buena dosis de escepticismo
La historia de Estados Unidos está llena de historias de personas que comparten sus pensamientos en la plaza pública. Si está interesado, un transeúnte puede venir y escuchar, compartiendo la experiencia de la narración.
Al combinar los perfiles psicográficos, el análisis de grandes datos y la micro-focalización publicitaria, el discurso público en Estados Unidos ha entrado en una nueva era. Lo que solía ser un intercambio público de información y un diálogo democrático es ahora una campaña de susurros personalizada: grupos éticos y grupos maliciosos pueden dividir a los estadounidenses, susurrar al oído de todos y cada uno de los usuarios, empujarlos en función de sus miedos y alentarlos a susurrarles a otros que compartan esos miedos.
Un ejecutivo de Cambridge Analytica explicó: “Hay dos factores humanos fundamentales... esperanzas y temores... y muchos de ellos son tácitos e incluso inconscientes. No sabías que era miedo hasta que viste algo que evocó esa reacción. Nuestro trabajo es... comprender esos temores subyacentes realmente arraigados. No sirve de nada hacer una campaña electoral basada en hechos, porque en realidad todo se trata de emoción”.
La información que compartiste en Facebook expuso tus esperanzas y temores. Ese cuestionario de Facebook de aspecto inocente no es tan inocente.
El problema no es que los datos psicográficos hayan sido explotados a gran escala. Es que las plataformas como Facebook permiten que los datos de las personas se usen de una forma que puede quitar el poder a los votantes y dárselo a los activistas que analizan los datos.
En mi opinión, esto mata la democracia. Incluso Facebook pudo ver eso cuando dijo en enero que, en el peor de los casos, las redes sociales “permiten a las personas difundir información errónea y corroer la democracia”.
Mi consejo: usa Facebook con una buena dosis de escepticismo.
Timothy Summers, Director de innovación, emprendimiento y engagement en la Universidad de Maryland. (El autor tiene acciones en Facebook).
Este artículo fue publicado originalmente en The Conversation. Lea aquí el artículo original.
Nota: La presente pieza fue seleccionada para publicación en nuestra sección de opinión como una contribución al debate público. La(s) visión(es) expresadas allí pertenecen exclusivamente a su(s) autor(es) y/o a la(s) organización(es) que representan. Este contenido no representa la visión de Univision Noticias o la de su línea editorial.








