The M+G+R Foundation
Los
hilos que mueven tu voto
por
Laura G. de Rivera
Escritora Española
INTRODUCCIÓN
por The M+G+R Foundation
El propósito de The M+G+R
Foundation en reproducir en nuestra páginas este
excelente artículo de Laura G. de Rivera es para alertar a
nuestro lectores - a nivel global y no solo en España - como, y
hasta que punto, nuestras mentes y acciones pueden ser manipuladas por
terceros
de manera que la población mundial lleve a cabo la agenda de
dichos terceros.
Aunque la autora enfocó su artículo en las manipulaciones
electorales, la información que ella provee se
aplica en un 100% a todos los aspectos de las vidas de todos los seres
humanos.
El Artículo
Bots,
microsegmentación
de la población internauta según su personalidad y sus
intereses, mensajes diseñados a medida para cada perfil,
burbujas de filtrado, fake news...
La propaganda de precisión, basada en sofisticados algoritmos de
inteligencia artificial, sirve para orquestar nuestro sentir
político. Un arma que, según muchos, atenta contra los
cimientos de la democracia.
No, la Comisión Europea (CE) no se
gasta 80 millones de euros al
año en bebidas alcohólicas. Tampoco es verdad que Podemos
(un partido Español de izquierda) proponga que los inmigrantes
ilegales cobren 1.200 euros al mes, ni que
los senadores del PP (un
partido Español de centro-derecha) aplaudieran la
paralización de la subida de
pensiones. Son solo algunos de los bulos que sirven para calentar los
ánimos en vísperas de las elecciones.
De desmentir fake news, o
noticias falsas, como
estas, se ocupa Maldita.es,
portal español perteneciente a
la
IFCN, una alianza
internacional de verificadores independientes de trece
países europeos. De cara a las votaciones del 26 de mayo para el
Parlamento Europeo, han creado
la página factcheckeu.info,
donde
cualquiera puede comprobar si cierta noticia que circula por las redes
es o no verídica. Es un tema que trae de cabeza a la Comisión Europea, tanto
que este año ha invertido en combatirlo 5 millones de euros (el
triple que en 2018).
Su inquietud no es para menos, cuando los partidos
de ultraderecha nacionalista y antieuropeísta son los que mejor
explotan a su favor la propaganda de precisión. Es decir, el
empleo de algoritmos de inteligencia artificial para determinar
perfiles de usuarios y para crear mensajes que apunten al talón
de Aquiles de cada uno de ellos. Si no, que se lo digan a los
estadounidenses. O a los italianos. O a los ingleses con su Brexit.
Todo apunta a que Steve Bannon, el que
fuera director de la
campaña en redes sociales de Donald Trump, ha
desembarcado en
Europa decidido a hacerse notar. Y es que sus estrategias digitales y
populistas funcionan. Después de dejar su granito de arena en
Estados Unidos, ayudó a ascender en las elecciones italianas al
conservador Matteo Salvini, líder de la Liga Norte (un partido Italiano de
extrema derecha). En
España, ha catapultado al estrellato a Vox (un partido Español de
extrema derecha) que, al cierre de
esta edición, tiene más del doble de seguidores en
Instagram que Podemos y cuatro veces más que el PP.
The
Movement, en Bruselas, y Dignitatis
Humanae, en Roma, son las sedes
europeas de los dos think tanks
de Bannon para manipular la intención de voto gracias a
técnicas de micro-targeting,
que permiten segmentar a los ciudadanos por perfiles
ideológicos, género, intereses, ubicación o
conducta en la Red. La clave está en dirigir dardos envenenados
a las audiencias que más se van a rebotar - y más van a
reaccionar a tuits incendiarios, amplificando su efecto y su publicidad
-, o a los sectores de indecisos. Al más puro estilo de Trump.
Otro frente al que teme la Comunidad
Europea es Rusia. Y no se trata de una
teoría conspiranoica ni de una película de James Bond,
no. Un documento publicado en febrero por el Consejo de Ministros de la
Unión Europea afirma que "los esfuerzos defensivos deben
dirigirse a las fuentes
rusas, que cada vez despliegan más estrategias de
desinformación". En 2016, la campaña soviética
para boicotear el proceso electoral estadounidense alcanzó,
sólo en Facebook a 125
millones de usuarios, según datos
del citado informe. Google y Twitter fueron sus otras dos
dianas. pero
no eran mensajes disparados al azar, sino diseñados a medida
para targets
específicos, e invisibles para el público general. "Los
sentimientos individuales sobre ideas o candidatos políticos
suelen ser muy impresionables y, por lo tanto, manipulables", aseguran
Dipayan Ghosh y Ben Scott, investigadores del informe Digital Deceit, publicado el
año pasado.
La propaganda de precisión está basada en las mismas
técnicas de inteligencia artificial que usa el márquetin
on-line personalizado. Pero ¿qué sucede cuando no se
trata de vender coches, sino candidatos electorales? "Las herramientas
de publicidad digital son perfectamente legales. Todos los implicados
se benefician económicamente en este ecosistema. Han
desarrollado estrategias brillantes de persuasión activa. Pero
también han abierto la puerta a abusos que pueden dañar
el interés público y la cultura política,
debilitando la integridad de la democracia", advierte Ghosh. Es decir,
lo peor que te puede pasar ya no es que te veas influido para comprar
cierta marca de coche, sino que seas manipulado en tu visión
política... y en tu voto.
En 2017, Stephen Paddock mató a
58 personas y dejó
heridas a otras 851 en el mayor asesinato en masa cometido por un solo
individuo en Estados Unidos. Cuando, a la mañana
siguiente, los
ciudadanos quisieron ampliar la noticia en Google, se toparon con
varias webs en los primeros puestos de resultados que describían
a Paddock como un simpatizante liberal y anti-Trump. Además,
aseguraban que el FBI había revelado su conexión con el
ISIS. Pero todo era falso. La
estrategia perseguía apuntalar la
popularidad de Trump y fomentar el miedo a los ataques terroristas.
4Chan, una cadena especialista
en desinformación, se
había pasado toda la noche trabajando para cargarles la culpa de
la masacre a los demócratas. Lograron que sus noticias falsas
burlaran el sistema de selección de resultados del buscador,
cuando alguien Googleaba el
nombre del asesino.
Aunque parezca sorprendente, la desinformación está
protegida por la libertad de expresión, por eso es tan
difícil de frenar. Lo que sí se puede parar son
técnicas como la que funcionó en la noticia de Paddock.
"El Black Hat SEO está
diseñado para engañar al
algoritmo de búsqueda de Google
durante unas horas, antes de que
pueda corregir la distorsión. Es un arma crítica en el
arsenal de propaganda de precisión. Los resultados de
búsqueda sobre temas de actualidad juegan un papel clave para
dar forma a la opinión pública. Por eso, su
manipulación es un peligro para la integridad del debate
político", denuncia Ghosh, que además fue consejero de
tecnología en la Casa Blanca durante el mandato de Barack Obama.
Por ejemplo, cuando quieres enterarte de qué dijo tal candidato
en su reciente aparición pública y lo googleas,
el Black Hat SEO puede
hacer que los primeros puestos de resultados sean de páginas con
bulos para desprestigiar al personaje en cuestión.
Imagina que eso no te pasa solo a ti, sino a millones de personas
más al mismo tiempo. Supón que, además, esas
noticias engañosas resultan tan verosímiles y atractivas
que no solo te las crees, sino que las compartes y tuiteas
a tus
amigos. Eso multiplicado por millones. En menos de lo que tardas en
echarte la siesta, ya se ha hecho viral. La onda expansiva es tan
inmensa, para empezar, porque Google es el método de
búsqueda de información que emplea el 85% de los
internautas del mundo. Y porque los cinco primeros resultados de la
búsqueda se llevan el 75% del tráfico en la Red. Y el
primero, el 95%.
Más sofisticada es otra herramienta que les valió la
victoria aplastante a Obama en 2012, a Trump en 2016, al presidente
francés Emmanuel Macron en 2017, a los defensores del sí en la campaña del Brexit o al presidente Uhuru
Kenyatta, en Kenia, en 2017. Hablamos del software de gestión de
redes sociales o Social Media
Management Software (SMMS), que se ocupa
de determinar qué grupos de personas son más adecuados
para dirigirse a ellos. Tras recabar datos personales de millones de
usuarios, bien a través de su compra en el mercado de
información o cosechados online, este software segmenta la
población para decidir cómo mostrarles un determinado
mensaje. Es lo que ocurrió en la campaña de Trump: "De
cada frase del candidato hicieron once versiones muy refinadas, para
perfiles psicológicamente diferentes. Cuando conozco tu
personalidad, conozco tus miedos, y ahí está la clave,
ahí es donde empieza el lavado de cerebro. Esto se llama
populismo, no democracia. Es ajustar mi charla a lo que tú
quieres escuchar", afirma Martin Hilbert, profesor de
Comunicación en la Universidad
de California y asesor
tecnológico de la Biblioteca del Congreso de EE.UU.
En la misma línea, el llamado filter
bubble o 'burbuja de filtrado'
identifica la parte del programa
electoral con la que podrías estar de acuerdo, para
bombardearte
solo con esa idea. Es lo que se hizo con gran éxito en la
campaña de Obama, tal como nos cuenta Hilbert, donde crearon una
base de datos de 16 millones de votantes indecisos, con el fin de
enviarles propaganda a medida y ganarlos para su causa. "Podías
estar en desacuerdo con su programa político en un 90%, y estar
de acuerdo con una sola de sus promesas electorales. Si te muestran
todo el rato - en tu feed de
Facebook, en Twitter, etc. - mensajes sobre esa
única idea
afín a tu modo de sentir, acabas pensando: 'Mira, qué
bueno es Obama'. La burbuja de filtrado es tan potente que cambiaron la
opinión del 80% de la gente que atacaron de esta manera.
Así ganó Obama las elecciones", recalca Hilbert.
Como guinda, los servicios de escucha
de las redes sociales también ayudan a afinar los mensajes. "Por
ejemplo, si mucha gente empezaba a tuitear
sentimientos negativos sobre
un comentario hecho por Hillary Clinton, el SMMS dirigía su
propaganda pro-Trump a esos usuarios", aclara Ghosh. Aquí es
clave el papel de los algoritmos de inteligencia artificial que toman
decisiones complejas en tiempo real para determinar qué tipo de
contenido envían a qué segmento de la población.
Y es que esos algoritmos te conocen
mejor que tu propia madre. Lo sabe
bien el experto en psicometría Michal Kosinski, hoy investigador
en la Universidad de Stanford.
Un buen día, cuando trabajaba en
la de Cambridge, decidió comprobar cuánto podía
saberse sobre el perfil psicológico de una persona estudiando su
actividad en Facebook, en
concreto, las entradas en las que pulsaba 'like'. Hizo un experimento con
millones de voluntarios: les aplicó test psicológicos y
estudió su comportamiento en la red social. A partir de
ahí, creó borradores cada vez más refinados de un
algoritmo de inteligencia artificial capaz de hacer una
radiografía a tu forma de ser, solo con tener acceso a tu
página de Facebook.
Con 68 'likes', Kosinski
demostró que su programa podía predecir la personalidad
con bastante certeza, incluso el color de piel de una persona - con un
95% de aciertos -, su inclinación sexual - 88% - o su
filiación política - 85% -. No contentos con eso,
comprobó que con 150 'likes',
el algoritmo podía deducir cómo era alguien mejor que sus
propios padres. Eso incluía sus necesidades y miedos más
íntimos y cómo era de esperar que se comportara.
Enseguida, el joven Kosinski intuyó el peligro que podía
tener esta herramienta en las manos equivocadas. Si alguien era capaz
de conocer con tanta profundidad a cada uno del océano de
usuarios de Facebook,
podría usar esos conocimientos para
dirigirles afinadas técnicas de persuasión... o para
perseguir a los homosexuales, a las mujeres árabes liberales, a
los disidentes en regímenes totalitarios... Sus hallazgos
podían suponer una amenaza para el bienestar de un individuo, su
libertad o, incluso, su vida, empezó a advertir el propio
Kosinski en sus publicaciones científicas. Y eso fue
precisamente lo que pasó, al menos, en lo que respecta a la
libertad de pensamiento.
Aunque este investigador no estaba dispuesto a vender su programa
algorítmico para fines comerciales o políticos, no
pensaba lo mismo su colaborador Aleksandr Kogan, que firmó un
acuerdo en 2014 con la compañía británica
Cambridge Analytica para
proporcionarles un programa similar,
según revelaba el diario Británico The Guardian.
Para ello, recolectaron de Facebook
una base de datos de millones de
votantes estadounidenses, sin avisar con qué propósito
iban a usarse. No se descubrió el pastel hasta 2017, algo tarde,
porque el invento ya lo había probado con éxito Cambridge
Analytica en dos de las campañas más sonadas para
las que
ha sido contratada: la presidencial de Trump y la del Brexit en el Reino Unido.
"Tengo el honor de hablarles hoy del
poder del big
data y la psicometría en
los procesos electorales", anunciaba su flamante CEO, Alexander
Nix, en
una conferencia en el Concordia Summit de 2016, donde se vanagloriaba
de poseer "un modelo para predecir la personalidad de cada adulto en
Estados Unidos". En sus bases de datos, tenían a 220 millones de
sujetos catalogados en 32 perfiles de personalidad.
Otra compañía similar, que también trabajó
para Trump en las elecciones estadounidenses, es Harris Media LLC, con
base en Texas. Según el grupo en defensa de los derechos civiles
Privacy International (una
ONG) Harris Media fue contratada en las elecciones de
Kenia en agosto de 2017 por el partido en el poder y utilizó
datos de las redes sociales para dirigirse a determinadas audiencias.
"Nos preocupa el rol y la responsabilidad de los asesores que trabajan
en las campañas políticas en Kenia, donde la
afiliación tribal y la religión de origen son datos muy
sensibles políticamente", denunciaba la ONG en un
comunicado a Reuters. Noticias falsas y troles dominaron la
discusión pública y alimentaron la tensión y los
enfrentamientos étnicos en los días previos a las
votaciones.
Luego están los bots. En agosto de 2017, Trump agradeció
en un tuit a una tal Nicole Mincey por haberlo felicitado por "trabajar
para el pueblo norteamericano". Con 150.000 seguidores en Twitter,
Mincey parecía ser, por sus comentarios y su foto, una
afroamericana seguidora del líder republicano. Pero
resultó que, en realidad, no era más que el avatar de un
programa informático.
El mismo Trump reconoció que no
habría ganado las
elecciones sin Twitter.
Pero, tal vez, no fue por el apoyo de los
internautas, sino por el ejército de bots que amplificaron su
alcance. Se trata de cuentas que no pertenecen a usuarios reales: son
gestionadas por un software encargado de imitar la conducta humana. En
mayo de 2017, un estudio de la Universidad de Georgia demostró
que pueden servir para difundir mensajes políticos de forma
masiva y convertirlos en trending
topic (tema del día) en solo unas horas, simulando que
son gente de carne y
hueso la que está compartiendo su sentir o su opinión.
Se especializa en estas técnicas la agencia rusa Internet
Research, también conocida como Kremlinbots o Trolls de Olgino.
Su granja de bots produjo y
diseminó miles de posts
en Facebook e Instagram para apoyar la campaña del magnate rubio
en las pasadas elecciones de Estados Unidos, tal y como reportó
en profundidad la revista Wired.
De hecho, en febrero de 2018, el Departamento de Justicia
estadounidense condenó a esta agencia por haber interferido con
sus procesos políticos.
Métodos similares se emplean en China y en Rusia para apoyar las
ideas del régimen o desviar la atención de asuntos
delicados. Y han saltado a la palestra en otros muchos países,
como Francia, donde protagonizaron un intento fallido de desprestigiar
a Macron antes de las pasadas elecciones.
Los bots políticos son muy útiles para difundir cientos
de miles de comentarios de apoyo a un candidato... o para acosar a un
contrincante o a un activista molesto con una riada de comentarios
agresivos. "Su misión es engañar al público,
hacerle creer que son personas quienes están expresándose
en Internet
y que sus mensajes representan la opinión de una
mayoría de la sociedad", advierten los expertos en la materia
Renée DiResta, John Little, Jonathon Morgan, Lisa Maria Neudert
y Ben Nimmo, en un artículo publicado en Motherboard. Por si fuera poco,
también se puede introducir en el programa de inteligencia
artificial de estos autómatas la habilidad de buscar y detectar
en la Red a individuos afines a determinada línea
ideológica, para conectar con ellos y enviarles su propaganda,
pues estos nuevos aliados humanos serán más proclives a
difundirla después - sin saber que están siendo
manipulados por bots, claro -.
Cuando empezó la interminable campaña del Brexit en el Reino Unido, no estaba
tan clara la victoria de los independentistas. Es más, los
primeros sondeos aseguraban que ganaría el no: quedarse en la UE contaba con
muchos e importantes defensores. Pero no tenía a su lado una
buena compañía de propaganda de precisión. Es uno
de los temas que ha estudiado a fondo Vyacheslav Polonsky, investigador
del Instituto de Internet de Oxford, que analizó 28.000 entradas
en redes sociales y unos 13.000 hashtags
para sacar sus conclusiones.
"Nos dimos cuenta de que las personas escépticas hacia la UE y
los que apostaban por el Brexit
dominaban el debate y eran más efectivos en su uso de Instagram
para activar y movilizar a la gente en todo el país.
También tendían a ser más apasionados, activos y
extrovertidos en su conducta online. Generaban de media casi cinco posts por cabeza más que sus
oponentes", señala. AggregatIQ,
filial canadiense de Cambridge
Analytica, fue contratada por los defensores del Brexit para la campaña. Sus
mensajes pudieron llegar hasta siete millones de personas, según
un artículo de marzo en el diario Español El
Mundo, aprovechando el nicho de los indecisos y de quienes
sentían resquemor hacia la inmigración.
Otro caso que Polonsky ha examinado es el éxito en la
campaña online de Macron en las elecciones galas de mayo de
2017. "Todas las interacciones con los simpatizantes eran grabadas y
analizadas semánticamente mediante algoritmos avanzados para
extraer palabras clave que resonaran en los votantes. Estas palabras
clave eran usadas luego por Macron en sus discursos, adaptadas a
diferentes audiencias y regiones. Los mítines eran
retransmitidos en vivo a través de Facebook, mientras un equipo
de creadores de contenido armaba cada tuit con una dedicación
artesana", explica Polonsky.
Así las cosas, no hay duda de que las nuevas estrategias de
propaganda de precisión han llegado para quedarse. Nos hallamos,
en palabras de Ghosh, en "la era de la desinformación
algorítmica". Según Polonsky, "estamos siendo testigos
del amanecer de una nueva frontera, donde la política es la
guerra y el big data es una
de las armas más poderosas de su arsenal". Eso implica que quien
domine el nuevo armamento liderará el discurso político y
los corazones de la gente en la nueva y dudosa democracia digital. Porque, como
nos recuerda este experto, "en Facebook,
Twitter e Instagram, todo el
mundo puede hablar, pero no todo el mundo puede ser escuchado". Y ya no
se trata de tener carisma o un discurso político de calidad: la
clave está en tener de tu lado a los mejores expertos en
algoritmos.
____________________
Fuente original:
"Los hilos que mueven tu voto"
de Laura G. de Rivera, pp. 22 a 28. Revista Muy
Interesante - Número
456 - Mayo 2019 (España)
Documento Publicado 24 de Junio de 2019 [Solemnidad del Nacimiento de
Juan Bautista]
© Copyright 2019 por
Muy Interesante
(España)
The M+G+R
Foundation
Sobre Nosotros y Preguntas
Frecuentes
sobre Nosotros
PÁGINA
DE
INTRODUCCIÓN AL DOMINIO (en Inglés)
PÁGINA
PRINCIPAL - English
PÁGINA
PRINCIPAL - Español
PÁGINA
PRINCIPAL - Portugues
Sitio
de emergencia de la PÁGINA PRINCIPAL
Nuestro
Apartado de Búsquedas
Nota:
Si la imagen de arriba no aparece sobre este
documento, significa que no está usted viendo el documento
original de nuestros servidores. Si tiene alguna
duda sobre
la
autenticidad del documento, le recomendamos que acceda a nuestro
servidor otra vez y pinche sobre el botón de "Refrescar" o
"Recargar" de su Navegador para ver el documento original.
Si desea ponerse en contacto con The M+G+R Foundation, Pulse Aquí
y siga las instrucciones.