|
|
Un reciente artículo de Bloomberg ha revelado de qué manera un grupo secreto de Facebook permitió crear un ejército de troles [1] a favor de gobiernos, incluyendo en la India, como medio de propaganda tendiente a manipular las elecciones [2].
Pero
la realidad es que Facebook no es un simple espectador en materia de
política. Lo que no dice Zuckerberg es que su compañía colabora
activamente con partidos y dirigentes, incluyendo a los que utilizan esa
plataforma para contrarrestar la oposición –a veces con ayuda de
numerosos troles que propagan información falseada («fake news») e ideologías extremistas [3].
Ese
trabajo es realizado desde Washington por un equipo de Facebook
extremadamente discreto, especializado en temas de política global y
encabezado por Katie Harbath, la ex estratega numérica del grupo
republicano que trabajó en 2008 en la campaña presidencial del
ex alcalde de Nueva York, Rudy Giuliani. Katie Harbath también trabajó
en las elecciones realizadas en la India en 2014.
Han
pasado 3 años desde que Facebook contrató a Katie Herbath para dirigir
ese grupo secreto. En esos 3 años, su equipo ha viajado por todo
el mundo, incluyendo la India, y ha ayudado a ciertos dirigentes
políticos, poniendo a su disposición las poderosas herramientas
numéricas de la compañía, bajo la forma de un verdadero ejército de troles, con fines de propaganda.
En
la India, y en muchos otros países, los empleados de ese grupo han
ejercido de hecho funciones de agentes de campañas electorales. Y
después de la elección del candidato, la compañía ha supervisado
funcionarios o proporcionado ayuda técnica en materia de difusión
numérica en encuentros oficiales entre jefes de Estados.
En
Estados Unidos, empleados de ese equipo trabajaron en el terreno
durante la campaña de Donald Trump. En la India, Facebook favoreció la
presencia en la red del primer ministro Narendra Modi, quien hoy cuenta
con más seguidores en Facebook que cualquier otro dirigente político del
mundo.
Durante
los mítines de campaña hay miembros del equipo de Katie Harbath junto a
responsables comerciales del sector publicitario de Facebook cuyo papel
consiste en ayudar a la compañía a sacar provecho financiero de la
atención que las elecciones suscitan en las masas. Esos especialistas
enseñan a políticos y dirigentes cómo crear una página de Facebook para
su campaña –página que autentifican con una marca azul–, cómo optimizar
el uso de videos para atraer a la gente y cómo seleccionar eslóganes
publicitarios. Al resultar electos esos candidatos, su colaboración con
Facebook permite a la compañía extender aún más su propia influencia
política y mejorar sus posibilidades de evadir las leyes.
El
problema se acentúa cuando Facebook se erige antidemocráticamente en
pilar de la democracia. Freedom House, una seudo ONG con sede
en Washington, que milita por la democracia en todo el mundo [4], reportó en noviembre de 2017 que un número creciente de Estados «manipulan las redes sociales para socavar las bases de la democracia» [5].
Eso se traduce en campañas de difamación, de acoso o de propaganda,
campañas que el gobierno respalda discretamente para imponer su versión
de los hechos, silenciar la disidencia y reforzar el poder.
Facebook
abrió su primera oficina en Washington en 2007. La elección
presidencial del año siguiente marcó el surgimiento del primer «presidente Facebook»
en la persona de Barack Obama, quien –con ayuda de la plataforma– logró
llevar su mensaje a millones de votantes durante las semanas que
antecedieron la elección. La cantidad de usuarios de Facebook creció de
forma exponencial con los acontecimientos de las «primaveras árabes»
que sacudieron el Medio Oriente en 2010 y 2011, poniendo de relieve la
enorme influencia que la plataforma ejerce sobre la democracia.
Durante
el periodo en que Facebook escogió a Katie Harbath, la ex partidaria de
Giuliani, para dirigir su grupo político, las elecciones se convertían
en un tema constante en las redes sociales. Facebook comenzó a
implicarse poco a poco en procesos electorales en todas partes del
mundo.
Facebook
se asoció a varios de los partidos políticos más controvertidos del
mundo, mientras pisoteaba el principio mismo de la transparencia.
Desde 2011, la compañía está reclamando a la Comisión Electoral de
Estados Unidos que le otorgue una dispensa para la ley que exige
transparencia en todo lo concerniente a la promoción de un partido
político, lo cual le habría evitado la crisis que ahora enfrenta sobre
los gastos publicitarios rusos relacionados con las elecciones de 2016.
Las
relaciones entre la compañía y los gobiernos siguen siendo complicadas.
La Unión Europea ha cuestionado a Facebook por haber permitido que el
islamismo radical prospera a través de su red. La compañía acaba
precisamente de publicar su informe de transparencia, donde explica que
entregará a los gobiernos datos sobre sus usuarios sólo si el pedido
está legalmente justificado. De no ser así, Facebook no vacilará en
recurrir a la justicia [6].
Ejércitos de troles en la India
El
mercado indio es sin dudas el más beneficioso para Facebook en este
momento, por encima del estadounidense. En la India, la cantidad de
usuarios crece dos veces más rápido, sin entrar a mencionar los
200 millones de indios que utilizan la mensajería WhatsApp, mucho más
que en cualquier otro país del mundo.
En
la época de las elecciones indias de 2014, Facebook ya había trabajado
durante meses en otras campañas. Narendra Modi aprovechó a fondo
el respaldo de Facebook y de WhatsApp para reclutar voluntarios que
a su vez extendieron el mensaje a través de las redes sociales. A partir
de la elección de Modi como primer ministro de la India, la cantidad de
suscritos aumentó en 43 millones, dos veces más que en el caso
de Trump.
En
las semanas posteriores a la elección de Modi, Zuckerberg y la
directora de operaciones de Facebook, Sheryl Sandberg, viajaron los dos a
la India para desarrollar un controvertido proyecto de internet
gratuito, que tuvo que ser abandonado debido a las enérgicas protestas
que suscitó. Katie Harbath y su equipo también fueron a la India para
impartir encuentros de formación en los que participaron más de
6 000 altos funcionarios.
A
medida que aumentaba la influencia de Modi en las redes sociales,
sus seguidores iniciaron una campaña de acoso contra sus rivales
políticos en Facebook y WhatsApp. La India se convirtió en un nodo de
desinformación, incluso con propagación de información falsa que provocó
motines en los que murieron varias personas. El país se hizo además
extremadamente peligroso para los partidos de oposición y
los periodistas.
Pero
Modi y el Partido Popular Indio (Bharatiya Janata Party, BJP) no fueron
los únicos en utilizar los servicios que Facebook propone. La compañía
pretende poner las mismas herramientas y servicios a la disposición de
todos los candidatos, sin importar su orientación política, así como de
grupos poco conocidos de la sociedad civil.
Lo
interesante es que el propio Mark Zukerberg quiere ser presidente de
Estados Unidos y ya contrató a David Plouffe –consejero de campaña de
Barack Obama en 2008– y a Ken Mehlman –consejero de campaña de George
Bush hijo en 2004. Actualmente está trabajando con Amy Dudley
–ex consejera del senador Tim Kaine–, con Ben LaBolt –ex encargado de
prensa de Barack Obama– y con Joel Benenson –consejero de campaña de
Hillary Clinton en 2016 [7].
Facebook manipula las emociones
Un estudio publicado en 2014 bajo el título Evidencia experimental de un fenómeno de contagio emocional a gran escala a través de las redes sociales [8]
analizó la proporción entre los mensajes positivos y negativos vistos
por 689 000 usuarios de Facebook. El experimento, realizado entre el 11 y
el 18 de enero de 2012, trató de identificar efectos de contagio
emocional que modificaban el peso emocional de las informaciones
enviadas a los usuarios. Los investigadores concluyen que
por primera vez hallaron «la prueba de que las emociones pueden
propagarse a través de una red informática, [aunque] los efectos
vinculados a esas manipulaciones son limitados».
Este
estudio fue criticado tanto por sus bases éticas como por la
metodología utilizada. Ante la intensificación de la polémica, uno de
los principales instigadores de esa investigación y miembro del equipo
responsable de los datos de Facebook, Adam Kramer, defendió el estudio
en un comunicado de la compañía [9]. Días después, la directora de operaciones de Facebook, Sheryl Sandberg, emitió una declaración [10],
durante su estancia en la India. En una actividad organizada en
Nueva Delhi por la Cámara de Comercio, Sheril Sandberg declaró: «Este estudio
se realizó en el marco de las investigaciones que las empresas
desarrollan para poner a prueba diferentes productos, ni más ni menos.
La comunicación al respecto fue muy mala y nos excusamos por ello.
No quisimos contrariarlos a ustedes.»
¿Para
qué nuevo producto revolucionario realizó Facebook experimentos
sicológicos tendientes a manipular las emociones de sus usuarios?
Esos productos revolucionarios son los ejércitos de troles numéricos utilizados con fines propagandísticos que difunden fake news ( información falsa) para ayudar a sus clientes durante las elecciones.
Poco después, el 3 de julio de 2014, USA Today reporta
que el grupo EPIC, defensor del respeto a la vida privada del
ciudadano, presentó a la Comisión Federal del Comercio una denuncia
oficial donde estipula que Facebook violó la ley al realizar una
investigación sobre las emociones de sus usuarios sin consentimiento de
estos últimos, y sin tomarse siquiera el trabajo de informarlos
al respecto [11].
EPIC
señala en su denuncia que Facebook engañó a sus usuarios al realizar
en secreto un experimento sicológico sobre sus emociones:
«En el momento del experimento, Facebook no expuso en su política sobre el uso de los datos que las informaciones sobre sus usuarios se utilizarían con fines experimentales. Facebook también omitió informar a sus usuarios que esas informaciones serían puestas a disposición de los investigadores.»
La
mayoría de los conejillos de Indias utilizados en esos experimentos de
manipulación de las emociones eran ciudadanos de la India [12].
La
mayoría de nosotros no prestamos verdadera atención a lo que se divulga
a través de las redes sociales y la mayor parte de lo que en ellas
aparece es más bien inofensivo. Al menos eso parece a primera vista.
La realidad
es que lo que se pone en internet tiene un impacto aterrador. Según
una investigación conjunta del Laboratorio Nacional del Noroeste del
Pacífico y la Universidad de Washington, el contenido de lo que se pone
en las redes sociales puede ser utilizado por un programa informático
para predecir acontecimientos futuros –quizás incluso para predecir
quién será el próximo primer ministro de la India.
En un trabajo que acaba de publicar ArXiv [13], un equipo de investigadores descubrió que las redes sociales pueden ser utilizadas para «detectar y predecir acontecimientos en el mundo real» [14]. Analizando Twitter es posible predecir con precisión desórdenes sociales, por ejemplo, cuando las personas utilizan ciertos hashtags para intercambiar sobre determinados problemas, antes de que la cólera acabe propagándose en el mundo real.
El ejemplo más conocido de ese fenómeno tuvo lugar durante las «primaveras árabes»,
cuando evidentes señales de protestas y de levantamientos inminentes
aparecieron en la red antes de que la gente se lanzara a la calle.
Pero
también puede ser lo contrario: las redes sociales pueden generar
la cólera que, luego de alcanzar un grado óptimo, puede ser encauzada
para provocar acontecimientos en la vida real, como puede comprobarse en
la India desde hace al menos 2 años, incluso con casos de linchamientos
colectivos.
El funcionamiento de la
industria del «fake news» en la India
En la India ha surgido una gigantesca industria de la desinformación o «fake news»,
cuya influencia es muy superior al discurso político tradicional y que,
a falta de control, puede llegar a convertirse en un problema de
seguridad, como sucedió con las «primaveras árabes». En momentos
en que está en su apogeo el debate sobre los linchamientos, es necesario
que se entienda que ese tipo de incidentes no se habría propagado tan
rápidamente sin el acceso de la juventud a Facebook, Twitter, Youtube y
otras redes sociales que permiten a esa industria de la desinformación
generar y propagar los montajes de videos falsos y de «fake news». El fenómeno de los linchamientos, que apareció desde hace ya varios años, es una consecuencia directa de esa industria del «fake news» o desinformación, que pasa de las redes sociales al mundo real.
Esto toma otro cariz ahora que se ha revelado que Facebook y WhatsApp conspiraron con el establishment creando «un ejército de troles»
con fines de propaganda numérica y engendrando explosiones de violencia
en suelo indio. Esto es un caso típico de terrorismo. Hay que recordar
que el terrorismo se define como «la utilización sistemática del terror o de la violencia por parte de un individuo o un grupo con fines políticos».
En el caso que nos ocupa, ese terrorismo es obra de una compañía
extranjera –Facebook– en suelo indio mediante una guerra numérica de
(des)información. ¿Qué estamos esperando para reaccionar contra tales
actos?
Durante las elecciones presidenciales estadounidenses hubo una campaña de «fake news»
o desinformación. Esta fue parte de la campaña oficial, realizada
a su vez con la colaboración de empresas tecnológicas, y se afirma que
hasta los rusos utilizaron sus propias redes. Ese mismo método
se utilizó también para orientar el debate sobre el Brexit. Mientras
escribimos este artículo, esa enorme industria del «fake news» extiende sus tentáculos sobre la India. Numerosos deportistas de renombre, «celebrities»,
economistas y políticos ya han sido víctimas de la diseminación de
contenidos falaces. Es una peligrosa tendencia que debería ser objeto de
estrecha vigilancia por parte de nuestros servicios de inteligencia
en aras de prevenir futuros desastres.
Veamos,
en una breve explicación, cómo funciona todo eso. Se ponen en marcha
numerosos sitios y portales web de diversa legitimidad y financiamiento.
Se crean contenidos específicos para diversas categorías de personas,
en función de la región donde viven, de su ideología, su edad, su
religión… contenidos que se mezclan con una enorme cantidad de material
erótico que disimula el objetivo verdadero. Ese contenido falaz
se introduce después en la red social y en grupos específicos
previamente identificados mediante herramientas de análisis
desarrolladas por empresas tecnológicas. A medida que se propaga, esa
información falsa va adquiriendo su propia dinámica y alguien
–una celebridad, algún político o incluso un periodista– acaba
repitiéndola. Lo que sucede entonces ya cae en el rango de la verdadera
locura.
Ya
sea a propósito o por ignorancia, los medios dominantes comienzan a
propagar esas mentiras, dedicando la integralidad de sus revistas de
prensa al análisis de esa información falsa o «fake new»…
quién dice qué y por qué lo dice, bla bla bla, en vez de tratar de
verificar la autenticidad de tales afirmaciones. Dado el carácter
sensacional de esas falsedades, y también porque personas influyentes
las repiten, esa visión falseada del mundo va a contaminar el
mundo real. ¿Testigos? Las víctimas de linchamientos. Se llega así a
un momento en que es casi imposible distinguir entre lo verdadero y
lo falso, diferenciar el hecho de la ficción, con toda la sociedad
radicalizándose en diferentes facciones que se oponen entre sí basándose
en mentiras.
Facebook y las elecciones indias
En la época de las elecciones indias de 2014 apareció en la prensa un artículo sobre el tema «¿Puede Facebook influir en el resultado de la elección india?».
El título revelaba la existencia de un verdadero iceberg. Si Facebook
es capaz de modificar nuestras emociones y de hacernos votar… ¿qué más
puede hacer? [15].
Asombrosamente,
la Comisión Electoral India no encontró nada mejor que firmar un
documento asociándose con Facebook para censar a los votantes durante el
proceso electoral [16]. El doctor Nasim Zaidi, jefe de la Comisión Electoral India (ECI), declaró:
«Me siento feliz de anunciar que la Comisión Electoral India va a iniciar un procedimiento especial destinado a enrolar a los no votantes y, sobre todo, a quienes nunca han votado. Esto representa un paso adelante hacia la realización de la consigna de la ECI “Ni un ciudadano olvidado”. Como parte integrante de esta campaña, Facebook divulgará un recordatorio en diferentes dialectos indios para el momento de la elección, [recordatorio destinado] a todos los usuarios de Facebook de la India. Invito a todos los ciudadanos a que se inscriban y a votar, o sea a reconocer sus derechos y asumir sus deberes. Estoy convencido de que Facebook dará una nueva envergadura a la campaña de inscripción de electores iniciada por la Comisión y estimulará futuros votantes a participar en el proceso electoral y a convertirse en ciudadanos indios responsables.»
Las
17 agencias de inteligencia de Estados Unidos emitieron serias
advertencias en cuanto al impacto de este fenómeno de desinformación
sobre su proceso electoral y su sociedad. Según un centro de
investigación en estadística, la mayoría de los estadounidenses
–un espectacular 88%– piensa que la difusión de «fake news» perjudica su percepción de la realidad cotidiana [17].
Nosotros,
en la India, nos dirigimos hacia un escenario aún más catastrófico.
¿Por qué? Porque, al revés de lo que sucede en la India, el gobierno de
Estados Unidos y su comunidad de inteligencia exponen públicamente
el problema y han trabajado en una solución ante esa amenaza. ¿Puede
la India hacer lo mismo con Facebook metiendo sus narices en los asuntos
internos del país?
Se
crean todo tipo de comisiones, se programan audiencias senatoriales
para aclarar este asunto y se establecen nuevos equipos para
contrarrestar eficazmente esta amenaza contra la sociedad. Mientras
se investiga el papel de Facebook en la elección presidencial
estadounidense, se presta poca atención a cómo el equipo secreto de
Facebook influyó en las elecciones indias.
A la luz
de estas revelaciones habría que investigar detalladamente el impacto
de Facebook en las elecciones indias. Es evidente que, para hacerlo,
el gobierno tiene que empezar por reconocer la existencia de esa
industria del «fake news» o de la desinformación para poder después actuar contra ella.
Junto
a Facebook, American Microchip Inc. y la firma japonesa Renesas,
contratados para piratear el código secreto EVM (banco de datos de
usuarios) [18],
también deberían ser objeto de una investigación por interferir en las
elecciones indias todos los que han conspirado junto a esas empresas.
Tomar esta amenaza a la ligera sería un grave error.
(Great Game India, traducción de Red Volataire)
[2] “How Facebook’s Political Unit Enables the Dark Art of Digital Propaganda”, Lauren Etter, Vernon Silver y Sarah Frier, Bloomberg, 21 de diciembre de 2017.
[3] “India’s Fake News Industry & Mob Lynchings”, Great Game India News, 6 de julio de 2017.
[4] «Freedom House: cuando la “libertad” no es más que un pretexto», por Thierry Meyssan, Red Voltaire, 3 de enero de 2005.
[5] “Freedom on the Net 2017. Manipulating Social Media to Undermine Democracy”, Freedom House, 14 de noviembre de 2017.
[6] “Facebook Transparency Report 2017”, Facebook, enero de 2017.
[7] «¿Será Mark Zuckerberg el próximo presidente de Estados Unidos?», Red Voltaire , 7 de agosto de 2017.
[8] “Experimental evidence of massive-scale emotional contagion through social networks”, Adam D. I. Kramer, Jamie E. Guillory y Jeffrey T. Hancock,Proceedings of the National Academy of Sciences of the United States of America (PNSA), Vol 111, #24, 17 de julio de 2014.
[9] “The Author of a Controversial Facebook Study Says He’s ‘Sorry’”, Stephanie Burnett, Time, 30 de junio de 2014.
[10] “Facebook still won’t say ’sorry’ for mind games experiment”, David Goldman, CNN, 2 de julio de 2014.
[11] “Privacy watchdog files complaint over Facebook study”, Jessica Guynn, USA Today, 3 de julio de 2014.
[12] “Facebook apologises for psychological experiments on users”, Samuel Gibbs, The Guardian, 2 de julio de 2014.
[13] ArXiv es un archivo online de trabajos que van a publicarse en diferentes sectores de las ciencias. Nota de la Red Voltaire.
[14] “Using Social Media To Predict the Future: A Systematic Literature Review”, Lawrence Phillips, Chase Dowling, Kyle Shaffer, Nathan Hodas y Svitlana Volkova, ArXiv, 19 de junio de 2017.
[15] “If Facebook can tweak our emotions and make us vote, what else can it do?”, Charles Arthur, The Guardian, 30 de junio de 2014.
[16] “Election Commission of India partners with Facebook to launch first nationwide voter registration reminder”, Facebook, 28 de junio de 2017.
[17] “Many Americans Believe Fake News Is Sowing Confusion”, Michael Barthel, Amy Mitchell y Jesse Holcomb, Pew Research Center, 15 de diciembre de 2016.
[18] “Are Indian Elections Hacked By Foreign Companies?”, Shelley Kasli, Great Game India News, 17 de diciembre de 2017.