El Espectador Global, por Andrés Ortega

Publicidad psicográfica: la batalla global para influir sobre la gente

Esta entrada también está disponible en: Inglés

Publicidad psicográfica: la batalla global para influir sobre la gente. Foto: Adit Jani (Dominio público). Blog Elcano

Publicidad psicográfica: la batalla global para influir sobre la gente. Foto: Adit Jani (Dominio público).

No es nuevo. De hecho, mucho se sabía o se sospechaba. A saber, que usando datos de las redes sociales se puede agregar o personalizar mensajes –verdaderos o falsos– que llegan a muchos millones de sus usuarios individuales (aunque sea con seudónimos, son reales) o a grupos de ellos. Es lo que ha hecho con datos de Facebook la consultora (o, más bien, agencia de publicidad política) Cambridge Analytica para favorecer el triunfo de Donald Trump en 2016. Aún hay que aclarar algunos hilos sobre su influencia en el referéndum sobre el Brexit.

A través de la investigación psico y sociológica, el análisis de los “amigos”, los “me gusta” y los muros de cada usuario dicen mucho sobre los que cliquean en Facebook y en general en las redes sociales. Ya se ha dicho, los datos son el nuevo petróleo, también para la política, sobre todo, pero no únicamente, en democracia. Esta vez para mandar mensajes personalizados a los votantes indecisos cuyas propensiones se logran conocer.

La intromisión rusa en estos y otros procesos electorales la ha puesto de manifiesto el pavoroso auto de acusación del fiscal especial Robert Mueller en EEUU. Los servicios de inteligencia occidentales están cada vez más preocupados por las posibilidades de la manipulación de esta conectividad por grupos, gobiernos u otros servicios extranjeros, aunque ellos mismos la utilizan. Pueda haber una conexión rusa en el caso de Cambridge Analytica. Alexandr Kogan, investigador ruso-americano de la Universidad de Cambridge, vinculado a esta empresa, está bajo sospecha. Estamos ante una batalla global para influir sobre la gente, en la que se generan extrañas relaciones y alianzas. Este uso manipulativo de la minería de datos es un fenómeno muy amplio.

Evidentemente Facebook, en este caso, ha actuado mal, y tendrá que responder. Los parlamentos británico, europeo y estadounidense han citado a su CEO y fundador, Mark Zuckerberg, que ya ha prometido reforzar la privacidad en su red. Pero Facebook y Zuckerberg no sólo han sufrido una pérdida importante en el valor de su capital bursátil, sino, sobre todo, reputacional y de confianza.

Cambridge Analytica no está sola en este tipo de actividad. Muchas otras empresas (y servicios) actúan o puede actuar de igual modo, con mayor discreción. Lo que el caso demuestra es que ahora casi cualquiera –empresas privadas, gobiernos, organizaciones no estatales– con acceso a datos sobre los usuarios y una cierta sofisticación técnica puede practicar eso que McKenzie Funk, colaborador de Open Society y miembro de la cooperativa de periodismo Deca, llamó “publicidad psicográfica”. Cualquiera, sí, con los conocimientos suficientes, como los que aportó a Cambridge Analytica Christopher Wylie, el que decidió filtrar esta información a The Guardian/The Observer y a The New York Times, puede hacerlo. Sin olvidar que el que empezó con este tipo de técnicas electorales psicográficas fue el propio Barack Obama.

¿Cómo luchar contra estas posibilidades tecnológicas que pueden ahogar la democracia, o subvertirla aprovechando su condición de abierta, como ya han alertado George Soros y muchos otros? Estamos ante manipulaciones para influir. El informe elaborado por 39 expertos para la Comisión Europea recomienda hablar de “desinformación” porque va mucho más lejos del concepto de “noticias falsas” (fake news o, simplemente, bulos), terminología que tanto gusta a Trump. Pide apostar por –y apoyar– el periodismo de calidad. Google News (ausente en España porque la ley de propiedad intelectual le obligaría a pagar un canon) se propone ahora difundir mejor este periodismo veraz en el mundo. Bien. Los expertos abogan por grupos de voluntarios –que están surgiendo– para denunciar estas actividades manipuladoras. Es necesaria asimismo la responsabilidad de las empresas propietarias de estas redes por la custodia y uso de estos datos personales. Se pide un código de buenas prácticas de estas plataformas. No obstante, estas propuestas han recibido ciertas críticas por no entender y asumir el modelo de negocio de algunas de estas plataformas, y el modelo del propio uso de estas redes u otros servicios en las que los usuarios dan sus datos a cambio de gratuidad en esta conectividad. Facebook, por ejemplo, logra ingresos de la publicidad y de los perfiles de sus usuarios y la atención de éstos, pues la atención es otro bien escaso e importante. Las críticas también exigen más transparencia en el funcionamiento de los algoritmos de las redes sociales y otros servicios.

Un estudio del Massachusetts Institute of Technology (MIT), ha concluido que las noticias falsas se difunden más amplia, rápida y profundamente que las verdaderas. No se debe sólo a la manipulación de los bots (programas o aplicaciones que ejecutan tareas automatizadas) sino a nuestro propio gusto por la novedad. Es decir, que somos en parte responsables como consumidores y usuarios de lo que está ocurriendo. De ahí que sea perentorio enseñar a la gente a protegerse frente a estas posibilidades de manipulación. “El ciudadano ha de ser provisto de las herramientas necesarias para poder discernir la verdad y la falsedad”, ha señalado José María Lassalle, secretario de Estado para la Sociedad de la Información y la Agenda Digital. Los ciudadanos pueden y deben aprender a gestionar la información que reciben y la que emiten. La alfabetización mediática y tecnológica, que no es una cuestión de capacidad técnica, es algo que hay que enseñar a los mayores, pero también deben aprenderlo los jóvenes en las familias y en los colegios en toda asignatura de educación para la ciudadanía o su equivalente en cualquier país.

También la UE puede aportar un elemento con las medidas de protección. El nuevo Reglamento General de Protección de Datos (RGPD) entra finalmente en vigor el próximo 25 de mayo. Es un paso importante, si bien no suficiente, y acabarán teniendo que aplicarlo también fuera de la Unión estas plataformas y servicios digitales.

Cuidado, pues las redes sociales cumplen también una función muy positiva para la defensa de las libertades, la democracia y la participación ciudadana. La lucha contra la desinformación es una excusa de muchos dictadores para limitar la comunicación y la libertad de expresión No hay que irse a China para comprobarlo. Como indica Yarik Turianskyi del South African Institute of International Affairs (SAIIA), en 2016 al menos 10 países africanos –Burundi, Camerún, Chad, la República Democrática del Congo, Etiopía, Gabón, Gambia, Mali, Uganda y Zimbabue– cerraron los sitios de redes sociales y/o aplicaciones de mensajería durante o tras elecciones en respuesta a protestas. Otros tuvieron que rectificar. En Ghana, por ejemplo, el gobierno se vio obligado ante la presión de la calle a restablecer estos servicios y acabó ganado la oposición.

No creamos que sólo la tecnología permitirá luchar contra estos excesos de la propia tecnología. También el sentido de protección frente a estos ataques y manipulaciones. Esto es sólo el principio. Pero poco a poco las sociedades y las instituciones van reaccionando. Vamos a ver cambios y nuevas reglas. Incluso si la tecnología avanza a menudo más rápidamente que los propios reguladores.

Comentarios
  1. GABRIEL_GMC

Política de comentarios:

The comments on this page are moderated and will not appear immediately. Those comments which do not meet the community standards and policy comments will be deleted.

Deje un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Real Instituto Elcano - The Elcano Royal Institute | Príncipe de Vergara, 51. 28006 Madrid (España - Spain) | 2012 -2016 | Creative Commons BY-NC-ND 3.0