03

¿La democracia amenazada por la ciberpolítica?

Los riesgos más allá de Facebook
PDF
Créditos de la Imagen

Big Brother is watching you. En China la tecnología frecuentemente es utilizada en forma que contradice la concepción europea de la libertad

Fuente: © David Gray, Reuters, vía Auslandsinformationen

Carmen Beatriz Fernández

Consultora política internacional, CEO de DataStrategia. Urbanista, MBA del IESA, MA Political Campaigning University of Florida, aspirante doctoral de la Universidad de Navarra e investigadora del Center for Internet Studies and Digital Life de la misma universidad.

Un viejo chiste cuenta las desventuras de un borrachín que ha perdido sus llaves en el medio de la noche y las busca afanosamente bajo la luz de un farol. Un vecino se lo encuentra y empieza a ayudarlo. Tras unos minutos de búsqueda infructuosa el vecino se rinde y le dice: «No parecen estar… ¿Está seguro de que fue aquí donde las perdió?», a lo que el borrachín contesta: «No, no. Se me cayeron unos metros más allá, pero las busco aquí porque hay más luz…».

Luego de la elección norteamericana de 2016 y del referéndum británico sobre el brexit saltaron todas las alarmas y los focos de atención se posaron sobre las plataformas tecnológicas occidentales: Facebook, Twitter y Google fueron apuntadas con un dedo acusador, comenzaron a ser escrutadas con dureza, y sus autoridades interpeladas en los Parlamentos. Europa viene legislando desde entonces para poner a raya a los gigantes de Sillicon Valley, mientras que las agencias de comunicación que trabajaban con Facebook fueron satanizadas por todos y su reputación pulverizada. Hillary Clinton, que se había sentido la principal víctima de lo ocurrido en 2016 llegó al extremo de afirmar que «Zuckerberg debía pagar el precio de haber dañado a la democracia». Si bien hay muchos elementos oscuros en la ciberpolítica de los años recientes, debemos tener cuidado de que esos focos que iluminan y acusan a los grandes culpables, con Facebook a la cabeza, no nos estén haciendo buscar las llaves de la desinformación en donde hay más luz, y no en donde están las causas.

Es cierto que desde el punto de vista del marketing y la comunicación se ha venido profundizando en las técnicas de hipersegmentación, pero se puede estar confundiendo causa con efecto al creer que son las campañas recientes las que han cambiado la forma en que se consumen las noticias. Debe entenderse que la manera en que la sociedad se informa dio un giro definitivo. Las contiendas de 2016 evidenciaron la posibilidad de enviar mensajes políticos a ciertas audiencias particulares del electorado, pero la microsegmentación es hoy herramienta indispensable del mercadeo comercial y político. Existen elementos nefastos que entrelazan a la tecnología con la política y permiten construir un neototalitarismo tecnificado, pero la solución no parece estar en inculpar a las plataformas.

En la actualidad, los patrones de exposición de la ciudadanía a las noticias han dado un vuelco (Serrano et al., 2018). La gente se informa de distinta manera «por la sobreabundancia de la información proveniente de diversos canales, la conectividad constante, la economía de la atención, la multiplicidad de pantallas y su uso simultáneo y la socialización del consumo de información. La suma de estos factores da por resultado un cambio en las rutinas de exposición mediática que es preciso estudiar como fenómeno dinámico y que afecta al mismo desarrollo de la comunicación política» (Serrano-Puche, Fernández y Rodríguez-Virgili, 2018).

Preocupación por lo que es cierto y lo que es falso en internet

Tras el punto de inflexión de 2016, las fake news han estado en el centro de la atención global y su evolución ha conseguido que la gente vaya armándose de sus propios mecanismos protectores. El estudio global del Digital News Report, conducido anualmente por la Universidad de Oxford con YouGov para Reuters en 37 países, evidenció que existe un alto nivel de preocupación por lo que es cierto y lo que es falso en internet. La encuesta 2018 puso a Brasil de puntero en ese ranking global de preocupación sobre las falsedades de internet, con un 85 % de los usuarios digitales preocupados por las falsedades. A partir de esa preocupación y nivel de conciencia ante el problema, la gente ha venido tomando medidas para protegerse contra la desinformación, contrastando con fuentes alternativas o evitando hacer virales noticias cuya veracidad es dudosa. Sin duda esto parece ser una buena noticia. La inoculación es el mejor mecanismo de protección contra la desinformación en la era de la posverdad.

« Es equivocado satanizar la persuasión e ingenuo pensar que apuntar con un índice acusador a Facebook pondrá barreras a la evolución digital. »

Es equivocado satanizar la persuasión e ingenuo pensar que apuntar con un índice acusador a Facebook pondrá barreras a la evolución digital. Lo nuevo no es el uso de las plataformas, llámense Instagram, WhatsApp, Telegram o TikTok. Lo nuevo es la forma completamente distinta en la que los ciudadanos consumimos la información. Podría ocurrir que al legislar contra Sillicon Valley estemos poniéndole obstáculos al desarrollo de la inteligencia artificial en Occidente, mientras se le deja el campo abierto a Rusia y China. Asfixiar a las plataformas deja la barra libre para aquello que no estamos en capacidad de controlar.

Cuatro grandes riesgos

Más allá de Facebook existen riesgos importantes con que la ciberpolítica viene amenazando a la democracia. La plataforma es solo la punta del iceberg. Apuntarla pone el foco únicamente el peligro de la hipersegmentacion, cuando hay riesgos más graves para la democracia en, al menos, cuatro distintas líneas: deep fake y desinformación, machine learning, protestas masivas y Estado vigilante.

En un video reciente Mark Zuckemberg expone una idea inquietante: «Imagínate por un segundo que hubiera un hombre que fuera capaz de controlar totalmente los datos de billones de personas, datos robados sobre sus secretos, su vida, su futuro…». Es él, es su voz, son sus labios articulando las palabras… pero se trata de un Deep Fake, la etapa superior de las fakenews (Multimedia LIVE, 2019, junio 13). Son técnicas de alteración de videos que permiten, con la facilidad de un software de edición convencional, alterar videos y sus voces. El ver para creer de Santo Tomás fue durante siglos un axioma para la humanidad, pero ya no lo será más…

El pasado noviembre, apenas transcurrida la elección general española, un corto donde participaban los cinco principales líderes políticos circuló viralmente (FaceToFake, 2019, noviembre 11). Se trataba de una parodia, muy bien hecha en la que los cinco dirigentes son actores protagónicos del Equipo A (A-Team en la serie original). El realismo de la inclusión es asombroso, pero más asombroso aún es que puede realizarse con la misma facilidad con la que se manipula una foto en Photoshop.1 En este caso se trató de una inocente parodia, pero el potencial de daño de estas herramientas en una campaña es inimaginable.

Captura de mensaje de Trump en Twitter

Hoy son más fáciles las operaciones de desinformación. Cualquiera puede hacernos creer, con toda clase de evidencias, que alguien dijo lo que en realidad no dijo, y convencernos con la facilidad de un generador de falsos tuits, una foto editada o un meme. WhatsApp irrumpió con fuerza en las campañas de 2018 como nueva plataforma utilizada para la desinformación política. El caso evidenció que mientras todos los ojos estaban puestos sobre Facebook, el enemigo había mutado.

El machine learning de la inteligencia artificial permite predecir comportamientos y optimizar la ciberpublicidad. Mediante la recolección continua de grandes datos se crean modelos predictivos y se pueden ubicar aquellos segmentos más influenciables para consumir determinado producto u opción política, a los que se les puede llegar con mensajes diseñados ad hoc, tanto en redes sociales como usando sistemas de comunicación privada.

Las protestas masivas que vimos en 2018 y 2019 son otro factor de riesgo para la democracia, y tienen como denominador común a la tecnología que facilita la movilización inmediata. Pese a que exista un sustrato estructural que le da origen, es la tecnología quien da vida a las protestas, facilitándolas.

¿Por qué emergen con tal fuerza protestas globalmente? Todas conllevan razones distintas, pero una semejanza fundamental es que las redes sociales facilitan la capacidad movilizadora de la sociedad. Posibilitan la articulación y organización, hacen viral la protesta en un chasquido de dedos e incluso hacen prescindible la estructura de los partidos como palanca orgánica. Quienes protestan en Santiago de Chile han aprendido de sus colegas de Hong Kong a través de tutoriales de YouTube, y viceversa. Hay un aspecto colaborativo en el know how de las protestas que se apalanca sobre internet.

Adicionalmente las redes sociales son un elemento que acrecienta la insatisfacción porque visibiliza el bienestar del prójimo. Viajes, comidas, sonrisas y mucha alegría vista permanentemente en el reflejo, con frecuencia artificial, de terceros. Creemos tener derecho a lo que el otro exhibe y ello puede incrementar la insatisfacción personal, como germen de rebelión. Pero hay además un elemento lúdico, también vinculado a lo tecnológico, en las protestas masivas. La adrenalina, los amigos, el sentido gregario, la hiperrealidad, la definición de adversarios y la realidad aumentada respecto a lo que ya vivimos en simuladores de juegos o en Fortnite son también parte complementaria de la explicación sobre las protestas.

« Las redes sociales facilitan la capacidad movilizadora de la sociedad. Posibilitan la articulación y organización, hacen viral la protesta en un chasquido de dedos e incluso hacen prescindible la estructura de los partidos como palanca orgánica. »

Un aspecto clave está en los distintos abordajes que tienen la democracia y la autocracia. Las dictaduras no tienen ningún prurito de reprimir con brutal ferocidad las protestas, mientras que entre demócratas la protesta es un mecanismo legítimo de expresión en la convivencia. ¿Se confina entonces la protesta masiva a la democracia?

Finalmente, el Estado vigilante, o Surveillance State, es otra nueva amenaza contra la democracia. La supervisión de un Estado sobre la sociedad, a través de la recopilación de inteligencia, información y grandes datos, es justificada para ejercer sus potestades de seguridad, pero solo puede hacerlo a costa de las libertades individuales.

Son parte del Estado vigilante las muy sofisticadas técnicas de reconocimiento facial del gobierno chino para el control social, que permiten, entre otras novedades, reconocer y someter al escarnio público a quienes infringen las normas. Algunos semáforos inteligentes (China Money Network, 2019, julio 30), conocidos como skywalkers, están ya ubicados en las principales ciudades chinas, y permiten detectar violaciones del peatón a las normas, y exhibir el rostro y las señas de identidad de los transgresores en pantallas gigantes. La reciente epidemia de coronavirus ha puesto a prueba el estado de vigilancia chino, y descubierto algunas opciones tecnológicas que hasta ahora no se habían hecho públicas, como la posibilidad de medir masivamente la temperatura corporal de los ciudadanos y enviar alertas tempranas de los síntomas del virus. Las principales ciudades chinas están ya equipadas para el ejercicio de la vigilancia a gran escala, aunque aún no se hayan implementado medidas masivas como lo que se ha venido experimentando en la ciudad de Rongcheng, de 700.000 habitantes, que ejerce un casi total control sobre todos sus habitantes a través de un mecanismo sofisticado de puntuaciones de crédito social (Larson, 2018, agosto 31).

Big Brother is watching you. En China la tecnología frecuentemente es utilizada en forma que contradice la concepción occidental de la libertad. Fuente: © David Gray, Reuters

Son enormes las posibilidades del big data, ese neologismo que en español puede traducirse como inteligencia de datos o minería de datos a gran escala. Sus posibilidades son amplísimas, tanto en lo positivo como en lo negativo. Conocido es el caso de la propagación de la fiebre aviar, o el virus H1N1 y cómo Google pudo predecir en función de los patrones de búsquedas cómo se comportaba y se desplazaba geográficamente la epidemia, mucho mejor de lo que lo hacían las estadísticas sanitarias oficiales.2

China se apalanca sobre su sistema de vigilancia tecnológica para acorralar al coronavirus, pero lo hace sobre el control social, tratando de tener el monopolio de la información. Sin embargo, gente que teme toser en público o alguien que no puede buscar en Google sus síntomas impiden que el big data se convierta en una solución. El virus comienza a dejar en evidencia las contradicciones del sistema político: diez académicos chinos piden libertad de expresión tras la muerte del doctor Li Wenliang (Vidal Liy, 2020, febrero 8), quien fue censurado y amonestado tras haber sido el emisor de la primera advertencia sobre el virus. Este aspecto es clave, y apunta a una incompatibilidad de fondo entre el capitalismo y el control social totalitario.

La acumulación masiva de datos se encuentra en muchas industrias, con información acerca de sus clientes, proveedores, operaciones, etc., pero sin duda los reyes del big data vienen del análisis de redes sociales: Google, Twitter, Facebook, o del gps de nuestros celulares. Un proveedor muy importante de datos para la inteligencia electoral en Estados Unidos es la información derivada de las cookies de Amazon. Saber qué se compra en Amazon implica conocer con gran exactitud patrones de hábitos y agrupación de clusters que fácilmente arrojan conclusiones sobre la conducta política. Pero la posibilidad más distópica del big data es, sin duda alguna, el totalitarismo digital cuya construcción avanza aceleradamente.

La desinformación parece haber llegado para quedarse, aunque evolucione y mute de campaña en campaña. Las distintas formas de desinformación son ya parte del paisaje de la comunicación política. Ante esto, ¿cómo proteger a la democracia? La salud democrática de las sociedades se debe proteger, de igual modo que lo hace la ciencia ante los agresivos virus que de cuando en cuando se asoman con peligrosidad. Hay que encontrar vacunas ante cada mutación de la desinformación, pero la mejor inoculación ocurre cuando se ejerce la ciudadanía, cuando se hace buen periodismo o investigación académica relevante. También puede ayudar la acción de las agencias regulatorias pero, para que estas sean efectivamente útiles, deberán poder superar la asincronía entre la evolución del virus y nuestra capacidad de darle respuesta.

Referencias bibliográficas

  1. ZAO se llama la app china que logra la mágica inclusión de cualquier personalidad en una película de Hollywood, o DeepFake Lab, su prima occidental.
  2. La anécdota es impactante y está muy bien narrada en un ensayo de Viktor Mayer-Schönberger, La revolución de los datos masivos.
Share This