POSVERDAD: CICLO DE ATAQUE
La posverdad, en sus diferentes manifestaciones, comentadas en la primera entrada de esta serie, se configura como una vía de ataque hacia organizaciones, empresas o individuos, al igual que hacia los Estados y los sistemas democráticos, con mayor o menor grado de intencionalidad.
Encuentra un facilitador o potenciador en las tecnologías de la información y las comunicaciones (TIC), elemento fundamental para perfilar objetivos, manipular la información, construir de un mensaje y difundir el mismo buscando el máximo impacto, el máximo daño al adversario.
De esta manera, este tipo de agresión, que supone un elevado riesgo reputacional para el objetivo de ataque, se convierte en una más que eficiente arma de ataque, con un coste reducido, y basado en dos pilares:
- Los aspectos, ya señalados igualmente en entradas previas, de carácter personal y psicológico que hacen que la posverdad sea efectiva, y el entorno actual de incertidumbre (entornos VUCA).
- La utilización de las TIC, en un continuo desarrollo, que facilitan la manipulación de la información y su difusión.
El presente gráfico muestra cómo podría desarrollarse un hipotético ataque basado en la desinformación, manipulación o difusión de bulos, desarrollado de manera hipotética por un adversario. El proceso sería el siguiente:
- El adversario determina la finalidad y el objetivo de su ataque (un Estado, una empresa extranjera, un competidor, un individuo, etc). Desarrolla un estudio, basado en fuentes humanas y abiertas para planificar la acción. El análisis de información en Internet y en redes sociales puede permitir perfilar un objetivo, determinando sus posibles vulnerabilidades, para poder elegir, entre todas ellas, aquella que producirá mayor daño o impacto en función del objetivo perseguido.
- Elección de la técnica de engaño o manipulación. A estos efectos las opciones son múltiples, a través del uso de textos y comunicación escrita (mentira, bulo, desinformación, medias verdades, difusión de sospechas sin confirmar, utilización de argumentación persuasiva, propaganda, recurso a emociones, a valores, etc.), modificación de imágenes o videos, o utilización de las mismas fuera de contexto (de otro momento, otro lugar, otra situación), o utilización de estadísticas o gráficos para presentar los datos de la forma más favorable a los intereses del atacante, o de forma muy negativa para la víctima.
- Elección de formato del mensaje de manipulación o desinformación, íntimamente ligado al paso anterior. Si se decide manipular o desinformar a través del texto escrito, por ejemplo, se debe elegir entre posibles formatos: artículo de opinión, informe o análisis, noticia, alerta, post o comentario, etc. Los avances tecnológicos que permiten emular la voz o manipular imágenes o videos, y que dificultan su detección, son imparables. Wired se hacía eco recientemente de la suplantación de caras de personalidades en películas pornográficas
- Elección del medio a través del cual se va a lanzar la desinformación: Internet (web, blog, foro, medio digital), redes sociales, aplicaciones móviles (grupos y canales en Whataspp o Telegram), o medio de comunicación tradicional (si se dispone de la capacidad para ello). Esta situación es favorecida por la diversidad de medios no tradicionales, que pueden ser incluso creados ad-hoc.
- Difusión y viralización. Utilización de técnicas específicas de posicionamiento, uso de bots y trolls, técnicas de gestión en redes sociales, etc. Según una investigación del MIT, publicada recientemente en Science, las noticias falsas se retuitean un 70% más que las ciertas. Y las ciertas tardan 6 veces más en llegar por Twitter hasta alcanzar 1.500 personas (analizados 4,5 millones de tuits). Por el contrario, se ha mostrado que las personas difunden más noticias falsas que los bots.
- Un mensaje viralizado genera impactos. Y provoca decisiones que pueden afectar a los intereses empresariales: pérdida de una licitación, boicot de los consumidores, caída de la cotización en Bolsa, grave daño a la reputación personal o empresarial, etc. Siempre funciona ese viejo dicho que incide en “que si el río suena, agua lleva”. En entradas anteriores, a título de ejemplo, se mencionaba cómo el famoso caso Pizzagate, aún a día de hoy, seguía siendo creído por un elevado porcentaje de ciudadanos estadounidenses.
- Reacción. Siempre es limitada. El daño reputacional está hecho. El desmentido de la desinformación o el bulo tiene siempre mucho menor impacto que el causado por el ataque. Parte de la posible reacción a esta situación estaría también en las TIC, pero el grado de difusión de un desmentido siempre será mucho menor. Recordamos, a estos efectos, el caso que se produjo recientemente a Yoigo. La Inteligencia Artificial, el uso de bots o blockchain pueden ser elementos para enfrentar la posverdad. Existen empresas que ya ofrecen servicios de blockchain para imágenes o videos, con objeto de poder certificar la veracidad de la imagen original ante una posible manipulación.