El mes pasado, comenzó a circular en las redes sociales un vídeo que pretendía contar la historia de una granja de trolls de Internet en Kiev que tenía como objetivo las elecciones estadounidenses.
Hablando en inglés con acento eslavo, “Olesya” cuenta en primera persona cómo ella y sus colegas trabajaron inicialmente para apoyar al presidente ucraniano Volodymyr Zelensky. Luego, dijo, después de una visita de misteriosos estadounidenses que “probablemente eran de la CIA”, el grupo comenzó a enviar mensajes al público estadounidense en apoyo al presidente Biden.
“Nos dijeron que nuestro nuevo objetivo eran los Estados Unidos de América, específicamente las próximas elecciones”, dice la mujer en el vídeo. “Para resumir, se nos pidió que hiciéramos todo lo posible para evitar que Donald Trump ganara las elecciones. »
El vídeo es falso y forma parte de un esfuerzo por confundir el debate político en el período previo a las elecciones estadounidenses.
Los funcionarios estadounidenses dicen que el video es consistente con las operaciones de desinformación rusas, mientras los guerreros de Internet alineados con Rusia parecen estar refinando su estrategia. Algunas de las viejas tácticas de 2016 o 2020 podrían reutilizarse con nuevas mejoras.
Un análisis del vídeo realizado por agencias de inteligencia estadounidenses encontró que la voz de “Olesya” fue generada sintéticamente, dijo el jueves un funcionario de inteligencia, una señal potencial de cómo los agentes rusos están mezclando técnicas de noticias con tácticas antiguas.
Aunque ha habido mucha preocupación sobre el papel que podría desempeñar la inteligencia artificial este año a la hora de engañar a los votantes, funcionarios actuales y anteriores han dicho que los vídeos representan una de las amenazas más inmediatas.
Microsoft dijo que el video que presenta a “Olesya” probablemente provino de un grupo llamado Storm-1516, un grupo de expertos en desinformación que ahora se concentran en crear videos que esperan que se vuelvan virales en Estados Unidos.
Lo más probable es que el grupo incluya a veteranos de la Agencia de Investigación de Internet, una granja de trolls alineada con el Kremlin que intentó influir en las elecciones de 2016. La agencia estaba dirigida por Yevgeny Prigozhin, el fundador del grupo mercenario Wagner que llevó a cabo una rebelión contra el Kremlin. Luego murió en un accidente aéreo que, según funcionarios estadounidenses y aliados, fue orquestado por agencias de inteligencia rusas.
Microsoft dijo que el grupo también incluía a personas asociadas con Valery Korovin, la figura principal de un oscuro grupo de expertos con sede en Moscú llamado Centro de Experiencia Geopolítica, una organización conservadora afiliada a Aleksandr Dugin, un escritor ultranacionalista que enfrenta sanciones estadounidenses por su papel en el reclutamiento de combatientes. para la guerra.
Los agentes rusos están recurriendo a los vídeos, muchos de los cuales afirman falsamente haber sido realizados por periodistas independientes o denunciantes. Los vídeos, a diferencia de los blogs o las publicaciones en las redes sociales, tienen más probabilidades de difundirse más allá de los márgenes conspirativos de Estados Unidos y convertirse en parte del discurso dominante.
Avril D. Haines, directora de inteligencia nacional, dijo el miércoles por la tarde al Comité de Inteligencia del Senado que Rusia representa la amenaza más activa para las próximas elecciones. Rusia, afirmó, está tratando de erosionar la confianza en las instituciones democráticas, exacerbar las divisiones sociales y socavar el apoyo a Ucrania.
“Rusia depende de un vasto aparato de influencia multimedia, compuesto por sus servicios de inteligencia, actores cibernéticos, representantes de los medios estatales y trolls de las redes sociales”, dijo. “Lo más probable es que Moscú considere estas operaciones como una forma de demoler a Estados Unidos. »
China tiene un sofisticado sistema de influencia y confía cada vez más en su capacidad para influir en los resultados electorales, dijo Haines. Pero añadió que la comunidad de inteligencia evaluó que China no intentó influir en las elecciones presidenciales de 2020 y que hasta el momento no había información de que China sería más activa en las elecciones de este año.
El senador Mark Warner, demócrata de Virginia y presidente del Comité de Inteligencia, dijo que los adversarios tenían más incentivos que nunca para interferir en las elecciones, pero que el público había tratado con demasiada frecuencia esa interferencia “como trivial o pintoresca”.
Clint Watts, director general del Centro de Análisis de Amenazas de Microsoft, dijo que difundir desinformación escrita por robots es en gran medida una pérdida de tiempo: en 2024, los vídeos de desinformación serán los que tendrán más posibilidades de difundirse entre el público estadounidense.
El vídeo de la CIA, dijo Watts, era una táctica rusa clásica: acusar a tu oponente precisamente de lo que estás haciendo. “Cuando dicen que hay una granja de trolls operada por Zelensky en Ucrania después de las elecciones estadounidenses, lo que están diciendo es que eso es lo que estamos haciendo”, dijo Watts.
Walter Trosin, portavoz de la CIA, dijo que la agencia no estuvo involucrada en las actividades representadas en el video.
“Esta afirmación es demostrablemente falsa y es precisamente el tipo de desinformación contra el que la comunidad de inteligencia ha advertido durante mucho tiempo”, dijo Trosin. “La CIA es una organización con orientación exterior que se toma muy en serio nuestra obligación de permanecer al margen de la política y las elecciones estadounidenses. »
En la audiencia en el Senado, Haines elogió a la CIA por publicar públicamente el video, diciendo que era un ejemplo de cómo el gobierno identificaría la desinformación proveniente de Rusia u otros países durante las elecciones.
Varios grupos en Rusia están difundiendo desinformación contra Estados Unidos. Además de los videos, dicen investigadores y funcionarios gubernamentales, Rusia ha creado un puñado de sitios de noticias locales estadounidenses falsos y los utiliza para difundir propaganda del Kremlin, intercalada con historias sobre crimen, política y cultura.
El general Paul M. Nakasone, quien se retiró del ejército este año y es exdirector de la Agencia de Seguridad Nacional, dijo que la mejor defensa contra la desinformación rusa sigue siendo la misma: identificarla y dar publicidad a la campaña de propaganda. Estados Unidos, dijo, debe ampliar su intercambio de información, tanto a nivel nacional como en todo el mundo, para que la gente pueda identificar e ignorar la desinformación difundida por Moscú.
“El gran antídoto a todo esto es poder arrojar luz sobre esto”, dijo el general Nakasone, quien la semana pasada fue nombrado director fundador del nuevo Instituto de Defensa Nacional y Seguridad Global de la Universidad de Vanderbilt. “Si intentan influir o interferir en nuestras elecciones, deberíamos ponérselo lo más difícil posible. »
Algunos republicanos tradicionales ya han advertido a sus colegas legisladores que tengan cuidado de no repetir afirmaciones derivadas de la desinformación o la propaganda rusa.
“Estamos viendo intentos directos de Rusia de ocultar comunicaciones antiucranianas y prorrusas, algunas de las cuales incluso escuchamos en la Cámara de Representantes”, dijo el representante Michael R. Turner, republicano de Ohio y presidente de la Cámara de Representantes. . el Comité de Inteligencia de la Cámara de Representantes, dijo en el programa “State of the Union” de CNN el 7 de abril.
Los defensores de la información rusos han difundido videos falsos para difundir mentiras sobre Ucrania, con el objetivo de socavar su credibilidad o presentarla como corrupta. Los políticos republicanos que se oponen a enviar ayuda adicional a Ucrania han repetido acusaciones infundadas de que Zelensky intentó, a través de asociados, comprar un yate, información errónea que surgió por primera vez en un video publicado en YouTube y otros sitios de redes sociales.
La mayoría de los vídeos producidos por Storm-1516 no logran el éxito. Otros se acercan. Un vídeo publicado en un canal ruso de Telegram pretendía mostrar a soldados ucranianos quemando una efigie de Trump, culpándolo por los retrasos en los envíos de ayuda.
El vídeo apareció en el sitio de conspiración de derecha de Alex Jones, InfoWars, y en otros medios de comunicación en inglés. Pero esta idea fue rápidamente descartada: los soldados supuestamente ucranianos tenían acento ruso y estaban enmascarados.
“Esta campaña ha ayudado a promover algunos de los objetivos clave de Rusia, en particular presentar a Ucrania como un Estado corrupto y canalla al que no se le puede confiar la ayuda occidental”, dijo Watts.
Desde agosto pasado, Microsoft ha identificado al menos 30 vídeos producidos por Storm-1516. El primero tuvo como objetivo Ucrania. Pero otros están tratando de influir en la política estadounidense llegando a audiencias de derecha con mensajes de que Biden se beneficia de la ayuda de Ucrania.
Funcionarios de inteligencia, legisladores y empresas de seguridad han advertido sobre el uso de inteligencia artificial por parte de China, Rusia y otros estados nacionales con la intención de difundir desinformación. Pero hasta ahora, los grupos rusos como Storm-1516 han evitado en su mayoría el uso de herramientas de inteligencia artificial, afirman las empresas de seguridad.
“Muchas campañas de IA son fáciles de detectar o frustrar”, dijo Brian Murphy, director gerente de seguridad nacional de Logicically, que rastrea la desinformación. “La IA está mejorando, pero este año todavía no está en la etapa en la que se utilizará en la escala y calidad que algunos predicen. Quizás en un año más o menos.
Sin embargo, funcionarios gubernamentales y expertos externos han dicho que el audio editado con IA ha demostrado ser más efectivo que los videos editados. Durante la audiencia del miércoles, Haines destacó una grabación de audio falsa transmitida en Eslovaquia dos días antes de las elecciones parlamentarias. Aunque rápidamente se identificó como falso, los medios y las agencias gubernamentales tuvieron dificultades para revelar la manipulación, y el objetivo de la grabación falsa perdió una elección reñida.
Expertos externos han dicho que se ha utilizado inteligencia artificial en algunos videos de propaganda rusa para enmascarar acentos. No está claro por qué se habría utilizado una voz sintética en el vídeo falso de la granja de trolls de la CIA.
Pero el miércoles, Haines dijo que la inteligencia artificial y otras innovaciones “han permitido a personas influyentes extranjeras producir de manera más efectiva mensajes aparentemente auténticos y personalizados a mayor escala y con contenido adaptado a diferentes idiomas y culturas”.
Por ahora, sin embargo, los vídeos básicos como CIA Troll Farm o Yacht Video, que afirman tener narradores auténticos con acceso a información exquisita, representan la amenaza más extendida.
En 2016, los propagandistas controlados por Rusia pudieron difundir artículos de noticias falsos o publicaciones en las redes sociales y, en algunos casos, tener un impacto. Pero hoy estas viejas técnicas ya no funcionan.
“Nadie le prestará atención estos días”, dijo Watts. “Hay que tener un formato de vídeo para captar realmente a la audiencia estadounidense de hoy, lo que ni siquiera era técnicamente posible hace 10 años”.