La generación de videos en la previa de los comicios porteños puso el acento en la utilización de las nuevas tecnologías en los procesos electorales. Señales de alarma por lo que se viene
Compartir
Las campañas políticas, como se conocían hasta hace algunos años, quedaron en la antigüedad frente al avance intempestivo de las nuevas tecnologías y, en particular, de la Inteligencia Artificial (IA). Las elecciones legislativas de la Ciudad de Buenos Aires fueron una muestra de los usos indebidos y un espacio político y sus candidatos pusieron el grito en el cielo. Cuáles serán los reparos en los procesos electorales venideros frente al antecedente capitalino y cuáles son los peligros que deberán afrontar todos los partidos y candidatos en disputa.
Las elecciones de Estados Unidos en 2024, que ganó el republicano Donald Trump, fueron las primeras donde se registró un uso masivo de la inteligencia artificial en la propagación de noticias y en artículos tendientes a la desinformación. La multiplicación de videos e imágenes creadas con esta tecnología inundaron las redes y encendieron la mecha de lo que se repetiría en otras latitudes y procesos electorales.
Argentina y sus dirigentes políticos no escapan al boom de este fenómeno. El presidente Javier Milei es un asiduo usuario de redes sociales. Estas plataformas fueron determinantes en su penetración de un electorado que se volcó a las urnas para ponerlo en el sillón de Rivadavia. También el mandatario comparte de forma recurrente imágenes generadas de forma artificial para dar cuenta de sus logros, de los elogios que recibe, o bien para mofarse de sus adversarios políticos. Esta práctica es replicada por sus miles de seguidores y referentes de su espacio político, que en las últimas elecciones de la Ciudad de Buenos Aires quedaron bajo la lupa por la generación de un video utilizando la tecnología de deepfakes (creación de gestos, expresiones faciales, tono de voz y otros patrones de una persona) del expresidente y titular del PRO, Mauricio Macri. A un minuto del comienzo de la veda electoral anunciaron que bajaba a su candidata, la ahora electa Silvia Lospennato.
Más allá del repudio de los afectados y su espacio político, hubo otros dirigentes vinculados al oficialismo que minimizaron la viralización de estas imágenes restándole importancia. Este hecho y su posterior denuncia encendieron las luces de alarma en diferentes espacios políticos, que ven con preocupación la proliferación de este tipo de prácticas a pocos meses de un proceso electoral determinante como serán las elecciones legislativas en la provincia de Buenos Aires y también las nacionales, que definirán quienes serán los próximos senadores y diputados que entrarán al Congreso Nacional.
Especialistas en comunicación política advierten sobre los riesgos de la Inteligencia Artificial en una campaña política como la que se aproxima. En este sentido, Gabriel Slavinsky manifestó que “lo que parecía una herramienta del futuro, es parte central de las campañas del presente” y agregó que “las campañas y los dirigentes que no comprendan este nuevo escenario corren el riesgo de quedar desfasados” (ver cuadro).
Asimismo, entran en juego las interpretaciones legales de su utilización. El Código Nacional Electoral es claro al penalizar “al que con engaños indujere a otro a sufragar en determinada forma o a abstenerse de hacerlo”.
Mientras tanto, armadores y postulantes buscan resguardarse de una campaña sucia, donde la Inteligencia Artificial es el lodo en el cual pueden quedar empantanados.
Gabriel Slavinsky “Puede haber una escalada tóxica en las campañas”
-¿Cuáles son los riesgos en una campaña política la utilización de la Inteligencia Artificial? -Será un nuevo enfoque. Con menos verdad, menos realidad, menos responsabilidad y más emocionalidad. Puede haber una escalada tóxica en las campañas 2025 y 2026 en el mundo.
-¿Cambió algo, en clave electoral, la difusión de este tipo de videos? -Cambió el paradigma, pero no aplica al contexto electoral. Es una nueva era, es la era artificial.
-¿Pudo tener impacto el video de Macri en los resultados en la Ciudad? -En este caso puntual, fue peor la defensa en el desayuno en la mañana que el ataque digital en sí, que por supuesto fue certero y agresivo porque se pasó un nuevo límite que la política tradicional no contemplaba como posible en esta elección. La estrategia del PRO fue defensiva y la victimización resta votos, no los suma en este caso.
Mario Riorda – Politólogo “Queda claro que deslegitima al sistema democrático”
El docente e investigador Mario Riorda señaló que “la Inteligencia Artificial no genera peligros en sí, pero los usos de deepfake sí. Esto tiene serias implicancias que la democracia no puede eludir considerar”.
En esta línea el activista de la comunicación política afirmó que “desde la filosofía democrática pone en juego a la libertad (de elegir) porque tergiversa la información disponible para una decisión óptima, esto trastoca la representación política ya que genera pérdida de chances y alteración de la competitividad, daño de reputaciones públicas y corrupción (por el financiamiento)”.
Asimismo, aclaró que es “muchísimo peor cuando se suplanta la identidad de un actor político y se desvirtúan sus ideas. Ahí aparece una peligrosa acción de autoritarismo, porque se intenta silenciar/tapar el disenso desde una concepción fascista con un núcleo argumental mítico e irreal”.
También dejó en claro que “genera tendencias artificiales gregarias y conductas tribales que encuadran y modelan el debate público desde la más pura artificialidad, pero con una violencia y expresiones racistas, sexistas y estereotipantes cada día más exacerbadas y humillantes”.
Sobre el impacto en procesos electorales, Riorda manifestó que “sí queda claro que deslegitima al sistema democrático, al menos si aumenta en su escala y sus efectos”. Al traspolar esta postura a las últimas elecciones de la Ciudad de Buenos Aires, puntualizó que “a juzgar por los resultados, no creo que la aparición de esta deepfake haya generado algún tipo de efecto significativo o evidente. Tal es así que los números son prácticamente los que existían en la intención de voto potencial previa y si hubo un corrimiento grande en los últimos días fue básicamente el voto de (Ramiro) Marra hacia La Libertad Avanza. El resto de los votos prácticamente estaban estables desde hace muy largo rato”.
Diego Armesto - Abogado Constitucionalista El abordaje legal y las infracciones al Código Nacional Electoral
El abogado constitucionalista Diego Armesto puntualizó sobre las implicancias legales respecto a la utilización de la IA y el caso de las elecciones porteñas. Al respecto indicó que “desde el punto de vista de la Ciudad sostengo que hay dos normas que se podrían aplicar a la cuestión del delito electoral, porque no se puede realizar dentro de las apreciaciones que hizo el expresidente Mauricio Macri de fraude. En este caso se podría aplicar el Código Con-travencional, que habla de la sustitución de identidad digital, donde se podría encuadrar la acción jurídica en una contravención, pero la pena es de 5 días de arresto o trabajo comunitario, porque no hay una acción que permita encuadrar ese delito. Aquí hubo un mecanismo a través de la comunicación digital donde se quiso utilizar la identidad de otra persona para producir un engaño en la elección de legisladores”.
Además agregó que “también está la aplicación del artículo 140 del Código Nacional Electoral, que habla de la incidencia engañosa. Aquí aparece la figura de engañar al elector para que se produzca el voto de determinada manera o que se abstenga; por eso cuadra dentro de un delito electoral. Desde mi punto de vista hay una señal de alerta, porque hay elecciones en la Provincia en septiembre y después nacionales en octubre, y no hay una regulación clara por parte de la ley o del mismo Código para tipificar esta figura, por eso es necesario cubrir esta laguna legal que existe en nuestra normativa”.
Marco Rossi- Abogado especialista en IA “Esto afecta a la democracia porque se juega una regla distinta”
El Director del Laboratorio de IA, Innovación y Transformación Digital DYNTEC (UNT), Marco Rossi, dialogó acerca de la irrupción de las nuevas tecnologías vinculadas a IA y su impacto y peligros. Al respecto expresó: “Considero que acá hay un tipo de inteligencia artificial que tiene sus riesgos que es la IA generativa. Está bien que se puedan automatizar ciertos parámetros para resolver otras cuestiones, y se vienen usando en política, pero hay una desprotección biométrica de datos tan personales como la voz o nuestras caras”.
En esta línea agregó: “Las fake news existen hace tiempo, pero se trabaja con la responsabilidad civil de los motores de búsqueda, como ser Google. Si alguien publica algo que aparece en ese buscador y es falso se tiene el derecho de poder sacarlo. Pero ahora juegan otros canales de difusión que son extremos, como las redes sociales; y en el mismo escenario hay herramientas que permiten la creación infinita de cuestiones que afectan mucho más a la personalidad que una propia fake news como se conocía antes.
Agregó que “esto afecta a la democracia”. Para Rossi, “se juega una regla distinta y se comienza a darle una seriedad distinta a la que le estábamos dando. Cuando se usa una IA generativa de manera tan sencilla, donde se utilizan los parámentros de imagen de una persona y se los damos a una red neuronal para que aprenda cómo se comportan los gestos de esa persona y la voz, para que diga algo que nunca dijo, las reglas de juego nos ponen a descreer de lo que vemos”.