Alerta por el uso de IA en política: avanzan con un proyecto de regulación

Alerta por el uso de IA en política: avanzan con un proyecto de regulación

Diputados de diversos espacios proponen regular desde las redes sociales estos contenidos.


La difusión de un video falso que aparentaba ser un anuncio de Mauricio Macri y Silvia Lospennato retirándose de las elecciones en la Ciudad de Buenos Aires un día antes de las votaciones marcó las últimas elecciones porteñas.

Por esta razón, un grupo de diputados nacionales ha presentado un proyecto de ley que tiene como objetivo prevenir la manipulación electoral a través del uso de contenidos creados o alterados con inteligencia artificial (IA).

La iniciativa es liderada por el radical Julio Cobos y cuenta con el respaldo de legisladores de diversos bloques, proponiendo la modificación del Código Nacional Electoral para establecer límites, procedimientos y etiquetados obligatorios para las redes sociales y los medios de comunicación.

El caso que motivó el debate ocurrió durante el fin de semana pasado, cuando el aparato digital de La Libertad Avanza difundió el contenido fake que mostraba a Macri y Lospennato pidiendo votar a Adorni. El contenido engañoso, que fue rápidamente desmentido, superó las 14 millones de visualizaciones y generó preocupación por el impacto de las herramientas de inteligencia artificial en los procesos democráticos.

El proyecto cuenta con las firmas de Margarita Stolbizer, Marcela Coli, Melina Giorgi, Atilio Benedetti, Mario Barletta, Danya Tavela, Adolfo Bermejo, Liliana Paponet, Martin Aveiro, Marcela Pagano, Lourdes Arrieta, Marcela Antola​, Carla Carrizo y Marcela Campagnoli.

Regular a la IA

Cobos advirtió sobre la gravedad del fenómeno: “Al día de hoy, y más allá de los estudios científicos realizados sobre el tema, resulta difícil comprender lo que representa y el alcance de la inteligencia artificial, estamos ante un fenómeno que todavía es inconmensurable e imprevisible. Como toda acción que impacta en la vida de las personas, tiene su uso y difusión una dimensión ética y moral y los límites son aún difusos”.

El legislador recordó que “lamentablemente, hemos sido testigos recientemente de un incidente en las elecciones de la Ciudad de Buenos Aires, donde un video falso, generado con esta tecnología, llegó a acumular más de 14 millones de visualizaciones, circulando por los teléfonos de todos los ciudadanos. Aunque su impacto real es complicado de cuantificar, es evidente que provocó una situación engañosa que afectó a uno de los grupos que participaba en las elecciones. A pesar de que más tarde se desmintió su autenticidad, el daño ya estaba hecho. Esto representa un riesgo considerable e inaceptable”.

En la presentación del proyecto en la cámara baja, los firmantes señalaron que “en los próximos meses, Argentina se enfrentará a su primer proceso electoral nacional en un entorno de inteligencia artificial generativa, donde la desinformación promovida por esta tecnología puede contaminar de manera sin precedentes los ecosistemas informativos. Con herramientas digitales de fácil acceso, actores malintencionados podrían –por ejemplo– crear imágenes engañosas de candidatos en situaciones comprometedoras, videos alterados de autoridades electorales cuestionando la legitimidad del proceso, o audios falsos de funcionarios anunciando cambios ficticios en los lugares o modalidades de votación”.

Las redes sociales deberán colaborar para evitar fakes de IA

El proyecto propone modificar el Código Electoral para establecer límites temporales y procedimientos específicos contra la circulación de este tipo de contenidos durante las campañas. Además, incorpora la obligación de rotular las imágenes, videos o audios que hayan sido manipulados, con el fin de advertir al público sobre su falsedad.

“Las plataformas digitales de gran alcance deberán desarrollar e implementar procedimientos técnicos para detectar y eliminar contenidos materialmente engañosos si se cumplen las siguientes condiciones:

a) Muestra a una persona candidata realizando o diciendo algo que no hizo ni dijo, y que razonablemente pueda afectar su imagen o intención de voto.

b) Muestra a una autoridad electoral diciendo o haciendo algo falso que pueda socavar la confianza en el proceso electoral.

c) Muestra a una autoridad electa diciendo o haciendo algo falso que afecte la percepción sobre la legitimidad del proceso electoral.

d) El contenido ha sido difundido dentro del período de restricción.

e) La plataforma conoce o actúa con negligencia respecto a la naturaleza engañosa del contenido.

Además, destacaron que “el contenido que cumpla con las condiciones anteriores deberá ser eliminado en un plazo no mayor a cuarenta y ocho (48) horas desde su reporte”.

Hasta la eliminación del contenido se lo deberá rotular con la leyenda: “Este [imagen/audio/video] ha sido manipulado y no es auténtico”. El etiquetado debe ser visible y permitir al usuario acceder a más información explicativa con un clic o toque.

Cobos subrayó que “esta clase de contenidos puede difundirse viralmente y afectar la voluntad del electorado o socavar la confianza en los resultados electorales. Actuemos antes que esto suceda y tiña de forma irremediable la contienda electoral. Por eso proponemos (…) obligaciones de rotulación que están estrictamente dirigidas a informar al público sobre la falsedad o manipulación de ciertos contenidos para evitar el engaño con la finalidad de proteger la transparencia y equidad de los comicios; bajo ningún aspecto nos involucramos con un derecho fundamental como lo es la libertad de expresión”.

Es por ello que en el proyecto se precisó que “se excluyen” los contenidos difundidos por medios informativos que adjunten una advertencia explícita sobre su naturaleza ficticia, así como las emisiones en medios de comunicación que sean parte de reportajes, documentales o análisis de interés público, siempre que se incluya una advertencia clara sobre su inexactitud.

Antecedentes internacionales: Brasil, Unión Europea y EE.UU

El diputado nacional destacó que varios países han progresado en la creación de normativas sobre inteligencia artificial. “Hay una jurisprudencia significativa en este ámbito que nos orienta sobre el camino a seguir, ya que el marco regulatorio para las políticas de IA es un asunto emergente en diversas jurisdicciones globales, incluyendo entidades como el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) y la OCDE”, comentó.

Entre los ejemplos internacionales, Cobos mencionó el Marco Legal de la Inteligencia Artificial, que fue aprobado en Brasil en 2021, y el Acta de IA de la Unión Europea de 2023, así como los compromisos adoptados por empresas tecnológicas estadounidenses durante la administración de Joe Biden. “Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI se comprometieron a asegurar que los productos de IA se sometan a pruebas de seguridad, tanto internas como externas, antes de su lanzamiento al público; a compartir información sobre la gestión de riesgos de la IA (…) y a priorizar la ciberseguridad”, puntualizó.

Finalmente, Cobos expresó: “No podemos quedarnos de brazos cruzados ante las noticias falsas, la manipulación de la verdad y la distorsión de la información. Debemos discutir este asunto sin miedos ni prejuicios; por ello, presentamos este proyecto como un primer paso para abordar el ámbito electoral y, a medida que surjan otras inquietudes relacionadas con el uso de la IA, las evaluaremos en su momento en el Congreso de la Nación”.

Qué se dice del tema...