Rodrigo Díaz M.
Veinte empresas tecnológicas han firmado un acuerdo por el que se comprometen a luchar contra los contenidos que engañan a los votantes y han afirmado que desplegarán tecnología para detectar y contrarrestar este tipo de contenido.
Pero un experto del sector afirma que el pacto voluntario “hará poco por evitar que se publiquen contenidos perjudiciales”.
El Acuerdo Tecnológico para Combatir el Uso Engañoso de la Inteligencia Artificial en las Elecciones de 2024 se anunció el viernes pasado en la Conferencia de Seguridad de Múnich.
La cuestión se ha puesto de relieve porque se calcula que hasta cuatro mil millones de personas votarán este año en países como Estados Unidos, Reino Unido e India.
Entre los compromisos del acuerdo figuran el de desarrollar tecnología para “mitigar los riesgos” relacionados con contenidos electorales engañosos generados por IA, y el de ofrecer transparencia al público sobre las medidas adoptadas por las empresas.
Otras medidas incluyen el intercambio de buenas prácticas y la educación del público sobre cómo detectar contenidos manipulados.
Entre los firmantes figuran las plataformas de redes sociales X (antes Twitter), Snap, Adobe y Meta, propietaria de Facebook, Instagram y WhatsApp.
Sin embargo, el acuerdo tiene algunas deficiencias, pues es necesario que tomen más “medidas proactivas” en lugar de esperar a que se publique el contenido para retirarlo.
Esto podría significar que los contenidos de IA más realistas, que pueden ser más dañinos, permanezcan en la plataforma durante más tiempo” en comparación con las falsificaciones obvias, que son más fáciles de detectar y eliminar.
La utilidad del acuerdo se veía mermada por la falta de matices a la hora de definir los contenidos nocivos.
Los firmantes del acuerdo afirman que perseguirán los contenidos que “falsifiquen o alteren engañosamente la apariencia, la voz o las acciones” de figuras clave en las elecciones.
También se tratará el audio, las imágenes o los vídeos que proporcionen información falsa a los votantes sobre cuándo, dónde y cómo pueden votar.
“Tenemos la responsabilidad de ayudar a garantizar que estas herramientas no se conviertan en armas electorales”, declaró Brad Smith, presidente de Microsoft.
Google y Meta han establecido previamente sus políticas sobre imágenes y vídeos generados por IA en la publicidad política, que exigen a los que postean este contenido que indiquen si están utilizando deepfakes o contenidos manipulados por IA.