Rodrigo Díaz M.
Meta Platforms pedirá a los anunciantes que revelen el uso de IA (inteligencia artificial) u otras técnicas digitales para crear o alterar un anuncio de temática política o social, dijo el propietario de Facebook e Instagram, con el objetivo de frenar la desinformación antes de las elecciones federales canadienses.
El mandato de divulgación se aplicará si un anuncio contiene una imagen fotorrealista, un vídeo o un audio que suene realista y que haya sido creado o alterado digitalmente para representar a una persona real diciendo o haciendo algo que en realidad no dijo o hizo.
También se extiende a los anuncios que muestran a una persona que no existe o un evento de aspecto realista que no sucedió, altera imágenes de un evento real o representa un evento que supuestamente ocurrió, pero no es una imagen, video o grabación de audio verdadera del evento.
En noviembre del año pasado, Meta dijo que extendería su prohibición de nuevos anuncios políticos después de las elecciones estadounidenses, en respuesta a la desinformación desenfrenada durante las elecciones presidenciales anteriores.
Meta también prohibió a las campañas políticas y a los anunciantes de otros sectores regulados utilizar sus nuevos productos publicitarios de IA generativa en el 2023.
Sin embargo, Meta desechó sus programas de verificación de hechos (fact checking) en los EE.UU. a principios de este año, además de poner freno a los debates sobre temas polémicos como la inmigración y la identidad de género, sucumbiendo a la presión de los conservadores para implementar la mayor revisión de su enfoque de gestión de contenidos políticos.
Meta también afirmó en diciembre del año pasado que la IA generativa había tenido un impacto limitado en sus aplicaciones en 2024, al no haber conseguido crear una audiencia significativa en Facebook e Instagram ni utilizar la IA de forma eficaz.
Meta también ha añadido una función para que las personas revelen cuándo comparten imágenes, vídeos o audios generados por IA, de modo que pueda etiquetarlos.