Meta dijo este miércoles que los anunciantes pronto tendrán que manifestar si han usado Inteligencia Artificial (IA) u otro software para crear o alterar las imágenes o audios en publicidad política.
El requisito tendrá efecto globalmente en Facebook e Instagram a comienzo del próximo año, dijo Meta, su casa matriz.
«Los anunciantes que hagan publicidad de problemas sociales, elecciones y política con Meta tendrán que decir si la imagen o el sonido han sido creados o alterados digitalmente, incluso con AI, para hacer decir a gente real cosas que no han hecho o dicho», dijo en una publicación de Threads el presidente de asuntos globales de Meta, Nick Clegg.
Los anunciantes también tendrán que revelar cuando usan IA para crear gente o eventos realistas falsos, agregó.
Además, los socios de verificación de Meta, entre los que está la AFP, pueden etiquetar contenido como «alterado» si determinan que fue creado o editado de forma que resulte engañosa.
Entre los temores acerca de la cada vez más poderosa IA está el potencial fraude a los votantes durante las elecciones.
Otro gigante que está dando pasos para controlar este problema es Microsoft, que planea lanzar a principios de 2024 herramientas que permitan a los candidatos o campañas incluir «credenciales» en imágenes o video que produzcan.
El gigante tecnológico dijo que además desplegará un equipo para ayudar a las campañas a combatir amenazas basadas en la IA como ciberinfluencia o imágenes falsas.
El Nacional