Meta identificará con etiquetas las imágenes creadas con IA en sus redes sociales
La medida es para advertir al usuario sobre fotos que estén manipuladas con esta tecnología en caso de un posible engaño.
En relación a aquello, la Junta de Supervisión decidió dejar en la red un video adulterado de Joe Biden, debido a que no estaba modificado con IA.
Con la popularidad de la IA generativa, cada vez circulan por Internet más "deepfakes" que usan la cara de famosos para estafar a los usuarios.
El gigante tecnológico Meta anunció este martes que en "los próximos meses empezará" a etiquetar imágenes generadas con inteligencia (IA) en sus redes Facebook, Instagram y Threads.
En un comunicado, el presidente de Asuntos Globales, Nick Clegg, señaló que Meta está trabajando con otras empresas de la industria en estándares técnicos comunes para identificar contenido de IA, incluidos videos y audios.
"Estamos creando herramientas líderes en la industria que pueden identificar marcadores invisibles para que podamos etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock", destacó Clegg.
META: VIDEO DE JOE BIDEN NO FUE MANIPULADO CON IA
A propósito de la medida, la Junta de Supervisión de Meta apoyó este lunes que permaneciera en sus redes un video manipulado del presidente de Estados Unidos, Joe Biden, que salió a la luz este enero.
Este video utiliza imágenes reales de Biden colocando una pegatina que dice: "Yo voté" sobre el pecho de su nieta adulta, que se filmaron en octubre de 2022, pero la edición repite el momento en que la mano de Biden se aproxima al pecho de su nieta para que parezca que la tocó de manera inapropiada.
"La publicación de Facebook no viola la política de Medios manipulados de Meta, que se aplica únicamente a videos creados mediante IA y a contenido que muestra a personas diciendo cosas que no dijeron. Dado que el video de esta publicación no fue modificado usando IA y muestra al presidente Biden haciendo algo que no hizo (no algo que no dijo), no viola la política existente", anota la junta en un comunicado.
Además, la junta resalta que la alteración de este vídeo es obvia y, por lo tanto, es poco probable que engañe al "usuario promedio" sobre su autenticidad.
"Sin embargo, la Junta está preocupada por la política de Medios Manipulados en su forma actual, considerándola incoherente, carente de justificación persuasiva y enfocada inapropiadamente en cómo se ha creado el contenido, en lugar de qué daños específicos pretende prevenir (por ejemplo, a procesos electorales). Meta debería reconsiderar esta política rápidamente, dado el número de elecciones en 2024", añade.
A finales de enero, redes sociales como X, Instagram y Threads optaron por suprimir las búsquedas de "Taylor Swift inteligencia artificial (IA)" tras la filtración de imágenes sexuales falsas de la cantante estadounidense posiblemente creadas con IA.
Con la popularidad de la IA generativa, cada vez circulan por Internet más "deepfakes" que usan la cara de famosos para estafas difundidas en las redes sociales: algunos de los blancos han sido el youtuber MrBeast, cuyo nombre real es Jimmy Donaldson y tiene más de 237 millones de seguidores, o el premiado actor Tom Hanks.