Nueva regla de Meta: Amenaza de sanción para los usuarios de imágenes generadas por IA
Meta planea aplicar nuevas normas relativas a los contenidos generados por IA en sus plataformas como Facebook, Instagram e hilos, según se afirma en una entrada del blog de la empresa el 6 de enero. Estas medidas pretenden hacer frente a las crecientes preocupaciones en torno a la autenticidad y la transparencia de los contenidos digitales.
Según el anuncio, cualquier contenido reconocido como generado por IA, ya sea mediante metadatos o marcas de agua intencionadas, estará visiblemente etiquetado. Además, los usuarios tendrán la opción de marcar los contenidos no etiquetados sospechosos de ser generados por IA, lo que permitirá a la comunidad contribuir a los esfuerzos de moderación de contenidos.
Esta iniciativa refleja la evolución del planteamiento de Meta sobre la moderación de contenidos, que recuerda a sus prácticas anteriores a la aparición de los contenidos generados por IA. Al dar a los usuarios la posibilidad de denunciar infracciones y garantizar la transparencia en el etiquetado de contenidos, Meta pretende mantener la integridad de sus plataformas.
De cara a 2024, Meta está aprovechando su amplia base de usuarios para mejorar las capacidades de moderación de contenidos. Al permitir que los usuarios marquen los contenidos generados por IA, Meta aprovecha el poder del crowdsourcing para hacer frente a los nuevos retos que plantea la autenticidad de los contenidos digitales.
Según la entrada del blog:
«Exigiremos a las personas que utilicen esta herramienta de divulgación y etiquetado cuando publiquen contenido orgánico con un vídeo fotorrealista o un audio de sonido realista que haya sido creado o alterado digitalmente, y podremos aplicar sanciones si no lo hacen.»
Mejora de la detección de contenidos generados por IA
Los creadores que utilicen las plataformas de Meta deberán etiquetar sus contenidos como generados por IA para evitar posibles repercusiones. Aunque Meta implementa marcas de agua y etiquetado para los contenidos generados mediante sus herramientas, reconoce limitaciones en la detección a escala de contenidos de audio y vídeo generados por IA.
Para resolver este problema, Meta colabora con socios del sector como Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock. Juntos tratan de desarrollar métodos para detectar marcas de agua invisibles y mejorar la verificación de la autenticidad de los contenidos.
Sin embargo, Meta reconoce las limitaciones actuales para detectar a escala contenidos de audio y vídeo generados por IA, incluida la tecnología deepfake. Esto subraya la necesidad de seguir trabajando para abordar el cambiante panorama de la autenticidad y la integridad de los contenidos digitales.