Meta planea aumentar el uso de etiquetas en imágenes generadas por IA durante un año lleno de elecciones. Esta información proviene de ENBLE.

Meta Amplía la Etiquetado de las Imágenes de IA Generadas en Sus Plataformas de Redes Sociales, Incluyendo Facebook, Instagram y Threads, para Incluir Imágenes Sintéticas Creadas con la Tecnología Generativa de Inteligencia Artificial de su Competidor

🌟 Meta da un paso hacia la etiquetación de imágenes generadas por inteligencia artificial en las redes sociales 📸

En un intento por combatir la desinformación y la información errónea impulsadas por la IA, Meta (anteriormente conocida como Facebook) está ampliando la etiquetación de imágenes generadas por IA en sus plataformas de redes sociales, incluyendo Facebook, Instagram y Threads. Esta expansión incluye la etiquetación de imágenes sintéticas creadas con herramientas de IA generativa de otras compañías, siempre y cuando estas herramientas incluyan “indicadores estándar de la industria” que Meta sea capaz de detectar. Sin embargo, Meta no ha revelado la cantidad exacta de contenido sintético circulando en sus plataformas, lo que nos hace preguntarnos sobre el impacto de esta iniciativa en la lucha contra la desinformación generada por IA en un año en el que se están llevando a cabo muchas elecciones en todo el mundo.

Detección de imágenes generadas por IA

Meta ya detecta y etiqueta “imágenes fotorrealistas” creadas con su propia herramienta de IA generativa llamada “Imagine with Meta”, que fue lanzada en diciembre del año pasado. Sin embargo, anteriormente no etiquetaba imágenes sintéticas creadas con herramientas de otras compañías. Ahora, Meta está trabajando con socios de la industria para establecer estándares técnicos comunes para identificar contenido de IA generativa. Al detectar las señales integradas en las herramientas de generación de imágenes rivales basadas en IA, Meta pretende etiquetar imágenes generadas por IA que los usuarios publican en sus plataformas.

La etiquetación ampliada se implementará gradualmente durante el próximo año, con énfasis en las elecciones importantes de todo el mundo. Meta planea aprender más sobre cómo las personas crean y comparten contenido de IA durante este tiempo, lo que les permitirá desarrollar mejores prácticas y tomar decisiones informadas sobre la expansión de la etiquetación en diferentes mercados.

🔍 El desafío de los videos y el audio generados por IA

Aunque Meta está avanzando en la etiquetación de imágenes, la detección de videos y audio generados por IA sigue siendo un desafío. Las técnicas de marcado y marca de agua no se han adoptado ampliamente, lo que dificulta que las herramientas de detección identifiquen correctamente estos deepfakes. Además, la edición y manipulación pueden eliminar fácilmente cualquier señal presente en el contenido.

Meta está trabajando activamente en el desarrollo de clasificadores para detectar automáticamente contenido de video generado por IA sin la necesidad de marcadores invisibles. También están explorando formas de mejorar la resistencia de las marcas de agua invisibles, como integrar mecanismos de marca de agua directamente en el proceso de generación de imágenes. Para mitigar los riesgos, Meta ahora requiere que los usuarios revelen manualmente si publican videos generados por IA “fotorrealistas” o audio “realista”. No hacerlo puede resultar en penalizaciones, incluyendo suspensiones o prohibiciones de cuentas.

🎭 Engañando sin IA

Es importante tener en cuenta que la manipulación de contenido digital no se limita exclusivamente al contenido generado por IA. Crear falsificaciones virales y engañar a las personas a gran escala es posible con habilidades básicas de edición y acceso a una cuenta de redes sociales. Meta ha enfrentado críticas con respecto a sus políticas sobre videos manipulados. El Consejo de Supervisión, un organismo independiente de revisión de contenido establecido por Meta, criticó a la compañía por tener políticas “incoherentes” con respecto a videos falsificados, especialmente aquellos generados por IA. El Consejo enfatizó la necesidad de que Meta aborde los riesgos de manipulación de contenido no relacionados con la IA también.

🤖 IA generativa como herramienta de moderación de contenido

Además de etiquetar contenido generado por IA, Meta está explorando el uso de IA generativa como complemento de sus esfuerzos de moderación de contenido. Nick Clegg, presidente de Meta, sugiere que los modelos de lenguaje grandes (LLMs, por sus siglas en inglés) podrían ayudar en momentos de “riesgo elevado”, como las elecciones. Las pruebas iniciales utilizando LLMs entrenados en los Estándares Comunitarios de Meta han mostrado resultados prometedores en la identificación de violaciones de políticas. También se utilizan LLMs para eliminar contenido de las colas de revisión cuando existe alta confianza de que no viola las políticas de Meta. Este enfoque tiene como objetivo aliviar la carga de los revisores de contenido humanos y mejorar la eficiencia de la moderación de contenido.

🔍 Verificación de hechos sobre contenido generado por IA

Meta también permite que socios independientes de verificación de hechos verifiquen el contenido generado por IA en sus plataformas. Esto significa que el contenido generado por IA no sólo puede ser etiquetado como tal, sino también desacreditado si contiene información falsa. Sin embargo, la aplicación simultánea de múltiples etiquetas y señales en el contenido puede resultar confusa para los usuarios que navegan por las plataformas de redes sociales.

👥 El desafío de la asimetría y la respuesta de Meta

Reconociendo la asimetría entre la disponibilidad de verificadores de hechos humanos y las herramientas de IA cada vez más accesibles utilizadas para crear desinformación, Meta está bajo presión para demostrar su compromiso en la lucha contra las falsificaciones generadas por IA. Sin datos concretos sobre la prevalencia de contenido sintético versus auténtico en las plataformas de Meta y la efectividad de sus sistemas de detección de IA, es difícil llegar a conclusiones definitivas. Sin embargo, con numerosas elecciones en el horizonte, los esfuerzos de Meta para abordar la desinformación generada por IA están siendo objeto de atención.

🔗 Referencias:Meta lanza un generador de imágenes AI independienteEl Oversight Board pide a Meta que reescriba las reglas ‘incoherentes’ contra los videos falsificadosDe asistente AI a remodelador de imágenes: las nuevas características de IA de Meta

💡 Preguntas y respuestas de los lectores: P: ¿La ampliación de la etiquetado del contenido generado por AI también se aplica a videos y audio? R: Si bien Meta actualmente está etiquetando imágenes generadas por AI, la detección y etiquetado de videos y audio generados por AI siguen siendo un desafío. La compañía está trabajando activamente en el desarrollo de herramientas para identificar este contenido. Sin embargo, en la actualidad, el enfoque de etiquetado se centra principalmente en imágenes generadas por AI.

P: ¿Existen penalizaciones para los usuarios que no revelan que su contenido es generado por AI? R: Sí, Meta tiene una política existente de Normas de la comunidad que se aplica a todos los usuarios a nivel mundial. Los usuarios que no revelen manualmente video generado por AI “fotorrealista” o audio “con sonido realista” pueden enfrentar penalizaciones, incluyendo suspensiones de cuentas o prohibiciones.

P: ¿Cómo planea Meta abordar los riesgos de la manipulación de contenido no relacionado con AI? R: Si bien los esfuerzos recientes de Meta se han centrado en el contenido generado por AI, el Oversight Board ha instado a la compañía a revisar sus políticas para abordar los riesgos de manipulación de contenido no relacionado con AI. Meta aún no ha delineado planes específicos en respuesta a esta recomendación.

P: ¿Los socios de verificación de hechos pueden desacreditar el contenido generado por AI además de etiquetarlo? R: Sí, los socios de verificación de hechos tienen la autoridad para desacreditar contenido generado por AI si contiene información falsa. Además de ser etiquetado como generado por AI, el contenido considerado inexacto o engañoso también puede ser desacreditado.

🌐 El futuro del contenido generado por AI en las redes sociales

A medida que la IA continúa avanzando, desempeñará un papel cada vez más importante en la formación de nuestras experiencias en línea. Los esfuerzos de Meta para etiquetar el contenido generado por AI y explorar la IA generativa como una herramienta de moderación de contenido resaltan la importancia de abordar los desafíos planteados por la desinformación. El desarrollo de técnicas de detección sólidas y políticas claras será crucial en el futuro. La prevalencia del contenido generado por AI, combinada con el riesgo de manipulación, sirve como un recordatorio de la necesidad de un comportamiento en línea responsable y pensamiento crítico.

📢 ¡Comparte tus pensamientos!

¿Qué opinas sobre la expansión de Meta en el etiquetado del contenido generado por AI? ¿Crees que ayudará a combatir efectivamente la desinformación? ¡Comparte tus opiniones en los comentarios a continuación y únete a la conversación!

🙌 ¡Disfrutaste este artículo? ¡No olvides compartirlo en las redes sociales!

Descargo de responsabilidad: Este artículo es únicamente con fines informativos. Las opiniones expresadas en este artículo son únicamente las del autor y no reflejan necesariamente las políticas o posiciones oficiales de Meta o sus subsidiarias.


🔍 Referencias:Meta lanza un generador de imágenes AI independienteEl Oversight Board pide a Meta que reescriba las reglas ‘incoherentes’ contra los videos falsificadosDe asistente AI a remodelador de imágenes: las nuevas características de IA de Meta