Generador de imágenes de IA Midjourney prohíbe los mensajes relacionados con Trump y Biden.

Esta tarea de moderación es bastante desafiante.

“`html

Durante un viaje, las plataformas de redes sociales manejan con cuidado las publicaciones de Joe Biden y Donald Trump debido a preocupaciones sobre la difusión de desinformación electoral.

Imagen: [Insertar imagen relevante aquí]

En un intento por frenar la propagación de desinformación y manipulación antes de las elecciones presidenciales de 2024, Midjourney, el generador de imágenes de inteligencia artificial conocido por crear imágenes falsas, ha anunciado que prohibirá las solicitudes de imágenes que involucren tanto a Donald Trump como a Joe Biden. Esta decisión se produce en un momento en el que expertos y defensores expresan su preocupación por el uso de la tecnología de IA para influir en los votantes.

Las pruebas realizadas por la Associated Press mostraron que las solicitudes de imágenes de “Trump y Biden estrechándose las manos en la playa” desencadenaron una advertencia de “Se detectó una solicitud prohibida”. El CEO de Midjourney, David Holz, afirmó que si bien no le interesa particularmente el discurso político, tampoco quiere pasar todo su tiempo vigilándolo. Visualiza un futuro en el que los actores maliciosos puedan crear deepfakes y chatbots aún más sofisticados, lo que dificultaría la moderación.

Midjourney no es la única herramienta de IA que toma medidas para abordar la propagación de imágenes problemáticas. El Generador de Imágenes de Bing de Microsoft ha intentado anteriormente prohibir las solicitudes relacionadas con las “torres gemelas” para evitar la creación de memes relacionados con los ataques del 11 de septiembre.

Además, el generador de imágenes avanzado de OpenAI, DALL-E 3, ha implementado políticas de uso más restrictivas y un sistema de seguridad multinivel para limitar la generación de contenido violento, odioso o para adultos. DALL-E 3 también rechaza las solicitudes de generación de imágenes de personas reales, incluidos candidatos políticos.

Estas acciones ponen de manifiesto la creciente conciencia de la industria sobre el posible uso indebido de la tecnología de IA y la necesidad de medidas proactivas para contrarrestar sus efectos negativos. OpenAI ha detectado y eliminado previamente cuentas de actores malintencionados afiliados a estados extranjeros que utilizaban sus tecnologías generativas de IA.

Contenido de Preguntas y Respuestas:

P: ¿Son los generadores de imágenes de IA como Midjourney una amenaza significativa durante las elecciones?

R: Los generadores de imágenes de IA pueden representar de hecho una amenaza durante las elecciones. Con la capacidad de crear imágenes falsas altamente realistas, los actores maliciosos podrían potencialmente utilizarlas para difundir desinformación, manipular la opinión pública e influir en el resultado de las elecciones.

P: ¿Cómo detectan y previenen los generadores de imágenes de IA la creación de imágenes problemáticas?

R: Los generadores de imágenes de IA emplean diversas técnicas para detectar y prevenir la generación de imágenes problemáticas. Estas incluyen filtros de palabras clave, listas de prohibición, alertas de abuso y sistemas de seguridad que restringen la capacidad del generador para producir contenido violento, odioso o para adultos.

P: ¿Pueden los generadores de imágenes de IA eliminar completamente la creación de imágenes falsas?

R: Si bien los generadores de imágenes de IA pueden implementar medidas para abordar la creación de imágenes falsas, es todo un desafío eliminar por completo la producción de dicho contenido. Los actores maliciosos encuentran constantemente formas de eludir las restricciones y crear deepfakes convincentes. Es necesario realizar investigaciones y desarrollos continuos para mantenerse al tanto de estas técnicas en evolución.

P: ¿Cómo pueden los individuos y plataformas protegerse de la influencia de imágenes manipuladas durante las elecciones?

R: Para protegerse de la influencia de imágenes manipuladas, los individuos y las plataformas deben mantenerse vigilantes y evaluar críticamente la autenticidad de las imágenes que encuentran. La verificación de hechos, la confianza en fuentes fiables y la promoción de la alfabetización digital pueden contribuir a combatir la propagación de desinformación.

Estas acciones recientes de Midjourney, Microsoft y OpenAI reflejan la respuesta en evolución de la industria al mal uso de la tecnología de IA. Al establecer pautas e implementar sistemas avanzados de detección, estas empresas buscan proteger la integridad de las elecciones y minimizar el impacto de las imágenes falsas.

A medida que la tecnología de IA continúa avanzando, es crucial que tanto los profesionales de la industria como los reguladores aborden activamente sus implicaciones éticas y diseñen soluciones integrales. Solo a través de esfuerzos colectivos podemos aprovechar el potencial de la IA mientras nos protegemos contra su mal uso.

Referencias: 1. Microsoft mejora Copilot AI con mejores sugerencias de comandos 2. Apple lanza Safari Technology Preview con correcciones de errores y mejoras de rendimiento 3. Las víctimas de deepfakes no consensuados se arman con la ley de derechos de autor para combatir la propagación de contenido 4. Gafas inteligentes Ray-Ban Meta: Nuevos poderes de AI impresionantes y preocupantes 5. AI’s Serve: Basura dentro, preguntas basura fuera

“““html

¿Encontraste útil este artículo? ¡Compártelo con tus amigos para concienciar sobre las medidas que se están tomando para combatir la difusión de imágenes falsas durante las elecciones!

Autor: Tu Nombre

“`