Iluminando Nightshade – una herramienta que emerge de las sombras

Iluminando Nightshade - una herramienta que surge de las sombras

Ben Zhao, un profesor de la Universidad de Chicago, ayudó a un equipo a crear un programa de IA llamado Nightshade. Zhao afirma que solo está ayudando a los artistas a encontrar una forma de detener a aquellos que utilizan sus modelos sin permiso del creador. Él dice: “La esperanza es que ayude a equilibrar el poder de las empresas de IA en favor de los artistas, al crear un disuasivo poderoso contra el irrespeto al copyright y a la propiedad intelectual de los artistas”. Supongo que el hecho de que Zhao use una vulnerabilidad de seguridad en la IA generativa no importa mucho. Zhao tampoco está preocupado de que exista un riesgo de que la técnica de envenenamiento de datos se pueda utilizar con fines maliciosos. Él dice que los atacantes tendrían que “recopilar miles de muestras envenenadas para causar un daño real a los modelos poderosos”.

<p|razonablemente "nightshade"="" "nightshade",="" -="" altamente="" baya="" con="" conocido="" de="" el="" en="" equipo.

Un profesor de la Universidad de Cornell, Vitaly Shmatikov, dice que aún no hemos visto ataques a aprendizaje automático, pero solo será “cuestión de tiempo”. Muchos otros llaman al trabajo de Zhao y el equipo “fantástico”. Como dice Gautam Kamath, profesor asistente en la Universidad de Waterloo: “Las vulnerabilidades de la IA no desaparecen mágicamente para los nuevos modelos y se volverán más serias”. Aún así, otros dicen que esta pequeña (gran) píldora venenosa finalmente hará que la gente “piense dos veces” antes de tocar el trabajo de los artistas sin su consentimiento. Una artista confesó que finalmente confiará en poder subir su trabajo en línea de nuevo.

La herramienta se encuentra actualmente en la etapa de investigación, pero el equipo la integrará con todas las demás herramientas creadas para proteger contra el robo de obras de artistas.

La herramienta de raspado cambiará los píxeles de una imagen digital, lo que “engañará” al sistema de IA para interpretar incorrectamente la representación. Como dijo MIT Technology Review, hará que una imagen de un animal aparezca como otro, como un perro que se convierte en un gato y una casa que puede terminar siendo un caballo.

Crédito de la imagen destacada: Foto de Davide Baraldi; Pexels; ¡Gracias!