Los problemas acechando en el histórico acuerdo de AI de Hollywood

Retos en el histórico acuerdo de inteligencia artificial de Hollywood

No todos en Hollywood están contentos con el histórico acuerdo de inteligencia artificial de la industria cinematográfica. Críticos argumentan que una disposición que permite la creación de réplicas digitales y actores sintéticos podría disminuir la cantidad de trabajos disponibles tanto para actores como para el equipo de producción. Esto, a su vez, permitiría que estrellas de renombre y sus clones generados por IA aparezcan en múltiples proyectos a la vez, desplazando a actores emergentes a medida que Hollywood se inunda de actores sintéticos.

Los sentimientos son tan fuertes que el 14 por ciento de la junta nacional del Screen Actors Guild-American Federation of Television and Radio Artists, o SAG-AFTRA en resumen, en realidad votó en contra de llevar el acuerdo a su membresía general para su ratificación. Los líderes del Directors Guild of America y el Writers Guild of America, en cambio, acordaron abrumadoramente que sus miembros acepten los acuerdos que negociaron con la Alliance of Motion Picture and Television Producers (AMPTP).

Con su acuerdo con AMPTP, los escritores intentaban tomar el control de una herramienta que podría aprender a redactar guiones originales o alterar guiones escritos por humanos sin permiso. Para los actores, uno de los problemas clave en las negociaciones era diferente: la IA podría robar su propia semejanza. Un control estricto parece existencialmente necesario. “En este acuerdo, efectivamente hay muchas aplicaciones imaginadas para el futuro, tanto para personajes secundarios como para personajes principales y actores de fondo”, dice Joshua Glick, profesor asociado visitante de cine y artes electrónicas en Bard College. “Eso es parte de por qué tal vez haya más ansiedad en torno a la posición de los actores en relación a la IA en comparación con las ganancias obtenidas por los escritores”.

Una de las críticas más fuertes al acuerdo ha sido la actriz de Family Ties, Justine Bateman, quien se desempeña como asesora de IA para el comité de negociación de SAG-AFTRA. En los días posteriores a que SAG alcanzara su acuerdo tentativo con AMPTP, ella publicó un hilo ampliamente compartido en X que terminaba con: “Lo último es, nos espera una era muy desagradable para actores y equipo de producción”.

La mayor preocupación de Bateman es el lenguaje del acuerdo en relación a los “actores sintéticos” o IA que se parecen a los humanos. “Esto le da a los estudios/transmisores la luz verde para usar objetos de IA con apariencia humana en lugar de contratar a un actor humano”, escribió en X. “Es una cosa usar [IA generativa] para hacer un King Kong o una serpiente voladora (aunque eso desplaza a muchos artistas VFX/CGI), es otra cosa tener un objeto de IA interpretando un personaje humano en lugar de un actor real”. Según ella, esto sería similar a permitir que los Teamsters usen camiones autónomos en lugar de conductores sindicales.

Otra cuestión es cómo regular las características de estos “actores sintéticos”. Un resumen del nuevo acuerdo establece que “si un productor planea crear un personaje generado por computadora que tenga una característica facial principal, como ojos, nariz, boca u orejas, que claramente se parezca a un actor real, y usan el nombre y la cara de ese actor para indicar al sistema de IA que haga esto, primero deben obtener el permiso de ese actor y ponerse de acuerdo en cómo se usará este personaje en el proyecto”.

Los actores pueden depender del derecho a la publicidad, también conocido como derechos de semejanza, para protegerlos si un estudio infringe claramente su imagen. Pero ¿qué pasa con un actor sintético que muestra, por ejemplo, la seriedad de Denzel Washington pero que técnicamente no es Denzel Washington? ¿Se podría reclamar como una “réplica digital”, que según el contrato requiere consentimiento para su uso? ¿Con qué facilidad podrá un actor defender rasgos más nebulosos? Con cierto peso legal, un estudio podría argumentar que su actor de IA simplemente está entrenado en las actuaciones de grandes actores, al igual que cualquier aspirante a actor, de la misma manera que un gran modelo de lenguaje “asimila” grandes obras literarias para influir en la escritura que produce. (Si se debe permitir a los LLM hacer esto o no es una cuestión de debate en curso).

“¿Dónde se traza la línea entre una réplica digital y una apariencia similar derivada que se acerca, pero no es exactamente una réplica?”, dice David Gunkel, profesor en el Departamento de Comunicaciones de la Universidad del Norte de Illinois, quien se centra en IA en medios y entretenimiento. “Esto es algo que se litigará en el futuro, a medida que veamos demandas presentadas por diversos grupos, a medida que las personas comiencen a poner a prueba ese límite, porque no está bien definido dentro de los términos del contrato”.

Existen más preocupaciones relacionadas con la vaguedad de algunos términos del contrato. Por ejemplo, la estipulación de que los estudios no necesitan buscar consentimiento “si estarían protegidos por la Primera Enmienda (por ejemplo, comentario, crítica, becas, sátira o parodia, uso en un docudrama, o trabajo histórico o biográfico)”. No es difícil imaginar que, si lo desean, los estudios podrían evadir el consentimiento clasificando el uso como una sátira y utilizando la Constitución de los Estados Unidos como cobertura.

O consideremos la discusión en torno a las alteraciones digitales, específicamente que no se necesita obtener consentimiento para una réplica digital si “la fotografía o la banda sonora se mantiene sustancialmente como se escribió, interpretó y/o grabó”. Esto podría incluir cambios en el cabello y la vestimenta, dice Glick, o notablemente, un gesto o expresión facial. Esto plantea la cuestión del efecto de la IA en el arte de la actuación: ¿Los artistas y actores comenzarán a marcar sus interpretaciones libres de IA o impulsarán movimientos anti-IA al estilo de Dogme 95? (Estas preocupaciones hacen eco de antiguos argumentos de la industria sobre CGI).

La precariedad de los intérpretes los hace vulnerables. Si un actor necesita pagar las cuentas, el consentimiento de la IA y la posible replicación pueden llegar a ser condiciones de empleo algún día. Es probable que también se profundice la desigualdad entre los actores: aquellos que pueden permitirse resistirse a los proyectos de IA podrían obtener más protección; los actores famosos que aceptan ser recreados digitalmente pueden “aparecer” en varios proyectos a la vez.

Hay un límite en lo que se puede lograr en las negociaciones entre los gremios y los estudios, como explicó el actor y director Alex Winter en un artículo reciente para ENBLE. Al igual que señaló en el acuerdo de la WGA, el trato “confía mucho en que los estudios hagan lo correcto”. Su logro principal, argumenta, es continuar la conversación entre el trabajo y el capital. “Es un paso en la dirección correcta en cuanto a la protección de los trabajadores; cambia parte del control de los estudios a las manos de los trabajadores que están sindicalizados bajo SAG-AFTRA”, dice Gunkel. “Sin embargo, creo que, debido a que está limitado a un contrato por un período de tiempo muy preciso, no es algo que deberíamos celebrar y dar por terminado”.