La ética de la IA generativa Cómo podemos aprovechar esta poderosa tecnología

Ética de la IA generativa aprovechando una tecnología poderosa

Con nuevos descubrimientos sobre las capacidades de la IA generativa siendo anunciados todos los días, personas en diversas industrias están buscando explorar hasta qué punto la IA puede impulsar no solo nuestras tareas diarias, sino también proyectos más grandes y complejos.

Característica especial

El surgimiento de la IA generativa

Una nueva ola de herramientas de IA ha causado sensación en el mundo y nos ha dado una visión de una nueva forma de trabajar y encontrar la información que puede agilizar nuestro trabajo y nuestra vida. Te mostramos las formas en que herramientas como ChatGPT y otro software de IA generativa están teniendo impacto en el mundo, cómo aprovechar su poder, así como los posibles riesgos.

Sin embargo, con estos descubrimientos surgen preocupaciones y preguntas sobre cómo regular el uso de la IA generativa. Al mismo tiempo, están surgiendo demandas contra OpenAI y el uso ético de la IA generativa es una preocupación evidente.

A medida que los modelos de IA actualizados evolucionan con nuevas capacidades, las regulaciones legales aún se encuentran en una zona gris. Lo que podemos hacer ahora es educarnos sobre los desafíos que conlleva el uso de una tecnología poderosa y aprender qué medidas se están tomando para evitar el mal uso de una tecnología que tiene un gran potencial.

Usar la IA para combatir la manipulación de la IA

Desde situaciones en las que los abogados citan casos falsos creados por ChatGPT, hasta estudiantes universitarios que usan chatbots de IA para escribir sus trabajos, e incluso imágenes generadas por IA de Donald Trump siendo arrestado, cada vez es más difícil distinguir entre lo que es contenido real, lo que fue creado por IA generativa y dónde está el límite para usar estos asistentes de IA. ¿Cómo podemos hacernos responsables mientras probamos la IA?

También: Una pregunta espinosa: ¿Quién es dueño del código, las imágenes y las narrativas generadas por la IA?

Los investigadores están estudiando formas de prevenir el abuso de la IA generativa desarrollando métodos para usarla en su contra y detectar instancias de manipulación de IA. “Las mismas redes neuronales que generaron las salidas también pueden identificar esas firmas, casi como los marcadores de una red neuronal”, dijo la Dra. Sarah Kreps, directora y fundadora del Instituto de Política Tecnológica de Cornell.

También: 7 consejos avanzados para escribir comandos en ChatGPT que necesitas saber

Un método para identificar esas firmas se llama “marca de agua”, mediante el cual se coloca una especie de “sello” en las salidas que han sido creadas por IA generativa como ChatGPT. Esto ayuda a distinguir qué contenido ha sido sometido o no a la IA. Aunque los estudios aún están en curso, esto podría ser una solución potencial para distinguir entre el contenido que ha sido alterado con IA generativa y el contenido que es verdaderamente propio.

La Dra. Kreps comparó este método de estampado con el de los profesores que escanean el trabajo enviado por los estudiantes en busca de plagio, donde se puede “escanear un documento en busca de estas firmas técnicas de ChatGPT o del modelo GPT”.

También: ¿Quién es dueño del código? Si la IA de ChatGPT ayuda a escribir tu aplicación, ¿sigue siendo tuya?

“OpenAI está haciendo más para pensar en qué valores codifica en sus algoritmos para no incluir desinformación o resultados contradictorios y polémicos”, dijo la Dra. Kreps a ENBLE. Esto ha sido especialmente preocupante ya que la primera demanda contra OpenAI fue debido a la alucinación de ChatGPT que creó información falsa sobre Mark Walters, un locutor de radio.

Educación en alfabetización digital

Cuando las computadoras estaban ganando impulso en el uso escolar, era común tomar clases como laboratorio de computadoras para aprender cómo encontrar fuentes confiables en internet, hacer citas y realizar investigaciones adecuadas para las tareas escolares. Los consumidores de IA generativa pueden hacer lo mismo que hicieron cuando comenzaron a aprender cómo usar una tecnología: educarse a sí mismos.

También: Los mejores chatbots de IA

Hoy en día, con asistentes de IA como Google Smart Compose y Grammarly, el uso de estas herramientas es común, si no universal. “Creo que esto se volverá tan ubicuo, tan ‘con Grammarly’, que dentro de cinco años la gente mirará hacia atrás y se preguntará por qué tuvimos estos debates”, dijo la Dra. Kreps.

Sin embargo, hasta que se implementen más regulaciones, el Dr. Kreps dice: “Enseñar a las personas qué buscar creo que es parte de esa alfabetización digital que acompañaría a ser un consumidor más crítico de contenido”.

Por ejemplo, es común que incluso los modelos de IA más recientes cometan errores o proporcionen información incorrecta desde el punto de vista factual. “Creo que estos modelos ahora son mejores en no hacer estos bucles repetitivos que solían hacer, pero cometerán pequeños errores factuales y lo harán de manera muy creíble”, dijo el Dr. Kreps. “Inventarán citas y atribuirán un artículo incorrectamente a alguien, ese tipo de cosas, y creo que ser consciente de eso es realmente útil. Así que examinar los resultados para pensar, ‘¿esto suena correcto?'”

También: Estas son mis 5 herramientas de IA favoritas para el trabajo

La instrucción de IA debería comenzar en el nivel más básico. Según el Informe del Índice de Inteligencia Artificial 2023, la educación en IA y ciencias de la computación en el nivel K-12 ha crecido tanto en los Estados Unidos como en el resto del mundo desde 2021, informando que desde entonces “11 países, incluyendo Bélgica, China y Corea del Sur, han respaldado e implementado oficialmente un plan de estudios de IA para el nivel K-12”.

El tiempo asignado a los temas de IA en las aulas incluye algoritmos y programación (18%), alfabetización de datos (12%), tecnologías de IA (14%), ética de IA (7%) y más. En un plan de estudios de muestra en Austria, la UNESCO informó que “también adquieren una comprensión de los dilemas éticos asociados con el uso de estas tecnologías y se convierten en participantes activos en estos problemas”.

Cuidado con los sesgos

La IA generativa es capaz de crear imágenes basadas en el texto que ingresa un usuario. Esto se ha convertido en un problema para los generadores de arte de IA como Stable Diffusion, Midjourney y DALL-E, no solo porque son imágenes que los artistas no dieron permiso para usar, sino también porque estas imágenes se crean con claros sesgos de género y raza.

También: Los mejores generadores de arte de IA

Según el Informe del Índice de Inteligencia Artificial, The Diffusion Bias Explorer de Hugging Face ingresó adjetivos con ocupaciones para ver qué tipos de imágenes produciría Stable Diffusion. Las imágenes estereotipadas que se generaron revelaron cómo se codifica una ocupación con ciertos adjetivos descriptores. Por ejemplo, “CEO” todavía generó significativamente imágenes de hombres de traje cuando se ingresaron una variedad de adjetivos como “agradable” o “agresivo”. DALL-E también obtuvo resultados similares con “CEO”, produciendo imágenes de hombres mayores y serios de traje.

Imágenes de Stable Diffusion de “CEO” con diferentes adjetivos.

Imágenes de DALL-E de un “CEO”.

Se demostró que Midjourney tiene un sesgo similar. Cuando se le pidió que produjera una “persona influyente”, generó cuatro hombres blancos mayores. Sin embargo, cuando AI Index le dio la misma indicación más adelante, Midjourney sí produjo una imagen de una mujer entre sus cuatro imágenes. Las imágenes de “alguien inteligente” revelaron cuatro imágenes generadas de hombres blancos mayores con gafas.

Imágenes de Midjourney de una “persona influyente”.

Según el informe de Bloomberg sobre sesgos de IA generativa, estos generadores de texto a imagen también muestran un claro sesgo racial. Más del 80% de las imágenes generadas por Stable Diffusion con la palabra clave “recluso” contenían personas de piel más oscura. Sin embargo, según la Oficina Federal de Prisiones, menos de la mitad de la población penitenciaria de los Estados Unidos está compuesta por personas de color.

Imágenes de Stable Diffusion de “recluso”.

Además, el 70% de las veces, la palabra clave “trabajador de comida rápida” atribuyó imágenes de personas con tonos de piel más oscuros. En realidad, el 70% de los trabajadores de comida rápida en los Estados Unidos son blancos. Para la palabra clave “trabajador social”, el 68% de las imágenes generadas eran de personas con tonos de piel más oscuros. En los Estados Unidos, el 65% de los trabajadores sociales son blancos.

Imágenes de Stable Diffusion de “trabajador de comida rápida”.

¿Cuáles son las preguntas éticas que plantean los expertos?

Actualmente, los investigadores están explorando preguntas hipotéticas a modelos no moderados para probar cómo responderían los modelos de IA como ChatGPT. “¿Qué temas deberían estar prohibidos para ChatGPT? ¿Deberían las personas poder aprender las tácticas de asesinato más efectivas?” planteó el Dr. Kreps los tipos de preguntas que los investigadores están examinando.

“Ese es solo un tipo de ejemplo o pregunta marginal, pero es uno en el que, si [es] una versión no moderada del modelo, podrías incluir esa pregunta o ‘cómo construir una bomba atómica’ o estas cosas que tal vez podrías haber hecho en internet, pero ahora estás obteniendo en un solo lugar una respuesta más definitiva. Así que están pensando en esas preguntas e intentando llegar a un conjunto de valores que codificarían en esos algoritmos”, dijo el Dr. Kreps.

También: 6 formas dañinas en que ChatGPT puede ser utilizado por actores malintencionados, según un estudio

Según el Informe del Índice de Inteligencia Artificial, entre 2012 y 2021, el número de incidentes y controversias de IA aumentó 26 veces. Con más controversias que surgen debido a las nuevas capacidades de IA, la necesidad de considerar cuidadosamente lo que estamos ingresando en estos modelos es apremiante.

Más importante aún, si estos modelos generativos de IA se están basando en datos que ya están disponibles en internet, como las estadísticas de ocupaciones, ¿deberían permitir el riesgo de seguir creando desinformación y representar imágenes estereotipadas? Si la respuesta es sí, la IA podría desempeñar un papel perjudicial en reforzar los sesgos implícitos y explícitos de los seres humanos.

También quedan preguntas sobre quién posee el código y el riesgo de exposición a la responsabilidad al usar código generado por IA, así como las implicaciones legales de usar imágenes que la IA genera. El Dr. Kreps dio un ejemplo de la controversia en torno a la violación de derechos de autor cuando se trata de pedirle a un generador de arte que cree una imagen en el estilo de un artista específico.

“Creo que algunas de esas preguntas son aquellas que habría sido difícil anticipar porque era difícil anticipar cuán rápido se difundirían estas tecnologías”, dijo el Dr. Kreps.

Aunque aún es un misterio si estas preguntas finalmente serán respondidas cuando el uso de herramientas de IA como ChatGPT comience a estabilizarse, los datos muestran que es posible que ya hayamos pasado el punto máximo de ChatGPT, ya que experimentó su primera disminución de tráfico en junio.

La ética de la IA en el futuro

Muchos expertos creen que el uso de IA no es un concepto nuevo, y esto se evidencia en nuestro uso de IA para realizar tareas simples. El Dr. Kreps también dio ejemplos de usar Google Smart Compose al enviar un correo electrónico y verificar ensayos en busca de errores a través de Grammarly. Con la creciente presencia de la IA generativa, ¿cómo podemos avanzar para poder convivir con ella sin ser consumidos por ella?

“Las personas han estado trabajando con estos modelos durante años y luego salen con ChatGPT, y tienes 100 millones de descargas en poco tiempo”, dijo el Dr. Kreps. “Con ese poder [viene] una responsabilidad de estudiar de manera más sistemática algunas de estas preguntas que ahora están surgiendo”.

También: ChatGPT y la nueva IA están causando estragos en la ciberseguridad de formas emocionantes y aterradoras

Según el Informe del Índice de Inteligencia Artificial, el número de proyectos de ley con “inteligencia artificial” que se aprobaron aumentó de solo uno en 2016 a 37 en 2022 entre 127 países. Además, el informe también muestra que en 81 países, los registros parlamentarios sobre IA muestran que los procedimientos legislativos globales relacionados con la IA han aumentado casi 6.5 veces desde 2016.

Aunque estamos presenciando un impulso hacia regulaciones legales más sólidas, todavía hay muchas cosas que no están claras, según expertos e investigadores. El Dr. Kreps sugiere que la forma “más efectiva” de usar herramientas de IA es “como un asistente en lugar de un reemplazo para los humanos”.

Mientras esperamos más actualizaciones de los legisladores, las empresas y los equipos están tomando sus propias precauciones al usar IA. Por ejemplo, ENBLE ha comenzado a incluir exenciones de responsabilidad al final de sus piezas explicativas que utilizan imágenes generadas por IA para mostrar cómo usar una herramienta de IA específica. Incluso OpenAI tiene su programa de Recompensa por Errores (Bug Bounty) en el que la empresa pagará a las personas por buscar errores de ChatGPT.

Independientemente de las regulaciones que se implementen finalmente y cuándo se solidifiquen, la responsabilidad recae en el humano que utiliza la IA. En lugar de temer las crecientes capacidades de la IA generativa, es importante centrarse en las consecuencias de nuestras entradas en estos modelos para poder reconocer cuándo se está utilizando la IA de manera poco ética y actuar en consecuencia para combatir estos intentos.