Prohibición de Dean.Bot La represión de OpenAI sobre los chatbots políticos

OpenAI interrumpe chatbot que genera atención para improbable candidato demócrata

Las reglas de elecciones de OpenAI están siendo probadas.

A meses de las elecciones de 2024 y a menos de una semana después de que el nombre más importante de🔥🔥 IA se comprometiera a ayudar a mantener un proceso democrático justo, los desarrolladores están probando esas promesas. Según The Washington Post, el 20 de enero, OpenAI prohibió al equipo detrás de Dean.Bot, un chatbot impulsado por ChatGPT destinado a generar interés en un candidato demócrata poco probable de Minnesota, el Representante Dean Phillips. La compañía citó la falta de cumplimiento de las pautas de uso de la empresa, escribiendo a The Washington Post: “Cualquiera que construya con nuestras herramientas debe seguir nuestras políticas de uso. Recientemente eliminamos una cuenta de desarrollador que infringía conscientemente nuestras políticas de uso de API que prohíben la campaña política o la suplantación de identidad sin consentimiento”.

El bot, que fue eliminado poco después de que la publicación publicara una historia sobre su lanzamiento, pero no antes de que los desarrolladores intentaran mantenerlo activo con otras APIs, fue creado por Delphi, una startup de IA encargada por un super PAC relativamente nuevo conocido como We Deserve Better, fundado por los emprendedores del Valle del Silicio Matt Krisiloff y Jed Somer. ⭐

¿Qué hizo Dean.Bot?

El bot permitía a los posibles votantes “conversar” con Phillips y escuchar sus mensajes de campaña. El intercambio inicial se inició con un descargo de responsabilidad en pantalla que indicaba que el bot no era real y era parte de We Deserve Better. El sitio web ahora alerta a los visitantes con un “¡Disculpen, DeanBot está actualmente de campaña!”

Compromisos de OpenAI para la temporada de elecciones

La eliminación del bot es una de las primeras eliminaciones públicas desde que OpenAI publicó nuevos compromisos para la temporada de elecciones, insinuando un esfuerzo para frenar la información de la campaña utilizando la tecnología de OpenAI tan pronto como se haga pública. El 16 de enero, la compañía compartió su plan completo para abordar el lugar de la IA en las elecciones presidenciales de este año, lo que algunos llaman un punto álgido político y tecnológico en una batalla contra la desinformación de la IA. OpenAI anunció nuevas políticas de uso y compromisos para fomentar la integridad de las elecciones, que incluyen lo siguiente:

  1. Mayor transparencia sobre el origen de las imágenes y las herramientas utilizadas para crearlas, incluido el uso de DALL-E.
  2. Actualizaciones en las fuentes de noticias de ChatGPT y la inclusión de atribuciones y enlaces en las respuestas.
  3. Una asociación con la Asociación Nacional de Secretarios de Estado (NASS) para incorporar información precisa de votación en determinadas preguntas de procedimiento.

OpenAI ya tiene una política que prohíbe a los desarrolladores crear aplicaciones para campañas políticas y cabildeo, o crear chatbots que se hagan pasar por personas reales, incluidos candidatos o entidades gubernamentales. La compañía también prohíbe aplicaciones que “desalienten la participación en los procesos democráticos”, como información de votación inexacta o elegibilidad.

Implicaciones del control de OpenAI

Las próximas elecciones han avivado una mayor preocupación sobre el papel de la tecnología en el intercambio de información y la movilización de grupos de votantes, y la IA se destaca como un área gris inminente en las pautas de muchas empresas de redes sociales. Muchos grupos de vigilancia y defensores (así como la FCC) se preocupan por el potencial del clonado de voz de IA, mientras que otros advierten sobre el aumento de deepfakes cada vez más efectivos.

En diciembre, dos organizaciones sin fines de lucro publicaron un informe que documenta que el chatbot Copilot de IA de Microsoft no proporcionó información precisa sobre las elecciones y difundió desinformación. En respuesta, algunas compañías están optando por desarrollar políticas más sólidas para la campaña política, como las anunciadas por Google y Meta el año pasado. Sin embargo, la eliminación completa de contenido y las repercusiones del contenido generado por IA en consumidores susceptibles y una creciente falta de conocimientos en los medios siguen siendo un punto de controversia.

Preguntas y respuestas

P: ¿Por qué OpenAI prohibió al equipo detrás de Dean.Bot? R: OpenAI citó una violación de sus políticas de uso de API, específicamente la prohibición de hacer campaña política o suplantar identidades sin consentimiento.

P: ¿Quién creó Dean.Bot? R: El bot fue creado por Delphi, una startup de IA encargada por el super PAC We Deserve Better, fundado por Matt Krisiloff y Jed Somer.

P: ¿Cuáles son los compromisos de OpenAI para la temporada de elecciones? R: Los compromisos de OpenAI incluyen una mayor transparencia en el origen de las imágenes, actualizaciones en las fuentes de noticias de ChatGPT con atribuciones y enlaces, y una asociación con la Asociación Nacional de Secretarios de Estado (NASS) para proporcionar información precisa de votación.

Mirando hacia el futuro

La represión de OpenAI en los chatbots políticos marca un paso significativo para abordar la desinformación generada por IA durante las elecciones. A medida que la tecnología de IA evoluciona, se vuelve cada vez más crucial garantizar la precisión y confiabilidad de la información presentada a los votantes. La lucha contra los deepfakes y el clonado de voz de IA continuará intensificándose, con empresas y reguladores implementando políticas más estrictas para proteger la integridad de los procesos democráticos.

🔗 Enlaces relevantes: – El regreso de los anuncios de campaña política en X/Twitter plantea preguntas importantes para los usuariosLa infinita pantalla de desplazamiento de TikTok destaca una creciente crisis de alfabetización mediática – Así es como OpenAI planea abordar la desinformación electoral en ChatGPT y Dall-E – El chatbot de IA de Bing de Microsoft, Copilot, proporciona información electoral incorrectaMeta revela planes para las elecciones globales de 2024

A medida que nos acercamos a las elecciones de 2024, el impacto de la IA en el proceso democrático sigue siendo un tema de preocupación. Mantente informado, mantente vigilante y asegurémonos de que la tecnología funcione a favor de la democracia. ¡Comparte tus pensamientos y preocupaciones en los comentarios a continuación! 🔽🔽🔽


¡Recuerda compartir este artículo con tus compañeros entusiastas de la tecnología en las redes sociales! Generemos conversaciones y promovamos un uso responsable de la IA. 🚀🌐🤖