El juego ‘Humano o no’ ha terminado Esto es lo que nos dice el último Test de Turing

Juego 'Humano o no' finalizado según último Test de Turing

AI21 Labs realizó un experimento social esta primavera en el que participaron más de 2 millones de personas y se llevaron a cabo más de 15 millones de conversaciones a través de su sitio web. Al final de cada chat, un participante tenía que adivinar si su interlocutor era humano o un bot de inteligencia artificial. Casi un tercio adivinó mal.

A medida que ChatGPT y otros chatbots de IA se vuelven más populares, también surgen preguntas sobre si estas herramientas de IA pueden ser tan inteligentes como los humanos, si el contenido que generan estas herramientas puede pasar por creaciones humanas y si la IA amenaza los empleos de las personas.

También: 4 cosas que Claude AI puede hacer que ChatGPT no puede

AI21 Labs encontró inspiración para el experimento “¿Humano o No?” en la evaluación de Alan Turing sobre la capacidad de una máquina para exhibir un nivel de inteligencia indistinguible del de un ser humano.

Este tipo de experimento pasaría a conocerse como la Prueba de Turing, basada en la observación de 1950 del matemático: “Creo que en 50 años será posible hacer que las computadoras jueguen el juego de imitación tan bien que un interrogador promedio tenga no más del 70% de posibilidades de hacer la identificación correcta después de 5 minutos de interrogatorio”.

Los resultados del experimento “Humano o No” respaldan la predicción de Turing: en general, los participantes del experimento adivinaron correctamente el 68% de las veces. Cuando se emparejaron con un chatbot de IA, los participantes adivinaron correctamente solo alrededor del 60% de las veces. Cuando el compañero de conversación era otro humano, adivinaron correctamente el 73% de las veces.

Aunque esto no fue una Prueba de Turing perfecta, el experimento “Humano o No” de AI21 Labs mostró cómo los modelos de IA pueden imitar la conversación humana lo suficientemente convincente como para engañar a las personas. Esto desafía las suposiciones que tenemos sobre las limitaciones de la IA y podría tener implicaciones para la ética de la IA.

También: El 40% de los trabajadores deberán adquirir nuevas habilidades en los próximos tres años debido a la IA, según un estudio de IBM

El experimento encontró que los participantes humanos usaron diferentes estrategias para tratar de identificar a los bots de IA, como hacer preguntas personales, preguntar sobre eventos actuales y evaluar el nivel de cortesía en las respuestas.

Por otro lado, los autores encontraron que los bots confundían a los jugadores con comportamientos similares a los humanos, como el uso de jerga, la comisión de errores tipográficos, la rudeza en sus respuestas y la demostración de conocimiento del contexto del juego.

“Creamos ‘Humano o No’ con el objetivo de permitir que el público en general, los investigadores y los responsables de la toma de decisiones comprendan mejor el estado de la IA a principios de 2023”, según Amos Meron, líder de productos creativos en AI21 Labs en el momento del experimento. Uno de los objetivos, agregó, era “no ver la IA solo como una herramienta de productividad, sino como futuros miembros de nuestro mundo en línea, en un momento en que las personas están cuestionando cómo se debe implementar la IA en nuestro futuro”.

También: La nueva prueba de Turing: ¿Eres humano?

Habiendo participado en el experimento yo mismo cuando estuvo disponible, siempre me emparejaron con humanos y acerté cada vez. La respuesta me parecía clara porque mis compañeros de conversación usaban jerga de internet (por ejemplo, “idk”), se negaban a responder preguntas o no sabían las respuestas.

Los jugadores intentaban confundir a otros jugadores imitando a los chatbots de IA, usando términos como “como modelo de lenguaje de IA”, pero esto se hacía a menudo de manera imperfecta y los participantes humanos al otro lado lograban ver a través de los intentos.