Los asistentes de IA necesitan saber mucho sobre ti para funcionar mejor. ¿Está bien?

¿Es necesario que los asistentes de inteligencia artificial conozcan más sobre ti para mejorar su funcionamiento? ¿Está bien?

Los asistentes digitales han existido durante años; después de todo, Siri debutó en el iPhone 4S en 2011. Pero los ayudantes de voz tempranos estaban inicialmente limitados en su funcionalidad, a veces teniendo dificultades para producir respuestas útiles incluso en circunstancias ideales. Sin embargo, la nueva ola de agentes digitales que comenzó a aparecer a finales de 2022 y 2023 puede hacer todo, desde crear recetas hasta resumir tus correos electrónicos e incluso escribir subtítulos en las redes sociales para tus fotos.

Los ayudantes virtuales dieron un salto adelante este año gracias al surgimiento de la IA generativa, o IA que puede crear contenido basado en indicaciones después de ser entrenada con datos. OpenAI deslumbró al mundo con ChatGPT hace aproximadamente un año y los gigantes de la tecnología como Microsoft, Google, Amazon y Meta ingeniaron habilidosamente la IA generativa en sus chatbots, motores de búsqueda y asistentes digitales durante todo el 2023.

Pero la nueva cohorte de mayordomos digitales de alta tecnología también requiere confiar en las grandes empresas de tecnología, un pedido considerable después de las brechas de datos, controversias como el escándalo de Cambridge Analytica en el 2018 y las investigaciones sobre prácticas de privacidad que han abalado nuestra fe en las empresas de tecnología. Los últimos 10 años han planteado grandes preguntas a los reguladores y al público en general sobre cómo las empresas utilizan los flujos de datos que les proporcionamos. Obtener los beneficios de la nueva IA podría significar volverse aún más personales con los servicios tecnológicos que utilizamos todos los días.

De alguna manera, los chatbots como ChatGPT de OpenAI, Copilot de Microsoft y Bard de Google son solo evoluciones de cómo funcionan los servicios digitales actualmente. Empresas como Alphabet (casa matriz de Google), Meta y Amazon ya analizan los datos sobre nuestros hábitos de navegación en Internet para ofrecer contenido, publicidad y recomendaciones personalizadas. Las nuevas herramientas de IA pueden no requerir más datos personales, pero son las nuevas formas en que estas herramientas conectan los puntos entre diferentes tipos de datos personales, como nuestros correos electrónicos y mensajes de texto, las que plantean nuevas preocupaciones de privacidad.

“Podemos ver cómo se ensamblan las piezas ahora con estas herramientas”, dijo Matthew Butkovic, director técnico de la división de ciberseguridad CERT de la Universidad Carnegie Mellon. “Sabíamos que los datos estaban ahí fuera, pero ahora estamos viendo cómo se están utilizando en combinación”.

El surgimiento de nuevos asistentes de IA

Microsoft Copilot en el escritorio de Windows 11.

Microsoft

A lo largo del 2023, quedó claro que los asistentes virtuales están en proceso de recibir una gran renovación. Mientras que los motores de búsqueda, los chatbots y los generadores de imágenes fueron las primeras herramientas en línea en recibir un impulso de IA, empresas como Microsoft y Google ahora están infundiendo la tecnología en asistentes digitales de pleno derecho.

Microsoft Copilot, que la empresa detalló en su evento del 21 de septiembre, es más sofisticado que Cortana, el antiguo asistente personal de la gigante de PC que ahora está cerrado.

Copilot no solo responde preguntas y comandos como “¿Cómo estará el clima en España la próxima semana?” o “¿A qué hora es mi próxima reunión?”, sino que también obtiene información de tus aplicaciones, la web y tus dispositivos para proporcionar respuestas más específicas y personalizadas.

En la presentación del 21 de septiembre, Carmen Zlateff, vicepresidenta de Windows, mostró un ejemplo de cómo Copilot en tu PC con Windows podrá responder preguntas basadas en información encontrada en los mensajes de texto de tu teléfono, como detalles sobre un próximo vuelo. Ese ejemplo subraya cómo Copilot hace mucho más que simplemente obtener respuestas basadas en la web o en datos almacenados en tu cuenta de Microsoft.

Asistente con Bard

Screenshot/CNET

No pasó mucho tiempo para que Google mostrara cómo la IA generativa jugará un papel en su propio asistente, el Asistente de Google. Durante un evento el 4 de octubre, Google presentó Assistant con Bard, una nueva versión de su aliado virtual impulsada por la tecnología detrás de su chatbot conversacional llamado Bard.

Sissie Hsiao, vicepresidenta y gerente general de Google Assistant y Bard, lo demostró en el evento mostrando cómo podrás recitar un comando como “Ponme al día sobre cualquier correo electrónico importante que me haya perdido esta semana”. Eso fue todo lo que necesitó para que el Asistente de Google generara una lista con viñetas que resumía correos electrónicos como una invitación a la fiesta de cumpleaños de un niño y una notificación sobre una feria de empleo universitaria en solo un par de oraciones.

“Mientras que Assistant es excelente para manejar tareas rápidas como configurar temporizadores, dar actualizaciones del clima y hacer llamadas rápidas, hay mucho más de lo que siempre hemos imaginado que un asistente personal profundamente capaz debería poder hacer”, dijo durante la presentación. “Pero la tecnología para ofrecerlo no existía hasta ahora.”

ChatGPT mostrado en un teléfono inteligente con el logotipo de OpenAI en pantalla en segundo plano.

Jonathan Raa/NurPhoto a través de Getty Images

La inteligencia artificial generativa está influenciando casi todos los aspectos de cómo interactuamos con Internet, desde obtener resultados de búsqueda hasta editar imágenes. Pero los anuncios de Microsoft y Google representan un cambio radical en la forma en que estas empresas están pensando en los asistentes de IA. Va un paso más allá de hacer que estos asistentes virtuales sean mejores oyentes y conversadores, como hizo Amazon con la Alexa mejorada que presentó en septiembre.

Microsoft y Google pueden ser los mayores defensores de utilizar la IA generativa para crear asistentes más inteligentes, pero no son los únicos. OpenAI, que inició la locura de la IA generativa con ChatGPT el año pasado, anunció recientemente que los usuarios podrán crear versiones personalizadas de ChatGPT para tareas específicas, como explicar las reglas de un juego de mesa y brindar consejos técnicos. Esto potencialmente abre la oportunidad para que cualquier persona cree su propio asistente digital especializado, que OpenAI denomina GPTs. Todo lo que necesitas hacer es proporcionar instrucciones, decidir qué quieres que haga tu GPT y, por supuesto, alimentarlo con datos.

Confía en que la IA use nuestros datos de la manera correcta

Un pasillo futurista con los logotipos de Bard de Google, ChatGPT y Bing en medio de una feroz carrera de chatbots de IA.

James Martin/CNET

La IA generativa podría marcar un punto de inflexión para los asistentes virtuales, brindándoles la conciencia contextual y la comprensión conversacional que les faltaban.

Pero hacerlo también significa dar a estos asistentes digitales una ventana más amplia a nuestras vidas personales y profesionales. Requiere confiar en estos sistemas de IA para combinar y analizar nuestros correos electrónicos, archivos, aplicaciones y mensajes de texto de una manera que se sienta útil en lugar de disruptiva o inquietante.

Butkovic de Carnegie Mellon da un ejemplo hipotético de cómo trabajar con un asistente de IA generativa podría salir mal. Digamos que le pide a un asistente de IA que compile un informe sobre un tema relacionado con el trabajo específico. Un asistente de IA podría involuntariamente incluir datos confidenciales de clientes en su informe si esos datos no están clasificados correctamente.

“Podríamos ver potencialmente una nueva fuente de riesgo en combinaciones de información que no anticipamos”, dijo. “Porque antes no teníamos las herramientas y no hemos establecido salvaguardias para evitarlo”.

No se trata solo de datos sensibles. Hay momentos en nuestras vidas que tal vez no queramos recordar cuando le pedimos a un asistente digital que redacte un informe o un correo electrónico. ¿Cómo podemos confiar en que no lo hará?

Jen King, investigadora en privacidad y datos del Instituto de Inteligencia Artificial HumanCentered de Stanford, cita otro ejemplo hipotético. Si tienes conversaciones por correo electrónico con miembros de la familia en tu bandeja de entrada que discuten arreglos para un ser querido fallecido, probablemente no quieras que esas comunicaciones se incluyan en ciertas respuestas o informes.

La aplicación Google Photos

Sarah Tew/CNET

Ya hay un precedente de esto en las redes sociales y las aplicaciones de galerías de fotos. Después de recibir comentarios, Facebook agregó más controles en 2019 para facilitar a quienes se hacen cargo de una cuenta de un ser querido fallecido. La compañía utiliza la IA para evitar que aparezcan perfiles de amigos o familiares fallecidos en notificaciones de cumpleaños y recomendaciones de eventos, pero reconoció en ese momento que había margen de mejora.

“Estamos trabajando para mejorar y ser más rápidos en esto”, decía la publicación.

Google también agregó más controles para administrar qué recuerdos seleccionados aparecen en su aplicación Google Photos después de que ENBLE destacara lo doloroso que puede ser mirar ciertas fotos almacenadas en nuestros teléfonos y la falta de herramientas para administrarlas en ese momento.

“Cuanta más información pueda recopilar [AI] sobre ti, más podré completar los vacíos”, dijo King. “Y si estás observando diferentes facetas de la vida de alguien, esa es una estrategia realmente arriesgada, porque gran parte de nuestras vidas no es estática”.

Eso se suma a los desafíos existentes que enfrentan las aplicaciones y chatbots basados en inteligencia artificial generativa, como la precisión de la información que brindan y el potencial de que los hackers engañen a estos sistemas. Las empresas tecnológicas son conscientes de estos obstáculos y están tratando de abordarlos.

Google te insta a verificar las respuestas de Bard y señala que la herramienta puede proporcionar información incorrecta, por ejemplo. También señala que Bard solo puede acceder a datos personales de Workspace, el conjunto de software de productividad de Google que incluye Gmail, con el permiso del usuario. Tampoco utiliza ese contenido para mostrar anuncios o mejorar Bard. La publicación del blog de Google sobre Assistant con Bard también menciona que los usuarios podrán personalizar la configuración de privacidad.

ChatGPT anima de manera similar a los usuarios a verificar las respuestas y revela que estas no siempre pueden ser precisas. También advierte a los usuarios que no ingresen información confidencial en la herramienta.

La página de preguntas frecuentes de Microsoft Copilot señala que las respuestas no están garantizadas y dice que Copilot hereda los mismos estándares de seguridad que los productos empresariales, como Microsoft 365. También afirma que los datos del cliente no se utilizan para entrenar sus modelos de lenguaje amplio.

Pero Irina Raicu, la directora del programa de ética de Internet en el Centro de Ética Aplicada de la Universidad de Santa Clara, está preocupada por las nuevas vulnerabilidades de privacidad específicas de la IA generada que aún no se han resuelto. Un ejemplo de ello es la inyección de comandos, una técnica que permite a los atacantes aprovechar los grandes modelos de aprendizaje de idiomas ocultando instrucciones maliciosas.

Algunos expertos en privacidad consideran que el auge de la IA generativa podría dar lugar a nuevos tipos de amenazas. 

Angela Lang/CNET

En una publicación de blog de agosto, el Centro Nacional de Seguridad Cibernética del Reino Unido describe un ejemplo de cómo podría ser un ataque de inyección de comandos. Un hacker teóricamente podría ocultar código malicioso en una solicitud de transacción enviada a un usuario a través de una aplicación bancaria. Si la persona consulta al chatbot del banco sobre sus hábitos de gasto del mes, el gran modelo de lenguaje podría terminar analizando ese código del atacante mientras busca en las transacciones de la persona para responder la pregunta. Eso, a su vez, podría provocar que se envíe dinero a la cuenta del atacante.

Raicu está preocupada de que la ciberseguridad no esté al día con estas nuevas amenazas. Señala el aumento de los ataques de ransomware en los últimos años como ejemplo de lo que puede suceder cuando las soluciones de ciberseguridad no evolucionan lo suficientemente rápido.

“Imagina eso, pero con una nueva capa de desafíos que aún no entendemos”, dijo.  

Sin embargo, hay razones para tener esperanza de que el auge de la IA no resulte en los problemas de privacidad que siguieron a la proliferación de nuevas plataformas tecnológicas en el pasado. Ya hay un impulso para regular la IA en la Casa Blanca y la UE, por ejemplo. Las empresas tecnológicas están generalmente bajo mayor escrutinio en cuanto a privacidad, seguridad, tamaño e influencia que cuando surgieron plataformas como Facebook, Instagram y Google Search.

Pero al final, todavía tendremos que lidiar con los riesgos potenciales y los compromisos que conllevan los beneficios de las nuevas tecnologías.

“No habrá absolutos en esto”, dijo Butkovic. “Viviremos en este espacio gris donde debes tomar decisiones personales sobre tu comodidad con este tipo de sistemas que exploran los artefactos de tu vida digital”.

Nota de los editores: ENBLE está utilizando un motor de IA para ayudar a crear algunas historias. Para obtener más información, consulta esta publicación.