El equipo de pruebas de Microsoft ha estado monitoreando la IA desde 2018. Aquí hay cinco grandes ideas

Microsoft's testing team has been monitoring AI since 2018. Here are five key ideas.

En los últimos seis meses, se han destacado más que nunca los impactos positivos de la inteligencia artificial, pero también los riesgos.

En su mejor momento, la IA ha hecho posible que las personas realicen tareas cotidianas con mayor facilidad e incluso logren avances en diferentes industrias que pueden revolucionar la forma en que se realiza el trabajo.

En su peor momento, sin embargo, la IA puede generar desinformación, contenido perjudicial o discriminatorio, y presentar riesgos para la seguridad y la privacidad. Por esa razón, es de vital importancia realizar pruebas precisas antes de que los modelos se pongan a disposición del público, y Microsoft ha estado haciendo precisamente eso durante cinco años.

También: Microsoft está expandiendo Bing AI a más navegadores, pero hay un inconveniente

Antes del auge de ChatGPT, la IA ya era una tecnología emergente con un impacto significativo, y como resultado, Microsoft formó un equipo rojo de IA en 2018.

El equipo rojo de IA está compuesto por expertos interdisciplinarios dedicados a investigar los riesgos de los modelos de IA “pensando como atacantes” y “probando los sistemas de IA en busca de fallas”, según Microsoft.

Casi cinco años después de su lanzamiento, Microsoft está compartiendo sus prácticas y aprendizajes en el ámbito del equipo rojo para establecer un ejemplo de implementación de IA responsable. Según la empresa, es esencial probar los modelos de IA tanto a nivel del modelo base como a nivel de aplicación. Por ejemplo, para Bing Chat, Microsoft monitoreó la IA tanto a nivel del GPT-4 como en la experiencia de búsqueda real impulsada por GPT-4.

“Ambos niveles tienen sus propias ventajas: por ejemplo, el equipo rojo del modelo ayuda a identificar tempranamente en el proceso cómo se puede abusar de los modelos, a delimitar las capacidades del modelo y a comprender las limitaciones del modelo”, afirma Microsoft.

La compañía comparte cinco ideas clave sobre el equipo rojo de IA que ha obtenido de sus cinco años de experiencia.

La primera es la amplitud del equipo rojo de IA. En lugar de simplemente probar la seguridad, el equipo rojo de IA abarca técnicas que prueban factores como la equidad y la generación de contenido perjudicial.

La segunda es la necesidad de enfocarse en fallas tanto de personas maliciosas como de personas benignas. Aunque el equipo rojo generalmente se enfoca en cómo un actor maligno podría utilizar la tecnología, también es esencial probar cómo podría generar contenido perjudicial para el usuario promedio.

“En el nuevo Bing, el equipo rojo de IA no solo se enfocó en cómo un adversario malicioso puede subvertir el sistema de IA mediante técnicas y exploits enfocados en la seguridad, sino también en cómo el sistema puede generar contenido problemático y perjudicial cuando los usuarios regulares interactúan con el sistema”, dice Microsoft.

La tercera idea es que los sistemas de IA están en constante evolución y, como resultado, es necesario realizar pruebas en múltiples niveles diferentes de estos sistemas de IA, lo que lleva a la cuarta idea: probar repetidamente los sistemas de IA generativos.

También: ChatGPT recibirá una serie de actualizaciones esta semana. Esto es lo que necesitas saber

Cada vez que interactúas con un sistema de IA generativo, es probable que obtengas una salida diferente; por lo tanto, Microsoft encuentra que se deben realizar múltiples intentos de equipo rojo para asegurarse de que no se pasa por alto el fallo del sistema.

Por último, Microsoft afirma que mitigar los fallos de la IA requiere una defensa en profundidad, lo que significa que una vez que el equipo rojo identifica un problema, se requerirá una variedad de mitigaciones técnicas para abordar el problema.

Medidas como las que Microsoft ha implementado deberían ayudar a aliviar las preocupaciones sobre los sistemas emergentes de IA y también ayudar a mitigar los riesgos asociados con esos sistemas.