Los agentes de la IA, una aproximación responsable

El creciente interés en los agentes de IA se debe a su potencial para desempeñar funciones complejas, altamente especializadas, de manera autónoma. Este fenómeno va a ir cobrando cada vez más relevancia a medida que las compañías empiecen a aprovechar todo su potencial en distintas aplicaciones y plataformas, hasta transformar la manera en la que trabajamos.

Herramientas como agent OS de PwC facilitan la gestión eficiente y centralizada de los agentes de IA a través de distintas plataformas. Un sistema bien estructurado de estos agentes no solo optimiza su funcionamiento, sino que también permite generar valor con mayor rapidez. Sin embargo, a medida que ganan autonomía, aumentan también los riesgos potenciales, lo que subraya la importancia de mantener un enfoque centrado en las personas. Diseñados para adaptarse de manera dinámica a entornos cambiantes, los agentes de IA hacen que la lógica preprogramada se quede obsoleta y no tenga sentido.

Pero, ¿pueden las empresas escalar el uso de agentes de IA de forma responsable, sin comprometer la privacidad, la gobernanza y la confianza?

En PwC, creemos que el uso responsable de la inteligencia artificial es clave para generar valor a largo plazo de esta tecnología, y esto también es aplicable a los agentes de IA. Los actuales programas de IA responsable y de gobernanza no fueron creados, en muchos casos, para un entorno dominado por los agentes. Es importante que los directivos adapten estos programas y sus marcos de gestión del riesgo para abordar tanto el impacto inmediato como a largo plazo de los agentes de IA, al tiempo que se impulsa la innovación y se refuerza la estrategia del negocio.

Retos de los agentes de IA

Un agente de IA es una entidad autónoma, normalmente impulsada por inteligencia artificial generativa, diseñada para alcanzar objetivos específicos mediante la toma de decisiones y la ejecución de acciones en entornos dinámicos. En PwC ya estamos viendo aplicaciones concretas de estos agentes para optimizar y mejorar distintas funciones, como las áreas fiscal y financiera. Sin embargo, como ocurre con cualquier tecnología emergente, el uso de agentes de IA también puede conllevar ciertos riesgos.

Exposición de datos sensibles

Los agentes de IA operan con un alto grado de autonomía, lo que dificulta su supervisión directa y aumenta el riesgo de filtraciones accidentales de información.

Por ejemplo, pensemos en un sistema con agentes diseñado para gestionar consultas de clientes sobre un vuelo próximo. Este sistema necesita acceder a datos sensibles como detalles de la reserva, información de pago e identificadores personales. Si no se gestiona correctamente, un agente de IA podría llegar a exponer esa información, por ejemplo, al introducir datos personales en motores de búsqueda externos o navegadores a los que accede para completar la tarea encomendada.

Medidas para minimizar los riesgos

Es fundamental aplicar técnicas de anonimización de datos y restringir los derechos de acceso dentro de cualquier sistema multiagente. Por ejemplo, un agente de IA que realice búsquedas en la web o consultas externas no debería tener acceso a información de clientes.

La monitorización continua es clave. Se pueden utilizar herramientas de prevención de pérdida de datos (DLP) para detectar y señalar posibles filtraciones, escalando la situación a un humano cuando sea necesario. Para reforzar la protección, también puede implantarse un agente de IA especializado en seguridad que revise y apruebe cualquier búsqueda de datos en fuentes externas.

Por último, es recomendable realizar pruebas con usuarios, ejercicios de red teaming y evaluaciones periódicas para garantizar el cumplimiento de las normativas de privacidad.

Dependencia excesiva de la automatización

A medida que los agentes de IA asumen más tareas, las personas pueden volverse excesivamente dependientes de ellos, lo que reduce la supervisión humana.

Volviendo al ejemplo de un sistema de asistencia para la gestión de billetes, los agentes que procesan reembolsos de vuelos podrían generar errores no detectados o incluso fraudes. En un entorno de alta presión que prioriza la rapidez y la eficiencia, es probable que se empiecen a omitir pasos básicos de revisión, debilitando progresivamente la eficacia del control.

Medidas para minimizar los riesgos

Diseñar agentes de IA para que determinadas decisiones requieran de la revisión humana. Por ejemplo, establecer umbrales como “los reembolsos superiores a 200 euros deben ser aprobados por una persona”.

Comparar las decisiones tomadas por los agentes y por los humanos puede ayudar a identificar posibles brechas en el sistema. Además, las sesiones de formación periódicas y las pruebas con usuarios son esenciales para fomentar una colaboración eficaz entre humanos y máquinas.

A medida que los agentes de IA transformen los flujos de trabajo, también es necesario reflexionar sobre su impacto a largo plazo en el talento. Aunque actualmente la mayoría de los agentes complementan el trabajo humano en lugar de sustituirlo, conviene evaluar si su despliegue puede alterar de forma imprevista los roles dentro de la organización. En este contexto, se debe analizar cómo formar y motivar a los profesionales para que asuman con éxito funciones como la de gestor o supervisor de agentes de IA.

Soluciones temporales

Si bien los agentes de IA pueden servir como un puente entre los sistemas modernos y los heredados (legacy), no eliminan la necesidad de actualizar las infraestructuras tecnológicas.

Por ejemplo, el sistema ficticio de asistencia para la gestión de billetes podría integrar fácilmente una herramienta moderna de atención al cliente con un sistema de reservas antiguo. Sin un plan de transición bien definido, esta solución podría convertirse en un algo permanente, lo que retrasaría las actualizaciones necesarias en las infraestructuras.

Medidas para minimizar los riesgos

Las soluciones basadas en agentes deben formar parte de una estrategia más amplia de transformación digital, y no limitarse a cubrir carencias a corto plazo. El diseño y desarrollo de agentes de IA debe contemplar “planes de jubilación”, con hitos definidos para su desactivación progresiva.

Alinear la estrategia de agentes de IA con la IA Responsable

Algunas personas podrían pensar que el uso de agentes de IA entra en conflicto con los principios de la IA responsable. En realidad, es esta misma disciplina la que permite un desarrollo ágil y una implantación escalable de los agentes, al establecer criterios claros de aprobación, pruebas y supervisión.

La IA responsable en entornos con agentes implica establecer normas claras para su funcionamiento, así como definir roles y responsabilidades precisas para las personas que diseñan, utilizan y supervisan estos sistemas. La comunicación con los stakeholders, los mecanismos de retroalimentación y la supervisión humana, son fundamentales para adaptar y perfeccionar los sistemas a medida que evolucionan, garantizando que se mantengan alineados con los valores y objetivos de la organización.


atoca: