Los directivos están ante una auténtica encrucijada con la IA generativa. Por un lado, ven su enorme potencial transformador y de negocio, pero, a la vez, están tratando de entender todo lo que supone desde el punto de vista de la privacidad y de la confianza. Lo cierto es que la IA generativa está cambiando el mundo y poniendo sobre la mesa una serie de cuestiones relacionadas con la transparencia, la ética y la privacidad de los datos. Pero ¿cuánto sabemos en realidad sobre su funcionamiento? ¿Y qué oportunidades existen para las empresas que lo hagan bien?
A continuación, recuperamos varios extractos del podcast de PwC, Take on Tomorrow, con Keith Enright, director de Privacidad de Google, con más de 20 años de experiencia como alto ejecutivo en el ámbito de la privacidad y de la protección de datos.
Take on Tomorrow: Cuando hablamos de tecnología y privacidad, tú te dedicas a esto desde los años 90, y en este tiempo han cambiado muchas cosas. Para empezar, me gustaría preguntarte si podrías explicar qué es la IA generativa para quienes no la entienden del todo.
Keith Enright: Claro. En términos generales, cuando pienso en Inteligencia Artificial, tal y como la veo en mi trabajo, en Google, pienso en su relación con la protección de datos, y lo que veo es un conjunto de tecnologías que son capaces de amplificar el potencial creativo de los seres humanos.
Take on Tomorrow: ¿Cuál es tu opinión sobre la privacidad en relación con la IA generativa? Porque son dos conceptos muy amplios y, sin embargo, están estrechamente relacionados.
Keith Enright: Los datos son necesarios para casi todo lo que hacemos. Así que, sí, tenemos que pensar cuidadosamente en cómo gestionamos y procesamos los datos, y hacerlos de forma responsable. Siempre buscamos el mejor interés de los usuarios. Si te fijas en la situación actual, nos encontramos en un punto de inflexión increíble, a pesar de que Google lleva hablando de IA y de machine learning desde hace una década. Sundar Pichai, CEO de Google, lleva muchos años diciendo que la IA y el aprendizaje automático van a tener un impacto más profundo en la civilización humana que el descubrimiento de la electricidad o del fuego. Eso realmente demuestra la importancia que le damos…
Cuando dices cosas como estas, te anticipas a lo que viene y, de hecho, lo que estás invitando es a hablar sobre estas cuestiones a responsables políticos. Les estás diciendo que hacemos algo que nos parece importante y significativo y que queremos dialogar. Además, queremos asegurarnos de que lo estamos haciendo responsablemente. Los expertos en privacidad y protección de datos, como yo, llevamos 20 años tratando de lograr proteger la privacidad de los usuarios. Muchas de las lecciones que hemos aprendido en estos más de 20 años son: ¿Cómo hacer frente a la rápida evolución de las tecnologías? ¿Cómo conseguir que los reguladores y los responsables políticos se familiaricen con esas tecnologías a medida que cambian? Todos esos desafíos, todas estas lecciones son muy útiles para saber hacer uso de la IA y el machine learning. Yo diría que nos estamos anticipando, aunque estas tecnologías se están moviendo todavía más rápido. Los beneficios potenciales y las ventajas de hacerlo bien son enormes.
Take on Tomorrow: Ahora bien, si uno es un usuario tradicional, ¿cómo debería considerar el hecho de que sus datos, ya sea de una publicación online, de una foto o lo que sea, se utilicen para crear un modelo lingüístico a gran escala?
Keith Enright: Cada usuario es diferente. Creo que tendemos a subestimar el nivel de sofisticación de los usuarios. Las organizaciones tenemos la responsabilidad de comunicar de la mejor manera posible lo que estamos haciendo. ¿Cómo estamos procesando la información? ¿Cómo se utiliza para generar valor para el usuario y valor, en general? Y también, crear mecanismos de control muy eficaces con los que los usuarios puedan interactuar. Una de las metáforas que hemos utilizado muchas veces en Google es comparar los controles con una habitación con una buena iluminación, es decir, que por defecto los usuarios dispongan de un sistema intuitivo y útil desde un inicio. Llevamos mucho tiempo trabajando en esto y nunca vamos a parar.
Take on Tomorrow: ¿Te refieres que el usuario siempre tenga que dar su consentimiento, que sepa exactamente en qué está haciendo clic, o este tipo de políticas?
Keith Enright: Sí, hablemos de esto. La responsabilidad de empresas como Google debe centrarse en dar la información correcta a cada usuario, en el momento oportuno para que tenga el control, y que los servicios ofrezcan el valor que se espera de ellos, de una manera con la que él esté cómodo. Y eso es mucho más difícil de conseguir que hacer que todo sea opt-in (solicite el consentimiento previo). Porque si todo fuera opt-in, se estaría poniendo toda la carga sobre el usuario para que presumiblemente lea miles de páginas de explicaciones técnicas sobre todas las cosas que pasan en el curso de la utilización de unos servicios técnicamente muy complejos. Y les obligas a hacer cosas que no tienen ni el tiempo ni la voluntad de hacer todos los días.
Take on Tomorrow: Esto nos lleva a la pregunta sobre cómo Google ha desarrollado algunos de estos procesos y políticas en torno a la privacidad. Te incorporaste a Google justo cuando se estaba cerrando Google Buzz -una red social, que tenía un opt-in por defecto- y eso llevó a una pequeña disputa entre Google y la Federal Trade Commission de EE.UU., porque parte de la información de los usuarios queda expuesta a los seguidores de los usuarios. ¿Cuál fue el aprendizaje de Google Buzz?
Keith Enright: Hacía muchos años que no hablaba de Google Buzz. Te agradezco la pregunta, porque es muy buena. Como dices, lanzamos un producto de red social fallido. En parte la razón por la que fracasó fue porque Google todavía operaba en algunos aspectos como una start-up. Antes de lanzar un producto al público, lo lanzábamos internamente a los Googlers. Ellos lo probaban, trataban de utilizarlo, lo incorporaban a su vida cotidiana y luego nos daban su opinión. Una de las lecciones aprendidas de Google Buzz fue que, aunque parezca obvio ahora, en aquel momento suponíamos y esperábamos que todos los usuarios del mundo, increíblemente diversos, curiosos y variados, se comportarían e interactuarían con un producto y tendrían expectativas similares a las de un ingeniero de Google sentado en Mountain View, California.
Y resultó que eso no era del todo correcto, en cierto modo, debido al espíritu emprendedor con el que los usuarios utilizan el producto. Ellos testaron el producto e hicieron aflorar cuestiones que no salieron bien en nuestras verificaciones internas. Ahora somos mucho más sofisticados cuando analizamos los sistemas de privacidad y lo hacemos de la misma forma que con el resto de nuestros productos. Y que, aunque tengamos algunas ideas sobre cómo deberían funcionar, necesitamos comprometernos con los usuarios. Para ello, tenemos que colaborar con los reguladores y los responsables políticos, y abordarlo con un enfoque integral.
Take on Tomorrow: Supongamos que Google diseña y lanza un nuevo producto en 2023. ¿Qué lugar ocupa la protección de datos en el proceso de toma de decisiones? ¿Se incorpora desde el principio o sólo al final?
Keith Enright: Cada vez que un ingeniero o un jefe de producto de Google tiene una idea para lanzar un nuevo producto o una nueva función, debe tener en cuenta los elementos relacionados con la protección de los datos desde el inicio. Después pasa por una revisión detallada con expertos en la materia que corresponda. De este modo se considera la privacidad como un componente esencial de todo el ciclo de vida del producto.
Take on Tomorrow: Puede parecer una pregunta muy básica, pero ¿hay alguna diferencia entre la forma de pensar sobre la privacidad en general y la que se aplica a la IA generativa?
Keith Enright: No, no creo que enfoquemos la privacidad de una forma diferente. Si se quiere generar un diálogo en torno a la privacidad, no vamos a acertar si no desarrollamos compromisos e intercambios de cara al futuro sobre el uso que se le va a dar a la IA y el machine learning. Los beneficios de estas tecnologías van a ser tan abrumadores y su impacto transformador en tantos aspectos de la vida de las personas que no vamos a frenar el avance de esta tecnología. Tendremos que abordarlo con humildad, al igual que tuvimos que hacerlo en otros ámbitos en los que la privacidad se enfrenta a otros valores fundamentales. Sin duda la Inteligencia Artificial va a dar lugar a muchos de estos debates en los próximos años.
Take on Tomorrow: Hablemos de regulación, ¿es más difícil ahora ser una empresa multinacional, dado que no solo te enfrentas al entorno normativo de EE.UU., sino también al Europeo que ha puesto sobre la mesa cuestiones que todavía no se han planteado otras geografías?
Keith Enright: Una de las cosas que yo diría que hacen que mi trabajo en Google -y diría que muchos trabajos en la compañía- sea uno de los más desafiantes y gratificantes que pueda imaginar es exactamente lo que acabas de describir. Cuando empecé a trabajar con los organismos reguladores de la privacidad de todo el mundo, lo hice con arrogancia, con la presunción de que no entendían suficientemente bien nuestra tecnología, de que no comprendían realmente los objetivos de nuestras políticas. No podía estar más equivocado. Por tanto, que los reguladores y los responsables políticos me enseñaran humildad en mis primeros años en la empresa me ha servido de mucho. Aunque esto dificulta mucho las cosas y puede ralentizar el progreso. También es cierto que no tratamos de resolver los problemas de una empresa concreta en Estados Unidos. En realidad, estamos tratando de ayudar a dar forma e impulsar una política que va a ofrecer beneficios y crecimiento económico, una protección sólida de los usuarios, manteniéndolos seguros siempre que utilicen una tecnología en cualquier parte del mundo.
Take on Tomorrow: Lo que haces es realmente complejo y se produce a una velocidad sorprendente. ¿Cómo planificas cosas que no puedes ver venir, sabiendo que ya están ahí fuera, y sabiendo que tus productos probablemente darán a los usuarios la oportunidad de trabajar con productos que quizá no puedan comprender por completo?
Keith Enright: La IA tiene algo único y diferente. Fuimos una de las primeras empresas del mundo en articular públicamente nuestros principios sobre la IA. Y, es necesario crear estructuras de gobierno y controles internos. Las personas deben rendir cuentas, los procesos deben documentarse y aplicarse de forma coherente. Además, deben poder auditarse más adelante, de modo que si parece que algo no funciona como se esperaba, podamos averiguar por qué y reaccionar. También es posible que no seamos capaces de explicar todos los pormenores de la tecnología, pero podemos asegurarnos de que estamos construyendo las estructuras adecuadas. En este momento, no creo que haya una respuesta clara. Sin embargo, creo que cualquier avance tecnológico implica una cierta asunción racional de riesgos. Y la forma en que Google piensa sobre esto es: ¿Qué sabemos? ¿Qué no sabemos? ¿Y cómo podemos proceder con audacia y responsabilidad?
Take on Tomorrow: Por último, ¿qué te quita el sueño cuando piensas sobre la privacidad y la Inteligencia Artificial?
Keith Enright: Pienso en la privacidad y la IA todos los días. Tengo la responsabilidad ante nuestros miles de millones de clientes de todo el mundo de estar muy pendiente de ello. Sin embargo, no me quitan el sueño los desafíos de privacidad que plantea la IA. En mi opinión, son gestionables. La tecnología creará nuevos desafíos, pero todas las tecnologías lo hacen. En Google estaremos a la altura de las circunstancias y mitigaremos esos riesgos. Me preocupa la tensión entre el dilema de aprovechar las ventajas de estas tecnologías, por ejemplo, para luchar contra el calentamiento global, mejorar la salud pública en todo el mundo o prolongar la vida humana. Es decir, hacer estas cosas extraordinarias que tenemos ante nosotros, pero hacerlo de una forma que garantice que no vayamos a cometer algún error en el camino que cree un reglamento que nos frene o interrumpa la propia tecnología. Eso es lo que me mantiene despierto en estos momentos.