Comprar una casa o un coche es un momento emocionante en nuestras vidas. Y en general, todos nos sentimos cómodos -e incluso agradecidos- cuando, en el proceso de búsqueda de ese piso o ese coche, nos empiezan a llegar recomendaciones basadas, por ejemplo, en los datos que hemos dejado en webs visitadas días atrás. Pero, ¿qué pasa cuando la decisión de que se te conceda la hipoteca o el crédito que necesitas para comprar esa casa o ese coche también depende de un algoritmo con machine learning?
¿Y si la lógica detrás de ese algoritmo –sobre todo cuando hace que no te den el préstamo- no está clara? Por si no fuera lo suficientemente frustrante que un banco decida no concederte un préstamo después de seguir el proceso tradicional, imagínate que el responsable de la decisión sea un sistema inescrutable y basado en Inteligencia Artificial (IA).
Del mismo modo, la promesa cada vez más cercana de que programas basados en IA puedan detectar los síntomas de una enfermedad en fases muy tempranas es, sin duda, un motivo de alegría para pacientes y médicos. Pero también puede serlo de consternación. En el campo de los diagnósticos médicos hay mucho en juego: un diagnóstico erróneo puede llevar a una intervención innecesaria, que ponga en riesgo la salud del paciente. Los médicos deben confiar en la IA para poder utilizarla como una herramienta para diagnosticar con seguridad. Igual que los pacientes, quienes también necesitan fiarse del sistema para tener confianza en el diagnóstico que se les haga.
A medida en que más y más empresas de todos los sectores adoptan el machine learning y algoritmos de IA cada vez más sofisticados, saber explicar cómo funcionan estos y por qué toman las decisiones que toman, pasa a ser algo muy importante. Sin embargo, muchos modelos de machine learning sobre los que se construyen las aplicaciones de IA son como ‘cajas negras’. Esto significa que no es posible saber con exactitud por qué un algoritmo se ha inclinado por una u otra opción.
Forma parte de la naturaleza humana desconfiar de lo que no se comprende bien, y lo cierto es que gran parte de la IA podría no estar totalmente clara. Y como la falta de confianza va de la mano del rechazo, abrir esa caja negra y desentrañar su contenido se ha convertido en un imperativo de primer nivel para las empresas.
Las redes neuronales de la Inteligencia Artificial son complicados algoritmos diseñados a partir del cerebro humano, y están pensadas para reconocer patrones en datos en bruto y agruparlos en vectores. En el ejemplo de los diagnósticos médicos, el bruto podría ser el reconocimiento médico del paciente. En el caso del crédito bancario, sería el historial de pagos, los préstamos impagados, la calificación de crédito, u otros datos demográficos. Al procesar todos estos datos, el sistema aprende, y cada capa de la red neuronal asimila de forma progresiva características cada vez más complejas. Con el entrenamiento suficiente, la IA puede acabar siendo muy precisa. Pero sus procesos de decisión no siempre son transparentes.
Para abrir esa caja negra y generar confianza, las compañías deberían desarrollar sistemas de IA que acierten una y otra vez. Pero no solo eso: los modelos de machine learning en los que están basados estos sistemas, deberían reunir tres características que ha desarrollado PwC como parte de un nuevo marco de trabajo para la IA en el campo de la XAI -por eXplanaible IA: ser explicables -que se pueda entender el razonamiento detrás de cada decisión-, ser transparentes -que se pueda comprender por completo el modelo sobre el que se base la toma de decisiones-, y ser demostrables -que haya una certeza matemática tras las predicciones. A esta combinación de características le llamamos la ‘interpretabilidad’ de los modelos de IA.
Quizá no sea tan importante entender cómo funciona el motor de recomendaciones de una web de e-commerce, pero será una cuestión crítica a la hora de diseñar un coche autónomo
Cómo veíamos al principio, la importancia de saber qué hay detrás de una decisión de un sistema de IA variará según el caso. Cada aplicación de esta tecnología es distinta de la anterior y exige un nivel de rigor diferente. Quizá no sea tan importante entender cómo funciona el motor de búsqueda y recomendaciones de una web de e-commerce, pero será una cuestión crítica a la hora de diseñar un coche autónomo, o un robot que trabaje junto a una persona en una fábrica.
Es importante recalcar que existe cierta relación inversa entre el nivel de desempeño que puede alcanzar un sistema IA y su ‘interpretabilidad’. Esto es, cuanto más sencillo y más fácil de comprender sea un modelo de IA, menor será su capacidad para procesar datos o asimilar relaciones muy complejas. Encontrar el equilibrio entre estos polos será trabajo de desarrolladores y analistas. Pero los directivos también deberían tener un entendimiento básico acerca de qué determina que un modelo de IA sea interpretable, ya que este es un factor clave a la hora de que un sistema sea legítimo y confiable a ojos de clientes o de empleados.
La integridad de los datos y la posibilidad de que existan sesgos no intencionados son otra de las sombras que se ciernen sobre la IA. En una encuesta de PwC a consejeros delegados, un 76% manifestó que la falta de transparencia o los posibles sesgos de la IA estaban frenando la adopción de la tecnología en la empresa y un 73% señalaba la necesidad de establecer reglas y una gobernanza de los sistemas de IA. Piensa de nuevo en el ejemplo de la concesión de un crédito bancario. ¿Qué pasaría si se empezaran a denegar solicitudes a un determinado grupo demográfico por sesgos humanos o sistémicos reflejados en los datos? O que el programa de IA implantado en el sistema de seguridad de un aeropuerto señalara continuamente a ciertos individuos basándose únicamente en su raza o grupo étnico.
Los directivos también deberían seguir de cerca el cambiante entorno regulatorio. Aunque ahora mismo apenas existen requerimientos regulatorios, es probable que surjan con el tiempo. En Europa, la GDPR obliga a las empresas a tomar medidas para proteger la privacidad de sus clientes y, eventualmente, asegurar la transparencia de los algoritmos que tengan impacto en el consumidor.
Por último, los directivos deberían tener en mente que, aunque no todas las aplicaciones de la IA exijan el mismo rigor, siempre es necesario un cierto grado de ‘interpretabilidad’. En pocas palabras, esto significa que las compañías deberían sentirse cómodas y ser capaces de explicar por qué un sistema sí aprobó una solicitud y no otra, o por qué, en una campaña, señaló a un grupo determinado de consumidores, y no a otros.
Abrir la caja negra en la que han estado funcionando modelos de IA de gran complejidad requerirá que las empresas puedan asegurar que cualquier sistema de IA de la compañía funciona según los estándares fijados por esta, y que sus directivos se responsabilizan de los resultados. Aquellos que lo hagan reducirán riesgos y sentarán las bases de la confianza que la IA necesita para ser realmente aceptada, y así servir de trampolín para lanzar la innovación y alcanzar los objetivos de negocio.