¿Qué postura están adoptando los países respecto a la regulación de la Inteligencia Artificial? ¿Cómo afecta a las organizaciones en su actividad y qué retos plantea? Con motivo de la aprobación del Reglamento de Inteligencia Artificial de la Unión Europea, este artículo analiza el enfoque regulatorio de los sistemas de Inteligencia Artificial desde una perspectiva global. Asimismo, aborda el impacto de la Inteligencia Artificial en el sector corporativo y los desafíos que presenta dentro de las organizaciones.

La Inteligencia Artificial ha irrumpido en nuestra sociedad de una forma sin precedentes. Desde los algoritmos de recomendación en plataformas de streaming hasta los sistemas de reconocimiento facial en aeropuertos. La IA está transformando la forma en la que vivimos, trabajamos y nos relacionamos. Su capacidad para procesar grandes volúmenes de datos y aprender de ellos está revolucionando todo el tejido empresarial.

En virtud de lo anterior, su regulación resulta crucial debido al impacto innegable que provoca en nuestras vidas. Esto demanda un consenso a nivel ético y de transparencia para marcar límites que, lejos de obstaculizar la innovación, definan los pilares éticos que rigen el desarrollo e implementación de la tecnología alrededor del mundo.

Europa a la vanguardia regulatoria

La Unión Europea ha asumido un papel de liderazgo en la regulación de la tecnología y prueba de ello es la aprobación del Reglamento de Inteligencia Artificial con el objetivo de garantizar la seguridad y el respeto de los derechos fundamentales al tiempo de impulsar la innovación en el prisma tecnológico.

Entre las novedades introducidas, el reglamento contiene disposiciones que regulan e incluso prohíben ciertas aplicaciones de IA que atentan contra los derechos de la ciudadanía, como sistemas de categorización biométrica basados en características sensibles y la recolección indiscriminada de imágenes faciales para bases de datos de reconocimiento facial. Con la aprobación del reglamento, Europa ha querido establecer obligaciones que buscan la protección de esferas como la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho, dejando priorizando estos elementos sobre el desarrollo indiscriminado de la tecnología.

Distintos países, diferente enfoques

Las superpotencias han apostado por diferentes enfoques sobre la regulación de la IA. Mientras que algunas ven oportunidades para liderar la revolución tecnológica, otras apuestan por la seguridad nacional y la pérdida de empleo.

Prueba de esta disparidad es la postura del gobierno americano y su proyecto para regular el acelerado mundo de la IA. En este sentido, EE.UU. únicamente ha buscado controlar el desarrollo y la aplicación de la IA en sectores que afectan a la seguridad nacional. Con este propósito, en octubre de 2023 anunció una Orden Ejecutiva que imponía nuevas normas a las empresas e instruía a varias agencias federales a que comenzaran a establecer salvaguardas en torno a la tecnología. El presidente de EE.UU. describió abiertamente a la IA como “la tecnología más trascendental” de todas las épocas y, por ello, obligó a las empresas tecnológicas a notificar al gobierno americano acerca de cualquier avance que suponga “un riesgo grave para la seguridad nacional”.

Por su parte, el gigante asiático aprobó una normativa (‘Medidas Provisionales para la Gestión de los Servicios de Inteligencia Artificial generativa’) para regular los servicios de IA generativa con el objetivo de garantizar la seguridad nacional y preservar los derechos fundamentales. El foco de la regulación digital de la IA por parte de China radica en el respeto de los valores socialistas, la moral y la ética profesional. Por ende, prohíbe la generación de contenidos que atenten contra la seguridad nacional, la unidad territorial, la estabilidad social o los derechos e intereses legítimos de otras personas.

En otro orden, Reino Unido también ha buscado poner en marcha medidas para promover el uso responsable de datos y la innovación tecnológica. En concreto, el Parlamento de Reino Unido aprobó el ‘Proyecto de Ley de Protección de Datos e Información Digital‘, mientras que el Gobierno ha ido publicando una serie de propuestas para controlar el uso de la IA. La iniciativa británica busca un equilibrio intermedio entre la protección de los derechos fundamentales de los ciudadanos y los avances tecnológicos. Por un lado, permite el desarrollo de la IA sin grandes alteraciones, pero establece un clausulado normativo e insta al gobierno a vigilar de cerca la industria de la IA en los próximos años.

Retos

La IA es una fuerza transformadora que requiere una respuesta global y políticas cuidadosamente diseñadas para maximizar el equilibrio entre el progreso tecnológico y la protección de los derechos fundamentales de los ciudadanos. En este contexto, las compañías desempeñan un papel crucial a la hora de asumir la responsabilidad del diseño de la IA en su propio ámbito empresarial, más aún cuando las soluciones actuales pueden necesitar ajustes a medida que la regulación y la tecnología avanzan.

Los vertiginosos procesos en la IA están abriendo nuevos horizontes que antes eran impensables. La disparidad de percepciones de las naciones plantea cuestiones éticas, sociales y legales a las que la humanidad nunca se había enfrentado previamente. Sin duda, un terreno inexplorado que estará lleno de oportunidades y desafíos para quienes sepan cómo afrontar el camino.