La inteligencia artificial (AI) está cambiando la forma de trabajar de las empresas. Nadie duda de su capacidad para influir en el día a día de las compañías, independientemente de su tamaño. Se dice que la IA no es el futuro de las empresas, sino que es el presente que define quién llegará al futuro. Por esta razón, desde PWC lanzamos ‘El Sensor de la IA‘, una recopilación quincenal de las principales tendencias, proyectos, iniciativas que ayuden a las empresas a orientarse en este campo tan abierto y cambiante. Partimos de la idea de que la inteligencia artificial no sustituye a las empresas, sino que las impulsa a reinventarse.
Pero todavía es un camino con dudas; la implantación de la IA genera incertidumbre, pero también es cierto que gestionada con visión se puede convertir en una vía hacia la eficiencia y la competitividad. Se quiera o no, estamos ante la mayor transformación empresarial de nuestra era y pretendemos ayudar a conocer lo que está pasando para que se puedan tomar decisiones con criterio.
En esta edición de ‘El Sensor de la IA‘ abordamos un tema clave: la necesidad de regular la utilización de la IA porque se considera que es capaz de alterar la vida y la sociedad. Premios Nobel y Premios Turing afirman que es una herramienta muy útil pero también que puede provocar pandemias, la desinformación generalizada, la manipulación a gran escala de personas, incluidos los niños, los problemas de seguridad nacional e internacional, el desempleo masivo y las violaciones sistemáticas de los derechos humanos. Estas son sus líneas rojas, cuyo objetivo es, según Antonio Guterres, secretario general de la ONU, evitar que se desestabilicen “nuestras sociedades estableciendo reglas, construyendo instituciones y defendiendo la dignidad humana”. Europa, mientras tanto, es la única región en donde existe una regulación de la IA desde agosto de 2024.
La ONU y más de un centenar de científicos piden un acuerdo global que regule la IA “para evitar los riesgos inaceptables”
En los pocos años de generalización de la inteligencia artificial, ha demostrado que es capaz de resultar de gran ayuda para la vida de las personas, la ciencia, la cultura, las empresas y la economía en general. Pero también se ha comprobado que si se se utiliza sin reglas de control, puede ser muy dañina: el caso reciente de un adolescente que se apoyó en la IA para su suicidio o las fake news que está creando con alta calidad, capaces de desestabilizar las democracias, son solo dos ejemplos.
Por eso, más de un centenar de científicos, incluidos premios Nobel y Turing, intelectuales, científicos, empresarios y dirigentes, han abierto una “petición urgente para establecer líneas rojas internacionales” (como se puede leer en este documento) “que eviten los riesgos inaceptables de la IA”. El llamamiento fue elevado a la Asamblea General de la ONU, donde Antonio Guterres, secretario general, recordó que “desde el control de armas nucleares hasta la seguridad aérea, la comunidad internacional ha sabido responder ante tecnologías que podrían desestabilizar nuestras sociedades estableciendo reglas, construyendo instituciones y defendiendo la dignidad humana,” afirmó. “La ventana para moldear la IA —por la paz, la justicia y la humanidad— se está cerrando. Debemos actuar sin demora.”
“La IA tiene un inmenso potencial para mejorar el bienestar humano, pero su trayectoria actual presenta peligros sin precedentes”, ha argumentado el grupo de científicos promotor de la petición ante la posibilidad de que estos desarrollos “superen con creces las capacidades humanas y agraven riesgos como las pandemias provocadas, la desinformación generalizada, la manipulación a gran escala de personas, incluidos los niños, los problemas de seguridad nacional e internacional, el desempleo masivo y las violaciones sistemáticas de los derechos humanos”, según la nota que recogió El País entre otros medios.
“El objetivo no es reaccionar después de que ocurra un incidente importante y castigar la violación después del hecho, sino prevenir riesgos potencialmente irreversibles a gran escala antes de que sucedan”, explicó Charbel Segerie, director del centro francés para la seguridad de la IA CeSIA.
Entre quienes justifican este peligro latente se encuentra el informático nacido en Francia Yoshua Bengio. Premio Turing en 2018 y Príncipe de Asturias de Investigación Científica y Técnica cuatro años después, es considerado uno de los padres de esta tecnología: “La carrera actual hacia sistemas de IA cada vez más capaces y autónomos plantea grandes riesgos para nuestras sociedades y necesitamos urgentemente la colaboración internacional para abordarlos. Establecer líneas rojas es un paso crucial para prevenir riesgos inaceptables de IA”.
El colectivo avisa de que, pese a la constatación de comportamientos dañinos por parte de la IA, la autonomía de los sistemas crece y pueden tomar decisiones en nombre de los usuarios. “Si no se controla, será cada vez más difícil ejercer una supervisión humana significativa en los próximos años”, advierte este grupo.
“El desarrollo de una IA altamente capaz podría ser el evento más relevante en la historia de la humanidad. Es imperativo que las potencias mundiales actúen con decisión para garantizar que no sea el último”, justifica Stuart Russell, profesor e investigador de computación en la Universidad de California (UC) Berkeley. Y añade: “Que las cosas, mágicamente, vayan bien no es realista. No podemos retener el poder para siempre sobre sistemas intrínsecamente inseguros y opacos, mucho más poderosos que nosotros mismos, especialmente cuando no sabemos cómo funcionan”.
Por su parte, Antonio Guterres destacó en la ONU que “la IA ya no es un horizonte lejano: está aquí, transformando la vida diaria, el espacio informativo y la economía global a una velocidad vertiginosa”. En su opinión, “la pregunta no es si la IA influirá en la paz y seguridad internacionales, sino cómo daremos forma a esa influencia.”
Recordó que “la capacidad de fabricar y manipular audio y video amenaza la integridad de la información, alimenta la polarización y puede desencadenar crisis diplomáticas… el destino de la humanidad no puede quedar en manos de un algoritmo,” subrayó.
En este sentido cabe recordar que la única gran región del mundo que cuenta con legislación sobre la IA es la Unión Europa. Ley de IA (o Reglamento de IA), que entró en vigor en agosto de 2024, establece normas armonizadas para el uso de sistemas de IA en la UE, basándose en el riesgo que plantean las aplicaciones, para garantizar su seguridad, ética y fiabilidad, fomentando al mismo tiempo la innovación. Sus objetivos principales son proteger los derechos fundamentales y la seguridad, fomentar una IA fiable y apoyar la innovación. La norma establece sanciones económicas significativas para las empresas que la incumplan, que pueden llegar al 7% de la facturación mundial anual o 35 millones de euros.
Grandes grupos de IA apuestan por modelos globales en la carrera por la «superinteligencia»
Los principales grupos de IA del mundo, entre ellos Google DeepMind, Meta y Nvidia, están apostando por los llamados modelos globales que pueden comprender mejor los entornos humanos; se trata de una búsqueda de nuevas formas de lograr la «superinteligencia» de las máquinas.
Google DeepMind, Meta y Nvidia se encuentran entre las empresas que intentan ganar terreno en la carrera de la IA desarrollando sistemas que buscan navegar por el mundo físico aprendiendo de videos y datos robóticos, en lugar de limitarse al lenguaje, según publicó Financial Times y recogió Expansión.
Una aplicación a corto plazo de los modelos de mundo real se encuentra en la industria del entretenimiento, donde se pueden crear escenas interactivas y realistas. World Labs, una startup fundada por el pionero de la IA Fei-Fei Li, está desarrollando un modelo que genera entornos 3D similares a los de los videojuegos a partir de una única imagen. El desarrollo de este campo es inmenso, como demuestra la reciente venta del gigante estadounidense Electronic Arts (EA), la empresa que está detrás de las populares sagas como EA Sports FC (FIFA), ‘Battlefield’ o ‘Los Sims’ ha confirmado este lunes su venta a un grupo de inversores por un importe de 55.000 millones de dólares, el equivalente a 46.840 millones de euros al cambio actual. Se trataría de la mayor adquisición en metálico de la historia y una de las mayores adquisiciones de una empresa que cotiza en Bolsa, según Bloomberg.
Esta estrategia de navegar por el mundo físico surge a medida que aumentan las dudas sobre si los grandes modelos de lenguaje (LLM), la tecnología que utiliza chatbots populares como ChatGPT de OpenAI, están alcanzando su límite. Los avances entre los grandes modeles de lenguaje lanzados por empresas del sector, como OpenAI, Google y xAI de Elon Musk, se han ralentizado, a pesar de las cuantiosas inversiones en su desarrollo. El mercado potencial para los modelos mundiales podría ser enorme, casi del tamaño de la economía global, según Rev Lebaredian, vicepresidente de Omniverse y tecnología de simulación en Nvidia, ya que esta tecnología se está incorporando a sectores como el manufacturero y sanitario. Por otro lado, el CEO de Meta, Mark Zuckerberg, ha incrementado la inversión en expertos en IA, con un equipo de élite que ahora se esfuerza por lograr avances en sus próximos grandes modelos de lenguaje.
Los modelos mundiales se entrenan utilizando flujos de datos de entornos reales o simulados. Se consideran un paso importante para impulsar el progreso en vehículos autónomos, robótica y los llamados agentes de IA, pero requieren una enorme cantidad de datos y potencia de cálculo para su entrenamiento y se consideran un desafío técnico sin resolver.
El mes pasado, Google DeepMind presentó Genie 3, capaz de generar entornos 3D en tiempo real a partir de una imagen y tener en cuenta las interacciones pasadas. Anteriormente, los modelos de generación de video solían crear el video completo de una sola vez, en lugar de hacerlo paso a paso. Meta intenta replicar el aprendizaje pasivo de los niños observando el mundo que los rodea, entrenando sus modelos V-JEPA con contenido de video sin procesar. El CEO de Nvidia, Jensen Huang, ha afirmado que la próxima gran fase de crecimiento de la compañía llegará con la «IA física», con nuevos modelos que revolucionarán el campo de la robótica.
Alibaba anuncia una inversión de 42.600 millones en la IA y se dispara un 20% en Bolsa
Alibaba Group ha revolucionado la Bolsa de Nueva York después de que presentara sus planes de inversión en inteligencia artificial. Sus acciones subieron al nivel más alto en casi cuatro años y acumulan, desde el 23 de septiembre, un incremento del 20%. Este consorcio chino privado, fundado en 1999 por Jack Ma que se dedica al comercio electrónico, ofreciendo portales de venta business-to-business (B2B), de comercio minorista (B2C) y entre consumidores, afirmó que incrementaría el gasto en inteligencia artificial más allá del objetivo inicial de más de 50.000 millones de dólares, 42.600 millones de euros. Con este movimiento, se suma a los líderes tecnológicos que prometen inversiones cada vez mayores en la carrera mundial por los avances tecnológicos como una respuesta a OpenAI, que ha cerrado una alianza histórica con Nvidia, Alphabet, Meta o Microsoft.
El director ejecutivo de la empresa, Eddie Wu, prevé que la inversión global en inteligencia artificial se acelere hasta alcanzar unos cuatro billones de dólares (3,4 billones de euros) en todo el mundo en los próximos cinco años, por eso Alibaba dice que ampliará el plan presentado en febrero en el desarrollo de modelos e infraestructura de inteligencia artificial durante tres años, según recogió Bloomberg. Su división de Cloud, que ya opera servicios desde Estados Unidos hasta Australia, tiene la intención de poner en marcha sus primeros centros de datos en Brasil, Francia y Países Bajos durante el próximo año.
Eddie Wu hizo sus previsiones al tiempo que esbozaba los planes para implementar los modelos Qwen y la tecnología de IA “full-stack”, lo que refleja las crecientes ambiciones de Alibaba de desarrollar tanto los servicios como la infraestructura —como los chips— que sustentan la tecnología. La subida de sus acciones impulsó también a las de los fabricantes de chips chinos ACM Research, que subió un 15%, y Naura Technology, un 10%.
La reacción alcista subraya el entusiasmo mundial por todo lo relacionado con la IA, y los inversionistas apuestan por que el enorme gasto de capital acabará siendo rentable. Aunque los escépticos han advertido de la posibilidad de que se esté formando una burbuja, por ahora los mercados consideran que esos gastos son una señal de la creciente confianza de las empresas en la tecnología.
Una de las incógnitas que afrontan tanto Alibaba como el resto de tecnológicas chinas es la evolución de las posibles restricciones al acceso de los procesadores de IA de Nvidia en el país asiático. Según publicó hace pocos días Financial Times, el regulador de internet de China ha prohibido a las mayores empresas tecnológicas del país comprar chips de inteligencia artificial del gigante estadounidense. En sentido contrario, y dentro de la suavización entre las relaciones entre China y EEUU, la Administración Trump ha abierto la puerta a la venta de chips de empresas norteamericanas en el país asiático.
DeepSeek lanza un nuevo modelo de inteligencia artificial que cambia la manera en que se entrena y responde
DeepSeek, empresa china de inteligencia artificial que desarrolla modelos extensos de lenguaje (LLM) de código abierto, ha presentado un nuevo modelo de su inteligencia artificial, con especial atención en el proceso de entrenamiento y respuesta. Una de las cosas más sorprendentes de la tecnología de inteligencia artificial generativa que llevamos usando tres años es la velocidad a la que avanza.
En 2022 se produjo el primer lanzamiento relevante, ChatGPT, y desde entonces hemos visto una evolución sin precedentes, con varios hitos entre los que destaca Deepseek. Este proyecto chino ha destacado por su eficiencia y potencia, y ahora han anunciado un nuevo modelo llamado Contacto en PwC






