Tendencias en IA

Fronteras de la IA


Vídeo: Tendencias en IA
Índice de la publicación
Documento completo
Acceder a GenMS™ Sybil



Las tendencias analizadas hasta aquí describen transformaciones ya desplegadas: sistemas en producción, regulaciones en vigor y organizaciones adaptándose. Este bloque aborda una dimensión distinta. Las seis tendencias que lo componen no se limitan al presente operativo; delimitan el espacio estratégico que ya condiciona decisiones de inversión, posicionamiento y soberanía, aunque sus efectos plenos aún estén en desarrollo.

La geopolítica de la IA redefine alianzas y dependencias. Las organizaciones AI-first anticipan modelos competitivos sin precedente. Los gemelos digitales y la simulación avanzada alteran la forma en que se diseña, experimenta y decide. La ambient AI diluye la frontera entre entorno y computación. La convergencia con la computación cuántica amplía el horizonte de problemas abordables. Y la AGI ha dejado de ser mera especulación académica para convertirse en hipótesis estratégica explícita en los principales laboratorios del mundo.

Geopolítica y soberanía tecnológica de la IA

La IA como activo estratégico de Estado

La IA ha dejado de ser una tecnología sectorial para convertirse en infraestructura estratégica comparable a la energía, las telecomunicaciones o los sistemas financieros. Lo que está en juego no es únicamente la competitividad económica: es la capacidad de los estados de mantener autonomía en decisiones críticas, desde la defensa hasta la supervisión financiera, pasando por la gestión de infraestructuras esenciales. En este contexto, el control de modelos fundacionales, semiconductores avanzados, centros de datos y talento especializado se ha convertido en un factor de poder nacional de primer orden, y las políticas industriales, los controles de exportación y las estrategias de inversión reflejan ya esta nueva realidad.

La cadena de valor estratégica: dónde se juega la soberanía

La soberanía tecnológica en IA no es un estado binario: se juega en capas, y la dependencia puede generarse en cualquiera de ellas:

  • Hardware: TSMC fabrica más del 90% de los chips más avanzados del mundo, ASML es el único proveedor global de litografía EUV necesaria para producirlos, y NVIDIA domina, con más de un 85% de cuota, el mercado de GPUs para entrenamiento de modelos de frontera. Tres empresas, tres países, un cuello de botella estructural.
  • Infraestructura y modelos: tres hyperscalers (AWS, Azure y Google Cloud) concentran la mayor parte de la capacidad de cómputo global, con cerca de dos tercios del total; sobre ella, OpenAI, Anthropic y Google DeepMind desarrollan los modelos fundacionales más capaces, con ventajas acumulativas en datos, talento e inversión difíciles de replicar.
  • Talento: la investigación de frontera sigue concentrada geográficamente, con una movilidad internacional que convierte la política migratoria en política tecnológica.

Ningún país ni organización controla todas estas capas simultáneamente. La cuestión estratégica no es cuántas capas se controlan, sino cuáles son críticas para la misión y cuáles son gestionables mediante diversificación, acuerdos o redundancia.

Tres modelos en competencia

Estados Unidos, China y Europa han articulado respuestas estructuralmente distintas, que no son meras diferencias de énfasis sino proyectos geopolíticos con consecuencias profundas para alianzas, mercados y estándares globales.

Estados Unidos combina la primacía del sector privado en el desarrollo de modelos con una intervención estatal creciente en la cadena de suministro: el «CHIPS and Science Act» moviliza decenas de miles de millones en semiconductores domésticos, y los controles de exportación de chips avanzados a China representan la mayor restricción tecnológica entre grandes potencias desde la Guerra Fría. La estrategia es clara: mantener la ventaja en modelos de frontera y privar a los competidores del hardware necesario para alcanzarla.

China combina inversión estatal masiva, integración civil-militar y una estrategia explícita de autosuficiencia tecnológica y control integral del ecosistema digital. Su objetivo declarado es la autosuficiencia en toda la cadena de valor para 2030, desde semiconductores hasta modelos fundacionales propios. Las restricciones de exportación estadounidenses han acelerado esta agenda: DeepSeek demostró en 2025 que la innovación china puede producir modelos competitivos con hardware de generaciones anteriores, lo que complica la lógica de contención mediante control de chips.

Europa ha apostado por el liderazgo regulatorio como vector de influencia geopolítica. El AI Act y el GDPR han generado un «efecto Bruselas» real: empresas globales adaptan sus productos a los estándares europeos porque el mercado europeo es demasiado grande para ignorarlo. Sin embargo, Europa mantiene dependencias infraestructurales significativas: sus modelos fundacionales más avanzados son estadounidenses, su cloud es mayoritariamente extranjera y su capacidad de cómputo soberana es limitada. ASML es la excepción notable: el monopolio holandés en litografía EUV convierte a Europa en jugador indispensable en la cadena global de semiconductores.

El resto del mundo navega entre estos tres polos con capacidades muy desiguales. Algunos países emergentes están articulando estrategias propias con creciente ambición: India desarrolla modelos fundacionales en lenguas locales y negocia su posición en cadenas de suministro de semiconductores; Brasil lidera iniciativas de gobernanza de IA en América Latina; la Unión Africana avanza en marcos continentales de soberanía digital. Sin embargo, para la mayoría de los países la elección entre ecosistemas incompatibles sigue siendo implícita más que deliberada, con riesgos reales de dependencia estructural que la literatura denomina «colonialismo de datos»: la extracción de datos locales para entrenar modelos que se despliegan globalmente, sin que los países de origen capturen valor ni mantengan control efectivo sobre su infraestructura digital.

Fragmentación y riesgo de decoupling

El mundo avanza hacia ecosistemas tecnológicos parcialmente incompatibles. Los controles de exportación de chips, los datos sometidos a geo-cercas por regulación nacional («geofenced»), los estándares técnicos divergentes y las infraestructuras paralelas configuran lo que algunos analistas denominan «tecnobloques»: esferas de influencia tecnológica con lógicas propias de gobernanza, seguridad y valores. La alianza Chip 4 (EE. UU., Japón, Taiwán y Corea del Sur) coordina la estrategia semiconductora occidental; China cultiva su propia esfera mediante la Ruta de la Seda Digital. Un decoupling completo entre los ecosistemas estadounidense y chino forzaría a terceros países y organizaciones a elegir, con costes de transición potencialmente prohibitivos.

Los límites de la soberanía absoluta

La autosuficiencia total en IA es económicamente inviable para la mayoría de los países y organizaciones. Recrear desde cero toda la cadena de valor (desde la minería de minerales críticos hasta el desarrollo de modelos fundacionales) requiere inversiones y escalas que solo dos o tres actores globales pueden sostener. La soberanía tecnológica realista no es aislamiento: es la capacidad efectiva de decidir, diversificar proveedores, negociar condiciones y evitar el bloqueo estratégico en las capas verdaderamente críticas. Para la mayoría de los países, la soberanía en IA se reduce en la práctica a controlar el único activo sobre el que tienen jurisdicción efectiva: los datos generados en su territorio.

Implicaciones para las organizaciones

El debate geopolítico aterriza en decisiones corporativas concretas. La dependencia de un único proveedor de modelos fundacionales expone a las organizaciones a riesgos de lock-in, cambios de precios o condiciones de servicio, e incluso restricciones regulatorias derivadas de tensiones entre jurisdicciones. La localización de datos y el cumplimiento regulatorio multijurisdiccional añaden capas de complejidad operativa creciente. Las estrategias multi-modelo y multi-cloud, antes justificadas por razones técnicas de rendimiento y coste, adquieren ahora una dimensión estratégica adicional: son el equivalente organizativo de la diversificación de dependencias soberanas.

Organizaciones AI-first y AI-only

Definición y taxonomía

La expansión de los sistemas agénticos plantea una pregunta que hasta hace pocos años era teórica: ¿puede una organización funcionar con la IA como arquitectura cognitiva central, relegando el trabajo humano a la excepción? Para responderla con precisión, conviene distinguir tres estadios que la práctica empresarial suele confundir:

  • Una organización AI-enhanced utiliza la IA para mejorar procesos existentes; es el modelo predominante hoy.
  • Una organización AI-first diseña sus procesos y estructura partiendo de las capacidades de la IA, asignando al juicio humano únicamente las tareas donde su ventaja comparativa es inequívoca.
  • Una organización AI-only prescinde funcionalmente del trabajo humano en sus operaciones centrales: no existe como entidad consolidada a fecha de este informe, y su viabilidad en entornos regulados sigue siendo una hipótesis de trabajo.

El estado actual: AI-first como frontera operativa

Los ejemplos más avanzados de organizaciones AI-first provienen, significativamente, del sector tecnológico puro, donde la ausencia de restricciones regulatorias sobre la automatización y la naturaleza digital del producto permiten llevar el modelo a sus límites actuales.

Midjourney, plataforma de generación de imagen por IA, generó en 2025 ingresos superiores a los 500 millones de dólares con una plantilla de aproximadamente 163 personas, sin inversión en marketing y sin financiación externa. La plataforma de desarrollo Cursor (Anysphere) alcanzó 500 millones de dólares en ingresos anuales recurrentes en mayo de 2025, convirtiéndose en la empresa SaaS de crecimiento más rápido de la historia, con menos de 50 empleados. La ratio de ingresos por empleado de estas compañías (superior a 3 millones de dólares en ambos casos) supera en un orden de magnitud los parámetros históricos del sector tecnológico y los de los grandes grupos bancarios globales.

En el ámbito de los servicios financieros, un caso avanzado es MYbank, banco digital chino participado por Ant Group, que desde 2015 opera bajo el principio de cero intervención humana en la aprobación de crédito a pymes. Su modelo «310» (tres minutos de solicitud, un segundo de aprobación, cero intervención humana) ha prestado servicio a más de 50 millones de pymes. El sistema emplea modelos de predicción de flujo de caja con una precisión superior al 95% y se apoya en datos de geolocalización satelital para la evaluación de riesgo agrario. MYbank opera sin red de sucursales ni fuerza de ventas, aunque mantiene equipos de ingeniería y gestión: es un modelo AI-first en sus operaciones core, no AI-only en su conjunto.

¿Por qué no existe todavía ninguna organización AI-only?

La brecha entre AI-first y AI-only no es solo tecnológica; es regulatoria, legal y organizativa. En los sectores regulados, como banca y seguros, la normativa vigente exige supervisión y responsabilidad humana en las decisiones materiales. El AI Act europeo clasifica como sistemas de alto riesgo las aplicaciones de IA en crédito, seguros de salud y vida, y componentes críticos de infraestructura, con requisitos explícitos de supervisión humana. La eliminación de esa supervisión en el núcleo operativo de una entidad financiera es incompatible con el marco prudencial europeo.

En los sectores no regulados, el límite actual no es normativo sino de capacidad. Los agentes de IA autónomos pueden ejecutar tareas complejas, pero su tasa de error en flujos de trabajo extendidos, su incapacidad para gestionar situaciones no contempladas en el entrenamiento y la ausencia de mecanismos de responsabilidad legal equivalentes a los de una persona jurídica hacen que la eliminación total del trabajo humano en operaciones centrales genere riesgos operacionales todavía inasumibles.

El caso de Klarna ilustra los límites actuales: la compañía redujo su plantilla de 7.400 a aproximadamente 3.000 personas entre 2022 y 2025 mediante congelación de contratación y automatización extensiva, con un asistente de IA gestionando el equivalente a 853 empleados en atención al cliente. Su trayectoria define empíricamente el umbral entre lo que la IA puede operar de forma autónoma con calidad suficiente y dónde el juicio humano aporta valor diferencial hoy.

Las predicciones de los líderes del sector

Los responsables de los principales laboratorios de IA de frontera formulan previsiones que sitúan la organización AI-only en el horizonte inmediato. Sam Altman, CEO de OpenAI, declaró en 2024: «Vamos a ver empresas de diez personas con valoraciones de mil millones de dólares muy pronto [...] Existe una apuesta en mi grupo de chat de amigos directivos sobre cuándo va a existir la primera empresa de una sola persona valorada en mil millones de dólares, lo que habría sido inimaginable sin la IA. Y ahora va a ocurrir». Preguntado en mayo de 2025 sobre el momento en que ese escenario se materializaría, Dario Amodei, CEO de Anthropic, respondió: «2026».

Amodei desarrolla el argumento en su ensayo de enero de 2026, donde describe el equivalente funcional de «un país de genios en un data center», es decir, 50 millones de agentes más capaces que cualquier Premio Nobel, operando a entre diez y cien veces la velocidad humana; y estima que el 50% de los empleos de nivel inicial podría verse disrumpido en un plazo de uno a cinco años. En ese mismo documento señala que Anthropic ya ejecuta mediante IA la mayor parte del código que produce, aproximándose a la autonomía operativa plena en desarrollo de software.

¿Pueden las organizaciones existentes transformarse en AI-only?

La pregunta estratégica de fondo no es si existirán organizaciones AI-only, sino cómo llegarán a existir. La respuesta es contraintuitiva: es improbable que surjan de la transformación de organizaciones existentes. Clayton Christensen documentó en The Innovator's Dilemma que las empresas incumbentes son estructuralmente incapaces de adoptar tecnologías disruptivas desde dentro: sus procesos, incentivos y bases de clientes están optimizados para el modelo en vigor, y cualquier iniciativa disruptiva interna compite en desventaja permanente por recursos y atención directiva. La transición a AI-first agrava esta lógica: una organización con decenas de miles de empleados tiene sus procesos diseñados para esa escala humana. Esos procesos no se rediseñan; se sustituyen.

El patrón que emerge en Asia apunta a una vía alternativa: la creación de entidades nuevas, con marca propia y sin herencia operativa, que compiten libremente hasta alcanzar masa crítica y canibalizar a la empresa original. Ping An, el mayor asegurador del mundo por primas suscritas, incubó entre 2013 y 2022 once filiales tecnológicas independientes (entre ellas OneConnect, Lufax y Ping An Good Doctor), cinco de las cuales cotizaron como entidades autónomas. DBS Bank creó Digibank como banco digital separado que opera con un quinto de los recursos por cliente de un banco convencional, y cuyo aprendizaje retroalimentó la arquitectura de la matriz. El mecanismo es idéntico: entidad nueva, sin legacy, que escala sin las restricciones de la organización madre y, si el experimento fracasa, se clausura sin arrastrar a la empresa original.

En Europa y, en menor medida, en Estados Unidos, ese mecanismo encuentra fricciones estructurales que van más allá de la regulación de la IA. La introducción de sistemas de IA en el lugar de trabajo puede requerir en Europa consulta o negociación con comités de empresa, y en algunos países su acuerdo explícito. Los convenios colectivos en sectores intensivos en empleo incorporan cláusulas que limitan la automatización. La protección de datos de empleados bajo GDPR añade complejidad adicional. El resultado es una asimetría con consecuencias estratégicas no intencionadas: la regulación occidental dificulta que las organizaciones existentes construyan las entidades AI-first que eventualmente las desafiarían.

Cuando la tecnología alcance el umbral de viabilidad de la organización AI-only, la pregunta sobre quién la construirá primero probablemente tendrá una respuesta geográfica.

Gemelos digitales y simulación de comportamiento humano

De la ingeniería aeroespacial a la simulación universal

El concepto de gemelo digital tiene una fecha y un lugar de nacimiento precisos. En octubre de 2002, Michael Grieves presentó en un foro de la Society of Manufacturing Engineers lo que denominó «Conceptual Ideal for Product Lifecycle Management»: la idea de que cualquier objeto físico podría tener un correlato digital que lo representara de forma dinámica a lo largo de todo su ciclo de vida, sincronizando en tiempo real el estado del objeto real con su representación virtual. El término «digital twin» fue acuñado posteriormente por John Vickers, ingeniero principal de la NASA, que formalizó el concepto en el roadmap tecnológico de la agencia en 2010. La definición de la NASA en ese documento sigue siendo la más precisa que existe: «una simulación multi-física, multi-escala y probabilística de un vehículo o sistema que utiliza los mejores modelos físicos disponibles, actualizaciones de sensores e historial de flota para reflejar la vida de su gemelo físico».

El punto de partida es importante porque revela la premisa implícita que ha guiado el desarrollo de gemelos digitales durante dos décadas: un gemelo digital funciona bien cuando el sistema que modela obedece leyes físicas conocidas y deterministas. Una turbina de gas, un fuselaje de aeronave, una red eléctrica: sistemas complicados, con muchos componentes, pero en principio completamente modelizables si se dispone de suficiente potencia computacional y datos de sensores. Bajo esa premisa, la tecnología maduró de forma sostenida. Hoy, los gemelos digitales de activos físicos son operativos, por ejemplo, en manufactura avanzada, energía, infraestructuras y aviación, con reducciones documentadas en tiempos de mantenimiento no planificado y aceleración sustancial de los ciclos de diseño de producto.

El límite epistemológico: sistemas complicados frente a sistemas complejos

La expansión del concepto más allá del dominio físico ha revelado un límite que no es tecnológico sino epistemológico. Michael Batty, la autoridad académica más reconocida en modelización computacional de ciudades, lo formula con precisión: los gemelos digitales funcionan en sistemas complicados (muchas partes, pero comportamiento determinable en principio) y encuentran dificultades estructurales en sistemas complejos, donde el comportamiento global emerge de la interacción de agentes y no puede deducirse de las propiedades de sus componentes individuales. Una ciudad, una economía, un mercado financiero o una organización humana son sistemas complejos en este sentido técnico preciso.

El filósofo Stefano Moroni desarrolla el argumento en términos aún más directos: las limitaciones de los gemelos digitales urbanos no son provisionales (no desaparecerán con más datos o mayor potencia computacional), sino que derivan de la naturaleza intrínsecamente emergente de los sistemas sociales. La impredecibilidad de detalle en un sistema complejo no es un déficit de información; es una propiedad del sistema. Esto tiene una implicación práctica inmediata: un gemelo digital de una planta de fabricación puede predecir con alta fiabilidad cuándo fallará un rodamiento; un gemelo digital de una ciudad puede aproximar tendencias agregadas de tráfico, pero no puede predecir de forma fiable el efecto de una política de vivienda en los patrones de segregación residencial a diez años. La distinción no es de grado; es de naturaleza.

Esta frontera epistemológica definió, durante décadas, el techo del campo de gemelos digitales. Y es precisamente donde los modelos de lenguaje de gran escala están introduciendo una discontinuidad que merece atención.

El punto de inflexión: el comportamiento humano se vuelve modelizable

En abril de 2023, un equipo de investigadores de Stanford publicó un artículo que inauguró una línea de trabajo radicalmente nueva. Joon Sung Park y sus coautores crearon 25 agentes computacionales (cada uno dotado de una identidad, una memoria persistente, un conjunto de relaciones sociales y una capacidad de razonamiento basada en un modelo de lenguaje), y los situaron en un entorno simulado equivalente a una pequeña ciudad. Los agentes se despertaban, desayunaban, iban al trabajo, formaban opiniones, iniciaban conversaciones y coordinaban actividades colectivas sin que esos comportamientos hubieran sido programados explícitamente: emergían de la interacción entre la memoria individual de cada agente, su capacidad de reflexión sobre experiencias pasadas y su modelo del entorno social. El artículo ganó el Best Paper Award en el ACM Symposium on User Interface Software and Technology de 2023. La comunidad científica reconoció que algo cualitativamente nuevo había ocurrido.

La razón de fondo es que los modelos de lenguaje de gran escala han absorbido, durante el entrenamiento, una cantidad extraordinaria de comportamiento humano registrado: conversaciones, decisiones, patrones de razonamiento, respuestas emocionales, normas sociales implícitas. No han aprendido las leyes del comportamiento humano de forma explícita (nadie las conoce con esa precisión), pero han desarrollado una aproximación estadísticamente densa que, en condiciones controladas, genera comportamientos verosímiles. Por primera vez, la premisa que impedía modelizar sistemas complejos sociales ha sido parcialmente levantada: no porque el comportamiento humano haya dejado de ser emergente, sino porque existe ahora un generador de comportamiento suficientemente rico para poblar una simulación con agentes creíbles.

La extensión natural de este trabajo llegó en noviembre de 2024. El mismo equipo de Stanford publicó los resultados de un experimento de escala diferente: 1.052 personas reales, entrevistadas en profundidad sobre sus vidas, actitudes y experiencias, fueron convertidas en agentes que replican sus respuestas y comportamientos en encuestas y experimentos sociales estandarizados. Los agentes generativos replicaron las respuestas de los individuos reales en el General Social Survey con un 85% de precisión (estadísticamente comparable a la variabilidad natural del propio individuo cuando responde la misma encuesta dos semanas después) y obtuvieron resultados comparables en la predicción de rasgos de personalidad y en experimentos de ciencias sociales. Lo que en 2023 era una demostración conceptual con personajes ficticios, en 2024 se convirtió en una metodología validada empíricamente con personas reales.

Aplicaciones actuales y horizonte futuro

Las implicaciones de este salto son transversales a sectores. En investigación de mercado, la startup Simile (fundada por Joon Sung Park junto a Michael Bernstein y Percy Liang, los coautores del paper fundacional, y respaldada en febrero de 2026 con 100 millones de dólares por Index Ventures con participación de Fei-Fei Li y Andrej Karpathy) construye gemelos digitales de personas reales para ayudar a empresas a simular el comportamiento de sus clientes antes de lanzar un producto, modificar una política de precios o rediseñar una experiencia de usuario. En una demostración pública, la plataforma predijo correctamente ocho de cada diez preguntas formuladas por analistas en una llamada simulada. El sector global de investigación de mercado, valorado en 142.000 millones de dólares, se enfrenta a una disrupción estructural: lo que hoy requiere semanas de trabajo de campo puede ejecutarse en horas sobre poblaciones sintéticas.

En política pública y planificación urbana, se articula un uso más matizado, pero igualmente transformador: no el gemelo digital como oráculo predictivo, sino como laboratorio de escenarios donde las consecuencias de diferentes intervenciones pueden explorarse antes de comprometer recursos reales. En regulación financiera, este enfoque tiene aplicación directa en el stress testing de escenarios macroeconómicos adversos y en la simulación del comportamiento de mercado ante intervenciones regulatorias.

La trayectoria del campo apunta hacia una escala cualitativamente distinta. Si hoy es posible simular con alta fidelidad a mil personas reales, la pregunta que el horizonte inmediato plantea es qué ocurre cuando esa cifra llegue a un millón, a cien millones, a una sociedad entera modelizada en tiempo real. Las aplicaciones en política pública, regulación económica y diseño institucional serán de un orden de magnitud diferente al de la investigación de mercado: no anticipar qué producto comprará un consumidor, sino predecir cómo responderá una población a una reforma fiscal, a una crisis sanitaria o a un cambio en la política monetaria antes de que esa intervención se ejecute en el mundo real. Esa capacidad no tiene precedente histórico, ni, todavía, marco de gobernanza que la regule.

Ambient AI y computación invisible

La interfaz es el entorno

La Ambient AI (o inteligencia ambiental) es IA que opera sin ser invocada. A diferencia de los sistemas convencionales, que responden a una instrucción explícita del usuario, los sistemas ambientales observan el contexto de forma continua, infieren necesidades y actúan de forma proactiva. La interfaz desaparece no porque se haya mejorado, sino porque el sistema ya no la necesita: el entorno mismo se convierte en el punto de interacción. La computación se vuelve «invisible» en sentido literal: embebida en objetos, espacios y procesos sin que el usuario la perciba como tal. Esta inversión (del usuario que va hacia el sistema al sistema que viene hacia el usuario) es posible hoy por la convergencia de tres desarrollos simultáneos: la miniaturización de modelos capaces de ejecutarse en dispositivos edge manteniendo un estado continuo (memoria acumulativa del usuario actualizada localmente) sin depender de conectividad con la nube (edge AI y TinyML), la densificación de redes de sensores físicos y biométricos, y la capacidad de los LLMs para razonar sobre contexto heterogéneo y ambiguo en tiempo real. Ninguno de los tres es nuevo por separado; su madurez simultánea es lo que hace que la Ambient AI pueda pasar de concepto a despliegue operativo.

Estado actual del despliegue

El ejemplo más documentado de Ambient AI en operación son los ambient AI scribes en entornos clínicos: sistemas que escuchan de forma continua la conversación entre médico y paciente, infieren el contexto clínico sin instrucción explícita y generan automáticamente la documentación del encuentro. El ensayo clínico aleatorizado de UCLA evaluó dos plataformas (Microsoft DAX y Nabla) en 238 médicos de 14 especialidades y más de 72.000 encuentros: redujo la carga documental y mejoró indicadores de burnout profesional.

El sistema no fue invocado iterativamente durante la consulta: escuchó, infirió, redactó. Es todavía una forma acotada de inteligencia ambiental (contexto delimitado, finalidad clara y episodio definido). La Ambient AI madura no operará dentro de la consulta, sino a escala del hospital entero, correlacionando patrones longitudinales sin punto de inicio ni fin determinados por el usuario.

El futuro físico y digital

Los despliegues actuales son la punta de una transformación más amplia. En los próximos años, la Ambient AI se extenderá a entornos físicos y digitales y hará a los casos actuales parecer rudimentarios:

Entornos físicos

Espacios de trabajo adaptativos. El entorno infiere el estado atencional del ocupante a partir de frecuencia cardíaca, variabilidad del ritmo, patrones de movimiento, y reconfigura temperatura, luz y nivel de ruido para optimizar el rendimiento cognitivo sin intervención consciente del usuario.

Mantenimiento industrial anticipatorio. Los sistemas no alertarán cuando el equipo falle: detectarán el patrón conductual que precede al fallo con suficiente antelación para reorganizar la producción. El evento disruptivo desaparece del horizonte operativo.

Wearables de perfil individual. Los dispositivos de próxima generación no compararán las constantes vitales del usuario con medias poblacionales, sino con su propio historial fisiológico. La alerta se activará antes de que el síntoma sea consciente para el portador.

Infraestructura urbana reactiva. Redes de transporte, alumbrado y gestión de residuos que se autoajustan en tiempo real a patrones de uso inferidos, sin planificación centralizada explícita ni intervención humana en el bucle.

Asistencia domiciliaria invisible. Sistemas que monitorizan de forma continua a personas mayores o con condiciones crónicas, detectan anomalías en rutinas (patrones de sueño, movilidad, alimentación) y activan protocolos de alerta o intervención sin que el usuario haya solicitado nada.

Entornos digitales

Entornos de desarrollo que anticipan el problema. Los asistentes de programación proactivos evolucionarán hacia sistemas que, antes de que el desarrollador identifique el error, habrán trazado el espacio de soluciones probables y presentado opciones en el momento cognitivamente oportuno.

Gestión de la atención, no solo de la información. Los sistemas no servirán información cuando esté disponible, sino cuando el usuario esté en condiciones de procesarla: modelizando el estado atencional a lo largo del día y calibrando el momento de la interrupción.

Contexto organizativo continuo. Sistemas que conocen en todo momento el estado de los proyectos, las comunicaciones pendientes y las decisiones en curso, y que afloran proactivamente la información relevante para cada miembro del equipo sin que este la solicite.

Negociación autónoma de recursos. Agentes ambientales que gestionan en nombre del usuario (calendario, presupuesto, acceso a servicios) dentro de parámetros definidos, sin requerir aprobación explícita para cada decisión de baja complejidad.

Implicaciones que la tecnología no resuelve

La Ambient AI no genera solo preguntas de privacidad. Genera un conjunto más amplio de tensiones que los marcos de gobernanza actuales no han resuelto.

La primera es la naturaleza del error. En un sistema invocado, el error es visible: el usuario pidió algo, el sistema respondió mal. En un sistema ambiental, el error puede no ser percibido porque no hubo solicitud explícita contra la que comparar la respuesta. El ambient scribe de UCLA registró imprecisiones clínicamente significativas en una proporción de encuentros: en un sistema invisible, el mecanismo de detección del error tiene que ser deliberadamente diseñado, porque no emerge de forma natural de la interacción.

La segunda es la asimetría de poder entre quien diseña el entorno y quien lo habita. En un hospital, una oficina o un edificio público, el usuario no elige si el entorno es inteligente: habita un espacio cuyas inferencias sobre su comportamiento fueron configuradas por un tercero. Tshilidzi Marwala, rector de la Universidad de las Naciones Unidas, lo formula con precisión: la Ambient AI tiene un apetito de datos (íntimos, conductuales, biométricos) que hace que las nociones convencionales de consentimiento informado sean estructuralmente inadecuadas. El AI Act europeo, diseñado para sistemas invocados con funciones delimitadas, no da respuesta satisfactoria a estos entornos de observación continua.

La tercera es la dependencia cognitiva. Un sistema que gestiona proactivamente la atención, el flujo de información y las interrupciones del usuario no solo asiste su trabajo: moldea su arquitectura cognitiva. La pregunta formulada en 2003, «is context-aware computing taking control away from the user?» lleva décadas sin respuesta satisfactoria. La escala a la que la Ambient AI la plantea hoy convierte lo que era una pregunta académica en una cuestión de diseño con consecuencias operativas inmediatas.

La cuarta tensión es la responsabilidad causal. En sistemas invocados, la trazabilidad es relativamente directa: hay una instrucción, una respuesta, un momento de decisión atribuible. En sistemas ambientales, la cadena causal se difumina. Si un sistema de mantenimiento anticipatorio reorganiza la producción y esa reorganización condiciona decisiones humanas posteriores, la frontera entre agencia técnica y agencia humana no es clara. La regulación actual, incluido el AI Act, presupone finalidad prevista y evaluación de riesgos ex ante; la Ambient AI introduce finalidad emergente y comportamiento adaptativo continuo, lo que tensiona directamente los mecanismos de conformidad existentes.

La Ambient AI no cambia solo cómo trabajamos o cómo nos cuidamos: cambia la secuencia entre necesidad y conciencia. Un sistema puede saber lo que necesitamos antes de que lo sepamos nosotros. Si esa capacidad se despliega a la escala que la trayectoria del campo sugiere, las preguntas que plantea podrían ir más allá de la tecnología y la regulación, y alcanzar algo más fundamental: qué significa tomar decisiones propias en un entorno que ya las ha anticipado.

Interacción entre IA y computación cuántica

Dos tecnologías distintas, una intersección que importa

La IA y la computación cuántica son tecnologías independientes con principios, horizontes temporales y casos de uso completamente distintos. La IA ya es operativa a escala industrial; la computación cuántica es todavía, en su mayor parte, un campo de investigación avanzada con despliegues muy limitados. Su interacción, en ambas direcciones, tiene implicaciones concretas para cualquier organización que dependa de sistemas digitales.

Un ordenador clásico resuelve problemas probando opciones de forma secuencial o en paralelo, pero siempre dentro de un espacio de posibilidades que crece de forma manejable. Hay problemas para los que eso no es suficiente: optimizaciones con miles de variables interdependientes, simulaciones de sistemas moleculares, o ciertos problemas matemáticos cuya dificultad es precisamente el fundamento de la criptografía moderna. Un ordenador cuántico opera de forma radicalmente distinta: en lugar de probar opciones una a una, puede explorar simultáneamente un espacio de posibilidades de una dimensionalidad que ningún sistema clásico puede representar. Para esa clase específica de problemas (no para todos) la diferencia de rendimiento no es gradual, sino de un orden de magnitud superior. El problema es que construir un ordenador cuántico que funcione de forma fiable ha resultado extraordinariamente difícil. La información cuántica es extremadamente sensible a perturbaciones del entorno (temperatura, vibraciones, interferencias electromagnéticas), y los errores se acumulan con rapidez. Durante décadas, el campo avanzó en teoría mucho más rápido que en hardware. Eso cambió parcialmente en diciembre de 2024.

El hito de 2024 y lo que significa

Google publicó en Nature los resultados de su procesador Willow: el primer sistema que demuestra que, a medida que se añaden más componentes de cómputo, los errores disminuyen en lugar de aumentar. Es un resultado que la teoría había predicho desde 1995 pero que ningún sistema había logrado materializar. La importancia no está en las cifras de rendimiento (que son impresionantes, pero sobre benchmarks artificiales), sino en lo que implica para la trayectoria del campo: el obstáculo que durante treinta años había impedido escalar estos sistemas de forma fiable ha sido superado en laboratorio.

La distancia entre ese logro y un ordenador cuántico con aplicaciones comerciales sigue siendo considerable. Los propios investigadores de Google sitúan ese horizonte en torno al final de la década. Pero la dirección ya no está en disputa: el problema central estaba en la corrección de errores, y ese problema tiene ahora una solución demostrada. Lo que queda es ingeniería de escala, no un salto científico en el vacío.

Tres formas en que esto afecta a la IA

La intersección entre computación cuántica e IA opera en tres planos distintos, con urgencias distintas.

El primero es la aceleración del machine learning. Entrenar un modelo de IA de gran escala es, en su núcleo, un problema de optimización matemática sobre espacios de enormes dimensiones: encontrar los valores de miles de millones de parámetros que minimizan el error de predicción. Es exactamente el tipo de problema para el que la computación cuántica ofrece ventaja teórica. Se ha demostrado formalmente que los sistemas cuánticos tolerantes a fallos podrían acelerar de forma sustancial los algoritmos de entrenamiento de modelos de gran escala, reduciendo tanto el tiempo de cómputo como el consumo energético. El desarrollo de esto requiere hardware que todavía no existe a escala suficiente. Pero cuando esté disponible, podría alterar radicalmente la economía del entrenamiento de modelos de IA, hoy dominada por quienes pueden pagar infraestructura de GPU a escala masiva.

El segundo plano es el aprendizaje automático cuántico propiamente dicho: usar procesadores cuánticos para ejecutar algoritmos de ML de forma más eficiente. Aquí la literatura es más cautelosa, y describe tanto las promesas como los obstáculos reales: la ventaja cuántica en tareas de aprendizaje no es universal ni automática, y en muchos casos los sistemas clásicos con acceso a datos son competitivos con los cuánticos incluso en problemas diseñados para favorecer a estos últimos. En otras palabras: los datos, bien utilizados, pueden compensar la ventaja cuántica en muchos regímenes. El hype sobre IA cuántica como acelerador universal está adelantado a la evidencia; las aplicaciones reales serán específicas, no transversales.

El tercer plano invierte la dirección de la influencia: no es la computación cuántica al servicio de la IA, sino la computación cuántica como amenaza a la infraestructura de seguridad sobre la que opera todo sistema digital, incluidos los de IA. Toda la criptografía que protege hoy las comunicaciones digitales (transacciones bancarias, autenticación de identidades, canales seguros entre sistemas) descansa sobre problemas matemáticos cuya dificultad se asume inatacable para ordenadores clásicos. Un ordenador cuántico suficientemente potente los resolvería de forma directa. Este plano es el más urgente, porque parte de sus efectos ya son presentes.

La amenaza que ya está activa

La estrategia conocida como «harvest now, decrypt later» consiste en capturar hoy comunicaciones cifradas con la intención de descifrarlas cuando la computación cuántica madure lo suficiente. Actores estatales con capacidades de inteligencia avanzada llevan años aplicándola. Los datos que requieren confidencialidad durante décadas (registros médicos, secretos industriales, comunicaciones regulatorias o información financiera sensible) están siendo comprometidos ahora, con independencia de cuándo llegue el sistema cuántico capaz de descifrarlos.

La respuesta institucional más rigurosa es la del NIST estadounidense, que en agosto de 2024 (tras ocho años de trabajo y más de ochenta propuestas de equipos de investigación de todo el mundo) publicó los tres primeros estándares de criptografía resistente a ataques cuánticos. Los nuevos algoritmos están basados en estructuras matemáticas para las que no se conoce ningún ataque cuántico eficiente. El NIST insta a las organizaciones a comenzar la migración de inmediato; los sistemas federales estadounidenses tienen plazo hasta 2035. Para entidades financieras con datos de larga vida útil, ese plazo no es el horizonte de inicio de la transición: es el límite de su finalización.

El horizonte de la próxima década

En los próximos años, la intersección entre IA y computación cuántica pasará de ser un tema de prospección tecnológica a un elemento con impacto operativo en dos frentes simultáneos.

El frente ofensivo (la aceleración de capacidades de IA) llegará con la madurez del hardware tolerante a fallos, previsiblemente hacia el final de la década. El acceso inicial será vía servicios en la nube, replicando la trayectoria que siguió la computación de alto rendimiento con las GPUs: primero accesible solo para los mejor financiados, después democratizada por la competencia entre proveedores. Las organizaciones que hayan desarrollado para entonces competencias en IA estarán mejor posicionadas para aprovechar esa aceleración cuando llegue.

El frente defensivo (la migración criptográfica) no admite demora. La ventana de preparación se estrecha a medida que los procesadores cuánticos escalan, y la migración de infraestructuras criptográficas en organizaciones complejas lleva años. El inventario de activos vulnerables, la priorización por vida útil de los datos y la planificación de la transición son tareas que deben comenzar ahora, no cuando el ordenador cuántico relevante esté operativo y sea tarde.

Inteligencia Artificial General (AGI) como horizonte estratégico

¿Qué es la AGI, y ha llegado ya?

El término «inteligencia artificial general» (AGI, por sus siglas en inglés) apareció por primera vez en 1997, en una conferencia de nanotecnología en Palo Alto. Su autor, Mark Gubrud, doctorando de la Universidad de Maryland, no estaba describiendo un objetivo tecnológico deseable: estaba advirtiendo de un riesgo. En su paper «Nanotechnology and International Security», Gubrud definió la AGI como sistemas capaces de «rivalizar o superar al cerebro humano en complejidad y velocidad, adquirir, manipular y razonar con conocimiento general, y ser utilizables en cualquier fase de las operaciones donde se requeriría inteligencia humana». La definición pasó inadvertida durante casi una década, hasta que Ben Goertzel y Shane Legg la rescataron y popularizaron como etiqueta técnica al titular su libro colectivo Artificial General Intelligence. El término había nacido como cautela, pero se convirtió en misión.

En febrero de 2026, Nature publicó casi simultáneamente dos textos que cristalizan el debate posiblemente más relevante de la tecnología contemporánea. El primero, firmado por cuatro académicos de UC San Diego (filosofía, aprendizaje automático, lingüística y ciencia cognitiva), afirma sin ambages que la AGI ya existe: los LLMs actuales superan el test de Turing, obtienen medallas de oro en olimpiadas matemáticas y colaboran en la demostración de teoremas. El segundo, publicado quince días después como correspondencia en la misma revista, responde que esa conclusión solo es posible redefiniendo el concepto hasta hacerlo irreconocible: la definición clásica de AGI formulada en 2007 exige robustez bajo novedad, generalización transferible y autonomía de metas, y los sistemas actuales no la cumplen. El hecho de que investigadores de primer nivel, con acceso a los mismos sistemas y datos, lleguen a conclusiones opuestas refleja que «inteligencia general» es un concepto continuo sin umbrales precisos.

La propia Fei-Fei Li, que construyó los cimientos de la visión por computador moderna y trabaja en inteligencia espacial, lo admite sin rodeos: «I struggle with this definition of AGI, to be honest». Dario Amodei, CEO de Anthropic, va más lejos: declara abiertamente que no le gusta el término y prefiere hablar de «IA poderosa»: sistemas con capacidades intelectuales comparables o superiores a las de un Premio Nobel en la mayoría de disciplinas. Esa es la perspectiva correcta para las organizaciones. La pregunta estratégicamente relevante no es filosófica (¿hemos llegado a la AGI?), sino funcional: ¿cuándo puede un sistema realizar de forma plenamente autónoma ciclos completos de trabajo de alto valor cognitivo en todos los dominios? Ese umbral ya se ha cruzado en varios sectores.

El estado actual: brillantez y fragilidad simultáneas

Andrej Karpathy, cofundador de OpenAI y ex-director de IA en Tesla, acuñó el concepto de «inteligencia dentada» (jagged intelligence) para describir la condición actual de los LLMs: sistemas que resuelven problemas de olimpiadas matemáticas y fallan en determinar qué número es mayor, 9,11 o 9,9; que dominan docenas de idiomas y padecen lo que él llama «amnesia anterógrada», incapacidad de consolidar aprendizaje entre sesiones. Fei-Fei Li los describe como «wordsmiths in the dark: eloquent but inexperienced, knowledgeable but ungrounded»: elocuentes pero sin experiencia encarnada en el mundo físico.

Y, sin embargo, esos mismos sistemas ya redactan contratos, analizan riesgo crediticio, sintetizan literatura científica, generan y auditan código complejo, producen síntesis regulatorias. Lo hacen de forma autónoma, a velocidad y escala que ningún equipo humano iguala. La pregunta ha dejado de ser cuándo llegará esa capacidad, es qué hacemos con lo que ya ha llegado y cómo nos preparamos para lo siguiente.

La cadena causal: lo que viene

La transición en curso sigue una lógica de escalada acumulativa. El primer movimiento es de herramienta a agente: los sistemas dejan de responder instrucciones para perseguir objetivos a través de ciclos autónomos de acción, observación y corrección. El segundo movimiento es de agente a infraestructura ambiental. Karpathy lo formula con precisión: los LLMs son la nueva electricidad. La IA deja de ser una tecnología que «adoptamos» para convertirse en una tecnología que «nos ocurre»: tejido operativo invisible de los sistemas que usamos, condición del entorno más que herramienta en él.

El tercer movimiento es el que más subestima el análisis convencional: el bucle recursivo. Los modelos ya se emplean para mejorar los modelos, generando datos sintéticos de entrenamiento, optimizando arquitecturas y produciendo hipótesis de investigación. Esto crea una dinámica donde la velocidad de mejora de la IA es función de la inteligencia de la IA. Amodei lo denomina «el final de la exponencial»: no el punto donde la curva se aplana, sino donde el vector de aceleración se vuelve sobre-exponencial, porque el agente que acelera es el sistema que está siendo acelerado.

La consecuencia estructural de ese bucle es inédita en la historia de la civilización: el límite superior de razonamiento disponible en el planeta ha sido, desde los primeros homínidos, la inteligencia humana. Ese límite está siendo desplazado en dominios específicos en este momento. Cuando el desplazamiento sea general y robusto, la velocidad de cambio tecnológico y científico se desacoplará parcialmente de la capacidad humana de comprensión y verificación. No se trata de una proyección catastrofista, sino de una descripción estructural de lo que este bucle recursivo implica.

La brecha de absorción

Existen dos curvas que avanzan a velocidades radicalmente distintas. La curva técnica —exponencial, autoacelerada por el bucle recursivo— comprime en años lo que antes tomaba décadas. La curva de absorción organizativa (rediseño de procesos, reconversión de roles, construcción de infraestructura de gobernanza, gestión del cambio institucional) avanza de forma más lenta, con fricción considerable: sistemas legacy, dificultades organizativas, resistencia cultural, regulación que llega tarde o escasez de talento capaz de integrar estas capacidades en operaciones reales.

La brecha entre ambas curvas es la variable determinante de la próxima década. La ventaja competitiva no provendrá del acceso a los mejores modelos, que se comoditizarán progresivamente, ni de su coste, que seguirá bajando exponencialmente. Provendrá de la velocidad y rigor con que una organización sea capaz de rediseñarse para operar con agentes autónomos de forma efectiva y responsable. Este patrón está documentado empíricamente: las ganancias de productividad más significativas no aparecen donde la IA sustituye tareas, sino donde reorganiza procesos completos y redefine la colaboración humano-máquina.

La redefinición del papel de la persona

La pregunta correcta, por tanto, no es qué empleos desaparecerán, sino qué hace una persona que un sistema de IA no puede hacer aunque sea más rápido, más barato y más consistente. La respuesta habitual (creatividad, empatía, liderazgo) es verdadera pero insuficiente. Hay dimensiones que el análisis convencional subestima:

― Responsabilidad con consecuencias reales. Los sistemas de IA no pueden ser llevados ante un tribunal ni perder una reputación construida en décadas. En entornos financieros, sanitarios, jurídicos y regulatorios, la presencia humana es un requisito estructural.

― Certificación y fe pública. El notario que certifica, el médico que firma, el auditor que refrenda: estos actos valen no por el procesamiento de información que implican, sino por la responsabilidad personal e institucional que los respaldan.

― Relación interpersonal. Hay contextos donde lo que se necesita no es la respuesta correcta sino la presencia de otra persona: el duelo, el conflicto, el cuidado. Sustituir esa presencia por un sistema más eficiente no resuelve el problema.

― Formulación de las preguntas que valen la pena y juicio moral. Cuando la IA ejecuta bien lo que se le pide, el valor se desplaza hacia quien decide qué pedir: quién fija los objetivos, quién reconoce qué problemas merecen atención o quién decide cuando hay valores en conflicto.

― Legitimidad democrática. Las decisiones que afectan a comunidades exigen deliberación y rendición de cuentas que no pueden delegarse en sistemas opacos, por precisos que sean.

Lo que estas dimensiones tienen en común apunta a algo más profundo que una distribución de tareas. Durante toda la historia, el ser humano ha sido simultáneamente el agente que produce y el sujeto que responde por lo producido: esa unidad entre acción y responsabilidad es lo que los sistemas de IA disocian estructuralmente. Lo que se redefine, entonces, no es solo qué hacemos, sino dónde residimos en la cadena causal: cada vez menos en la ejecución, cada vez más en la intención, el juicio y la rendición de cuentas.

El riesgo sistémico real: la concentración

El riesgo sistémico emergente no es el de la máquina que se rebela. Es el de la concentración sin precedentes de capacidad cognitiva en un número reducido de actores —laboratorios, corporaciones, estados— cuya ventaja se autoamplifica por el mismo bucle recursivo que acelera el progreso general. Amodei escribe que, si un estado autoritario lograra gracias a la IA un dominio ofensivo en ciberseguridad o biología antes que el resto, las consecuencias geopolíticas serían asimétricas e irreversibles. Hassabis propone, como respuesta, un modelo de colaboración internacional inspirado en el CERN: gobernanza multilateral de los últimos pasos hacia sistemas de IA general.

La respuesta institucional (regulatoria, corporativa, internacional) está, en este momento, muy por detrás de la velocidad del problema. La AGI como horizonte estratégico no exige que las organizaciones resuelvan el debate filosófico sobre si ya ha llegado. Exige que actúen con la consciencia de que sus consecuencias ya están desplegándose: en los sistemas que operan hoy, en los ciclos de trabajo que están siendo redefinidos hoy, en las decisiones de gobernanza que se están tomando, o eludiendo, hoy.

Índice de la publicación


Acceder al Capítulo 2

Resumen ejecutivo

Acceder al Capítulo 3

La explosión tecnológica de la IA


Riesgos, regulación y seguridad de la IA

Acceder al Capítulo 5

Gobierno de la IA e impacto en personas

Acceder al Capítulo 6

Fronteras de la IA


Acceder al CAPÍTULO 7

Caso práctico: GenMS™ Sybil

ACCEDER A Referencias y glosario

Referencias y glosario


Tendencias en Inteligencia Artificial
Accede al documento completo