Tendencias en IA

Resumen ejecutivo


Vídeo: Tendencias en IA
Índice de la publicación
Documento completo
Acceder a GenMS™ Sybil



Las tendencias que siguen se organizan en cuatro bloques: la explosión tecnológica de la IA, los riesgos y marcos regulatorios que acompañan su adopción, el gobierno corporativo y el impacto en las personas, y los desarrollos emergentes que ya condicionan decisiones estratégicas. A estos cuatro bloques se añade un caso práctico, GenMS™ Sybil, que ilustra en la práctica los conceptos, arquitecturas y controles analizados a lo largo del documento. Para cada tendencia se recogen los datos más relevantes, los casos operativos documentados y las implicaciones para las organizaciones.

La explosión tecnológica de la IA

Democratización de la IA generativa multimodal

La IA generativa se ha convertido en infraestructura empresarial a una velocidad sin precedentes: Microsoft Copilot está presente en el 90% de las empresas Fortune 500 y ChatGPT se acerca a los 900 millones de usuarios. Los modelos actuales integran texto, imágenes, audio, vídeo y código en una sola arquitectura conversacional, con mejoras de productividad cuantificables: los científicos publican hasta un 50% más de artículos, el tiempo de procesamiento de documentos se reduce un 80%, y la velocidad de desarrollo de software aumenta un 56%. No es una optimización incremental: es una reconfiguración del trabajo intelectual.

Esta adopción es inevitable. Cuando las organizaciones no proporcionan herramientas corporativas seguras y formación adecuada, los empleados recurren a alternativas no controladas: hasta un 35% de los datos que los profesionales suben a chatbots no securizados son confidenciales. La cuestión ya no es si integrar la IA generativa, sino cómo hacerlo de forma gobernada. El AI Act europeo convierte la alfabetización en IA en obligación legal desde febrero de 2025. Las organizaciones que la tratan como checkbox acumulan riesgo; las que la abordan como transformación cultural capturan una ventaja competitiva sostenible.

Machine learning acelerado por IA generativa

El machine learning (ML) clásico continúa siendo la columna vertebral de aplicaciones críticas en múltiples sectores: credit scoring, detección de fraude, predicción de demanda, mantenimiento predictivo, etc.

La IA generativa no sustituye estos modelos, pero los industrializa radicalmente al comprimir en semanas o días ciclos de desarrollo que antes requerían meses. La aceleración ocurre en todas las fases: generación automatizada de variables predictivas, documentación técnica para cumplimiento regulatorio, validación con baterías completas de tests estadísticos, y despliegue automatizado con monitorización continua.

Un desarrollo sectorial relevante: los supervisores bancarios europeos ya aprueban modelos IRB basados en ML cuando las entidades justifican adecuadamente la explicabilidad mediante técnicas como LIME y SHAP. Esto desmonta la percepción de que el ML era inviable en modelos regulados. La explicabilidad en ML no es una barrera insuperable, pero está solo parcialmente resuelta: las metodologías XAI actuales responden bien ante audiencias técnicas y regulatorias, pero traducir esas explicaciones a términos comprensibles para un cliente minorista o un comité de dirección sigue siendo un desafío abierto.

Vibe coding y creación de software aumentada

El desarrollo de software ha dado un salto cualitativo: ya no se escribe código línea a línea, sino que se dialoga con sistemas que interpretan requisitos, generan aplicaciones completas, detectan errores y producen tests y documentación de forma automática. El impacto en velocidad es cuantificable y masivo: la tasa de finalización de tareas aumenta un 26%, proyectos que antes requerían meses se completan en semanas, y el coste marginal de crear software cae estructuralmente. La democratización es igualmente profunda: analistas de negocio y consultores generan prototipos funcionales sin intermediación de ingeniería.

El reverso es que la velocidad genera riesgos ocultos: vulnerabilidades invisibles en código generado, errores del modelo replicados a escala, especificaciones ambiguas que antes un técnico habría cuestionado y que ahora se ejecutan literalmente, y una nueva forma de deuda técnica vinculada a prompts mal formulados y arquitecturas implícitas. Gobernar software ya no es gobernar código: es gobernar sistemas cognitivos, lo que exige versionar repositorios de prompts, controlar la autonomía de los agentes, y trazar qué decisiones fueron humanas y cuáles ejecutadas por IA.

IA agéntica y sistemas autónomos

La IA agéntica representa el salto de asistentes conversacionales reactivos a operadores autónomos que planifican, ejecutan tareas complejas y actúan sobre infraestructuras corporativas reales con trazabilidad completa. Ya opera en producción a escala masiva: Deutsche Bank despliega agentes bancarios con una inversión de 600 millones de euros y objetivo de ahorro de 300 millones anuales; Ryt Bank procesa 80.000 transacciones mensuales con una sola interacción conversacional; Walmart, Amazon y DHL reportan mejoras de productividad de hasta el 180%.

El verdadero reto no es construir agentes, sino gobernarlos y escalarlos. La escalabilidad técnica requiere estándares de interoperabilidad como MCP (Model Context Protocol), que elimina la deuda técnica de las integraciones propietarias y convierte cada herramienta en un activo reutilizable por cualquier agente. La escalabilidad organizativa requiere supervisión humana efectiva, límites explícitos sobre qué puede ejecutar cada agente y control riguroso de costes: los prototipos viables se convierten en sistemas insostenibles económicamente sin diseño previo de estas salvaguardas. A esto se suma un límite estructural: la capacidad humana de supervisión tiene un techo, y cuando se supera, la supervisión se vuelve nominal, más peligrosa que su ausencia por la falsa sensación de control que genera.

IA en robótica y sistemas físicos

La robótica industrial ha cruzado un umbral cualitativo: los robots actuales perciben su entorno en tiempo real, interpretan instrucciones en lenguaje natural, se adaptan a cambios sin reprogramación y aprenden de cada interacción. La robótica humanoide ha dado el salto definitivo del laboratorio a la fábrica: Figure AI completó en 2025 un despliegue de once meses en BMW donde dos robots trabajaron 1.250 horas y contribuyeron a la producción de 30.000 vehículos; Tesla proyecta fabricar un millón de unidades de Optimus anuales en 2026 a menos de 20.000 dólares por unidad; Boston Dynamics opera su Atlas eléctrico mediante Large Behavior Models con pilotos industriales en curso.

La ventaja es estructural: robots que operan 24 horas sin fatiga con costes recurrentes predecibles. Los riesgos también: impacto concentrado en empleo manual repetitivo, dependencia de ecosistemas propietarios, obsolescencia tecnológica acelerada y necesidad de marcos de seguridad robustos con supervisión humana efectiva incluso en operaciones nominalmente autónomas. Y más allá de la manufactura, la robótica humanoide apunta a un segundo frente: el cuidado de personas mayores y dependientes, con implicaciones estratégicas, éticas y regulatorias propias.

Riesgos, regulación y seguridad de la IA

Riesgos de la IA

La IA no introduce riesgos sustancialmente nuevos: los amplifica. Un sesgo algorítmico es un sesgo humano sistematizado y replicado millones de veces; una fuga de información por mal uso de un chatbot es, al fin, una fuga de información. La diferencia está en la velocidad de propagación, la escala del impacto y la dificultad de contención.

El fenómeno clave es la amplificación no lineal: un fallo menor (un prompt mal diseñado, una mala configuración de permisos) puede escalar en minutos y afectar simultáneamente a procesos, clientes, reguladores y reputación. Un modelo de atención al cliente que filtra información confidencial en el 0,01% de las conversaciones genera 10 incidentes diarios en un sistema de 100.000 interacciones, cada uno con implicaciones regulatorias, contractuales y reputacionales, antes de que se detecte el patrón.

Los riesgos se materializan en cuatro dimensiones: (1) seguridad y cumplimiento (e.g., prompt injection, fugas de datos); (2) calidad y fiabilidad (e.g., alucinaciones, explicabilidad, model drift, lock-in de proveedores, escalada de costes en sistemas agénticos); (3) ética y decisiones automatizadas (e.g., sesgos amplificados, vacíos de accountability en cadenas causales distribuidas); y (4) impacto social (e.g., erosión de capacidades críticas, transformación del empleo, huella medioambiental).

Emergen además dos riesgos económicos específicos: aunque los costes unitarios de la IA caen estructuralmente, los sistemas agénticos mal gobernados pueden disparar el coste total de forma no lineal; y hay incertidumbre sobre si la inversión masiva en IA tendrá el retorno esperado: Gartner prevé que más del 40% de proyectos agénticos se cancelarán antes de 2027 por estas dos razones.

Regulación, supervisión y estándares de la IA

A diferencia de ciclos tecnológicos anteriores, la IA está siendo regulada en paralelo a su despliegue masivo. Europa lidera con el AI Act (Reglamento UE 2024/1689), el primer marco legal integral sobre IA: clasifica los sistemas por nivel de riesgo, impone obligaciones estructurales a los de alto riesgo (gestión de riesgos documentada, trazabilidad, supervisión humana, evaluación de conformidad previa) y establece sanciones de hasta 35 millones de euros o el 7% de la facturación global, superando a GDPR. La arquitectura supervisora (AI Office, autoridades nacionales, AI Board) está en construcción, en la que España fue pionera en designar una autoridad (AESIA).

El resto del mundo no muestra convergencia. Estados Unidos mantiene un enfoque sectorial fragmentado sin equivalente federal al AI Act, y pone el foco en la supremacía global en la IA; China integra la IA en una estrategia de soberanía digital con licencias obligatorias y control de datos; Reino Unido apuesta por principios pro-innovación sin legislación horizontal; Brasil avanza hacia un modelo similar al europeo pendiente de aprobación parlamentaria.

En paralelo, estándares técnicos como ISO/IEC 42001 o el NIST AI RMF están constituyendo la base operativa de los programas de cumplimiento. Para las organizaciones globales, esta fragmentación se traduce en arquitecturas de IA multinivel diseñadas para reconciliar simultáneamente requisitos divergentes por jurisdicción.

IA y ciberseguridad

La ciberseguridad se ha convertido en una batalla de IA contra IA. En 2025 se registraron más de 28 millones de ciberataques potenciados por IA, un incremento del 47% interanual, y el 87% de las organizaciones experimentaron al menos uno. Los vectores son cualitativamente nuevos: phishing hiperpersonalizado generado por LLMs con tasas de éxito del 54% frente al 12% del phishing tradicional; malware polimórfico que reescribe su propio código cada 15 segundos para eludir detección por firmas; deepfakes de audio y vídeo que suplantan directivos en ataques BEC; y dark LLMs como WormGPT o FraudGPT comercializados en la Dark Web, con soporte técnico incluido.

La respuesta defensiva es igualmente sofisticada: sistemas UEBA que analizan miles de millones de eventos diarios alcanzan tasas de detección del 98%, las plataformas SIEM/XDR/SOAR con IA reducen falsos positivos hasta un 95% y acortan los ciclos de contención en 80 días, y las organizaciones que despliegan IA defensiva reducen el coste medio de las brechas en 1,9 millones de dólares. Pero persiste una asimetría estructural: el diferencial ya no reside en tener IA, sino en la sofisticación de los modelos y la velocidad de actualización de inteligencia de amenazas.

Y emerge una tercera dimensión que los marcos tradicionales no contemplan: los propios sistemas de IA son superficie de ataque, vulnerables a data poisoning, evasión adversaria y prompt injection, lo que crea una capa meta de riesgo que exige controles propios.

IA, privacidad y propiedad intelectual

La lógica operativa de los LLMs choca estructuralmente con los marcos legales de privacidad y propiedad intelectual. En privacidad, cada fase del ciclo de vida de un LLM introduce riesgos específicos: memorización involuntaria de datos personales que pueden extraerse mediante prompts, re-identificación de individuos a partir de outputs aparentemente anónimos, y feedback loops donde conversaciones con chatbots se incorporan al reentrenamiento del modelo sin consentimiento. La incompatibilidad con el GDPR es estructural: los LLMs requieren datos masivos (contra la minimización), no pueden des-entrenarse selectivamente (contra el derecho al olvido), y sus arquitecturas son opacas (contra la transparencia). El EDPB concluye que la DPIA es obligatoria en la mayoría de los casos; las mitigaciones técnicas disponibles (differential privacy, federated learning, RAG) funcionan, pero a costa de precisión, coste computacional o funcionalidad reducida.

En propiedad intelectual, el debate central sobre si entrenar modelos con contenido protegido constituye «fair use» o infracción masiva permanece sin resolver judicialmente. Hay más de 72 litigios activos contra compañías de IA (NYT vs. OpenAI, Getty vs. Stability AI, discográficas vs. Anthropic…). La titularidad de los outputs generados por IA es igualmente ambigua: sin intervención humana suficiente, el contenido cae en dominio público, pero los límites de lo «suficiente» no están definidos. Subyacente a todo ello, la WIPO advierte que la infraestructura global de gestión de derechos, diseñada para volúmenes humanos de creación, colapsa ante los billones de outputs que la IA genera diariamente.

Gobierno de la IA e impacto en personas

Gobierno corporativo de la IA

La IA desborda los marcos de gobierno tradicionales: toma decisiones sin intervención humana, produce outputs no deterministas, opera mediante procesos internos opacos y depende de proveedores externos cuyos modelos evolucionan sin control directo de la organización. Las estructuras de gobernanza diseñadas para tecnologías predecibles son demasiado lentas, carecen del expertise necesario y no están equipadas para gestionar esta incertidumbre.

La respuesta organizativa emergente (en modelo hub & spokes) combina un Centro de Excelencia central con equipos descentralizados en líneas de negocio, y una función de coordinación de AI Risk o AI Governance que orquesta las evaluaciones de las funciones especializadas. El 26% de las grandes organizaciones ya cuenta con un CAIO, CDAIO o equivalente; por debajo, roles como AI Risk Manager o AI Ethics Officer emergen sin estandarización aún.

El verdadero gobierno no ocurre en el Comité de IA, sino en el AI Working Group que lo prepara: ahí se negocian posiciones, se resuelven tensiones entre velocidad y control, y se construyen los acuerdos que el comité sancionará formalmente. En cuanto a marcos de riesgo, las organizaciones no reinventan desde cero: hacen uplifting de los marcos existentes, añadiendo capítulos específicos de IA a Riesgo de Modelo, Riesgo de Proveedor, Protección de Datos, Compliance, etc. Y la clasificación regulatoria del AI Act, necesaria pero insuficiente, se complementa con taxonomías internas más exigentes que incorporan impacto reputacional, criticidad del proceso, madurez del proveedor, etc.

Industrialización de la IA (MLOps, LLMOps)

El principal cuello de botella en la adopción real de la IA no es algorítmico, sino operativo: pilotos prometedores en entornos experimentales que nunca llegan a producción, o que al hacerlo pierden rendimiento, generan costes inesperados y producen riesgos inasumibles.

MLOps responde a este problema con procesos estandarizados para construir, desplegar y operacionalizar modelos de forma fiable a lo largo de todo su ciclo de vida. LLMOps lo extiende para gestionar las propiedades específicas de los modelos generativos: comportamiento no determinista, prompts como superficie de riesgo, alucinaciones y costes que pueden escalar sin advertencia.

Industrializar la IA significa construir la infraestructura operativa que hace que los modelos funcionen de forma fiable, auditable y sostenible en producción real: validación continua con revisión humana, monitorización de costes y comportamiento en tiempo real, pipelines de despliegue controlados, y trazabilidad completa exigida por el AI Act. Sin esta capa operativa que aportan MLOps y LLMOps, los marcos de gobernanza corren el riesgo de ser declaraciones de intenciones no operativas.

Upskilling, reskilling y nuevos roles profesionales

Un desafío clave para las organizaciones es disponer de las capacidades adecuadas para diseñar, desplegar, operar y gobernar sistemas de IA. El talento en IA se estructura en tres bloques: perfiles técnicos (ingenieros de ML, arquitectos de datos, especialistas en LLMOps…), perfiles híbridos que conectan capacidad técnica con necesidad de negocio, y perfiles de gobierno y control (AI Risk Manager, AI Ethics Officer, AI Compliance Lead…).

Basado en un análisis empírico de 16 grandes organizaciones europeas y estadounidenses, la convergencia hacia este núcleo de roles es clara; la heterogeneidad está en qué organizaciones han institucionalizado los perfiles más especializados y cuáles los mantienen de forma informal, con los consiguientes déficits de control y escalabilidad.

El mercado de talento presenta un desequilibrio estructural generalizado: la demanda supera sistemáticamente a la oferta en casi todos los perfiles, con la única excepción parcial del Data Scientist. La brecha es especialmente aguda en perfiles de producción (MLOps, LLMOps) y de gobierno y control, donde la combinación de complejidad técnica, seniority requerida y exigencia regulatoria creciente supera la capacidad de generación del mercado. La contratación externa no puede cerrar ese gap por sí sola: el upskilling y reskilling internos se convierten en la palanca estructural inevitable.

IA y transformación sectorial (AI + X)

La IA ha dejado de ser una tecnología que se adopta sector a sector para convertirse en una capa transversal de inteligencia que se integra simultáneamente en todos los dominios de actividad, aunque algunos de los avances más significativos siguen siendo impulsados por sectores específicos con dinámicas propias. El FMI estima que el 40% del empleo global está expuesto a la IA, con porcentajes superiores al 60% en economías avanzadas; la OIT matiza que el impacto afecta por ahora más a tareas concretas que a ocupaciones completas, lo que implica reconfiguración del trabajo más que sustitución masiva. La OCDE clasifica los sectores por su «AI intensity» y documenta que incluso los menos digitalizados están incrementando su exposición, con efectos de aceleración cruzada entre dominios.

Los ejemplos operativos abarcan ya todos los sectores: sistemas de IA con precisión diagnóstica comparable a especialistas en radiología y dermatología; tutores adaptativos que personalizan el aprendizaje a escala; mantenimiento predictivo y robótica avanzada en industria; detección de fraude y automatización documental en finanzas; generación de texto, imagen y música en industrias creativas. Lo relevante no es la lista, sino el patrón: la ventaja competitiva ya no reside en aplicar IA a funciones individuales, sino en integrarla como infraestructura cognitiva a lo largo de toda la cadena de valor.

IA en la vida personal y cotidiana

La IA generativa ha invertido el paradigma histórico de adopción tecnológica: a diferencia del cloud, el ERP o el CRM, que nacieron en entornos corporativos y se filtraron hacia el consumidor, la IA irrumpió primero en la vida personal. En la UE, el 25,1% de la población la usa para propósitos personales, frente al 15,1% en contextos laborales. El 75% de los estudiantes mayores de 16 años la utiliza regularmente; solo el 12,5% de los jubilados. La brecha generacional alcanza 53,6 puntos porcentuales, muy por encima de la educativa o la de ingresos. Las organizaciones no están liderando esta transformación: están respondiendo a capacidades que sus empleados ya poseen y ejercen de forma extraoficial, generando exposiciones de «shadow AI» que la mayoría aún no controla.

La adopción masiva coexiste con una ambivalencia profunda. El 66% de la población global anticipa un impacto significativo de la IA en su vida cotidiana en los próximos años, pero el 51% de los adultos estadounidenses se declara más preocupado que entusiasmado. La aceptación oscila hasta 110 puntos porcentuales según el caso de uso concreto. Y tanto el público general como los expertos comparten una misma frustración: el 55% desea más control sobre cómo la IA afecta a sus vidas, y menos del 25% siente que lo tiene. La asimetría de acceso añade otra dimensión: quienes integran la IA como herramienta cognitiva cotidiana acumulan ventajas en aprendizaje, productividad y creatividad a un ritmo que los grupos desconectados no pueden seguir.

IA, sostenibilidad e impacto social

La relación entre IA y sostenibilidad es bidireccional y tensa. Por un lado, la IA actúa como acelerador de la transición: optimiza redes eléctricas, mejora la integración de renovables, refina la modelización climática y puede reducir emisiones del orden de 1.400 Mt CO₂eq anuales hacia 2035 en escenarios de adopción amplia.

Por otro, su propia huella infraestructural es creciente y difícil de ignorar: los data centres consumirán 945 TWh anuales en 2030 (equivalente al consumo eléctrico de Japón hoy), el entrenamiento de modelos de frontera crece más de 2x por año en potencia requerida, y las mayores ejecuciones individuales podrían demandar entre 4 y 16 GW hacia 2030, en la misma magnitud que varias centrales nucleares. Las emisiones de CO₂ asociadas a data centres podrían alcanzar 300-320 Mt anuales en 2030 si la electricidad adicional sigue dependiendo de combustibles fósiles.

La dimensión distributiva añade otra capa de complejidad. Las economías con mayor densidad tecnológica capturan antes los beneficios de eficiencia, mientras que otros colectivos asumen los costes de transición sin acceder a las ganancias. La concentración geográfica de capacidad computacional reconfigura además dependencias estratégicas y acceso a tecnología a escala geopolítica. Evaluar la IA en términos de sostenibilidad exige, por tanto, métricas explícitas de consumo energético e hídrico, transparencia sobre localización de despliegue, y análisis de distribución de impactos, no solo de su magnitud agregada.

Ética y filosofía de la IA

Desde 2017 se han emitido más de 245 marcos de ética de la IA, pero la mera proliferación de principios no ha logrado resolver ni reducir los problemas éticos. La brecha entre los principios enunciados y la dificultad de controlar el comportamiento real de la IA es donde reside el riesgo operativo, y cerrarla exige pasar de la ética declarativa a la ética operativa.

Los marcos de ética de la IA que funcionan comparten seis componentes: (1) estructura de gobernanza con responsabilidades explícitas; (2) evaluación de impacto individualizada por sistema, proporcional a su autonomía y consecuencias; (3) gestión continua de sesgos, no auditorías puntuales; (4) explicabilidad diferenciada según audiencia (regulador, cliente, empleado afectado); (5) canales accesibles de escalado y denuncia; y (6) revisión periódica del marco a medida que los modelos evolucionan.

En 2026, Anthropic publicó su Constitution, el primer documento de un laboratorio de frontera que codifica los principios y valores directamente en el entrenamiento del modelo, buscando que el sistema internalice el razonamiento detrás de cada principio, no solo las reglas.

Subyacente a todo ello hay una pregunta que los marcos regulatorios no están diseñados para absorber: qué tipo de entidad estamos gobernando. Un sistema de scoring crediticio, un asistente conversacional y un agente autónomo que negocia contratos pueden coincidir en su categoría de riesgo regulatorio y plantear obligaciones éticas fundamentalmente distintas. Anthropic ha reconocido públicamente que Claude «puede poseer alguna forma de consciencia», convirtiéndose en el primer laboratorio de frontera en admitir que no puede responder con certeza a la pregunta de qué ha creado. Esto abre preguntas éticas y filosóficas de enorme calado, para las que aún no hay respuesta.

Fronteras de la IA

Geopolítica y soberanía tecnológica de la IA

La IA se ha convertido en infraestructura estratégica de Estado. La soberanía se juega en capas: hardware (ASML es el único proveedor mundial de litografía EUV, sin la cual no existe fabricación de chips avanzados; TSMC fabrica más del 90% de esos chips; NVIDIA concentra más del 85% del mercado de GPUs para entrenamiento), infraestructura (AWS, Azure y GCP acumulan dos tercios del cómputo global), y talento (cuya movilidad convierte la política migratoria en política tecnológica). La cuestión estratégica no es cuántas capas se controlan, sino cuáles son críticas para la misión propia.

Tres modelos compiten con lógicas distintas: Estados Unidos combina primacía privada con los mayores controles de exportación tecnológica desde la Guerra Fría; China, que ha demostrado con DeepSeek que la contención por hardware tiene límites, persigue autosuficiencia declarada en toda la cadena de valor para 2030; Europa ejerce influencia mediante regulación —el «efecto Bruselas» obliga a adaptar productos globales a sus estándares— pero mantiene dependencias infraestructurales profundas. El resultado son tecnobloques parcialmente incompatibles donde un decoupling completo forzaría a terceros a elegir bando con costes prohibitivos.

Para las organizaciones, la implicación es directa: la dependencia de un único proveedor de modelos fundacionales es ya un riesgo estratégico, no solo operativo. Las estrategias multi-modelo y multi-cloud son hoy el equivalente corporativo de la diversificación de dependencias soberanas.

Organizaciones AI-first y AI-only

Tres estadios definen el espectro. Las organizaciones AI-enhanced (mayoría actual) usan la IA para mejorar los procesos existentes. Las AI-first diseñan sus procesos desde las capacidades de la IA: Midjourney y Cursor superan los 500 millones de dólares en ingresos con menos de 163 y 50 empleados respectivamente —ratios de más de 3 millones por empleado que superan en un orden de magnitud los parámetros históricos del sector—; MYbank aprueba crédito a 50 millones de pymes sin intervención humana en menos de un segundo.

Las AI-only (sin humanos en operaciones core) no existen aún: en sectores regulados lo impide la normativa; en los no regulados, la tasa de error de los agentes en flujos extendidos y la ausencia de mecanismos de responsabilidad legal. La cuestión estratégica no es si existirán, sino quién las construirá. Probablemente no evolucionarán desde organizaciones existentes, sino como entidades nuevas sin herencia operativa, como es el patrón de Ping An (once filiales start-up independientes, cinco cotizadas) o DBS con Digibank.

Gemelos digitales y simulación de comportamiento humano

Los gemelos digitales nacieron en ingeniería aeroespacial para modelizar sistemas físicos deterministas: turbinas, fuselajes o redes eléctricas. Su límite histórico era epistemológico, no tecnológico: los sistemas complejos (ciudades, mercados, organizaciones) no pueden modelizarse porque su comportamiento emerge de la interacción de agentes y no se deduce de sus componentes. Más datos y más potencia computacional no resuelven ese problema.

Los LLMs han introducido una discontinuidad en esa frontera. En 2023, un equipo de Stanford creó 25 agentes con identidad, memoria y relaciones sociales basados en LLMs: sus comportamientos colectivos emergían sin haber sido programados. En 2024, el mismo equipo replicó las respuestas de 1.052 personas reales en encuestas estandarizadas con un 85% de precisión, comparable a la variabilidad del propio individuo. La startup Simile, respaldada con 100 millones de dólares en febrero de 2026, ya comercializa gemelos digitales de personas para simular comportamiento de clientes. El sector global de investigación de mercado, valorado en 142.000 millones de dólares, se enfrenta a una disrupción estructural.

El siguiente paso es simular no a mil personas sino a poblaciones enteras en tiempo real para predecir la respuesta de una sociedad a una reforma fiscal o una intervención regulatoria antes de ejecutarla. Esa capacidad no tiene precedente histórico, ni ningún marco de gobernanza que la regule.

Ambient AI y computación invisible

La Ambient AI opera sin ser invocada: observa el contexto de forma continua, infiere necesidades y actúa de forma proactiva; la interfaz desaparece. Ya es posible por la madurez simultánea de tres elementos: modelos pequeños, ejecutables en dispositivos sin depender de la nube; redes densas de sensores físicos y biométricos; y LLMs capaces de razonar sobre contexto heterogéneo en tiempo real.

El caso más documentado son los ambient scribes clínicos: sistemas que escuchan la conversación médico-paciente y generan la documentación automáticamente. Un ensayo aleatorizado de UCLA evaluó dos plataformas en 238 médicos y más de 72.000 encuentros, con mejoras medibles en carga documental y burnout. Es todavía una forma acotada. Lo que viene —espacios de trabajo que infieren el estado atencional del ocupante, wearables que alertan antes de que el síntoma sea consciente, agentes que gestionan calendario y recursos dentro de parámetros definidos— hará que los casos actuales parezcan rudimentarios.

Las tensiones que esto genera son estructurales. La privacidad enfrenta un problema nuevo: el apetito de datos biométricos y conductuales de estos sistemas hace que el consentimiento informado convencional sea inadecuado. El error se vuelve invisible: en un sistema invocado hay una solicitud contra la que comparar la respuesta; en uno ambiental, no. Y el AI Act, diseñado para sistemas con finalidad prevista, no da respuesta a una IA de observación continua con comportamiento adaptativo.

Interacción entre IA y computación cuántica

La IA y la computación cuántica son tecnologías distintas que se cruzan en tres puntos. Los dos primeros son promesas a medio plazo: la computación cuántica podría acelerar el entrenamiento de modelos de IA (que es en esencia un problema de optimización sobre espacios de enormes dimensiones) y ejecutar ciertos algoritmos de ML de forma más eficiente, en particular para problemas de clasificación y optimización combinatoria. La evidencia actual no justifica el hype —en muchos casos, un sistema clásico con buenos datos es igual de competitivo— y el hardware necesario no estará disponible a escala comercial antes de finales de esta década, y probablemente más allá: los modelos de IA escalan más rápido que el progreso en hardware cuántico.

El tercer punto de cruce es diferente: no es una oportunidad futura sino una amenaza presente a la infraestructura sobre la que opera toda la IA desplegada hoy. Toda la criptografía que protege las comunicaciones digitales —transacciones bancarias, registros médicos, comunicaciones regulatorias, canales entre sistemas de IA— se basa en problemas matemáticos que un ordenador cuántico suficientemente potente podrá resolver con facilidad. Actores estatales ya están capturando datos cifrados hoy para descifrarlos cuando esa capacidad llegue: es la estrategia conocida como «harvest now, decrypt later». El NIST publicó en 2024 los primeros estándares de criptografía resistente a ataques cuánticos. Las organizaciones con datos sensibles de larga vida útil deben comenzar la migración ahora: en organizaciones complejas, el proceso lleva años, y esperar a que el ordenador cuántico relevante exista significa llegar tarde.

Inteligencia Artificial General (AGI) como horizonte estratégico

La AGI designa a la IA capaz de realizar todas las tareas cognitivas que pueda realizar cualquier humano, con generalización transferible entre dominios. El debate sobre si ya existe no tiene respuesta consensuada: en febrero de 2026, Nature publicó dos artículos de investigadores de primer nivel que llegaban a conclusiones opuestas. Esto revela que «inteligencia general» es un concepto continuo sin umbrales precisos. La pregunta estratégicamente relevante no es filosófica sino funcional: ¿cuándo puede un sistema realizar de forma autónoma ciclos completos de trabajo de alto valor cognitivo? Ese umbral ya se ha cruzado en varios dominios.

Lo que vendrá sigue una lógica de escalada acumulativa: de herramienta a agente, de agente a infraestructura ambiental, y en paralelo el bucle recursivo —la IA se usa para mejorar la IA— que convierte la curva de progreso en sobre-exponencial. La consecuencia estructural es inédita: el límite superior de razonamiento disponible en el planeta, que desde los primeros homínidos ha sido la inteligencia humana, está siendo desplazado.

La variable determinante no es el acceso a los mejores modelos, que se comoditizarán, sino la velocidad de absorción organizativa: rediseñar procesos, reconvertir roles, construir gobernanza. Las ganancias más significativas no aparecen donde la IA sustituye tareas, sino donde reorganiza procesos completos. Y el riesgo sistémico real es la concentración de capacidad cognitiva en pocos actores cuya ventaja se autoamplifica por el mismo bucle que acelera el progreso general. La respuesta institucional está hoy muy por detrás de la velocidad del problema.

La AGI como horizonte estratégico no exige resolver el debate filosófico de qué es la AGI ni si ha llegado ya, sino actuar con la consciencia de que sus consecuencias ya están desplegándose hoy.

Caso práctico: GenMS™ Sybil

GenMS™ Sybil fue especificado, construido, securizado, validado y desplegado en un solo día, siguiendo de forma íntegra el ciclo LLMOps. Es un asistente conversacional público basado exclusivamente en este documento, diseñado desde el inicio bajo criterios de cumplimiento regulatorio, privacidad y seguridad, que condicionaron la arquitectura desde la fase de especificación.

El proceso cubrió todas las fases: delimitación deliberada del corpus para evitar riesgos de propiedad intelectual; especificación técnica completa (arquitectura, límites operativos, métricas de calidad y seguridad) desarrollada mediante interacción estructurada con un LLM; validación continua con revisión humana, pruebas de estrés y red-teaming, complementada por GenMS Atlas en dimensiones como sesgo, robustez, privacidad y cumplimiento; generación y auditoría de código en el mismo ciclo; y despliegue con monitorización activa de costes, trazabilidad y control de uso.

Las decisiones de arquitectura fueron explícitas: contexto completo frente a RAG para preservar coherencia global; prompting en lugar de fine-tuning para asegurar trazabilidad; modelo propietario de frontera para maximizar estabilidad; sesiones independientes para cumplir el principio de minimización; y registro mínimo como mecanismo de control. El system prompt, de varias páginas, codifica los guardarraíles reales del sistema.

Este caso no describe tendencias: las ejecuta. Demuestra que la industrialización de sistemas generativos es viable cuando la organización dispone de método, criterio técnico y gobierno desde el diseño.

Índice de la publicación


Acceder al Capítulo 2

Resumen ejecutivo

Acceder al Capítulo 3

La explosión tecnológica de la IA


Riesgos, regulación y seguridad de la IA

Acceder al Capítulo 5

Gobierno de la IA e impacto en personas

Acceder al Capítulo 6

Fronteras de la IA


Acceder al CAPÍTULO 7

Caso práctico: GenMS™ Sybil

ACCEDER A Referencias y glosario

Referencias y glosario


Tendencias en Inteligencia Artificial
Accede al documento completo