As tendências discutidas até agora descrevem transformações que já estão ocorrendo: sistemas em produção, regulamentações em vigor, organizações se adaptando. Este bloco trata de uma dimensão diferente. As seis tendências que o compõem não se limitam ao presente operacional; elas delimitam o espaço estratégico que já condiciona as decisões de investimento, o posicionamento e a soberania, mesmo que seus efeitos completos ainda estejam se revelando.
A geopolítica da IA redefine alianças e dependências. As organizações que priorizam a IA preveem modelos competitivos sem precedentes. Os gêmeos digitais e a simulação avançada alteram a maneira como projetamos, experimentamos e decidimos. A ambient AI obscurece a fronteira entre o ambiente e a computação. A convergência com a computação quântica amplia o horizonte de problemas abordáveis. E a AGI deixou de ser mera especulação acadêmica e se tornou uma hipótese estratégica explícita nos principais laboratórios do mundo.
A IA não é mais uma tecnologia setorial, mas uma infraestrutura estratégica comparável aos sistemas de energia, telecomunicações ou financeiro. O que está em jogo não é apenas a competitividade econômica: é a capacidade dos Estados de manter a autonomia nas decisões críticas, desde a defesa até a supervisão financeira e o gerenciamento da infraestrutura crítica. Nesse contexto, o controle de modelos fundamentais, semicondutores avançados, centros de dados e talentos especializados tornou-se um importante fator de poder nacional, e as políticas industriais, os controles de exportação e as estratégias de investimento já refletem essa nova realidade.
A soberania tecnológica em IA não é um estado binário: ela se desenvolve em camadas, e a dependência pode ser gerada em qualquer uma delas:
Nenhum país ou organização controla todas essas camadas simultaneamente. A questão estratégica não é quantas camadas são controladas, mas quais são de missão crítica e quais são gerenciáveis por meio de diversificação, acordos ou redundância.
Os Estados Unidos, a China e a Europa articularam respostas estruturalmente distintas que não são apenas diferenças de ênfase, mas projetos geopolíticos com profundas consequências para alianças, mercados e padrões globais.
Os Estados Unidos combinam a primazia do setor privado no desenvolvimento de modelos com a crescente intervenção estatal na cadeia de suprimentos: o CHIPS and Science Act mobiliza dezenas de bilhões em semicondutores domésticos, e os controles de exportação de chips avançados para a China representam a maior restrição tecnológica entre as principais potências desde a Guerra Fria. A estratégia é clara: manter a vantagem em modelos de ponta e privar os concorrentes do hardware necessário para alcançá-la.
A China combina investimento estatal massivo, integração civil-militar e uma estratégia explícita de autossuficiência tecnológica e controle abrangente do ecossistema digital. Sua meta declarada é a autossuficiência em toda a cadeia de valor até 2030, desde semicondutores até modelos básicos desenvolvidos internamente. As restrições de exportação dos EUA aceleraram essa agenda: a DeepSeek demonstrou em 2025 que a inovação chinesa pode produzir modelos competitivos com hardware da geração anterior, complicando a lógica de contenção por meio do controle de chips.
A Europa adotou a liderança regulatória como um vetor de influência geopolítica. O AI Act e o GDPR geraram um verdadeiro "efeito Bruxelas": as empresas globais adaptam seus produtos aos padrões europeus porque o mercado europeu é grande demais para ser ignorado. No entanto, a Europa mantém dependências infraestruturais significativas: seus modelos básicos mais avançados são americanos, sua nuvem é em grande parte estrangeira e sua capacidade de computação soberana é limitada. A ASML é a exceção notável: o monopólio holandês na litografia EUV faz da Europa um participante indispensável na cadeia global de semicondutores.
O restante do mundo navega entre esses três polos com capacidades muito desiguais. Alguns países emergentes estão articulando suas próprias estratégias com ambição cada vez maior: a Índia está desenvolvendo modelos fundamentais em idiomas locais e negociando sua posição nas cadeias de suprimentos de semicondutores; o Brasil está liderando iniciativas de governança de IA na América Latina; a União Africana está promovendo estruturas continentais para a soberania digital. No entanto, para a maioria dos países, a escolha entre ecossistemas incompatíveis permanece implícita e não deliberada, com riscos reais de dependência estrutural que a literatura chama de "colonialismo de dados": a mineração de dados locais para treinar modelos que são implantados globalmente, sem que os países de origem capturem valor ou mantenham o controle efetivo sobre sua infraestrutura digital.
O mundo está caminhando para ecossistemas tecnológicos parcialmente incompatíveis. Controles de exportação de chips, dados geo-fenced, padrões técnicos divergentes e infraestruturas paralelas estão moldando o que alguns analistas chamam de "technoblocks": esferas de influência tecnológica com suas próprias lógicas de governança, segurança e valores. A aliança Chip 4 (EUA, Japão, Taiwan e Coreia do Sul) coordena a estratégia ocidental de semicondutores; a China cultiva sua própria esfera por meio da Digital Silk Road. Uma dissociação completa entre os ecossistemas dos EUA e da China forçaria países terceiros e organizações a escolher, com custos de transição potencialmente proibitivos.
A autossuficiência total em IA é economicamente inviável para a maioria dos países e organizações. Recriar toda a cadeia de valor (desde a mineração de minerais essenciais até o desenvolvimento de modelos fundamentais) do zero exige investimentos e escalas que somente dois ou três participantes globais podem sustentar. A soberania tecnológica realista não é isolamento: é a capacidade efetiva de decidir, diversificar fornecedores, negociar termos e evitar o aprisionamento estratégico nas camadas realmente críticas. Para a maioria dos países, a soberania da IA na prática se resume ao controle do único ativo sobre o qual eles têm jurisdição efetiva: os dados gerados em seu território.
O debate geopolítico se reflete em decisões corporativas concretas. A dependência de um único provedor de modelos básicos expõe as organizações a riscos de lock-in, mudanças nos preços ou termos de serviço e até mesmo restrições regulatórias decorrentes de tensões entre jurisdições. A localização de dados multijurisdicionais e o compliance regulatório acrescentam camadas de complexidade operacional crescente.
As estratégias de vários modelos e várias nuvens, antes justificadas por motivos de desempenho técnico e custo, agora assumem uma dimensão estratégica adicional: elas são o equivalente organizacional da diversificação de dependências soberanas.
A expansão dos sistemas agênticos levanta uma questão que, até alguns anos atrás, era teórica: uma organização pode funcionar com a IA como sua arquitetura cognitiva central, relegando o trabalho humano à exceção? Para responder a essa pergunta com precisão, é útil distinguir três estágios que costumam ser confundidos na prática empresarial:
Os exemplos mais avançados de organizações que priorizam a IA vêm, significativamente, do setor de tecnologia pura, onde a ausência de restrições regulatórias sobre a automação e a natureza digital do produto permitem que o modelo seja levado aos seus limites atuais.
A plataforma de geração de imagens de IA Midjourney gerou mais de US$ 500 milhões em receita em 2025 com uma equipe de aproximadamente 163 pessoas, nenhum investimento em marketing e nenhum financiamento externo. A plataforma de desenvolvimento Cursor (Anysphere) atingiu US$ 500 milhões em receita recorrente anual em maio de 2025, tornando-se a empresa de SaaS de crescimento mais rápido da história, com menos de 50 funcionários. A relação receita por funcionário dessas empresas (mais de US$ 3 milhões em ambos os casos) é uma ordem de grandeza maior do que as referências históricas do setor de tecnologia e dos grandes grupos bancários globais.
No campo dos serviços financeiros, um caso avançado é o MYbank, um banco digital chinês de propriedade do Ant Group, que desde 2015 tem operado sob o princípio de zero intervenção humana na aprovação de crédito para PMEs. Seu modelo "310" - três minutos de solicitação, um segundo de aprovação, zero intervenção humana - atendeu a mais de 50 milhões de PMEs. O sistema usa modelos de previsão de fluxo de caixa com mais de 95% de precisão e conta com dados de geolocalização por satélite para avaliação de risco agrícola. O MYbank opera sem uma rede de agências ou força de vendas, embora mantenha equipes de engenharia e gerenciamento: é um modelo que prioriza a AI-First em suas operações principais, não AI-only como um todo.
O gap entre AI-first e AI-only não é apenas tecnológica; ela é regulatória, legal e organizacional. Em setores regulados, como o bancário e o de seguros, as normas atuais exigem supervisão e responsabilidade humana pelas decisões relevantes. A Lei Europeia de IA classifica os aplicativos de IA em crédito, saúde e seguro de vida e componentes de infraestrutura crítica como sistemas de alto risco, com requisitos explícitos de supervisão humana. A remoção dessa supervisão no núcleo operacional de uma instituição financeira não é compatível com a estrutura prudencial europeia.
Nos setores não regulados, o limite atual não é regulatório, mas de capacidade. Os agentes autônomos de IA podem executar tarefas complexas, mas sua taxa de erro em fluxos de trabalho estendidos, sua incapacidade de lidar com situações não cobertas pelo treinamento e a ausência de mecanismos de responsabilidade legal equivalentes aos de uma pessoa jurídica significam que a eliminação total do trabalho humano nas operações principais gera riscos operacionais que ainda não são suportáveis.
O caso da Klarna ilustra os limites atuais: a empresa reduziu sua força de trabalho de 7.400 para aproximadamente 3.000 entre 2022 e 2025 por meio de um congelamento de contratações e automação extensiva, com um assistente de IA gerenciando o equivalente a 853 funcionários de atendimento ao cliente. Sua trajetória define empiricamente o limite entre onde a IA pode operar de forma autônoma com qualidade suficiente e onde o julgamento humano fornece valor diferencial atualmente.
Os chefes dos principais laboratórios de IA de ponta fazem previsões que colocam a organização AI-only no horizonte imediato. Sam Altman, CEO da OpenAI, declarou em 2024: "Veremos empresas de dez pessoas com avaliações de bilhões de dólares muito em breve [...] Há uma aposta no meu grupo de bate-papo de amigos executivos sobre quando existirá a primeira empresa de uma pessoa avaliada em um bilhão de dólares, o que seria inimaginável sem a IA. E agora isso vai acontecer". Quando perguntado em maio de 2025 sobre quando esse cenário se concretizaria, Dario Amodei, CEO da Anthropic, respondeu: "2026".
Amodei desenvolve o argumento em seu artigo de janeiro de 2026, no qual descreve o equivalente funcional de "uma nação de gênios em um data center", ou seja, 50 milhões de agentes mais capazes do que qualquer ganhador do Prêmio Nobel, operando entre dez e cem vezes a velocidade humana; e estima que 50% dos empregos de nível básico poderiam ser cortados dentro de um a cinco anos. O mesmo documento observa que a Anthropic já executa a maior parte do código que produz usando IA, aproximando-se da autonomia operacional total no desenvolvimento de software.
A questão estratégica subjacente não é se as organizações AI-only existirão, mas como elas passarão a existir. A resposta é contraintuitiva: é improvável que elas surjam a partir da transformação das organizações existentes. Clayton Christensen documentou em The Innovator's Dilemma que as empresas estabelecidas são estruturalmente incapazes de adotar tecnologias disruptivas de dentro para fora: seus processos, incentivos e bases de clientes são otimizados para o modelo estabelecido, e quaisquer iniciativas disruptivas internas competem em desvantagem permanente por recursos e atenção da administração. A transição para a IA em primeiro lugar exacerba essa lógica: uma organização com dezenas de milhares de funcionários tem seus processos projetados para essa escala humana. Esses processos não são redesenhados; eles são substituídos.
O padrão que está surgindo na Ásia aponta para um caminho alternativo: a criação de novas instituições, com sua própria marca e sem patrimônio operacional, que competem livremente até atingirem massa crítica e canibalizarem a empresa original. A Ping An, a maior seguradora do mundo em prêmios emitidos, incubou 11 subsidiárias independentes de tecnologia (incluindo OneConnect, Lufax e Ping An Good Doctor) entre 2013 e 2022, cinco das quais foram listadas como instituições autônomas.. O DBS Bank criou o Digibank como um banco digital segregado, operando com um quinto dos recursos por cliente de um banco convencional, e cujo aprendizado alimentou a arquitetura da matriz. O mecanismo é idêntico: uma instituição nova, não legada, que se expande sem as restrições da organização matriz e, se o experimento fracassar, é fechada sem prejudicar a empresa original.
Na Europa e, em menor escala, nos EUA, esse mecanismo encontra atritos estruturais que vão além da regulação da IA. A introdução de sistemas de IA no local de trabalho pode, na Europa, exigir consulta ou negociação com conselhos de trabalhadores e, em alguns países, seu acordo explícito. Os acordos coletivos em setores de emprego intensivo incorporam cláusulas que limitam a automação. A proteção de dados dos funcionários de acordo com o GDPR acrescenta mais complexidade. O resultado é uma assimetria com consequências estratégicas não intencionais: a regulação ocidental dificulta que as organizações existentes criem as instituições que priorizam a IA e que acabariam por desafiá-las.
Quando a tecnologia atingir o limiar da viabilidade de uma organização exclusivamente de IA, a questão de quem a construirá primeiro provavelmente terá uma resposta geográfica.
O conceito de gêmeo digital tem data e local de nascimento precisos. Em outubro de 2002, Michael Grieves apresentou em um fórum da Society of Manufacturing Engineers o que ele chamou de "Conceptual Ideal for Product Lifecycle Management": a ideia de que qualquer objeto físico poderia ter um correlato digital que o representaria dinamicamente durante todo o seu ciclo de vida, sincronizando em tempo real o estado do objeto real com sua representação virtual. O termo "gêmeo digital" foi posteriormente cunhado por John Vickers, engenheiro-chefe da NASA, que formalizou o conceito no roteiro de tecnologia de 2010 da agência. A definição da NASA nesse documento continua sendo a mais precisa que existe: "uma simulação multifísica, em várias escalas e probabilística de um veículo ou sistema que usa os melhores modelos físicos disponíveis, atualizações de sensores e histórico da frota para espelhar a vida de seu gêmeo físico".
O ponto de partida é importante porque revela a premissa implícita que orienta o desenvolvimento de gêmeos digitais há duas décadas: um gêmeo digital funciona bem quando o sistema que ele modela obedece a leis físicas conhecidas e determinísticas. Uma turbina a gás, a fuselagem de uma aeronave, uma rede elétrica: sistemas complicados, com muitos componentes, mas, em princípio, totalmente modeláveis, desde que haja potência computacional e dados de sensores suficientes. Com base nessa premissa, a tecnologia amadureceu de forma constante. Hoje, os gêmeos digitais de ativos físicos estão em operação, por exemplo, em manufatura avançada, energia, infraestrutura e aviação, com reduções documentadas nos tempos de manutenção não planejada e aceleração substancial dos ciclos de design de produtos.
A expansão do conceito para além do domínio físico revelou um limite que não é tecnológico, mas epistemológico. Michael Batty, a autoridade acadêmica mais reconhecida em modelagem computacional de cidades, o formula com precisão: os gêmeos digitais trabalham em sistemas complicados (muitas partes, mas comportamento determinável em princípio) e encontram dificuldades estruturais em sistemas complexos, onde o comportamento geral emerge da interação dos agentes e não pode ser deduzido das propriedades de seus componentes individuais. Uma cidade, uma economia, um mercado financeiro, uma organização humana são sistemas complexos nesse sentido técnico preciso.
O filósofo Stefano Moroni desenvolve o argumento em termos ainda mais diretos: as limitações dos gêmeos urbanos digitais não são temporárias (elas não desaparecerão com mais dados ou maior poder computacional), mas derivam da natureza intrinsecamente emergente dos sistemas sociais. A imprevisibilidade dos detalhes em um sistema complexo não é um déficit de informações; é uma propriedade do sistema. Isso tem uma implicação prática imediata: um gêmeo digital de uma fábrica pode prever com alta confiabilidade quando um rolamento irá falhar; um gêmeo digital de uma cidade pode aproximar as tendências agregadas de tráfego, mas não pode prever de forma confiável o efeito de uma política habitacional em padrões de segregação residencial de dez anos. A distinção não é de grau; é de natureza.
Esse limite epistemológico definiu, durante décadas, o teto do campo de gêmeos digitais. E é exatamente onde os modelos de linguagem em larga escala estão introduzindo uma descontinuidade que merece atenção.
Em abril de 2023, uma equipe de pesquisadores de Stanford publicou um artigo que inaugurou uma linha de trabalho radicalmente nova. Joon Sung Park e seus coautores criaram 25 agentes computacionais (cada um deles dotado de uma identidade, uma memória persistente, um conjunto de relações sociais e uma capacidade de raciocínio baseada em um modelo de linguagem) e os colocaram em um ambiente simulado equivalente a uma pequena cidade. Os agentes acordaram, tomaram café da manhã, foram trabalhar, formaram opiniões, iniciaram conversas e coordenaram atividades coletivas sem que esses comportamentos fossem explicitamente programados: eles surgiram da interação entre a memória individual de cada agente, sua capacidade de refletir sobre experiências passadas e seu modelo do ambiente social. O artigo ganhou o Best Paper Award no ACM Symposium on User Interface Software and Technology em 2023. A comunidade científica reconheceu que algo qualitativamente novo havia acontecido.
O motivo subjacente é que os modelos de linguagem em larga escala absorveram, durante o treinamento, uma quantidade extraordinária de comportamento humano registrado: conversas, decisões, padrões de raciocínio, respostas emocionais, normas sociais implícitas. Eles não aprenderam explicitamente as leis do comportamento humano (ninguém as conhece com essa precisão), mas desenvolveram uma aproximação estatisticamente densa que, sob condições controladas, gera um comportamento plausível. Pela primeira vez, a premissa que impedia a modelagem de sistemas sociais complexos foi parcialmente eliminada: não porque o comportamento humano tenha deixado de ser emergente, mas porque agora existe um gerador de comportamento suficientemente rico para preencher uma simulação com agentes confiáveis.
A extensão natural desse trabalho surgiu em novembro de 2024. A mesma equipe de Stanford publicou os resultados de um experimento de escala diferente: 1.052 pessoas reais, entrevistadas em profundidade sobre suas vidas, atitudes e experiências, foram transformadas em agentes que replicam suas respostas e comportamentos em pesquisas padronizadas e experimentos sociais. Os agentes geradores replicaram as respostas de indivíduos reais na General Social Survey com 85% de precisão (estatisticamente comparável à variabilidade natural do próprio indivíduo ao responder à mesma pesquisa duas semanas depois) e obtiveram resultados comparáveis na previsão de traços de personalidade e em experimentos de ciências sociais. O que em 2023 era uma demonstração conceitual com personagens fictícios, em 2024 tornou-se uma metodologia empiricamente validada com pessoas reais.
As implicações desse salto são intersetoriais. Na pesquisa de mercado, a startup Simile - fundada por Joon Sung Park juntamente com Michael Bernstein e Percy Liang, coautores do paper fundacional, e apoiada em fevereiro de 2026 com US$ 100 milhões pela Index Ventures com a participação de Fei-Fei Li e Andrej Karpathy - cria gêmeos digitais de pessoas reais para ajudar as empresas a simular o comportamento do cliente antes de lançar um produto, modificar uma política de preços ou redesenhar uma experiência do usuário. Em uma demonstração pública, a plataforma previu corretamente oito das dez perguntas feitas por analistas em uma chamada simulada. O setor de pesquisa, de mercado global de US$ 142 bilhões, está enfrentando uma ruptura estrutural: o que hoje exige semanas de trabalho de campo pode ser executado em horas em populações sintéticas.
Na política pública e no planejamento urbano, um uso mais sutil, mas igualmente transformador, é articulado: não o gêmeo digital como um oráculo preditivo, mas como um laboratório de cenários em que as consequências de diferentes intervenções podem ser exploradas antes de se comprometer recursos reais. Na regulação financeira, essa abordagem tem aplicação direta no teste de estresse de cenários macroeconômicos adversos e na simulação do comportamento do mercado em face de intervenções regulatórias.
A trajetória do campo aponta para uma escala qualitativamente diferente. Se hoje é possível simular com alta fidelidade mil pessoas reais, a questão no horizonte imediato é o que acontecerá quando esse número chegar a um milhão, cem milhões, uma sociedade inteira modelada em tempo real. As aplicações em políticas públicas, regulação econômica e projeto institucional serão de uma ordem de grandeza diferente da pesquisa de mercado: não antecipar qual produto um consumidor comprará, mas prever como uma população responderá a uma reforma tributária, uma crise de saúde ou uma mudança na política monetária antes que essa intervenção seja implementada no mundo real. Essa capacidade não tem precedentes históricos nem, até o momento, nenhuma estrutura de governança para regulamentá-la.
Ambient AI - ou inteligência de ambiente - é a IA que opera sem ser invocada. Diferentemente dos sistemas convencionais, que respondem a uma instrução explícita do usuário, os sistemas de ambiente observam continuamente o contexto, inferem necessidades e agem proativamente. A interface desaparece não porque tenha sido aprimorada, mas porque o sistema não precisa mais dela: o próprio ambiente se torna o ponto de interação. A computação torna-se "invisível" no sentido literal: incorporada a objetos, espaços e processos sem que o usuário a perceba como tal.
Essa inversão (do usuário indo até o sistema para o sistema vindo até o usuário) é possível hoje pela convergência de três desenvolvimentos simultâneos: a miniaturização de modelos capazes de serem executados em dispositivos edge, mantendo um estado contínuo – memória do usuário cumulativa atualizada localmente – sem depender de conectividade em nuvem (edge AI e TinyML), a densificação de redes de sensores físicos e biométricos e a capacidade dos LLMs de raciocinar sobre contextos heterogêneos e ambíguos em tempo real. Nenhum dos três é novo por si só; é a maturidade simultânea deles que permite que a Ambient AI passe do conceito à implantação operacional.
O exemplo mais documentado de Ambient AI em operação são os ambient AI scribes em ambientes clínicos: sistemas que ouvem continuamente a conversa entre o paciente e o médico, inferem o contexto clínico sem instruções explícitas e geram automaticamente a documentação do encontro. O ensaio clínico randomizado da UCLA avaliou duas plataformas (Microsoft DAX e Nabla) em 238 médicos de 14 especialidades e mais de 72.000 encontros: reduziu-se a carga de documentação e melhorou os indicadores de esgotamento profissional.
O sistema não foi invocado iterativamente durante a consulta: ele ouviu, inferiu e escreveu. Ainda é uma forma restrita de inteligência ambiental (contexto delimitado, propósito claro, episódio definido). A Ambient AI madura não operará dentro da consulta, mas na escala de todo o hospital, correlacionando padrões longitudinais sem nenhum ponto inicial ou final determinado pelo usuário.
As implementações de hoje são a ponta de uma transformação mais ampla. Nos próximos anos, a Ambient AI se estenderá a ambientes físicos e digitais e fará com que os casos atuais pareçam rudimentares:
Ambientes físicos
Espaços de trabalho adaptáveis. O ambiente infere o estado de atenção do ocupante a partir da frequência cardíaca, da variabilidade do ritmo, dos padrões de movimento e reconfigura a temperatura, a luz e o nível de ruído para otimizar o desempenho cognitivo sem a intervenção consciente do usuário.
Manutenção industrial antecipatória. Os sistemas não alertarão quando o equipamento falhar: eles detectarão o padrão de comportamento que precede a falha com antecedência suficiente para reorganizar a produção. O evento disruptivo desaparece do horizonte operacional.
Wearables com perfil individual. Os dispositivos da próxima geração compararão os sinais vitais do usuário não com as médias da população, mas com seu próprio histórico fisiológico. O alerta será acionado antes que o usuário esteja ciente do sintoma.
Infraestrutura urbana reativa. Redes de transporte, iluminação e gestão de resíduos que se autoajustam em tempo real aos padrões de uso inferidos, sem planejamento centralizado explícito ou intervenção humana no circuito.
Assistência domiciliar invisível. Sistemas que monitoram continuamente pessoas idosas ou com doenças crônicas, detectam anomalias nas rotinas (padrões de sono, mobilidade, alimentação) e ativam protocolos de alerta ou intervenção sem a solicitação do usuário.
Ambientes digitais
Ambientes de desenvolvimento que antecipam o problema. Os assistentes de programação proativos evoluirão para sistemas que, antes que o desenvolvedor identifique o erro, terão mapeado o espaço de soluções prováveis e apresentado opções no momento cognitivamente apropriado.
Gestão da atenção, não apenas da informação. Os sistemas não fornecerão informações quando elas estiverem disponíveis, mas quando o usuário estiver em condição de processá-las: modelando o estado de atenção ao longo do dia e avaliando o momento da interrupção.
Contexto organizacional contínuo. Sistemas que conhecem a todo momento o status dos projetos, as comunicações pendentes e as decisões em andamento, além de apresentar proativamente informações relevantes a cada membro da equipe sem que sejam solicitadas.
Negociação autônoma de recursos. Agentes ambientais que gerenciam em nome do usuário (cronograma, orçamento, acesso a serviços) dentro de parâmetros definidos, sem exigir aprovação explícita para cada decisão de baixa complexidade.
A Ambient AI não levanta apenas questões de privacidade. Ela gera um conjunto mais amplo de tensões que as estruturas de governança atuais não resolveram.
A primeira é a natureza do erro. Em um sistema invocado, o erro é visível: o usuário solicitou algo, o sistema respondeu mal. Em um sistema ambiente, o erro pode ser um erro de segurança. Em um sistema ambiente, o erro pode não ser percebido porque não houve solicitação explícita com a qual comparar a resposta. O ambient scribe da UCLA registrou imprecisões clinicamente significativas em uma proporção de encontros: em um sistema invisível, o mecanismo de detecção de erros precisa ser deliberadamente projetado, pois não surge naturalmente da interação.
A segunda é a assimetria de poder entre aquele que projeta o ambiente e aquele que o habita. Em um hospital, um escritório ou um prédio público, o usuário não escolhe se o ambiente é inteligente: ele habita um espaço cujas inferências sobre seu comportamento foram moldadas por terceiros. Tshilidzi Marwala, chanceler da Universidade das Nações Unidas, coloca com precisão: A Ambient AI tem um apetite por dados – íntimos, comportamentais, biométricos – que torna as noções convencionais de consentimento informado estruturalmente inadequadas. O AI Act Europeu, projetado para sistemas invocados com funções delimitadas, não aborda de forma satisfatória esses ambientes de observação contínua.
A terceira é a dependência cognitiva. Um sistema que gerencia proativamente a atenção do usuário, o fluxo de informações e as interrupções não apenas auxilia o trabalho do usuário, mas também molda a arquitetura cognitiva do usuário. A pergunta feita em 2003, "a computação com reconhecimento de contexto está tirando o controle do usuário?" ficou sem resposta por décadas. A escala em que a Ambient AI a coloca hoje transforma o que era uma questão acadêmica em um problema de design com consequências operacionais imediatas.
A quarta tensão é a responsabilidade causal. Nos sistemas invocados, a rastreabilidade é relativamente simples: há uma instrução, uma resposta, um momento de decisão atribuível. Nos sistemas de ambiente, a cadeia causal é confusa. Se um sistema de manutenção antecipada reorganiza a produção e essa reorganização condiciona as decisões humanas subsequentes, o limite entre a atuação técnica e a atuação humana não é claro. A regulação atual, incluindo o AI Act, pressupõe a finalidade pretendida e a avaliação de risco ex ante; a IA ambiental introduz a finalidade emergente e o comportamento adaptativo contínuo, o que sobrecarrega diretamente os mecanismos de compliance existentes.
A Ambient AI não muda apenas a forma como trabalhamos ou como cuidamos de nós mesmos: ela muda a sequência entre necessidade e consciência. Um sistema pode saber do que precisamos antes de sabermos. Se esse recurso for implantado na escala que a trajetória do campo sugere, as questões que ele levanta poderão ir além da tecnologia e da regulação, chegando a algo mais fundamental: o que significa tomar as próprias decisões em um ambiente que já as antecipou.
A IA e a computação quântica são tecnologias distintas com princípios, horizontes de tempo e casos de uso completamente diferentes. A IA já está operacional em escala industrial; a computação quântica ainda é, em sua maior parte, um campo de pesquisa avançado com implementações muito limitadas. Sua interação, em ambas as direções, tem implicações concretas para qualquer organização que dependa de sistemas digitais.
Um computador clássico resolve problemas testando opções sequencialmente ou em paralelo, mas sempre dentro de um espaço de possibilidades que cresce de forma gerenciável. Há problemas para os quais isso não é suficiente: otimizações com milhares de variáveis interdependentes, simulações de sistemas moleculares ou determinados problemas matemáticos cuja dificuldade é justamente a base da criptografia moderna. Um computador quântico opera de uma maneira radicalmente diferente: em vez de testar as opções uma a uma, ele pode explorar simultaneamente um espaço de possibilidades de uma dimensionalidade que nenhum sistema clássico pode representar. Para essa classe específica de problemas - não todos - a diferença de desempenho não é incremental, mas de uma ordem de magnitude maior.
O problema é que a construção de um computador quântico que funcione de forma confiável tem se mostrado extraordinariamente difícil. As informações quânticas são extremamente sensíveis a perturbações ambientais - temperatura, vibrações, interferência eletromagnética - e os erros se acumulam rapidamente. Durante décadas, o campo avançou muito mais rapidamente na teoria do que no hardware. Isso mudou parcialmente em dezembro de 2024.
O Google publicou os resultados de seu processador Willow na Nature: o primeiro sistema a mostrar que, à medida que mais componentes computacionais são adicionados, os erros diminuem em vez de aumentar. Esse é um resultado que a teoria previa desde 1995, mas que nenhum sistema havia conseguido realizar. A importância não está nos números de desempenho (que são impressionantes, mas em benchmarks artificiais), mas no que isso implica para a trajetória do campo: o obstáculo que por trinta anos impediu que esses sistemas fossem escalonados de forma confiável foi superado no laboratório.
A distância entre essa conquista e um computador quântico com aplicações comerciais ainda é considerável. Os próprios pesquisadores do Google colocam esse horizonte em torno do final da década. Mas a direção não está mais em discussão: o problema central estava na correção de erros, e esse problema agora tem uma solução comprovada. O que resta é a engenharia para escala, não um salto científico no vazio.
A interseção entre a computação quântica e a IA opera em três planos distintos, com urgências distintas.
O primeiro é a aceleração do machine learning. O treinamento de um modelo de IA em larga escala é, em sua essência, um problema de otimização matemática em espaços de dimensões enormes: encontrar os valores de bilhões de parâmetros que minimizem o erro de previsão. Esse é exatamente o tipo de problema para o qual a computação quântica oferece uma vantagem teórica. Foi demonstrado formalmente que os sistemas quânticos tolerantes a falhas poderiam acelerar substancialmente os algoritmos de treinamento de modelos em grande escala, reduzindo o tempo computacional e o consumo de energia. Para desenvolver isso, é necessário hardware que ainda não existe em escala suficiente. Mas quando estiver disponível, poderá alterar radicalmente a economia do treinamento de modelos de IA, hoje dominada por aqueles que podem pagar por uma infraestrutura de GPU em grande escala.
O segundo plano é o próprio machine learning quântico: usar processadores quânticos para executar algoritmos de machine learning com mais eficiência. Aqui, a literatura é mais cautelosa, descrevendo tanto as promessas quanto os obstáculos reais: a vantagem quântica nas tarefas de aprendizado não é universal nem automática e, em muitos casos, os sistemas clássicos com acesso a dados são competitivos em relação aos quânticos, mesmo em problemas projetados para favorecer os últimos. Em outras palavras: os dados, bem utilizados, podem compensar a vantagem quântica em muitos regimes. O hype sobre a IA quântica como um acelerador universal está à frente das evidências; as aplicações reais serão específicas, não transversais.
O terceiro plano inverte a direção da influência: não é a computação quântica a serviço da IA, mas a computação quântica como uma ameaça à infraestrutura de segurança na qual todos os sistemas digitais, inclusive os sistemas de IA, operam. Toda a criptografia que protege as comunicações digitais atualmente (transações bancárias, autenticação de identidade, canais seguros entre sistemas) baseia-se em problemas matemáticos cuja dificuldade é considerada inatacável para os computadores clássicos. Um computador quântico suficientemente poderoso os resolveria diretamente. Esse nível é o mais urgente, porque parte de seus efeitos já está presente.
A estratégia conhecida como "harvest now, decrypt later" consiste em capturar comunicações criptografadas hoje com a intenção de descriptografá-las quando a computação quântica amadurecer o suficiente. Atores estatais com recursos avançados de inteligência vêm aplicando essa estratégia há anos. Os dados que exigem décadas de confidencialidade (registros médicos, segredos comerciais, comunicações regulatórias, informações financeiras confidenciais) estão sendo comprometidos agora, independentemente de quando chegará o sistema quântico capaz de descriptografá-los.
A resposta institucional mais rigorosa é a do NIST dos EUA, que em agosto de 2024 – após oito anos de trabalho e mais de oitenta propostas de equipes de pesquisa de todo o mundo – publicou os três primeiros padrões de criptografia resistentes a ataques quânticos. Os novos algoritmos são baseados em estruturas matemáticas para as quais não se conhece nenhum ataque quântico eficiente. O NIST recomenda que as organizações iniciem a migração imediatamente; os sistemas federais dos EUA têm um prazo até 2035. Para as instituições financeiras com dados de longa duração, esse prazo não é o horizonte para o início da transição: é o limite para sua conclusão.
Nos próximos anos, a interseção entre IA e computação quântica deixará de ser um tópico de previsão tecnológica para se tornar um elemento com impacto operacional em duas frentes simultâneas.
A frente ofensiva - a aceleração dos recursos de IA – virá com a maturidade do hardware tolerante a falhas, prevista para o final da década. O acesso inicial será feito por meio de serviços em nuvem, replicando a trajetória que a computação de alto desempenho seguiu com as GPUs: primeiro acessível apenas aos mais bem financiados, depois democratizada pela concorrência entre os fornecedores. As organizações que desenvolveram competências de IA até então estarão mais bem posicionadas para aproveitar essa aceleração quando ela chegar.
A frente defensiva (migração de criptografia) não pode ser adiada. A janela de prontidão se estreita à medida que os processadores quânticos aumentam de escala, e a migração de infraestruturas criptográficas em organizações complexas leva anos. O inventário de ativos vulneráveis, a priorização por tempo de vida dos dados e o planejamento da transição são tarefas que devem começar agora, e não quando o computador quântico relevante estiver operacional e for tarde demais.
O termo "inteligência geral artificial" (AGI) apareceu pela primeira vez em 1997, em uma conferência sobre nanotecnologia em Palo Alto. Seu autor, Mark Gubrud, candidato a PhD na Universidade de Maryland, não estava descrevendo uma meta tecnológica desejável: ele estava alertando sobre um risco. Em seu artigo "Nanotechnology and International Security" (Nanotecnologia e segurança internacional), Gubrud definiu AGI como sistemas capazes de "rivalizar ou superar o cérebro humano em complexidade e velocidade, adquirir, manipular e raciocinar com conhecimento geral e ser utilizável em qualquer fase de operações em que a inteligência humana seria necessária". A definição passou despercebida por quase uma década, até que Ben Goertzel e Shane Legg a resgataram e a popularizaram como um rótulo técnico no título de seu livro coletivo Artificial General Intelligence. O termo nasceu como um conto de advertência, mas se tornou uma missão.
Em fevereiro de 2026, a Nature publicou quase simultaneamente dois textos que cristalizaram o debate mais relevante da tecnologia contemporânea. O primeiro, assinado por quatro acadêmicos da UC San Diego - filosofia, machine learning, linguística e ciência cognitiva – afirma inequivocamente que a AGI já existe: os LLMs de hoje passam no teste de Turing, ganham medalhas de ouro em olimpíadas de matemática e colaboram na comprovação de teoremas. O segundo, publicado quinze dias depois como uma correspondência na mesma revista, responde que essa conclusão só é possível redefinindo o conceito de forma irreconhecível: a definição clássica de AGI formulada em 2007 exige robustez sob novidade, generalização transferível e autonomia de metas, e os sistemas atuais não atendem a esses requisitos. O fato de os principais pesquisadores, com acesso aos mesmos sistemas e dados, chegarem a conclusões opostas reflete o fato de que "inteligência geral" é um conceito contínuo sem limites precisos.
A própria Fei-Fei Li, que construiu os fundamentos da visão computacional moderna e trabalha com inteligência espacial, admite prontamente: "Para ser sincera, tenho dificuldades com essa definição de AGI". Dario Amodei, CEO da Anthropic, vai além: ele declara abertamente que não gosta do termo e prefere falar sobre "IA poderosa": sistemas com capacidades intelectuais comparáveis ou superiores às de um ganhador do Prêmio Nobel na maioria das disciplinas.
Essa é a perspectiva correta para as organizações. A questão estrategicamente relevante não é filosófica - será que chegamos à AGI – mas funcional: quando um sistema poderá executar de forma totalmente autônoma ciclos completos de trabalho de alto valor cognitivo em todos os domínios? Esse limite já foi ultrapassado em vários setores.
Andrej Karpathy, cofundador da OpenAI e ex-diretor de IA da Tesla, cunhou o conceito de "inteligência irregular" para descrever a condição atual dos LLMs: sistemas que resolvem problemas de olimpíadas matemáticas e não conseguem determinar qual número é maior, 9,11 ou 9,9; que são fluentes em dezenas de idiomas e sofrem do que ele chama de "amnésia anterógrada", incapacidade de consolidar o aprendizado entre as sessões. Fei-Fei Li os descreve como “wordsmiths in the dark: eloquent but inexperienced, knowledgeable but ungrounded”: eloquentes, mas sem experiência incorporada no mundo físico.
E, no entanto, esses mesmos sistemas já redigem contratos, analisam o risco de crédito, sintetizam a literatura científica, geram e auditam códigos complexos, produzem resumos regulatórios. Eles fazem isso de forma autônoma, em uma velocidade e escala que nenhum computador humano pode igualar. A questão não é mais quando essa capacidade chegará. É o que faremos com o que já chegou e como nos prepararemos para o que virá em seguida.
A transição em andamento segue uma lógica de escalonamento cumulativo. O primeiro movimento é da ferramenta para o agente: os sistemas passam da resposta às instruções para a busca de metas por meio de ciclos autônomos de ação, observação e correção. O segundo movimento é do agente para a infraestrutura ambiental. Karpathy o formula com precisão em: os LLMs são a nova eletricidade. A IA deixa de ser uma tecnologia que "adotamos" e passa a ser uma tecnologia que "acontece conosco": tecido operacional invisível dos sistemas que usamos, uma condição do ambiente em vez de uma ferramenta nele.
O terceiro movimento é o mais subestimado pela análise convencional: o loop recursivo. Os modelos já são usados para aprimorar modelos, gerando dados de treinamento sintéticos, otimizando arquiteturas e produzindo hipóteses de pesquisa. Isso cria uma dinâmica em que a velocidade do aprimoramento da IA é uma função da inteligência da IA. Amodei chama isso de "o fim do exponencial": não o ponto em que a curva se achata, mas onde o vetor de aceleração se torna superexponencial, porque o agente de aceleração é o sistema que está sendo acelerado.
A consequência estrutural desse loop não tem precedentes na história da civilização: o limite superior de raciocínio disponível no planeta tem sido, desde os primeiros hominídeos, a inteligência humana. No momento, esse limite está sendo deslocado em domínios específicos. Quando a mudança se tornar geral e robusta, a taxa de mudança tecnológica e científica se tornará parcialmente dissociada da capacidade humana de compreensão e verificação. Essa não é uma projeção apocalíptica, mas uma descrição estrutural do que esse ciclo recursivo implica.
Há duas curvas que avançam em velocidades radicalmente diferentes. A curva técnica – exponencial, que se acelera automaticamente por meio do loop recursivo - comprime em anos o que costumava levar décadas. A curva de absorção organizacional – redesenho de processos, reengenharia de funções, construção de infraestrutura de governança, gerenciamento de mudanças institucionais – avança mais lentamente, com atritos consideráveis: sistemas legados, dificuldades organizacionais, resistência cultural, regulação que chega tarde, escassez de talentos capazes de integrar esses recursos em operações reais.
O gap entre as duas curvas é a variável definidora da próxima década. A vantagem competitiva não virá do acesso aos melhores modelos, que se tornarão progressivamente comoditizados, nem de seu custo, que continuará a cair exponencialmente. Ela virá da velocidade e do rigor com que uma organização é capaz de se redesenhar para operar com agentes autônomos de forma eficaz e responsável. Esse padrão está documentado empiricamente: os ganhos de produtividade mais significativos não aparecem quando a IA substitui tarefas, mas quando ela reorganiza processos inteiros e redefine a colaboração homem-máquina.
A pergunta certa, portanto, não é quais empregos desaparecerão, mas o que pesssoa faz que um sistema de IA não pode fazer, mesmo que seja mais rápido, mais barato e mais consistente. A resposta usual (criatividade, empatia, liderança) é verdadeira, mas insuficiente. Há dimensões que a análise convencional subestima:
― Responsabilidade com consequências reais. Os sistemas de IA não podem ser levados ao tribunal ou perder uma reputação construída ao longo de décadas. Em ambientes financeiros, de saúde, jurídicos e regulatórios, a presença humana é um requisito estrutural.
― Certificação e fé pública. O tabelião que certifica, o médico que assina, o auditor que contra-assina: esses atos valem não por causa do processamento de informações envolvido, mas por causa da responsabilidade pessoal e institucional por trás deles.
― Relacionamento interpessoal. Há contextos em que o que é necessário não é a resposta certa, mas a presença de outra pessoa: dor, conflito, cuidado. Substituir essa presença por um sistema mais eficiente não resolve o problema.
― Formulação de perguntas que valem a pena e juízo moral. Quando a IA faz bem o que lhe é pedido, o valor muda para quem decide o que perguntar: quem define as metas, quem reconhece quais problemas merecem atenção, quem decide quando há valores conflitantes.
― Legitimidade democrática. As decisões que afetam as comunidades exigem deliberação e responsabilidade que não podem ser delegadas a sistemas opacos, por mais precisos que sejam.
O que essas dimensões têm em comum aponta para algo mais profundo do que uma distribuição de tarefas. Ao longo da história, o ser humano tem sido simultaneamente o agente que produz e o sujeito que é responsável pelo que é produzido: é essa unidade entre ação e responsabilidade que os sistemas de IA dissociam estruturalmente. O que é redefinido, então, não é apenas o que fazemos, mas onde residimos na cadeia causal: cada vez menos sobre execução, cada vez mais sobre intenção, julgamento e responsabilidade.
O risco sistêmico emergente não é o da máquina em revolta. É o da concentração sem precedentes da capacidade cognitiva em um pequeno número de atores – laboratórios, corporações, estados – cuja vantagem se autoamplifica por meio do mesmo ciclo recursivo que acelera o progresso geral. Amodei escreve que, se um estado autoritário conseguisse obter domínio ofensivo em segurança cibernética ou biologia à frente de todos os outros graças à IA, as consequências geopolíticas seriam assimétricas e irreversíveis. Hassabis propõe, em resposta, um modelo de colaboração internacional inspirado no CERN: governança multilateral das etapas finais em direção a sistemas gerais de IA.
Atualmente, a resposta institucional (regulatória, corporativa, internacional) está muito aquém da velocidade do problema. A AGI como um horizonte estratégico não exige que as organizações resolvam o debate filosófico sobre se ela já chegou. Exige que elas ajam com a consciência de que suas consequências já estão ocorrendo: nos sistemas que operam hoje, nos ciclos de trabalho que estão sendo redefinidos hoje, nas decisões de governança que estão sendo tomadas ou contornadas hoje.
Introdução
Resumo Executivo
A explosão da tecnologia de IA
Governança da IA e impacto sobre as pessoas
Fronteiras da IA
Estudo de caso: GenMS™ Sybil
Conclusões
Referências e glossário