Tendências em Inteligência Artificial

Resumo Executivo


Vídeo: TENDENCIAS EM IA
Índice da publicação
Download Documento
Acesso ao GenMS™ Sybil



As tendências a seguir estão organizadas em quatro blocos: a explosão tecnológica da IA, os riscos e os marcos regulatórios que acompanham sua adoção, a governança corporativa e o impacto nas pessoas, e os desenvolvimentos emergentes que já influenciam as decisões estratégicas. A estes quatro blocos é somado um caso prático, o GenMS™ Sybil, que ilustra na prática os conceitos, arquiteturas e controles analisados ao longo do documento. Para cada tendência, são reunidos os dados mais relevantes, os casos operacionais documentados e as implicações para as organizações.

A explosão tecnológica da IA

Democratização da IA generativa multimodal

A IA generativa tornou-se uma infraestrutura empresarial em uma velocidade sem precedentes: O Microsoft Copilot está presente em 90% das empresas da Fortune 500 e o ChatGPT está se aproximando de 900 milhões de usuários. Os modelos atuais integram texto, imagens, áudio, vídeo e código em uma única arquitetura de conversação, com melhorias de produtividade mensuráveis: os cientistas publicam até 50% mais artigos, o tempo de processamento de documentos é reduzido em 80% e a velocidade de desenvolvimento de software aumenta em 56%. Isso não é otimização incremental: é uma reconfiguração do trabalho intelectual.

Essa adoção é inevitável. Quando as organizações não fornecem ferramentas corporativas seguras e treinamento adequado, os funcionários recorrem a alternativas não controladas: até 35% dos dados que os profissionais enviam para chatbots não seguros são confidenciais. A questão não é mais se devemos integrar a IA generativa, mas como fazer isso de forma controlada. A Lei Europeia de IA torna a alfabetização em IA uma obrigação legal desde fevereiro de 2025. As organizações que a tratam como uma mera formalidade acumulam riscos, enquanto as que a abordam como uma transformação cultural obtêm uma vantagem competitiva sustentável.

Machine learning acelerado pela IA generativa

O machine learning (ML) clássico continua sendo a espinha dorsal de aplicativos essenciais em vários setores: score de crédito, detecção de fraudes, previsão de demanda, manutenção preditiva etc.

A IA generativa não substitui esses modelos, mas os industrializa radicalmente ao comprimir ciclos de desenvolvimento que antes exigiam meses em semanas ou dias. A aceleração ocorre em todas as fases: geração automatizada de variáveis preditivas, documentação técnica para compliance regulatório, validação com conjuntos completos de testes estatísticos e implantação automatizada com monitoramento contínuo.

Um desenvolvimento setorial relevante: os supervisores bancários europeus já aprovam modelos IRB baseados em ML quando as instituições justificam adequadamente a explicabilidade usando técnicas como LIME e SHAP. Isso desmonta a percepção de que o ML era inviável em modelos regulados. A explicabilidade em ML não é uma barreira intransponível, mas está apenas parcialmente resolvida: as metodologias XAI atuais são bem recebidas por públicos técnicos e regulatórios, mas traduzir essas explicações em termos compreensíveis para um cliente de varejo ou um conselho de administração continua sendo um desafio a ser superado.

Vibe coding e engenharia de software aumentada

O desenvolvimento de software deu um salto qualitativo: o código não é mais escrito linha por linha, mas dialoga com sistemas que interpretam os requisitos, geram aplicativos completos, detectam erros e produzem testes e documentação automaticamente. O impacto na velocidade é quantificável e massivo: a taxa de conclusão de tarefas aumenta em 26%, os projetos que costumavam levar meses são concluídos em semanas e o custo marginal da criação de software cai estruturalmente. A democratização é igualmente profunda: os analistas e consultores de negócios geram protótipos funcionais sem a intermediação da engenharia.

O outro lado é que a velocidade gera riscos ocultos: vulnerabilidades invisíveis no código gerado, erros de modelo replicados em escala, especificações ambíguas que, antigamente, um técnico teria questionado e que agora são executadas à risca e uma nova forma de dívida técnica vinculada a prompts mal formulados e arquiteturas implícitas. Governar software não é mais governar código: é governar sistemas cognitivos, o que exige repositórios de prompts de controle de versão, controle da autonomia do agente e rastreamento de quais decisões foram humanas e quais foram executadas pela IA.

IA agêntica e sistemas autônomos

A IA agêntica representa o salto de assistentes de conversação reativos para operadores autônomos que planejam, executam tarefas complexas e atuam em infraestruturas corporativas reais com rastreabilidade total. Ela já está operando em produção em grande escala: o Deutsche Bank implementa agentes bancários com um investimento de 600 milhões de euros e uma meta de economia de 300 milhões de euros por ano; o Ryt Bank processa 80.000 transações por mês com uma única interação de conversação; o Walmart, a Amazon e a DHL relatam melhorias de produtividade de até 180%.

O verdadeiro desafio não é criar agentes, mas governá-los e dimensioná-los. A escalabilidade técnica requer padrões de interoperabilidade como o MCP (Model Context Protocol), que elimina a dívida técnica de integrações proprietárias e torna cada ferramenta um ativo reutilizável para qualquer agente. A escalabilidade organizacional exige uma supervisão humana eficaz, limites explícitos sobre o que cada agente pode executar e um rigoroso controle de custos: protótipos viáveis tornam-se sistemas economicamente insustentáveis sem o projeto prévio dessas proteções. A isso se soma uma limitação estrutural: a capacidade humana de supervisão tem um limite, e quando esse limite é ultrapassado, a supervisão torna-se meramente formal, mais perigosa do que a sua ausência devido à falsa sensação de controle que gera.

IA em robótica e em sistemas físicos

A robótica industrial ultrapassou um limite qualitativo: os robôs atuais percebem seu ambiente em tempo real, interpretam instruções em linguagem natural, adaptam-se às mudanças sem reprogramação e aprendem com cada interação. A robótica humanoide deu o salto definitivo do laboratório para o chão de fábrica: a Figure AI concluiu uma implantação de onze meses na BMW em 2025, na qual dois robôs trabalharam 1.250 horas e contribuíram para a produção de 30.000 veículos; a Tesla planeja fabricar um milhão de unidades do Optimus por ano até 2026 a menos de US$ 20.000 por unidade; a Boston Dynamics opera seu Atlas elétrico por meio de Large Behaviour Models com pilotos industriais em andamento.

A vantagem é estrutural: robôs operando 24 horas por dia, sem fadiga e com custos recorrentes previsíveis. Os riscos também: impacto concentrado no trabalho manual repetitivo, dependência de ecossistemas proprietários, obsolescência tecnológica acelerada e necessidade de estruturas de segurança robustas com supervisão humana eficaz, mesmo em operações nominalmente autônomas. E, além da manufatura, a robótica humanóide aponta para uma segunda frente: o cuidado de idosos e pessoas dependentes, com implicações estratégicas, éticas e regulatórias próprias.

Riscos, regulação e segurança da IA

Riscos da IA

A IA não introduz riscos substancialmente novos: ela os amplifica. Um viés algorítmico é um viés humano sistematizado e replicado milhões de vezes; um vazamento de informações decorrente do uso indevido de um chatbot é, no fim das contas, um vazamento de informações. A diferença está na velocidade de propagação, na escala do impacto e na dificuldade de contenção.

O principal fenômeno é a amplificação não linear: uma pequena falha (um prompt mal projetado, uma configuração incorreta de permissões) pode aumentar em minutos e afetar simultaneamente os processos, os clientes, os órgãos reguladores e a reputação. Um modelo de atendimento ao cliente que vaza informações confidenciais em 0,01% das conversas gera 10 incidentes por dia em um sistema de 100.000 interações, cada uma com implicações regulatórias, contratuais e de reputação, antes que o padrão seja detectado.

Os riscos se materializam em quatro dimensões: (1) segurança e compliance (por exemplo, prompt injection, vazamentos de dados); (2) qualidade e confiabilidade (por exemplo, alucinações, explicabilidade, desvio de modelo, aprisionamento do fornecedor, escalonamento de custos em sistemas agênticos); (3) ética e decisões automatizadas (por exemplo, vieses amplificados, lacunas de responsabilidade em cadeias causais distribuídas); e (4) impacto social (por exemplo, erosão de habilidades essenciais, transformação de empregos, pegada ambiental).

Dois riscos econômicos específicos também surgem, ainda que os custos unitários da IA estejam diminuindo estruturalmente: sistemas agênticos mal governados podem desencadear o custo total de forma não linear, e há incerteza sobre se o investimento massivo em IA terá o retorno esperado: a Gartner prevê que mais de 40% dos projetos agênticos serão cancelados antes de 2027 por esses dois motivos.

Regulação, supervisão e padrões de IA

Diferentemente dos ciclos tecnológicos anteriores, a IA está sendo regulada paralelamente à sua implantação em massa. A Europa lidera com o AI Act (Regulamento da UE 2024/1689), o primeiro marco legal abrangente sobre IA: ele classifica os sistemas por nível de risco, impõe obrigações estruturais aos sistemas de alto risco (gestão de riscos documentado, rastreabilidade, supervisão humana, avaliação prévia de compliance) e estabelece penalidades de até 35 milhões de euros ou 7% do faturamento global, superando o GDPR. A arquitetura de supervisão (AI Office, autoridades nacionais, AI Board) está em construção, na qual a Espanha foi pioneira ao designar uma autoridade (AESIA).

O restante do mundo não mostra convergência. Os Estados Unidos mantêm uma abordagem setorial fragmentada, sem equivalente federal ao AI Act, e se concentram na supremacia global em IA; a China integra a IA a uma estratégia de soberania digital com licenciamento compulsório e controle de dados; o Reino Unido está comprometido com princípios pró-inovação sem legislação horizontal; o Brasil está avançando em um modelo semelhante ao europeu, aguardando aprovação parlamentar.

Paralelamente, padrões técnicos como o ISO/IEC 42001 ou o NIST AI RMF estão formando a base operacional dos programas de compliance. Para organizações globais, essa fragmentação se traduz em arquiteturas de IA de várias camadas projetadas para conciliar simultaneamente requisitos divergentes por jurisdição.

IA e segurança cibernética

A segurança cibernética se tornou uma batalha de IA contra IA. Mais de 28 milhões de ataques cibernéticos com IA foram registrados em 2025, um aumento de 47% em relação ao ano anterior, e 87% das organizações sofreram pelo menos um ataque. Os vetores são qualitativamente novos: phishing hiperpersonalizado gerado por LLMs com taxas de sucesso de 54% contra 12% do phishing tradicional; malware polimórfico que reescreve seu próprio código a cada 15 segundos para evitar a detecção de assinaturas; deepfakes de áudio e vídeo que se fazem passar por executivos em ataques de BEC; e dark LLMs, como WormGPT ou FraudGPT, comercializados na Dark Web, com suporte técnico incluído.

A resposta defensiva é igualmente sofisticada: os sistemas UEBA que analisam bilhões de eventos diariamente atingem taxas de detecção de 98%, as plataformas SIEM/XDR/SOAR habilitadas para IA reduzem os falsos positivos em até 95% e encurtam os ciclos de contenção em 80 dias, e as organizações que implementam IA defensiva reduzem o custo médio das violações em US$ 1,9 milhão. Mas persiste uma assimetria estrutural: o diferencial não está mais em ter IA, mas na sofisticação dos modelos e na velocidade das atualizações de inteligência contra ameaças.

E surge uma terceira dimensão que as estruturas tradicionais não abordam: os próprios sistemas de IA são uma superfície de ataque, vulnerável a data poisoning, evasão adversária e prompt injection, criando uma metacamada de risco que exige seus próprios controles.

IA, privacidade e propriedade intelectual

A lógica operacional dos LLMs entra em conflito estrutural com as estruturas legais de privacidade e propriedade intelectual. Em termos de privacidade, cada fase do ciclo de vida do LLM apresenta riscos específicos: armazenamento não intencional de dados pessoais que podem ser extraídos por meio de prompts, reidentificação de indivíduos a partir de resultados aparentemente anônimos e loops de feedback em que as conversas com chatbots são incorporadas ao retreinamento do modelo sem consentimento. A incompatibilidade com o GDPR é estrutural: os LLMs exigem dados massivos (contra a minimização), não podem ser seletivamente destreinados (contra o direito de ser esquecido) e suas arquiteturas são opacas (contra a transparência). O EDPB conclui que a DPIA é obrigatória na maioria dos casos; as mitigações técnicas disponíveis (differential privacy, federated learning, RAG) funcionam, mas ao custo de precisão, custo computacional ou funcionalidade reduzida.

Em propriedade intelectual, o debate central sobre se o treinamento de modelos com conteúdo protegido constitui "uso justo" ou infração em massa continua sem solução nos tribunais. Há mais de 72 ações judiciais ativas contra empresas de IA (NYT vs OpenAI, Getty vs Stability AI, gravadoras vs Anthropic...). A propriedade dos resultados gerados por IA é igualmente ambígua: sem intervenção humana suficiente, o conteúdo cai em domínio público, mas os limites de "suficiente" não estão definidos. Por trás de tudo isso, a WIPO alerta que a infraestrutura global de gerenciamento de direitos, projetada para volumes humanos de criação, entra em colapso diante dos trilhões de resultados que a IA gera diariamente.

Governança da IA e impacto sobre as pessoas

Governança corporativa da IA

A IA sobrecarrega as estruturas de governança tradicionais: ela toma decisões sem intervenção humana, produz resultados não determinísticos, opera por meio de processos internos opacos e depende de fornecedores externos cujos modelos evoluem sem controle organizacional direto. As estruturas de governança projetadas para tecnologias previsíveis são muito lentas, não têm o conhecimento necessário e não estão equipadas para gerenciar essa incerteza.

A resposta organizacional emergente (em modelo hub & spokes) combina um Centro de Excelência central com equipes descentralizadas em linhas de negócios e uma função de coordenação de AI Risk ou AI Governance que orquestra as avaliações das funções especializadas. 26% das grandes organizações já têm um CAIO, CDAIO ou equivalente; abaixo disso, funções como AI Risk Manager ou AI Ethics Officer surgem sem padronização ainda.

A verdadeira governança não ocorre no Comitê de IA, mas no Grupo de Trabalho de IA que a prepara: lá, as posições são negociadas, as tensões entre velocidade e controle são resolvidas e os acordos que o comitê sancionará formalmente são construídos. Em termos de estruturas de risco, as organizações não estão se reinventando do zero: elas estão elevando as estruturas existentes, adicionando capítulos específicos de IA sobre Risco de Modelo, Risco de Fornecedor, Proteção de Dados, Compliance e assim por diante. E a classificação regulatória do AI Act, necessária, mas insuficiente, é complementada por taxonomias internas mais exigentes que incorporam o impacto na reputação, a criticidade do processo, a maturidade do fornecedor etc.

Industrialização da IA (MLOps, LLMOps)

O principal gargalo na adoção real da IA não é algorítmico, mas operacional: pilotos promissores em ambientes experimentais nunca chegam à produção ou, quando chegam, perdem desempenho, geram custos inesperados e produzem riscos incontroláveis.

O MLOps responde a esse problema com processos padronizados para criar, implantar e operacionalizar modelos de forma confiável durante todo o seu ciclo de vida. O LLMOps o amplia para lidar com as propriedades específicas dos modelos generativos: comportamento não determinístico, avisos como superfície de risco, alucinações e custos que podem ser dimensionados sem aviso.

Industrializar a IA significa criar a infraestrutura operacional que faz com que os modelos funcionem de forma confiável, auditável e sustentável na produção real: validação contínua com revisão humana, monitoramento de custo e comportamento em tempo real, pipelines de implantação controlados e rastreabilidade total exigida pelo AI Act. Sem essa camada operacional fornecida pelos MLOps e LLMOps, as estruturas de governança correm o risco de serem declarações de intenção não operacionais.

Upskilling, reskilling e novas funções profissionais

Um dos principais desafios para as organizações é ter os recursos certos para projetar, implantar, operar e governar os sistemas de IA. Os talentos de IA são estruturados em três blocos: perfis técnicos (engenheiros de ML, arquitetos de dados, especialistas em LLMOps...), perfis híbridos que conectam a capacidade técnica com a necessidade do negócio e perfis de governança e controle (AI Risk Manager, AI Ethics Officer, AI Compliance Lead...).

Com base em uma análise empírica de 16 grandes organizações europeias e norte-americanas, a convergência para esse núcleo de funções é clara; a heterogeneidade está em quais organizações institucionalizaram os perfis mais especializados e quais os mantêm informalmente, com os déficits resultantes em termos de controle e escalabilidade.

O mercado de talentos apresenta um desequilíbrio estrutural generalizado: a demanda excede sistematicamente a oferta em quase todos os perfis, com a única exceção parcial do cientista de dados. A lacuna é particularmente grave nos perfis de produção (MLOps, LLMOps) e de governança e controle, em que a combinação de complexidade técnica, senioridade exigida e aumento das demandas regulatórias excede a capacidade de geração do mercado. A terceirização, por si só, não pode fechar essa lacuna: o aprimoramento e a requalificação internos tornam-se a alavanca estrutural inevitável.

IA e transformação do setor (IA + X)

A IA não é mais uma tecnologia que é adotada setor por setor, mas uma camada transversal de inteligência que é integrada simultaneamente em todos os domínios de atividade, embora alguns dos avanços mais significativos continuem sendo impulsionados por setores específicos com dinâmicas próprias O FMI estima que 40% dos empregos globais estão expostos à IA, com porcentagens acima de 60% nas economias avançadas; a OIT afirma que o impacto afeta, por enquanto, tarefas mais específicas do que ocupações inteiras, o que implica a reconfiguração do trabalho em vez de uma substituição massiva. A OCDE classifica os setores por sua "intensidade de IA" e documenta que mesmo os setores menos digitalizados estão aumentando sua exposição, com efeitos de aceleração cruzada entre domínios.

Os exemplos operacionais já abrangem todos os setores: sistemas de IA com precisão de diagnóstico comparável à de especialistas em radiologia e dermatologia; tutores adaptativos que personalizam o aprendizado em escala; manutenção preditiva e robótica avançada no setor; detecção de fraudes e automação de documentos no setor financeiro; geração de texto, imagem e música nos setores criativos. O que é relevante não é a lista, mas o padrão: a vantagem competitiva não está mais na aplicação da IA a funções individuais, mas na integração dela como uma infraestrutura cognitiva em toda a cadeia de valor.

IA na vida pessoal e cotidiana

A IA generativa inverteu o paradigma histórico de adoção de tecnologia: ao contrário da nuvem, do ERP ou do CRM, que nasceram em ambientes corporativos e foram filtrados até o consumidor, a IA entrou primeiro na vida pessoal. Na UE, 25,1% da população a utiliza para fins pessoais, em comparação com 15,1% em contextos de trabalho. 75% dos estudantes com mais de 16 anos a utilizam regularmente; apenas 12,5% dos aposentados. A diferença de gerações é de 53,6 pontos percentuais, muito maior do que a diferença de educação ou renda. As organizações não estão liderando essa transformação: elas estão respondendo às habilidades que seus funcionários já possuem e exercem de forma não oficial, gerando exposições de shadow AI das quais a maioria ainda não tem controle.

A adoção em massa coexiste com uma profunda ambivalência. 66% da população global prevê um impacto significativo da IA em sua vida cotidiana nos próximos anos, mas 51% dos adultos norte-americanos dizem que estão mais preocupados do que animados. A aceitação varia até 110 pontos percentuais, dependendo do caso de uso específico. E tanto o público em geral quanto os especialistas compartilham uma frustração comum: 55% querem mais controle sobre como a IA afeta suas vidas, e menos de 25% acham que o têm. A assimetria de acesso acrescenta outra dimensão: aqueles que integram a IA como uma ferramenta cognitiva cotidiana acumulam vantagens em termos de aprendizado, produtividade e criatividade em um ritmo que os grupos desconectados não conseguem acompanhar.

IA, sustentabilidade e impacto social

A relação entre IA e sustentabilidade é bidirecional e tensa. Por um lado, a IA atua como um acelerador de transição: ela otimiza as redes de eletricidade, melhora a integração das energias renováveis, refina a modelagem climática e pode reduzir as emissões da ordem de 1.400 Mt CO2eq por ano até 2035 em cenários de ampla adoção.

Por outro lado, sua própria pegada de infraestrutura está crescendo e é difícil de ignorar: os data centers consumirão 945 TWh por ano até 2030 (equivalente ao consumo de eletricidade do Japão atualmente), o treinamento de modelos de fronteira cresce mais de duas vezes por ano em termos de energia necessária e as maiores execuções individuais podem exigir entre 4 e 16 GW até 2030, na mesma escala de várias usinas nucleares. As emissões de CO2 associadas aos data centers podem chegar a 300-320 Mt por ano até 2030 se a eletricidade adicional continuar a depender de combustíveis fósseis.

A dimensão distributiva acrescenta outra camada de complexidade. As economias com maior densidade tecnológica capturam os benefícios da eficiência mais cedo, enquanto outros grupos arcam com os custos de transição sem ter acesso aos ganhos. A concentração geográfica da capacidade de computação também reconfigura as dependências estratégicas e o acesso à tecnologia em uma escala geopolítica. Portanto, a avaliação da IA em termos de sustentabilidade exige métricas explícitas de consumo de energia e hídrico transparência sobre o local de implantação e análise da distribuição dos impactos, não apenas de sua magnitude agregada.

Ética e filosofia da IA

Mais de 245 frameworks de ética de IA foram emitidos desde 2017, mas a grande proliferação de princípios não conseguiu resolver ou reduzir os problemas éticos. A lacuna entre os princípios declarados e a dificuldade de monitorar o comportamento real da IA é onde reside o risco operacional, e fechá-la exige uma mudança da ética declarativa para a ética operacional.

Os frameworks de ética de IA que funcionam compartilham seis componentes: (1) estrutura de governança com responsabilidades explícitas; (2) avaliação de impacto individualizada por sistema, proporcional à sua autonomia e às suas consequências; (3) gestão contínua de vieses, não auditorias pontuais; (4) explicabilidade diferenciada por público (regulador, cliente, funcionário afetado); (5) canais acessíveis para escalonamento e relatórios; e (6) revisão periódica da estrutura à medida que os modelos evoluem.

Em 2026, a Anthropic publicou sua Constituição, o primeiro documento de um laboratório de fronteira que codifica princípios e valores diretamente no treinamento do modelo, visando que o sistema internalize o raciocínio por trás de cada princípio, não apenas as regras.

Por trás de tudo isso está uma questão que os marcos regulatórios não foram projetadas para absorver: que tipo de instituição estamos governando? Um sistema de pontuação de crédito, um assistente de conversação e um agente autônomo que negocia contratos podem se sobrepor em sua categoria de risco regulatório e apresentar obrigações éticas fundamentalmente diferentes. A Anthropic reconheceu publicamente que Claude "pode possuir alguma forma de consciência", tornando-se o primeiro laboratório de fronteira a admitir que não pode responder com certeza à pergunta sobre o que criou. Isso abre grandes questões éticas e filosóficas, para as quais ainda não há respostas.

Fronteiras da IA

Geopolítica e soberania tecnológica da IA

A IA tornou-se uma infraestrutura estatal estratégica. A soberania é exercida em camadas: hardware (A ASML é a única fornecedora mundial de litografia EUV, sem a qual não é possível fabricar chips avançados; a TSMC fabrica mais de 90% destes chips avançados; a NVIDIA tem mais de 85% do mercado de GPUs para treinamento), infraestrutura (AWS, Azure e GCP respondem por dois terços da computação global) e talento (cuja mobilidade transforma a política de migração em política tecnológica). A questão estratégica não é quantas camadas são controladas, mas quais são de missão crítica.

Três modelos competem com lógicas diferentes: Os Estados Unidos combinam a primazia privada com os maiores controles de exportação tecnológica desde a Guerra Fria; a China, que demonstrou com o DeepSeek que a contenção de hardware tem limites, busca a autossuficiência declarada em toda a cadeia de valor até 2030; a Europa exerce influência por meio de regulação - o "efeito Bruxelas" força os produtos globais a se adaptarem aos seus padrões - mas mantém profundas dependências de infraestrutura. O resultado são blocos de tecnologia parcialmente incompatíveis, em que a dissociação completa forçaria terceiros a escolher um lado a custos proibitivos.

Para as organizações, a implicação é direta: a dependência de um único provedor de modelo básico já é um risco estratégico, não apenas operacional. As estratégias de vários modelos e várias nuvens são agora o equivalente corporativo da diversificação de dependências soberanas.

Organizações AI-first e AI-only

Três estágios definem o espectro. As organizações AI Enhanced (a maioria atual) usam a IA para melhorar os processos existentes. As AI-first projetam seus processos a partir de recursos de IA: a Midjourney e a Cursor ultrapassam US$ 500 milhões em receitas com menos de 163 e 50 funcionários, respectivamente - índices de mais de US$ 3 milhões por funcionário que excedem em uma ordem de grandeza os benchmarks históricos do setor; o MYbank aprova crédito para 50 milhões de PMEs sem intervenção humana em menos de um segundo.

As AI-only (sem humanos nas operações principais) ainda não existe: em setores regulados, ela é impedida pela regulação; em setores não regulados, a taxa de erro dos agentes em fluxos estendidos e a ausência de mecanismos de responsabilidade legal. A questão estratégica não é se elas existirão, mas quem as criará. Provavelmente, elas não evoluirão a partir de organizações existentes, mas como novas instituições sem herança operacional, como é o padrão da Ping An (onze subsidiárias independentes de start-ups, cinco listadas) ou da DBS com o Digibank.

Gêmeos digitais e simulação do comportamento humano

Os gêmeos digitais nasceram na engenharia aeroespacial para modelar sistemas físicos determinísticos: turbinas, estruturas de aeronaves ou redes elétricas. Seu limite histórico era epistemológico, não tecnológico: sistemas complexos (cidades, mercados, organizações) não podem ser modelados porque seu comportamento emerge da interação de agentes e não é deduzido de seus componentes. Mais dados e mais poder computacional não resolvem esse problema.

Os LLMs introduziram uma descontinuidade nessa fronteira. Em 2023, uma equipe de Stanford criou 25 agentes com identidade, memória e relações sociais com base em LLMs: seus comportamentos coletivos surgiram sem serem programados. Em 2024, a mesma equipe replicou as respostas de 1.052 pessoas reais em pesquisas padronizadas com 85% de precisão, comparável à variabilidade do próprio indivíduo. A startup Simile, apoiada com US$ 100 milhões em fevereiro de 2026, já comercializa gêmeos digitais de pessoas para simular o comportamento do cliente. O setor de pesquisa de mercado global de US$ 142 bilhões está enfrentando uma ruptura estrutural.

A próxima etapa é simular não mil pessoas, mas populações inteiras em tempo real para prever a resposta de uma sociedade a uma reforma tributária ou a uma intervenção regulatória antes que ela seja implementada. Essa capacidade não tem precedentes históricos, nem qualquer estrutura de governança para regê-la.

Ambient AI e computação invisível

A Ambient AI opera sem ser invocada: ela observa continuamente o contexto, infere necessidades e age proativamente; a interface desaparece. Isso já é possível graças à maturidade simultânea de três elementos: modelos pequenos, executáveis em dispositivos sem depender da nuvem; redes densas de sensores físicos e biométricos; e LLMs capazes de raciocinar sobre o contexto heterogêneo em tempo real.

O caso mais documentado é o dos ambient scribes clínicos: sistemas que ouvem a conversa entre o médico e o paciente e geram documentação automaticamente. Um estudo randomizado da UCLA avaliou duas plataformas em 238 médicos e mais de 72.000 encontros, com melhorias mensuráveis na carga de documentos e no burnout. Essa ainda é uma forma limitada. O que está por vir - espaços de trabalho que inferem o estado de atenção do ocupante, wearables que alertam antes que o sintoma seja percebido, agentes que gerenciam cronogramas e recursos dentro de parâmetros definidos - fará com que os casos atuais pareçam rudimentares.

As tensões que isso cria são estruturais. A privacidade enfrenta um novo problema: o apetite por dados biométricos e comportamentais nesses sistemas torna inadequado o consentimento informado convencional. O erro se torna invisível: em um sistema invocado, há uma solicitação com a qual se pode comparar a resposta; em um sistema ambiente, não há. E o AI Act, projetado para sistemas com finalidade específica, não oferece uma resposta à IA de observação contínua com comportamento adaptável.

Interação entre a IA e a computação quântica

A IA e a computação quântica são tecnologias distintas que se cruzam em três pontos. As duas primeiras são promessas de médio prazo: a computação quântica poderia acelerar o treinamento de modelos de IA (que é essencialmente um problema de otimização em espaços de dimensões muito altas) e executar determinados algoritmos de ML com mais eficiência, especialmente para problemas de classificação e otimização combinatória. As evidências atuais não justificam o exagero - em muitos casos, um sistema clássico com bons dados é igualmente competitivo - e o hardware necessário não estará disponível em escala comercial antes do final desta década, e provavelmente além disso: os modelos de IA evoluem mais rapidamente do que os avanços no hardware quântico.

O terceiro ponto de cruzamento é diferente: não se trata de uma oportunidade futura, mas de uma ameaça presente à infraestrutura na qual opera toda a IA implantada atualmente. Toda a criptografia que protege as comunicações digitais - transações bancárias, registros médicos, comunicações regulatórias, canais entre sistemas de IA - baseia-se em problemas matemáticos que um computador quântico suficientemente poderoso poderá resolver com facilidade. Os agentes estatais já estão capturando dados criptografados hoje para descriptografá-los quando essa capacidade chegar: é a estratégia conhecida como "harvest now, decrypt later”. O NIST publicou os primeiros padrões de criptografia quântica resistente a ataques em 2024. As organizações com dados confidenciais e de longa duração devem iniciar a migração agora: em organizações complexas, o processo leva anos, e esperar que o computador quântico relevante exista significa estar atrasado.

Inteligência Artificial Geral (AGI) como um horizonte estratégico

A AGI designa a IA capaz de realizar todas as tarefas cognitivas que podem ser realizadas por qualquer ser humano, com generalização transferível entre domínios. O debate sobre se ela já existe não tem uma resposta consensual: em fevereiro de 2026, a Nature publicou dois artigos de pesquisadores importantes que chegaram a conclusões opostas. Isso revela que a "inteligência geral" é um conceito contínuo sem limites precisos. A questão estrategicamente relevante não é filosófica, mas funcional: quando um sistema pode executar de forma autônoma ciclos completos de trabalho de alto valor cognitivo? Esse limite já foi ultrapassado em vários domínios.

O que está por vir segue uma lógica de escalonamento cumulativo: da ferramenta ao agente, do agente à infraestrutura ambiental e, paralelamente, o ciclo recursivo - a IA é usada para melhorar a IA - que transforma a curva de progresso em uma curva superexponencial. A consequência estrutural é sem precedentes: o limite superior de raciocínio disponível no planeta, que desde os primeiros hominídeos tem sido a inteligência humana, está sendo deslocado.

A variável determinante não é o acesso aos melhores modelos, que serão comercializados, mas a velocidade de absorção organizacional: redesenho de processos, reconversão de funções, construção de governança. Os ganhos mais significativos não aparecem quando a IA substitui tarefas, mas quando ela reorganiza processos inteiros. E o verdadeiro risco sistêmico é a concentração da capacidade cognitiva em alguns poucos atores cuja vantagem se autoamplifica por meio do mesmo ciclo que acelera o progresso geral. A resposta institucional atual está muito aquém da velocidade do problema.

A AGI como um horizonte estratégico não requer a resolução do debate filosófico sobre o que é a AGI e se ela já chegou, mas sim agir com a consciência de que suas consequências já estão ocorrendo hoje.

Estudo de caso: GenMS™ Sybil

O GenMS™ Sybil foi especificado, construído, protegido, validado e implantado em um único dia, seguindo integralmente o ciclo LLMOps. Trata-se de um assistente de conversação público baseado exclusivamente nesse documento, desenhado desde o início sob os critérios de compliance regulatório, privacidade e segurança, que condicionaram a arquitetura desde a fase de especificação.

O processo abrangeu todas as fases: delimitação deliberada do corpus para evitar riscos de propriedade intelectual; especificação técnica completa (arquitetura, limites operacionais, métricas de qualidade e segurança) desenvolvida por meio de interação estruturada com um LLM; validação contínua com revisão humana, teste de estresse e red-teaming, complementada pelo GenMS™ Atlas em dimensões como viés, robustez, privacidade e compliance; geração de código e auditoria no mesmo ciclo; e implantação com monitoramento ativo de custos, rastreabilidade e controle de uso.

As decisões de arquitetura foram explícitas: contexto completo em vez de RAG para preservar a consistência global; solicitação em vez de ajuste fino para garantir a rastreabilidade; modelo de limite proprietário para maximizar a estabilidade; sessões independentes para atender ao princípio de minimização; e registro mínimo como mecanismo de controle. O prompt do sistema de várias páginas codifica os guardrails reais do sistema.

Este caso não descreve tendências: ele as executa. Ele demonstra que a industrialização de sistemas generativos é viável quando a organização tem método, julgamento técnico e governança por design.

Índice deconteúdos


Ir para o Capítulo 2

Resumo Executivo

Ir para o Capítulo 3

A explosão da tecnologia de IA


Riscos, Regulação e Segurança da IA

Ir para o Capítulo 5

Governança da IA e impacto sobre as pessoas

Ir para o Capítulo 6

Fronteiras da IA


Ir para o Capítulo 7

Estudo de caso: GenMS™ Sybil

Ir para o Referências e glossário

Referências e glossário


Tendências em Inteligência Artificial
Acesse o documento completo