Mostrando postagens com marcador Inteligência artificial. Mostrar todas as postagens
Mostrando postagens com marcador Inteligência artificial. Mostrar todas as postagens

Data center e problemas hídricos

Data Center

Hoje em dia os data center demanda muita energia, o que está dando um problema grave hídrico. A maioria dos data center de treinamento de Inteligência Artificial funciona assim: você junta milhares de servidores, cada um lotado de GPUs, liga tudo com uma rede absurdamente rápida, alimenta o conjunto com dados em velocidade industrial, e transforma eletricidade em cálculos, cálculos em calor, calor em água evaporada ou em sistemas de refrigeração cada vez mais complexos.

Parece simples na frase, só que por dentro é uma fábrica de termodinâmica. O treinamento de modelos grandes é um processo distribuído, o modelo “mora” em pedaços espalhados por centenas ou milhares de GPUs, cada pedaço calculando gradientes e sincronizando resultados o tempo todo. Isso exige não só GPU, exige memória, armazenamento, rede, orquestração, redundância, e um prédio inteiro feito para não derreter.

O data center de IA por dentro, o caminho da energia até virar resposta

A primeira é a camada de computação, onde ficam as GPUs e CPUs. Em IA moderna, as GPUs viraram o motor principal porque conseguem fazer muitas multiplicações e somas em paralelo, que é justamente a moeda do treinamento. A densidade de potência por rack disparou, um rack que antes era “pesado” com alguns quilowatts hoje pode virar dezenas de quilowatts, e em projetos de IA isso sobe ainda mais. Isso muda tudo, muda a forma de distribuir energia no piso, muda o tipo de cabo, muda a arquitetura de refrigeração, muda até o quanto um prédio aguenta sem virar um forno.

A segunda camada é a rede. Treinar um modelo grande não é um monte de computadores independentes, é um “cérebro coletivo” que precisa conversar o tempo inteiro. A rede vira parte do computador. Por isso entram tecnologias de interconexão de altíssima banda e baixa latência, e por isso, quando alguém fala que “é só comprar mais GPU”, está ignorando que sem rede decente você compra gargalos caros.

A terceira camada é armazenamento e dados. O treinamento é uma esteira, dados chegam, são pré-processados, entram em lotes, geram atualizações. Só que dados grandes não são arquivos bonitinhos, são petabytes, e petabyte não gosta de improviso. Quando o armazenamento engasga, as GPUs ficam ociosas, e GPU ociosa é dinheiro queimando e energia desperdiçada.

A quarta camada é a infraestrutura predial, energia e refrigeração. E aqui aparece o truque que pouca gente vê: muitas vezes a “TI” é a menor parte do problema físico. O resto é entregar energia com estabilidade e tirar calor sem depender de milagres.

É por isso que existem métricas como PUE, Power Usage Effectiveness, que mede a razão entre a energia total do data center e a energia que chega de fato nos equipamentos de TI, quanto mais perto de 1, melhor. PUE virou padrão internacional formalizado em norma ISO.

Só que, quando a conversa é IA, entra um segundo fantasma, a água. Aí aparece outra métrica, WUE, Water Usage Effectiveness, litros de água por kWh gasto pela TI. Essa conta expõe um detalhe desconfortável: dá para ser “eficiente em energia” e ainda assim ser um monstro hídrico, depende do tipo de resfriamento e do clima.

Por que IA puxa a tomada com tanta força

Data center sempre gastou energia, a nuvem já era uma indústria gigantesca. O salto recente tem uma assinatura clara, a aceleração por IA. A Agência Internacional de Energia projeta que o consumo elétrico global de data centers pode mais que dobrar e chegar perto de 945 TWh em 2030, com crescimento anual na casa de ~15% no período 2024–2030, e a própria IEA coloca IA como o principal motor dessa alta, com demanda de data centers otimizados para IA crescendo várias vezes até 2030.

Isso não é só “mais servidores”. IA empurra o limite físico do rack, e quando a densidade sobe, o que antes era “ar condicionado de sala grande” vira um projeto térmico quase de indústria pesada.

A consequência direta é que energia deixa de ser um item de custo e vira gargalo estratégico. Não basta ter dinheiro, tem que ter conexão com a rede elétrica, tem que ter subestação, tem que ter transformador, tem que ter licença, tem que ter contrato, tem que ter previsibilidade. Em muitos lugares, o tempo para conseguir a interligação com a rede vira o cronograma real do projeto, não a obra do prédio.

E existe um efeito colateral bem humano nisso: quando um data center entra numa região, ele compete com todo mundo por infraestrutura. A conversa vira política local. Quem recebe a energia? Quem paga pela expansão da rede? Quem absorve o risco quando dá pico? Quem segura a bronca quando falta água?

A água, o recurso que some “sem barulho”

O problema hídrico não é um acidente, ele é uma escolha técnica que, durante décadas, foi razoável. Muitos data centers usam resfriamento evaporativo ou torres de resfriamento porque água evaporando é um jeito eficiente de remover calor. Funciona muito bem, especialmente em climas secos. Só que eficiência física não é sinônimo de sustentabilidade social.

Para dar escala mental, relatórios e levantamentos recentes usam números que assustam quando saem do abstrato. Um relatório do governo do Reino Unido sobre uso de água em data centers e IA cita que um data center de 100 MW pode consumir em torno de 2,5 bilhões de litros por ano, algo comparável às necessidades de dezenas de milhares de pessoas, e traz a ideia de competição direta com água potável em períodos de seca, com risco de conflito social em áreas de estresse hídrico.

Esse mesmo relatório cita estimativas globais em que o setor de data centers consome centenas de bilhões de litros de água por ano, com projeções que podem subir de forma relevante até 2030.

A parte mais irritante é que, em muitos casos, o cidadão não “vê” essa água indo embora. Não é uma indústria com chaminé óbvia. É um galpão limpinho, com cerca, com logo moderno, e o consumo aparece na conta municipal como uma curva subindo.

WUE ajuda a tirar o véu. Há fontes que colocam médias de WUE por volta de ~1,8 a 1,9 L/kWh em data centers, com variação grande por clima e tecnologia, e com metas de projetos bons tentando ficar bem abaixo disso.

Só que WUE também tem pegadinha: ele costuma medir a água “no site” e relacionar com a energia de TI. A água escondida na geração de energia pode ser enorme. Dependendo de como a eletricidade é produzida, existe água usada na cadeia inteira, resfriamento de termelétricas, perdas, reservatórios, mineração, e isso vira uma espécie de “água virtual” do modelo. O relatório do Reino Unido bate nessa tecla, falando do elo água-energia e do quanto o impacto vai além do perímetro do data center.

Tem mais um capítulo que quase ninguém lembra, fabricação de chips. Os aceleradores de IA são semicondutores avançados, fabricados com processos que usam água ultra pura em volumes grandes para limpeza e enxágue de wafers. Mesmo que o operador do data center não controle isso diretamente, faz parte da pegada hídrica total.

Por que a crise hídrica aparece agora, a mistura de densidade e geografia

Se você coloca uma fazenda de GPUs num lugar frio, com água abundante e energia limpa, a história fica menos dramática. Só que o mundo real adora ironia: muita capacidade de data center cresce perto de grandes centros econômicos, onde a terra é cara, a água é disputada, e a energia já vive no limite. Em regiões quentes, o resfriamento exige mais trabalho, e em regiões secas, evaporar água parece uma tentação técnica, só que é justamente onde a água já é um tema delicado.

Reportagens recentes vêm explorando exatamente esse choque, data centers crescendo em regiões com estresse hídrico, com iniciativas tentando reduzir consumo de água e, ao mesmo tempo, esbarrando no trade-off clássico, reduzir água costuma aumentar energia, porque sistemas “waterless” frequentemente precisam de mais ventilação, mais compressão, mais refrigeração mecânica.

Esse trade-off é a essência do problema. A física não dá desconto. Você tira calor do chip e joga em algum lugar, ar, água, líquido dielétrico, circuito fechado, e cada escolha cobra um preço diferente.

As soluções técnicas mais citadas, e por que nenhuma é mágica

1) Resfriamento líquido direto no chip (direct-to-chip).
Em vez de soprar ar gelado e esperar que o calor saia do dissipador, você coloca líquido circulando em placas frias próximas ao chip. Isso permite densidades maiores com menos consumo de água no site, dependendo do sistema. É um caminho natural quando racks viram “mini-usinas”.

2) Imersão (immersion cooling).
Os servidores ficam mergulhados em um fluido especial, que remove calor de forma eficiente. Pode reduzir espaço e facilitar densidade, só que muda manutenção, muda fornecedores, muda tudo, e ainda precisa rejeitar calor para o ambiente em algum ponto.

3) Sistemas de circuito fechado e reaproveitamento.
Em vez de usar água potável e evaporar, dá para recircular e usar trocadores de calor mais inteligentes. Só que a conta de energia pode subir, e a complexidade operacional aumenta.

4) Migração geográfica e design orientado a clima.
Construir onde o clima ajuda é uma solução elegante no papel. Na prática, esbarra em latência, em disponibilidade de rede, em regulação, em impostos, em mão de obra, em incentivos locais.

5) Reuso de calor.
O calor de data center pode aquecer prédios, água de distrito, processos industriais. Em alguns países isso faz sentido econômico. Em muitos lugares, falta infraestrutura para capturar e distribuir esse calor, e o calor vira desperdício.

O ponto importante é que eficiência não é uma chavinha, é um ecossistema de decisões. PUE é útil, WUE é útil, só que a métrica sozinha vira maquiagem se você otimiza um lado e explode o outro.

Os potenciais, o lado em que isso pode valer a pena como sociedade

Até aqui parece que data center é um vilão de ficção científica que bebe rios. Só que o lado útil é real, e dá para falar dele sem romantizar.

A capacidade de computação concentrada permite avanços em áreas onde simulação e modelagem são vitais, descoberta de fármacos, previsão meteorológica, otimização de redes elétricas, engenharia de materiais, tradução e acessibilidade, automação de tarefas repetitivas em saúde e serviços, educação personalizada quando feita com responsabilidade. A própria IEA discute o potencial de IA para transformar como o setor de energia opera, com ganhos de eficiência, previsão e integração de renováveis, desde que seja aplicada com objetivo e governança.

Existe um uso interessante e meio subestimado: IA para operar o próprio data center. Prever carga, deslocar workloads, ajustar resfriamento em tempo real, reduzir desperdício, detectar falhas antes de virar pane. É a versão moderna de “o monstro ajuda a domar o monstro”.

E tem um argumento econômico que, goste ou não, pesa. Data centers são infraestrutura estratégica. Eles atraem investimento, empregos indiretos, arrecadação, e funcionam como base para empresas locais consumirem computação sem depender de continentes de distância. Países e estados tratam isso como corrida industrial.

Os problemas, onde a conta chega sem pedir licença

1) Emissões e o risco de empurrar a rede para fontes fósseis.
Quando a demanda cresce mais rápido que a capacidade limpa, a energia marginal pode vir de térmicas, e isso piora emissões. Matérias recentes chamam atenção para o crescimento acelerado e para casos em que expansão de capacidade e uso de combustíveis fósseis entram na mesma frase, justamente porque a velocidade do “boom de IA” pressiona sistemas elétricos que já estão no limite.

2) Falta de transparência.
Sem dados claros, a sociedade fica discutindo no escuro. Há pressão para exigir divulgação de consumo de energia, água e emissões, porque hoje muita informação é voluntária e fragmentada, e isso impede planejamento público e fiscalização séria.

3) Competição por água potável em períodos críticos.
O relatório do Reino Unido explicita esse ponto, a dependência de água potável para resfriamento pode competir com abastecimento humano, e em secas pode gerar restrições e conflitos.

4) Concentração do impacto.
Uma cidade pode sentir muito mais que a média global. Estudos e revisões citam exemplos em que instalações representam fatia relevante do consumo municipal, como o caso citado para The Dalles, nos EUA, em que o consumo de um data center aparece como parcela grande do uso da cidade em certos anos.

5) Pegada material e cadeia de suprimentos.
A conversa não termina na conta de luz e água. GPU e infraestrutura têm carbono incorporado, mineração, refino, fabricação, transporte, descarte. A cada ciclo de upgrade, uma montanha de hardware muda de lugar. Esse lado é menos visível, e por isso é fácil ignorar.

6) O risco do “rebound effect”, eficiência que vira expansão.
Você melhora eficiência do modelo, reduz custo por inferência, e de repente surgem dez novos produtos, todos rodando IA o dia inteiro. O consumo total sobe mesmo com eficiência melhorando. Esse efeito aparece em várias áreas da economia, IA não é exceção.

Onde dá para atacar o problema de forma prática, sem virar teatro

Tem um caminho que envolve engenharia e governança ao mesmo tempo.

Na engenharia, a redução de desperdício computacional é ouro. Técnicas como quantização, distilação, sparsity, treinamento mais inteligente, fine-tuning em vez de treinar do zero, tudo isso reduz energia por resultado útil. Existe uma diferença brutal entre “treinar porque dá” e “treinar porque precisa”.

Na operação, dá para deslocar carga. Treinamentos longos podem ser agendados para horários de maior oferta renovável, ou para regiões com melhor perfil energético, desde que a arquitetura do sistema permita. Não resolve tudo, só que é melhor do que ignorar o relógio e a rede.

Na infraestrutura, a escolha do resfriamento deve considerar bacia hidrográfica, não só custo. WUE deveria entrar em licenciamento e contratos de forma explícita, com metas e auditoria. Se o data center promete “water positive”, a pergunta adulta é “em qual bacia, com qual metodologia, com que verificação”.

Na política pública, transparência é o primeiro passo que não depende de tecnologia futurista. Medir e reportar consumo de energia, água e emissões, com metodologia padronizada, cria base para planejamento. Relatórios como o do Reino Unido defendem exatamente a necessidade de dados confiáveis para governança, e apontam que esforços voluntários podem ser insuficientes quando a curva de crescimento é agressiva.

E existe uma conversa que pouca gente quer ter, priorização. Nem todo uso de IA é igualmente valioso. Treinar modelos gigantes para ganhar décimos de ponto em benchmark pode ser ciência, pode ser marketing, pode ser as duas coisas. Quando água e energia viram recursos em disputa, a pergunta “isso vale o custo social” para de ser filosofia e vira administração pública.

O século passado tratou eletricidade como base invisível da economia. Este século está tratando computação como base invisível da economia. A diferença é que agora a base invisível esquenta, evapora água, pressiona rede e entra na política local como um novo tipo de indústria, limpa por fora, intensa por dentro. A boa notícia é que o problema é material e mensurável, dá para modelar, dá para regular, dá para projetar melhor. A má notícia é que a curva de crescimento é rápida, e curvas rápidas punem sociedades que gostam de decidir devagar.


Referências

Information technology — Data centres — Key performance indicators https://www.iso.org/standard/63451.html

Data Centers and Water Consumption https://www.eesi.org/articles/view/data-centers-and-water-consumption

Energy demand from AI https://www.iea.org/reports/energy-and-ai/energy-demand-from-ai

Desert storm: Can data centres slake their insatiable thirst for water? https://www.reuters.com/sustainability/climate-energy/desert-storm-can-data-centres-slake-their-insatiable-thirst-water--ecmii-2025-12-17/

AI is set to drive surging electricity demand from data centres while offering the potential to transform how the energy sector works https://www.iea.org/news/ai-is-set-to-drive-surging-electricity-demand-from-data-centres-while-offering-the-potential-to-transform-how-the-energy-sector-works

‘Just an unbelievable amount of pollution’: how big a threat is AI to the climate? https://www.theguardian.com/technology/2026/jan/03/just-an-unbelievable-amount-of-pollution-how-big-a-threat-is-ai-to-the-climate

Call to make tech firms report data centre energy use as AI booms https://www.theguardian.com/technology/2025/feb/07/call-to-make-tech-firms-report-data-centre-energy-use-as-ai-booms

The water use of data center workloads: A review and assessment of key determinants https://escholarship.org/uc/item/1vx545q7

Meta e Google desafiando o ecossistema da Nvidia

Nvidia

A Nvidia não ficou gigante só porque fez uma GPU rápida e mandou uma nota fiscal junto. Ela ficou gigante porque transformou um detalhe técnico em hábito cultural: a ideia de que “fazer IA de verdade” é, por definição, fazer IA em CUDA.

Isso é mais poderoso do que um chip. Um chip você troca quando aparece outro melhor. Um hábito você troca quando a dor de mudar fica menor do que a dor de continuar do mesmo jeito.

Durante anos, o mercado contou uma história confortável para explicar o domínio da Nvidia: “as GPUs são as mais avançadas”. Essa frase tem um pedaço de verdade, só que ela serve melhor como marketing do que como explicação. Se desempenho bruto fosse o único juiz, a coroa teria mudado de cabeça várias vezes. Houve gerações em que concorrentes ficaram perto, houve soluções mais baratas, houve momentos em que o custo por desempenho parecia tentador. Mesmo assim, quase ninguém fez a troca em massa.

Porque o trono da Nvidia não fica só no silício. O trono fica na camada onde as equipes gastam anos da vida: ferramentas, bibliotecas, kernels, rotinas de treino distribuído, perfiladores, receitas de otimização, tutoriais, exemplos, bugs conhecidos, jeitos de debugar, jeitos de contratar. Um ecossistema que vira padrão não precisa obrigar ninguém. Ele só precisa fazer o resto parecer trabalhoso.

E aí entra o que mudou, com o peso de um “clique” que desencaixa um império: Google e Meta estão mirando exatamente a peça que sustenta esse aprisionamento invisível, o software. Em dezembro de 2025, a Reuters noticiou que o Google está trabalhando num projeto interno chamado TorchTPU, com o objetivo de tornar as TPUs mais naturais para quem desenvolve em PyTorch, com colaboração próxima da Meta, grande apoiadora do PyTorch, e com possibilidade de abrir partes do software para acelerar adoção.

A ambição é simples de dizer e brutal de executar: permitir que empresas mudem de Nvidia para TPU sem precisar reescrever as partes críticas do código, sem desmontar o stack inteiro, sem abandonar PyTorch. Se essa fricção cair, a conversa deixa de ser “Nvidia ou caos” e vira “Nvidia ou concorrência”. A Nvidia pode continuar excelente e ainda assim perder a coisa que mais importa em mercados maduros: poder de barganha.

O lock-in que ninguém assina, mas todo mundo sente

Quando se fala em lock-in, muitos imaginam contrato, cláusula, exclusividade. No caso da Nvidia, a amarra é mais elegante, e por isso mais perigosa: ela se esconde no custo prático da mudança.

Uma equipe que diz “nosso modelo roda em PyTorch” geralmente quer dizer algo mais específico, mesmo que não verbalize: “nosso modelo foi escrito, treinado, ajustado, validado e colocado em produção num mundo em que CUDA era o chão”.

CUDA, na prática, virou o sistema nervoso periférico do stack de IA. Não é só “um jeito de rodar na GPU”. É um conjunto de escolhas acumuladas:

  • bibliotecas de alto desempenho para operações essenciais,
  • caminhos de precisão mista e quantização que foram refinados por anos,
  • comunicação entre GPUs e entre nós de cluster, com soluções já testadas no inferno do tráfego real,
  • profilers, ferramentas de debug, mecanismos de compilação, kernels otimizados e, talvez o mais importante, a “memória muscular” dos times.

Mudar isso não é trocar uma peça. É mexer na base do prédio enquanto tem gente morando dentro.

Por isso o lock-in da Nvidia sempre foi mais psicológico e operacional do que técnico. Em empresas, risco é uma moeda cruel. Risco de regressão, risco de instabilidade, risco de atraso, risco de gastar meses para descobrir que um detalhe do pipeline não tem equivalente. A conclusão prática era automática: ficar na Nvidia parecia racional, mesmo quando era caro.

E aqui tem um ponto curioso, quase irônico: a Nvidia nunca controlou o PyTorch. O PyTorch nasceu dentro da Meta e cresceu como projeto aberto, virando o framework dominante por mérito próprio, do laboratório à produção. O que a Nvidia fez, com genialidade de quem entende o jogo, foi se integrar tão bem que parecia dona.

Integração não é posse. Se o PyTorch ganhar um caminho “sem drama” para rodar bem fora de CUDA, a maior barreira de saída começa a virar poeira.

Por que “existem alternativas” nunca foi suficiente

“Mas já existem alternativas”, alguém sempre diz, e tecnicamente isso é verdade. AMD tem ROCm, Intel tem seus esforços, há aceleradores específicos, há chips especializados em inferência. Só que o mercado de IA em escala não premia apenas a existência de uma alternativa, ele premia uma alternativa que tenha três coisas ao mesmo tempo:

  1. performance competitiva em cargas relevantes,
  2. maturidade operacional, aquela sensação de “isso não vai me trair em produção”,
  3. compatibilidade com o jeito que o mundo já trabalha.

A maioria falha na terceira. Algumas falham na segunda. Várias falham nas duas.

A Nvidia virou o “default” porque fez o caminho parecer inevitável. Não por decreto, por conforto. Quando tudo funciona, quando os tutoriais batem com a realidade, quando a equipe encontra respostas, quando dá para contratar gente que já sabe o stack, a escolha vira hábito. E hábito é um tipo de monopólio emocional.

É por isso que a movimentação do Google assusta: ela não tenta vencer a Nvidia “na pancada” só com hardware. Ela tenta vencer no ponto onde o hábito se forma, a experiência do desenvolvedor.

TPUs: o problema nunca foi músculo, foi idioma

As TPUs do Google sempre carregaram um ar de “poder oculto”, aquele tipo de hardware que a gente ouve falar como se fosse uma arma interna, restrita, feita para as necessidades do próprio Google. A leitura confortável para a Nvidia era: “isso não importa para o mercado, porque ninguém fora do Google usa”.

Só que essa leitura era superficial. O próprio Google Cloud descreve TPUs como aceleradores desenhados para treinamento e inferência de modelos de IA, e elas já sustentam cargas gigantes dentro do ecossistema do Google. O que travava a adoção ampla não era falta de desempenho. Era o idioma de software.

Por muito tempo, o Google apostou com força em JAX e no universo de compilação ligado ao XLA. De novo, tecnicamente faz sentido. Só que o mercado não funciona como seminário de compiladores. Enquanto o Google empurrava um caminho mais “puro”, o resto do planeta consolidava outro caminho: PyTorch.

Para a maioria das empresas, adotar TPU significava adotar um jeito diferente de pensar, adaptar pipelines, revalidar tudo, treinar equipe, e no final ainda ficar com a sensação de estar fora do fluxo principal da indústria. Empresas não migram frameworks por hobby. Elas migram quando são empurradas por dor extrema ou quando a migração é suave.

O que o TorchTPU tenta fazer é inverter a lógica: em vez de pedir que o desenvolvedor se adapte ao hardware, o hardware passa a “se adaptar” ao desenvolvedor.

“Mas já existe PyTorch em TPU”, então qual é o drama?

Aqui entra uma camada importante, que separa “dá para rodar” de “dá para viver”.

O mundo já tem, faz tempo, o PyTorch/XLA, que conecta PyTorch a dispositivos XLA como TPUs. Isso está documentado oficialmente e existe como projeto público. E até em notas antigas do próprio Google Cloud aparece a ideia de suporte via integração PyTorch/XLA.

Então por que ainda existe espaço para um TorchTPU “novo”?

Porque “rodar” não significa “rodar do jeito que o desenvolvedor espera”. Na prática, muitas integrações desse tipo carregam pequenas fricções que, somadas, viram um pedágio enorme: diferenças de cobertura de operadores, comportamentos inesperados, caminhos mais frágeis para debug, diferenças no desempenho por tipo de modelo, desafios de distribuição, tooling menos maduro, e um detalhe que virou central no PyTorch moderno: a experiência eager, aquela sensação de que você escreve o código e ele responde na hora, com o mesmo modelo mental em todo lugar.

Em outubro de 2025, surgiu no próprio repositório do PyTorch/XLA uma proposta explícita para evoluir a experiência e chegar mais perto de algo “nativo”, com a ambição de fazer tensor.to('tpu') parecer tão natural quanto tensor.to('cuda'). Esse é o tipo de frase que parece pequena, até você perceber o que ela realmente significa: transformar TPU de “backend especial” em “cidadão de primeira classe” dentro do PyTorch.

E isso muda o jogo porque reduz a parte mais cara da migração, a parte humana: reaprender o mundo.

O que o TorchTPU realmente ameaça na Nvidia

O mercado gosta de imaginar batalhas de hardware como corrida de cavalos: quem tem mais FLOPS, quem tem mais memória, quem tem mais largura de banda. Só que a Nvidia construiu uma fortaleza onde o hardware é apenas a muralha visível. O fosso está no software, e o fosso é feito de custo de troca.

O TorchTPU, pelo que foi reportado, mira exatamente isso: tornar TPUs amigáveis para o maior framework do planeta, sem exigir que times mudem seu código nem abandonem PyTorch, com colaboração da Meta, e com possibilidade de abrir partes do stack para ganhar tração mais rápido. Essa ameaça não é “as GPUs vão morrer”. Essa ameaça é “as GPUs deixam de ser a única resposta sensata”.

Em mercados de infraestrutura, “única resposta sensata” é como se fabrica margem alta. Quando o cliente não tem alternativa viável, ele aceita preço, prazo, pacote completo, aceitação resignada. Quando aparece uma alternativa boa o suficiente, o cliente não precisa nem migrar para já mudar a conversa. Ele só precisa conseguir dizer, com credibilidade: “eu posso ir embora”.

A Nvidia, por anos, vendeu previsibilidade. “Seu código roda aqui, seu time sabe mexer aqui, seu risco é menor aqui.” Isso sustenta múltiplos altos porque vira uma espécie de seguro embutido. Só que seguro perde valor quando a apólice concorrente fica boa.

Por que a Meta muda o peso específico dessa história

Se esse movimento viesse só do Google, parte do mercado trataria como mais um capítulo do “Google tentando competir com Nvidia”. O Google tem histórico de projetos tecnicamente brilhantes que demoram a virar hábito fora da própria casa.

A Meta muda isso por três motivos. Primeiro, porque a Meta tem interesse econômico brutal em diversificar. O custo de treinamento e inferência em escala de rede social global é um monstro que nunca dorme. Depender de um único fornecedor, num mercado com filas, prazos e preços agressivos, é aceitar fragilidade estratégica. Segundo, porque a Meta é o berço do PyTorch e continua sendo uma força determinante na sua evolução. Quando a empresa que ajudou a criar o framework participa da portabilidade de forma ativa, a chance de isso virar padrão aumenta, porque não é um “plugin lateral”, é o coração do ecossistema se mexendo. Terceiro, porque isso cria efeito cascata. Quando o criador do framework dá sinais de que múltiplos backends importam, ferramentas ao redor se adaptam, bibliotecas seguem, integradores entram, provedores oferecem suporte, e a profecia começa a se autorrealizar.

Esse ponto conversa com outra peça do tabuleiro: não é só software. O Google também tem buscado expandir o negócio de TPUs para fora do seu “jardim murado”, com reportagens indicando oferta de TPUs para uso em data centers de clientes e interesse de grandes compradores. Quando você junta “hardware disponível” com “experiência de PyTorch mais nativa”, o obstáculo deixa de ser filosófico e vira operacional, e isso é o tipo de coisa que compras e infraestrutura entendem muito bem.

O que muda quando “sair” deixa de ser impensável

Aqui é onde o mercado às vezes erra o foco. O preço da ação pode reagir pouco no começo porque o mundo ama narrativas simples, e a narrativa simples é: “Nvidia continua líder, ponto”. Só que a ameaça verdadeira costuma ser lenta, silenciosa e burocrática. Ela nasce em comitê de arquitetura, em prova de conceito, em planilha de custo por inferência.

Quando existe alternativa real, acontecem mudanças bem específicas:

  • Negociação: o cliente passa a negociar preço e condições com mais força, mesmo sem trocar nada no curto prazo.
  • Planejamento: times começam a desenhar pipelines com portabilidade em mente, para não serem reféns.
  • Padronização: ferramentas passam a assumir múltiplos backends como normal, e isso reduz a vantagem do “default histórico”.
  • Margem: margens caem antes da participação de mercado cair, porque o poder de precificação é o primeiro a sofrer.

A Nvidia não precisa perder o trono para perder poder. Ela só precisa deixar de ser inevitável.

A parte difícil que quase todo mundo subestima

A história seria fácil se bastasse “rodar PyTorch na TPU” e pronto. Não é assim. Construir paridade prática com CUDA em ambientes corporativos é o tipo de trabalho ingrato que exige anos de engenharia, testes e acertos finos. A própria existência de discussões públicas sobre tornar o backend mais “nativo” mostra que ainda há estrada pela frente.

Alguns desafios que costumam aparecer nesse tipo de migração, mesmo quando o código do modelo não muda:

  • cobertura completa de operadores e casos de borda,
  • estabilidade e previsibilidade em produção, com observabilidade madura,
  • desempenho consistente em modelos variados, não só em benchmarks “favoráveis”,
  • suporte a treinamento distribuído e inferência em escala com ergonomia de engenharia,
  • ecossistema ao redor, como quantização, kernels customizados, serving, compilação, profiling.

O detalhe é que essa lista não precisa ficar perfeita para ameaçar o lock-in. Ela precisa ficar boa o suficiente em um subconjunto valioso, por exemplo, inferência massiva de modelos populares, ou treinamento de certas famílias de arquitetura. Em infraestrutura, atacar um pedaço muito caro do custo já é suficiente para criar “saídas” na fortaleza.

E a Nvidia, fica parada?

Seria estranho imaginar a Nvidia olhando isso de braços cruzados. Ela tem recursos, talento e uma vantagem real: maturidade de ecossistema, ferramental e rede de parceiros.

O que tende a acontecer, como dinâmica de mercado, é uma corrida em duas frentes:

  1. A Nvidia reforça o valor do seu ecossistema, com melhores ferramentas, melhor performance, melhores bibliotecas, mais integração com frameworks, mais facilidades que façam o custo de ficar parecer ainda menor.
  2. O resto do mercado tenta reduzir o custo de sair, criando caminhos compatíveis, “nativos”, que façam a troca parecer só uma decisão de infraestrutura.

O segundo ponto é exatamente o que torna TorchTPU interessante, e por que a participação da Meta é um multiplicador, não um detalhe.

O cenário mais plausível, se essa peça encaixar

Em vez de imaginar um “colapso” da Nvidia, a visão mais realista é um deslocamento gradual do centro de gravidade:

  • no começo, TPUs viram alternativa crível para alguns workloads, principalmente onde custo por inferência pesa mais que qualquer outra coisa,
  • depois, empresas começam a adotar postura multi fornecedor, mesmo mantendo Nvidia como base,
  • com o tempo, a pressão competitiva aparece em preços, prazos e contratos, antes de aparecer em manchetes dramáticas.

Esse é o tipo de mudança que, vista de perto, parece lenta. Vista de longe, parece inevitável.

Uma última observação, que vale ouro para não cair em torcida: nada disso é destino. É uma hipótese de engenharia e mercado. Se o TorchTPU virar uma integração meia boca, se a experiência continuar “especial”, se o desempenho for inconsistente, se o suporte corporativo for frágil, a Nvidia segue com o fosso cheio de crocodilos. Se o TorchTPU entregar uma experiência realmente banal, previsível e eficiente, aquela palavra que sustenta impérios, inevitável, começa a perder o sentido.


Referências

Exclusive: Google works to erode Nvidia's software advantage with Meta's help https://www.reuters.com/business/google-works-erode-nvidias-software-advantage-with-metas-help-2025-12-17/

Cloud Tensor Processing Units (Cloud TPUs) https://cloud.google.com/tpu

PyTorch/XLA https://github.com/pytorch/xla

Evolving PyTorch/XLA for a more native experience on TPU https://github.com/pytorch/xla/issues/9684

Cloud TPU release notes https://docs.cloud.google.com/tpu/docs/release-notes

Meta and Google could be about to sign a mega AI chip deal - and it could change everything in the tech space https://www.techradar.com/pro/meta-and-google-could-be-about-to-sign-a-mega-ai-chip-deal-and-it-could-change-everything-in-the-tech-space

O desenvolvimento da tecnologia e economia

Economia e Tecnologia

Um jeito para começar é admitir o óbvio que esquecemos: a economia global é, em grande parte, um gigantesco sistema de informação disfarçado de “mercado”. Dinheiro é informação. Preço é informação. Juros são informação. Estoque parado em um galpão é informação atrasada, quase sempre cara. Quando você olha por esse ângulo, tecnologia deixa de ser “um setor” e vira um tipo de infraestrutura cognitiva que permite que bilhões de decisões descentralizadas aconteçam com menos atrito.

E é aqui que a conversa fica interessante: o que chamamos de “desenvolvimento tecnológico” não é só a invenção de novas possibilidades, é a criação de meios para reduzir incerteza, coordenar ações e automatizar confiança. Parece abstrato? Vamos entender melhor isso.

Pensa num produtor de café no interior de Minas Gerais no Brasil, negociando com uma torrefadora na Europa. Décadas atrás, esse contrato dependia de telefonemas, intermediários, papelada, bancos correspondentes, prazos longos, taxas gordas e uma boa dose de fé. Hoje, ele pode acompanhar preço em tempo real, travar parte do risco com instrumentos financeiros acessíveis, emitir nota, rastrear logística e receber em prazos menores. A colheita é a mesma, o que mudou foi o “sistema nervoso” que conecta oferta e demanda.

Esse sistema nervoso é feito de tecnologias atuais que costumamos tratar como coisas separadas: computação em nuvem (infraestrutura sob demanda, paga conforme uso), redes móveis, plataformas, APIs (interfaces de programação de aplicações, “tomadas” digitais que conectam sistemas), aprendizado de máquina (modelos estatísticos que aprendem padrões a partir de dados), criptografia (técnicas matemáticas para proteger e validar informação). Só que o efeito econômico aparece quando elas se combinam e viram capacidade de coordenação.

Coordenação é uma palavra que soa burocrática, só que ela é uma das forças mais caras do mundo. Em economia, existe um conceito útil chamado custo de transação (o custo de buscar informação, negociar, fiscalizar, garantir cumprimento). Se um país inteiro consegue reduzir custos de transação, ele “ganha produtividade” mesmo sem descobrir um novo mineral, mesmo sem aumentar a área plantada, mesmo sem achar um motor mágico. Ele passa a fazer mais com o que já tem. Isso ajuda a explicar por que softwares e sistemas, que parecem etéreos, conseguem mexer em coisas tão materiais quanto inflação, emprego e crescimento.

Aí aparece uma pergunta que incomoda: se tecnologia melhora produtividade, por que tantos sente a vida mais cara e mais instável? A resposta é bem mais complexa, é um conjunto de camadas. Ganhos de produtividade nem sempre viram salário, nem sempre viram preço mais baixo, às vezes viram concentração de mercado, às vezes viram novos custos (assinaturas, taxas, dependência), às vezes viram velocidade demais para instituições lentas. Tecnologia resolve problemas e cria outros, e os novos problemas costumam ser mais sutis.

Vamos falar de desenvolvimento de sistemas, porque é ali que a economia vira prática. “Sistema”, no mundo real, é uma rede de decisões automatizadas. Um ERP (Enterprise Resource Planning, software que integra finanças, estoque, compras e produção) não é só um programa, é um jeito de impor uma gramática à empresa: como se compra, como se registra, como se mede, como se audita. Quando uma empresa adota um ERP, ela está escolhendo um modelo de mundo. Essa escolha pode aumentar eficiência, mas também pode engessar processos ou esconder vieses, dependendo de como foi configurado.

Quem nunca ouviu alguém dizer “o sistema não deixa”? Esse “não deixa” é economia em ação. É governança (conjunto de regras e mecanismos de controle) codificada. E governança codificada pode ser maravilhosa quando reduz fraude e desperdício, pode ser péssima quando impede exceções humanas necessárias. Um hospital, por exemplo, precisa de protocolos; um protocolo rígido demais pode virar crueldade logística.

Essa ambivalência fica ainda mais forte quando sobemos para o nível global. Cadeias de suprimento modernas são sistemas distribuídos (partes independentes que cooperam por meio de comunicação e padrões). Distribuído aqui não é só “espalhado”, é um desenho em que cada nó toma decisões localmente, seguindo regras comuns. Isso dá resiliência, mas também abre portas para falhas sistêmicas: um porto congestionado, uma falta de semicondutores, um ataque cibernético, uma pandemia. O mundo fica eficiente e frágil ao mesmo tempo. Eficiência não é sinônimo de robustez; às vezes é o contrário.

A economia global vem buscando soluções justamente nesse dilema: como manter a produtividade sem aumentar a fragilidade? Uma resposta forte é observabilidade (capacidade de medir o que está acontecendo dentro de sistemas complexos a partir de dados e sinais). Observabilidade começou como um tema de engenharia de software, com logs, métricas e rastreamento. Hoje, ela virou peça econômica. Empresas querem enxergar seus fluxos quase como um organismo enxerga seus próprios batimentos.

E aqui aparece um ponto-chave: tecnologia não “cria riqueza” do nada; ela reorganiza informação, tempo e confiança. Quando você reorganiza esses três elementos, você altera o custo de coordenação e, por extensão, altera a produtividade. Esse é um dos motores discretos da economia digital.

Repara como esse ponto é menos glamouroso do que dizer “IA vai revolucionar tudo”. Só que ele explica mais. E por explicar mais, ele incomoda mais.

Falando em IA, o aprendizado de máquina não é “inteligência” no sentido humano; é uma coleção de técnicas para estimar funções a partir de dados, encontrando padrões úteis para previsão ou classificação. Um modelo pode prever inadimplência com boa precisão e ainda assim ser injusto, porque aprende padrões do passado, e o passado tem desigualdades. Se bancos automatizam crédito usando esses modelos, a economia ganha eficiência operacional, só que pode ampliar exclusão financeira se não houver governança e auditoria.

Auditoria algorítmica (processos para avaliar desempenho, vieses e impactos de modelos) vira um tema econômico porque crédito é energia do capitalismo. Crédito define quem investe, quem cresce, quem quebra. Um erro em escala não é um bug simpático, é uma força social.

Em desenvolvimento de sistemas, isso se traduz em uma mudança de mentalidade: não basta “funcionar”, precisa ser confiável, explicável em certo grau, seguro, compatível com leis, compatível com valores sociais. “Compatível com valores” pode soar moralista, só que é só realismo: sistemas moldam comportamento. Um aplicativo de transporte redefine como a cidade se move. Um marketplace redefine como pequenos vendedores competem. Uma plataforma de pagamentos redefine como informalidade vira formalidade, ou como novas taxas corroem margens.

Plataformas são outro conceito que merece definição, no sentido econômico, é uma estrutura que conecta grupos diferentes (por exemplo, compradores e vendedores) e cria efeitos de rede (quanto mais gente usa, mais valioso fica). Efeito de rede é poderoso porque gera concentração natural: as pessoas preferem onde já tem gente. Isso pode aumentar eficiência e reduzir custo de busca, mas também pode criar dependência e poder de mercado.

Você sente isso quando um pequeno negócio se torna refém de um app de entrega. O app resolve logística e acesso a clientes, só que cobra taxas, define regras, pode mudar o algoritmo de exposição. A empresa “ganha” mercado e “perde” autonomia. Economia digital é cheia dessas trocas: eficiência por controle.

E por falar em controle, a infraestrutura invisível do mundo atual é a nuvem. Nuvem não é “um lugar”; é um modelo de computação em que recursos são provisionados sob demanda, em data centers gigantes, com contratos e camadas de serviço. Isso permite que uma startup tenha poder computacional de corporação sem comprar servidores. É um choque de democratização produtiva. Só que também cria concentração: poucos provedores controlam a infraestrutura central de milhares de empresas. Um apagão na nuvem vira um mini-terremoto econômico.

Quando o tema é economia global, tecnologias que reduzem barreiras de entrada importam muito. Barreira de entrada é tudo aquilo que impede alguém de competir: capital inicial alto, necessidade de escala, regulação difícil, acesso a distribuição. Nuvem, ferramentas open source, pagamentos digitais e logística integrada baixam algumas barreiras. Isso explica por que tantos microempreendedores surgem e também explica por que a competição fica brutal. Se é mais fácil entrar, é mais fácil ser esmagado. O mercado vira um estádio com mais jogadores e regras mais rápidas.

Vamos dar um salto para um assunto que costuma passar: padrões. Padrão é chato, e exatamente por isso ele é revolucionário. Um padrão de dados (por exemplo, um formato de nota fiscal eletrônica, um protocolo de pagamento, um esquema de interoperabilidade) permite que sistemas “conversem” sem negociação individual. Interoperabilidade (capacidade de sistemas diferentes trocarem informação e operarem juntos) é uma forma de infraestrutura pública, mesmo quando é feita por consórcios privados.

Quando um país cria um sistema de pagamentos instantâneos, o efeito econômico não é só conveniência. Pagamentos instantâneos reduzem capital de giro necessário (dinheiro parado para cobrir prazo), reduzem risco de liquidação, permitem novos modelos de negócio e também aumentam rastreabilidade, o que muda a dinâmica de informalidade e arrecadação. A solução parece “tecnológica”, mas a consequência é macroeconômica.

Macroeconomia, aliás, vive sendo tratada como um bicho separado. Só que desenvolvimento de sistemas mexe com macroeconomia porque mexe com a velocidade do dinheiro, com a competição, com a formação de preços. Quando marketplaces comparam preços em milissegundos, o varejo muda. Quando algoritmos otimizam rotas, o custo logístico muda. Quando fintechs usam dados alternativos para crédito, o spread (diferença entre custo de captação e taxa cobrada) pode cair para alguns e subir para outros. Tudo depende de desenho, regulação e poder de mercado.

Regulação é outra palavra que costuma ser pintada como vilã ou heroína, quando ela é, na prática, um mecanismo de sincronização entre tecnologia e sociedade. Sem regulação, incentivos podem premiar o atalho perigoso: coletar dados demais, explorar trabalho, externalizar risco. Com regulação mal desenhada, você mata inovação e cria cartéis involuntários. O ponto difícil é calibrar.

E calibrar exige entender como inovação acontece. Existe uma visão ingênua de que inovação é um gênio inventando algo e pronto. No mundo real, inovação é uma cadeia: ciência básica, engenharia, produto, mercado, feedback, iteração, padronização, escala. Desenvolvimento de sistemas é o motor dessa iteração porque transforma hipótese em serviço operável. Operável significa rodar com milhões de usuários, com falhas previstas, com segurança, com monitoramento. Isso é uma ciência aplicada de altíssimo nível, mesmo quando é vendida como “um app”.

Segurança merece um parágrafo inteiro, porque ela é uma variável econômica. Cibersegurança (proteção de sistemas contra acesso indevido e ataques) custa dinheiro, e ataques também custam dinheiro, só que o custo aparece em lugares diferentes. Quando uma empresa economiza em segurança, ela reduz despesa hoje e aumenta risco sistêmico amanhã. Em escala global, isso é parecido com poluição: o incentivo individual pode produzir dano coletivo. A diferença é que o dano pode ser instantâneo e invisível. Um ransomware em hospital não é um incidente “digital”, é um incidente humano.

Aí volta a pergunta: tecnologia está “dando soluções” para a economia global? Sim, em vários sentidos mensuráveis: reduz custos de coordenação, amplia acesso, acelera inovação, melhora eficiência energética em alguns setores, otimiza recursos escassos. Só que ela também cria dilemas novos: concentração, precarização em alguns modelos, dependência de infraestrutura, assimetrias de informação ainda mais sofisticadas, e uma espécie de ansiedade sistêmica, porque o mundo fica mais rápido do que nossa capacidade de deliberar.

Talvez a parte mais delicada seja a assimetria de informação. Assimetria de informação é quando uma parte sabe muito mais do que a outra numa transação. A economia clássica já sabia que isso gera problemas: seleção adversa, moral hazard. No mundo digital, assimetria de informação vira uma arte. Plataformas sabem padrões de consumo, elasticidade de preço (o quanto a demanda muda quando o preço muda), propensão a compra, horários, renda provável. Isso permite personalização, o que pode ser ótimo, e também permite discriminação de preços, o que pode ser abusivo se não houver transparência.

E é aqui que dá para reforçar aquele ponto-chave: o eixo oculto dessa história é confiança automatizada. Quando sistemas conseguem registrar, validar e prever, eles substituem partes do tecido social que antes dependiam de instituições lentas ou relações pessoais. Essa substituição reduz fricção e aumenta produtividade, só que muda o poder de quem controla os mecanismos de validação. Quem decide o que conta como “verdade” no sistema? Quem tem o botão de desligar? Quem audita o auditor?

A economia global, hoje, é uma disputa por governança de infraestrutura digital. Não é só sobre gadgets. É sobre camadas: camada de dados, camada de computação, camada de pagamento, camada de identidade, camada de logística, camada de reputação. Reputação é especialmente interessante. Sistemas de reputação (notas, avaliações, histórico) resolvem um problema antigo: como confiar em estranhos. Eles fazem isso transformando comportamento em números. Só que números viram incentivos, e incentivos mudam comportamento. O motorista corre para manter nota, o vendedor implora avaliação, o consumidor usa a avaliação como arma.

Esse detalhe puxa outro: inovação técnica frequentemente resolve um gargalo e empurra o gargalo para outro lugar. Se você otimiza logística, o gargalo pode virar embalagem. Se você otimiza crédito, o gargalo pode virar inadimplência em crise. Se você otimiza produção, o gargalo pode virar descarte e sustentabilidade. Solução local, problema global. Um olhar científico pede que a gente trate isso como sistema dinâmico (sistema que muda no tempo com feedbacks). Feedback é quando uma saída do sistema volta como entrada e altera o comportamento. Mercados estão cheios de feedbacks: preço sobe, demanda cai, produção ajusta, preço cai. Tecnologia acelera esses loops.

A aceleração pode ser saudável ou caótica. Em mercados financeiros, por exemplo, automação e alta frequência tornaram o sistema mais eficiente em condições normais e mais propenso a eventos rápidos em condições extremas. Eficiência média e risco de cauda (eventos raros, muito danosos) podem andar juntos. Economia global vive tentando colher eficiência sem pagar a conta das caudas.

E o que isso tem a ver com desenvolvimento de sistemas? Tudo, porque sistemas são a forma concreta como esses loops são implementados. Um bug num sistema de precificação pode gerar uma cascata. Um erro num sistema de estoque pode causar desperdício em massa. Um erro num modelo de previsão pode gerar falta de produto, inflação localizada, perda de confiança. Quando tudo é conectado, pequenos erros ganham alavanca.

É por isso que engenharia de software moderna fala tanto de capacidade de continuar operando sob falhas e de testes intencionais de falhas para entender comportamento. Parece papo de dev, só que é economia aplicada. Uma empresa aguenta choques sem quebrar, uma cadeia resiliente reduz risco de desabastecimento; um setor resiliente evita que um incidente local vire crise macro.

O desafio prático, para quem constrói sistemas e para quem pensa economia, é reconhecer que “solução” raramente é um objeto, solução é um arranjo. Arranjo de incentivos, de padrões, de governança, de auditoria, de infraestrutura e de cultura. Quando esse arranjo é bem desenhado, tecnologias atuais viram ferramentas de prosperidade distribuída. Quando é mal desenhado, viram amplificadores de desigualdade e fragilidade.

Por dentro de Machine Learning

Machine Learning

Quando se diz que “a máquina aprendeu sozinha”, isso parece quase uma frase de ficção científica. Só que, na prática, é exatamente isso que está acontecendo em coisas bem concretas: o filtro de spam do e-mail, o sistema que sugere filmes, o carro que freia sozinho, o chatbot que conversa com você. Tudo isso tem um mesmo coração tecnológico: machine learning, ou aprendizado de máquina.

Mas o que exatamente significa uma máquina “aprender”? E como isso se diferencia de simplesmente programar um monte de regras “se acontecer X, faça Y”?


O que é, de fato, machine learning?

Machine learning é um ramo da inteligência artificial focado em algoritmos que conseguem reconhecer padrões em dados e, a partir disso, fazer previsões ou tomar decisões sem que alguém precise programar todas as regras explicitamente.

Em vez de escrever um código cheio de regras do tipo “se tal coisa acontecer, então faça tal outra”, o que se faz é:

  1. escolher um tipo de modelo (o “jeito” matemático de olhar para os dados)
  2. mostrar muitos exemplos desse problema para o modelo (o chamado conjunto de treinamento)
  3. ajustar o modelo até que ele consiga acertar bem nesses exemplos
  4. depois, colocar esse modelo para trabalhar em dados novos, do mundo real

Esse processo de aprendizado em cima de dados é o que faz o machine learning ser a base da maioria dos sistemas de IA atuais: modelos de previsão, carros autônomos, grandes modelos de linguagem (LLMs), ferramentas de IA generativa, sistemas de recomendação em plataformas de streaming e por aí vai.

O objetivo principal não é “decorar” o conjunto de treinamento. O grande desafio é generalizar: ir bem em dados que o modelo nunca viu antes. Treinar é um meio; o fim é acertar no desconhecido. Quando o modelo sai do laboratório e começa a ser usado de verdade, essa etapa de uso recebe o nome de inferência.

IA, machine learning e um termostato simples

Muitos misturam “IA” e “machine learning” como se fossem sinônimos, mas não são.

  • Inteligência artificial é qualquer sistema que toma decisões ou faz previsões sem intervenção humana o tempo todo, usando informação de entrada.
  • Machine learning é um subconjunto disso: são os métodos em que a lógica não é explicitamente programada, mas aprendida a partir dos dados.

Um exemplo simples de IA que não usa machine learning é um termostato. Ele pode funcionar com regras bem diretas, por exemplo:

  • SE temperatura do ambiente < 21 ºC, LIGAR o aquecedor
  • SE temperatura do ambiente > 24 ºC, LIGAR o ar-condicionado

É um sistema de decisão sem ninguém apertar botão o tempo todo. Isso já é uma forma de IA baseada em regras fixas, escritas à mão. Machine learning entra quando essas regras não são tão óbvias.

Imagine filtrar spam de e-mail. Em um sistema baseado em regras, alguém teria de escrever manualmente uma grande lista de critérios: “se tiver mais de X links”, “se citar muito determinada palavra”, “se vier de tal domínio” e assim por diante. Isso tende a ficar frágil, difícil de manter e cheio de exceções.

Com machine learning, o raciocínio muda, em vez de escrever as regras, alguém coleta milhares (ou milhões) de e-mails rotulados como “spam” ou “não spam”, escolhe um algoritmo adequado, alimenta o modelo com esses exemplos e deixa o treinamento ajustar automaticamente os parâmetros. No final, o modelo aprende, de forma implícita, “o que tem cara de spam”.

À medida que as tarefas vão ficando mais complexas, os modelos baseados em regras duras vão se quebrando. Nem sempre é possível listar manualmente tudo o que importa. É nesse ponto que machine learning se torna muito mais flexível e escalável.

Como a máquina “enxerga” os dados?

Apesar de toda a aura de mistério, machine learning é matemática aplicada. Para que um modelo “entenda” um dado, esse dado precisa ser traduzido para números.

Cada exemplo é transformado em um vetor, uma lista de valores numéricos que representam características relevantes daquele exemplo, as chamadas features.

  • Em dados financeiros, isso pode ser algo direto: preço, volume, data.
  • Em coordenadas geográficas, também: latitude, longitude, altitude.

O desafio começa quando o dado não é naturalmente numérico:

  • Um texto de e-mail
  • Uma foto
  • Um grafo de conexões de uma rede social
  • O comportamento de um usuário dentro de um app

Aí entra a engenharia de atributos (feature engineering), que é o conjunto de técnicas para transformar esses dados brutos em algo que o modelo consegue usar:

  • Seleção de atributos (feature selection): escolher quais aspectos dos dados são relevantes.
  • Extração de atributos (feature extraction): criar representações mais compactas que preservem o que importa.

Deep learning muda bastante tudo isso, porque muitas redes neurais conseguem receber dados relativamente brutos (texto, imagens) e “aprender sozinhas” quais abstrações são importantes nas camadas internas. Isso torna o processo mais escalável, mas também costuma deixar o modelo menos transparente: fica difícil explicar, em detalhes, o porquê de certas decisões.

Parâmetros, otimização e o exemplo da casa

Para deixar menos abstrato, imagine um problema comum: prever o preço de venda de um imóvel.

Suponha que alguém construa um modelo simples, uma regressão linear, que considera três variáveis:

  • metragem do imóvel
  • número de quartos
  • idade da casa

Cada casa é transformada num vetor, por exemplo:
[metragem, quartos, idade] = [1900, 4, 30]

O modelo pode ter uma função do tipo:

Preço = (A × metragem) + (B × número de quartos) – (C × idade) + Preço_base

Os valores A, B, C e o Preço_base são os parâmetros do modelo. Ajustar esses parâmetros é o coração do processo de aprendizado. O que se quer é encontrar aqueles valores que fazem o modelo acertar melhor os preços, em média, no conjunto de treinamento.

Em casos reais, o número de variáveis e de parâmetros explode: dezenas, centenas, milhares ou milhões de parâmetros. Mesmo assim, a ideia central continua a mesma: ajustar esses valores para que as previsões fiquem mais próximas da realidade.

Para medir “o quão ruim” o modelo está, usa-se uma função de perda (loss function), que compara a previsão com o valor real. O treinamento tenta minimizar essa perda, ajustando os parâmetros de forma iterativa com algoritmos de otimização, como variantes de gradiente descendente.

Três grandes “jeitos” de aprender: supervisionado, não supervisionado e por reforço

De forma bem ampla, o aprendizado de máquina costuma ser agrupado em três paradigmas:

  1. Aprendizado supervisionado
  2. Aprendizado não supervisionado
  3. Aprendizado por reforço

E, em muitos casos práticos, modelos combinam mais de uma dessas abordagens ao longo do ciclo de vida.

Aprendizado supervisionado

Aqui, o modelo aprende a partir de exemplos em que já se conhece a resposta “correta” para cada entrada. Esse rótulo verdadeiro é a chamada ground truth.

Dois grandes tipos de tarefa aparecem nesse paradigma:

  • Regressão: prever valores contínuos (preço, tempo, temperatura).
  • Classificação: escolher uma categoria ou decisão (spam / não spam, doença A / doença B / saudável, “aprovar” ou “negar” um crédito).

Algoritmos tradicionais de regressão incluem regressão linear e variantes mais sofisticadas; para classificação, há métodos como máquinas de vetor de suporte (SVM), Naïve Bayes, regressão logística etc.

O processo é algo assim:

  1. O modelo recebe um lote de exemplos com rótulos.
  2. Faz previsões para cada exemplo.
  3. A função de perda mede a diferença entre previsão e rótulo.
  4. Um algoritmo de otimização ajusta os parâmetros para diminuir essa diferença.
  5. O ciclo se repete até chegar a um desempenho aceitável.

Historicamente, associava-se “supervisionado” apenas a dados rotulados manualmente. Hoje, o termo ganhou um sentido um pouco mais amplo: supervisionar é fornecer algum tipo de sinal de “correto”, seja ele produzido por humanos, por outro modelo ou extraído dos próprios dados.

Daí surgem duas variações importantes:

Self-supervised learning

Rotular dados à mão é caro e demorado, especialmente quando se trata de textos longos, imagens complexas ou vídeos.

No self-supervised learning, o próprio dado bruto gera a supervisão. Um exemplo clássico é o de autoencoders: o modelo recebe uma entrada, comprime essa informação em uma representação mais compacta e depois tenta reconstruir o original. O objetivo é minimizar o erro de reconstrução, usando o dado original como “gabarito”.

Grandes modelos de linguagem também se apoiam fortemente nessa ideia: recebem textos com algumas palavras mascaradas e são treinados para adivinhar as palavras ocultas. O próprio texto fornece a resposta correta.

Semi-supervised learning

Já o semi-supervised learning combina dados rotulados e não rotulados.

Em vez de ignorar completamente os exemplos sem rótulo, o modelo tenta se aproveitar deles. Técnicas diversas usam o pouco que se sabe (os rótulos disponíveis) para inferir algo sobre o restante dos dados, incorporando essas pistas no treinamento supervisionado. Isso é útil quando rotular 100% do conjunto é inviável.

Aprendizado não supervisionado

No aprendizado não supervisionado, não há “gabarito”. O modelo não recebe instruções sobre qual é a saída correta; ele precisa descobrir, por conta própria, padrões, grupos, correlações.

Algumas tarefas típicas:

  • Clusterização: agrupar dados semelhantes em “clusters”. Isso pode servir para segmentar clientes, detectar padrões suspeitos em transações financeiras ou agrupar documentos parecidos.
  • Associação: achar correlações, como “clientes que compram X tendem a comprar Y”. Esse tipo de técnica aparece em sistemas de recomendação.
  • Redução de dimensionalidade: condensar dados muito complexos (com centenas de variáveis) em representações mais compactas que preservem o que é mais importante. Isso ajuda tanto na visualização quanto no pré-processamento.

Métodos como k-means, modelos de mistura gaussiana, PCA, autoencoders e t-SNE são exemplos desse universo.

Como não há rótulo, o foco deixa de ser “acertar o gabarito” e passa a ser configurar bem o processo de aprendizado, escolher quantos clusters faz sentido, ajustar taxa de aprendizado, decidir como normalizar os dados, entre outros hiperparâmetros. Em certo sentido, os modelos “se organizam sozinhos”, mas só funcionam bem quando a base de dados e as configurações estão bem pensadas.

Aprendizado por reforço (reinforcement learning)

Reinforcement learning (RL) trabalha com uma lógica diferente. Em vez de exemplos com entradas e saídas independentes, o modelo é visto como um agente que interage com um ambiente ao longo do tempo.

A ideia é parecida com treinar um animal ou uma pessoa em uma tarefa: a cada ação, vem uma consequência, que pode ser positiva, negativa ou neutra. O agente tenta aprender uma estratégia que maximize o recompensa acumulada.

Os elementos básicos são:

  • Estado: o que o agente “enxerga” naquele momento (posição em um jogo, dados de sensores de um robô, trecho já gerado de um texto).
  • Ação: o conjunto de opções disponíveis naquele estado (movimentar para esquerda/direita, acelerar/frear, produzir uma próxima palavra).
  • Recompensa: um número que indica se a ação foi boa ou ruim, definida por regras, função de recompensa ou outro modelo.
  • Política: o “modo de pensar” do agente, isto é, uma função que, dado um estado, escolhe uma ação.

Dá para treinar diretamente essa política (métodos policy-based, como PPO), ou treinar uma função de valor que estima o quão bom é estar em cada estado (métodos value-based, como Q-learning), ou ainda combinar as duas coisas (métodos actor-critic).

Em deep RL, essa política é representada por uma rede neural. É esse tipo de abordagem que aparece em robótica, em jogos complexos e em técnicas como o reinforcement learning from human feedback (RLHF), usadas para refinar o comportamento de grandes modelos de linguagem.

Deep learning: redes neurais e a ideia de “aproximar qualquer coisa”

Dentro do universo de machine learning, o deep learning se destaca. Ele se baseia em redes neurais artificiais com muitas camadas – por isso o “deep”.

Numa visão simplificada:

  • cada neurônio faz uma operação matemática (a ativação)
  • o resultado dessa ativação vai para os neurônios da próxima camada
  • esse processo se repete até a camada final, que gera a previsão

O ponto-chave é que essas ativações são não lineares, o que permite modelar padrões muito complexos. Cada conexão entre neurônios tem um peso, que multiplicará o sinal, e cada neurônio tem um viés, um valor extra somado. Pesos e vieses são os parâmetros a serem ajustados no treinamento.

O algoritmo de backpropagation calcula o quanto cada peso contribuiu para o erro total (a perda) e ajusta esses pesos via gradiente descendente. Quando falamos de modelos modernos, estamos falando de milhões ou bilhões de pesos sendo atualizados o tempo todo.

Daí vem a ideia famosa de que redes neurais são “aproximadores universais”: existe, teoricamente, uma configuração de pesos capaz de aproximar qualquer função que se queira. Na prática, isso não significa que qualquer problema será resolvido facilmente; treinar um modelo bom o bastante ainda depende de muito dado, muito poder computacional e escolhas de arquitetura bem feitas.

Arquiteturas importantes: CNNs, RNNs, transformers, Mamba

Ao longo dos anos, surgiram várias arquiteturas de rede neural, cada uma explorando uma ideia específica.

  • CNNs (Convolutional Neural Networks):
    Trazem camadas convolucionais que usam filtros deslizantes para extrair padrões locais. São muito usadas em visão computacional: reconhecimento de imagens, detecção de objetos, segmentação, mas também aparecem em áudio e outras áreas.

  • RNNs (Recurrent Neural Networks):
    Foram projetadas para lidar com sequências. Em vez de olhar para cada entrada isolada, elas mantêm um estado interno que carrega informações sobre o que veio antes. Isso permitiu, por exemplo, trabalhar com texto, séries temporais e fala de forma mais contextual.

  • Transformers:
    Introduzidos em 2017, transformaram o campo. Baseiam-se em um mecanismo de atenção que permite ao modelo focar nas partes mais relevantes da entrada em cada momento. Embora tenham sido criados para texto, acabaram dominando várias modalidades de dados. São a base dos LLMs e de boa parte da IA generativa atual.

  • Mamba models:
    Uma arquitetura mais recente, baseada em variações de modelos de espaço de estado (SSMs). Assim como os transformers, Mamba busca maneiras eficientes de priorizar as informações mais relevantes ao longo de sequências longas, e vem sendo explorada como alternativa em tarefas de linguagem.

Todas essas variações continuam dentro do guarda-chuva do deep learning, mas enfatizam maneiras diferentes de lidar com estrutura, contexto e escala.

Onde o machine learning aparece na prática

Quase toda grande área de aplicação de IA hoje tem machine learning no centro. Alguns exemplos:

  • Visão computacional:
    Sistemas que “veem” imagens e vídeos, como diagnósticos médicos por imagem, inspeção de qualidade em fábricas, vigilância inteligente, reconhecimento facial, carros autônomos.

  • Processamento de linguagem natural (NLP):
    Chatbots, tradução automática, resumo de textos, análise de sentimento, sistemas de atendimento, assistentes pessoais e, claro, grandes modelos de linguagem que geram texto, código ou explicações.

  • Séries temporais e previsão:
    Modelos que olham para dados ao longo do tempo para detectar anomalias, prever vendas, antecipar falhas em máquinas, analisar mercado financeiro.

  • Geração de imagens e conteúdo:
    Modelos generativos, como difusão, VAEs e GANs, criam imagens novas a partir de padrões aprendidos no treinamento. Isso aparece em criação artística, design, simulações e até em ferramentas de edição avançada.

Ao redor de tudo isso, existe uma disciplina inteira dedicada ao “como fazer isso funcionar no mundo real”: MLOps (Machine Learning Operations).

MLOps trata o ciclo de vida de modelos como uma espécie de linha de montagem:

  • cuidar da coleta, limpeza e preparação de dados
  • escolher modelos e arquiteturas adequadas
  • treinar e validar com métricas bem definidas
  • implantar o modelo em produção
  • monitorar desempenho, detectar drift, ajustar quando o mundo muda
  • garantir governança, segurança e conformidade regulatória

Não basta treinar um modelo bom, é preciso mantê-lo útil e confiável ao longo do tempo.

Ferramentas, linguagens e bibliotecas

Na prática, o ecossistema de machine learning é fortemente baseado em código aberto e gira em torno de algumas tecnologias centrais.

  • Para deep learning: PyTorch, TensorFlow, Keras, bibliotecas como Transformers (da Hugging Face).
  • Para machine learning mais tradicional e análise de dados: Pandas, Scikit-learn, XGBoost, NumPy, SciPy, Matplotlib, entre outras.

Quase tudo conversa com Python, que virou uma espécie de língua franca da área por ser flexível, ter sintaxe simples e um número enorme de bibliotecas.

Grandes empresas de tecnologia mantêm tutoriais, exemplos e coleções de código para diferentes níveis, de iniciantes a especialistas, ajudando a diminuir a barreira de entrada.

Um campo poderoso, mas que pede responsabilidade

Machine learning saiu dos laboratórios de pesquisa e passou a rodar em celulares, hospitais, carros, fazendas, redes de energia e em praticamente qualquer setor que lide com dados em volume. A mesma técnica que ajuda a detectar doenças também pode ser usada para manipular opinião pública, o algoritmo que gera imagens incríveis pode ser usado para desinformação sofisticada.

No centro de tudo ainda está uma ideia simples: aprender padrões a partir de dados e aplicar o que foi aprendido a novos casos. O impacto real depende das escolhas humanas: que dados usar, que objetivo otimizar, como medir sucesso, que limites impor, que mecanismos de supervisão criar.

Mais do que uma caixa-preta mágica, machine learning é um conjunto de ferramentas matemáticas e computacionais poderoso, que pode ser usado de modos muito diferentes. A discussão que importa não é apenas “o que os modelos conseguem fazer”, mas “como, onde e por que estamos colocando esses modelos para decidir coisas no nosso lugar”.

Tecnologia e sociedade

Tecnologia e Sociedade

Quando se fala em tecnologia, muitos pensam primeiro em telas brilhando, aplicativo novo, celular que acabou de ser lançado. Só que por trás de tudo isso tem uma ideia bem mais profunda e, de certa forma, desconfortável: toda tecnologia é uma extensão para o ser humano. Não é só um acessório bonitinho, é um pedaço do nosso jeito de pensar que foi colocado para fora do corpo, transformado em ferramenta. A partir do momento em que isso acontece, o próprio cérebro começa a mudar, começa a se reorganizar em torno dessas extensões. Pensar deixa de ser uma coisa puramente biológica e passa a ser também uma atividade tecnológica.

Dá para enxergar isso começando pela escrita. Antes de existir letra em pedra, papiro, papel ou tela, tudo o que uma pessoa sabia precisava caber dentro da própria cabeça, ou circular em histórias contadas em voz alta. Se alguém esquecia um detalhe importante, aquela parte da memória simplesmente se perdia. A escrita mudou o jogo porque pegou uma função fundamental da mente, lembrar, e empurrou para fora, para o mundo físico. Um caderno, um diário, um bloco de notas no celular são exemplos muito simples disso. Quando você anota um número de telefone ou uma ideia solta, não está só registrando, está tirando um peso da memória. A mente deixa de gastar energia lembrando detalhes e passa a usar essa energia para outras coisas, como criar, planejar, conectar pontos. A escrita virou uma espécie de HD externo da consciência.

Quando os livros começaram a ser copiados em massa com a imprensa, outra parte da mente foi estendida. Falar sempre foi a forma mais direta de compartilhar pensamentos, mas a fala ao vivo é limitada no espaço e no tempo. A imprensa pegou essa fala e espalhou pelo mundo. Um panfleto, um jornal, um livro carregam a voz de alguém para pessoas que nem tinham nascido quando aquele texto foi escrito. A fala deixou de depender do corpo presente. Isso muda totalmente a escala do que chamamos de conversa social. Ideias religiosas, científicas, políticas e filosóficas passaram a viajar muito rápido, influenciar muitos ao mesmo tempo, criar movimentos e revoluções. A imprensa não é só uma máquina de imprimir tinta, é uma extensão da nossa capacidade de falar e de convencer.

Durante tempos, essa extensão da mente ainda eram estáticas. Um livro não responde, não calcula, não simula nada. O computador trouxe outra dimensão para essa história. Quando alguém abre uma planilha e testa cenários, ou quando usa um simulador para ver o que acontece se mudar determinado parâmetro, está terceirizando parte do raciocínio para uma máquina. Isso não significa que a pessoa fica mais burra, significa que o tipo de inteligência que importa começa a mudar. Em vez de decorar fórmulas, importa mais saber formular perguntas, organizar dados, imaginar hipóteses. O computador virou uma extensão do raciocínio porque ajuda a percorrer caminhos lógicos em alta velocidade, repetindo, corrigindo, ajustando, sem cansar. Uma simulação de clima, um algoritmo de recomendação, um jogo de estratégia, tudo isso são espaços onde mente humana e processamento de máquina se misturam.

A programação entra como um passo a mais nessa extensão, quando alguém aprende a programar, aprende a transformar lógica em instruções explícitas. Aquela estrutura mental que já existia, do tipo “se isso acontecer, faço aquilo, senão vou por este outro caminho”, vira código. Programar é treinar o cérebro para pensar de maneira estruturada, desmontando problemas grandes em partes menores, criando funções que se repetem, prevendo exceções, desenhando fluxos. Para a máquina, aquilo é só uma sequência de bits, mas para quem escreve, é um espelho do próprio raciocínio. A sensação de ver um programa funcionando, mesmo que seja simples, é a de ver um pedaço do seu jeito de pensar ganhando vida fora da cabeça. O código acaba se tornando uma segunda linguagem do cérebro, tão natural que, com o tempo, a pessoa passa a pensar em termos de funções, loops e condições até em situações do dia a dia.

Quando se fala de sistemas operacionais, essa ideia de extensão da mente ganha um componente político, técnico e até filosófico. O Linux é um exemplo muito forte disso. Ele não é só um sistema para rodar programas, é um ambiente que convida a pessoa a entender o que está acontecendo por baixo da interface. Com Linux, é possível fuçar no núcleo do sistema, automatizar tudo com scripts, trocar o gerenciador de janelas, escolher como o sistema inicializa, montar o próprio fluxo de trabalho. Isso amplia a autonomia técnica. Em vez de aceitar passivamente o computador de como ele funciona seguindo como o fabricante decidiu, o usuário aprende a tomar decisões, ajustar, experimentar. Essa autonomia não é só técnica, é mental. Dá a sensação de que o computador é um instrumento de criação, não apenas um produto de consumo. A mente passa a se ver como autora do próprio ambiente digital.

Com o tempo, essas extensões foram se acumulando e se interligando até chegar em um ponto curioso: já não pensamos mais sem máquinas, pensamos com máquinas. Um exemplo simples é o hábito de procurar qualquer coisa no buscador antes mesmo de refletir alguns minutos sobre o assunto. A primeira reação a uma dúvida não é olhar para dentro, é alcançar o celular. A mente passa a rodar junto com o navegador, com o histórico, com as abas abertas. O mesmo vale para GPS, que redesenhou a forma como lidamos com espaço. Antigamente era comum memorizar caminhos, decorar pontos de referência, construir um mapa mental da cidade. Hoje, o cérebro terceirizou boa parte desse trabalho para o aplicativo de mapa. Em troca, ganhou liberdade para se ocupar com outras tarefas durante o trajeto, como ouvir um podcast ou planejar o dia. A pergunta é até que ponto isso é ganho e até que ponto é dependência.

Outro exemplo de como o pensamento se mistura com a máquina é o texto preditivo. Quando alguém digita uma frase e o teclado sugere a continuação, não está só acelerando o processo de escrever, está influenciando o conteúdo do pensamento. Certas expressões aparecem com mais frequência, certas formas de falar são reforçadas, alguns caminhos de frase se tornam mais naturais porque a sugestão já veio pronta. Isso cria um ciclo curioso, em que a mente alimenta o algoritmo com dados, o algoritmo devolve padrões, e a mente começa a pensar dentro desses padrões. A tecnologia deixa de ser apenas uma ferramenta e passa a ser um ambiente cognitivo, um lugar onde o pensamento acontece.

Existe também um lado emocional nessa história, redes sociais são extensão da nossa necessidade de reconhecimento, pertencimento e conversa. Elas registram memórias, lembram aniversários, sugerem recordações, mostram o que os outros estão pensando. O feed se torna uma espécie de espelho coletivo, onde cada um vê fragmentos de vidas e opiniões. Isso muda como construímos nossa identidade. Em vez de lembrar da própria história só pela memória interna, surgem lembranças em foto, em vídeo, em post antigo. A mente passa a depender dessa camada digital para organizar o passado, construir narrativas, revisar escolhas. A extensão da mente não é só racional, é também afetiva.

A grande virada dos últimos anos é que, antes, o ser humano adaptava suas ferramentas ao próprio ritmo. Levava tempo para aprender um ofício, fazer uma mudança, adotar um novo instrumento. Hoje, o cenário parece invertido. e a sensação é de estar correndo para acompanhar o ritmo das ferramentas. Sistemas operacionais mudam de versão o tempo todo, aplicativos atualizam a interface sem pedir licença, novas linguagens, frameworks e plataformas surgem em sequência. Quem trabalha com tecnologia sente essa pressão diretamente, mas qualquer pessoa com smartphone percebe que precisa reaprender pequenos detalhes com frequência. Isso tem impacto na mente, que passa a operar num estado constante de atualização.

Quando o cérebro precisa se adaptar o tempo todo, cresce a sensação de cansaço e dispersão. A atenção é cortada por notificações, por janelas que se abrem, por mensagens urgentes que exigem resposta imediata. A mente deixa de sustentar longos períodos de foco contínuo e passa a funcionar em fragmentos. Em termos cognitivos, isso é rearranjo de prioridades. Tarefas profundas exigem esforço, então ficam para depois. Tarefas superficiais, como responder mensagens e conferir alertas, dão pequenas recompensas rápidas e tomam o lugar central. A tecnologia, que poderia ser uma extensão poderosa para foco e clareza, acaba empurrando para um modo de operação acelerado, reativo e ansioso, se usada sem cuidado.

O ponto é que essa adaptação ao ritmo das ferramentas não é inevitavelmente negativa. Pode ser uma escolha consciente. Quando alguém organiza o próprio ambiente digital de forma cuidadosa, ajustando notificações, escolhendo bem quais aplicativos realmente merecem espaço, criando rotinas para estudo e trabalho, está usando a tecnologia como extensão da mente de um jeito mais saudável. Um simples editor de texto configurado com um tema agradável, atalhos bem pensados e uma estrutura de pastas clara pode se transformar em um laboratório de ideias. Um sistema de notas bem organizado, seja ele simples ou sofisticado, vira um mapa externo do pensamento que ajuda a não se perder em meio ao excesso de informação.

Nesse cenário, aprender o básico de programação pode ser visto menos como uma habilidade técnica isolada e mais como uma forma de alfabetização mental. Quando alguém cria um script para automatizar uma tarefa chata, está dizendo para o próprio cérebro que nem tudo precisa ser repetido manualmente. Isso liberta tempo e energia. Mesmo quem não pretende trabalhar como desenvolvedor pode se beneficiar dessa forma de pensar em termos de regras claras, entradas e saídas, dependências, exceções. Essa lógica estruturada conversa bem com o mundo real, em que problemas complexos raramente se resolvem de uma vez só, mas sim em partes, em etapas encadeadas.

Pensar a tecnologia como extensão da mente também ajuda a fazer escolhas mais conscientes. Se cada ferramenta expande uma parte da nossa capacidade mental, é importante perguntar que tipo de mente se deseja construir. Uma rotina baseada só em redes sociais rápidas tende a fortalecer a impaciência e a busca por estímulos constantes. Um uso mais focado em leitura profunda, escrita longa, experimentação criativa em código ou arte digital fortalece outras qualidades, como concentração, senso de detalhe, pensamento crítico. Não existe neutralidade completa, porque toda ferramenta puxa o pensamento em alguma direção. Ao mesmo tempo, não existe necessidade de demonizar essa dependência, já que humanos sempre dependeram de ferramentas, desde a primeira pedra lascada.

O código se consolidou como uma segunda linguagem do cérebro porque traduz uma característica muito antiga da mente humana, o desejo de antecipar resultados e controlar processos. Quando alguém escreve um programa, está criando um pequeno mundo com regras próprias, onde sabe de antemão o que deve acontecer se tudo estiver certo. Isso dialoga com a necessidade de previsibilidade em um mundo que, fora da tela, é cheio de imprevistos. Essa sensação de domínio pode ser viciante, mas também pode ser canalizada para resolver problemas reais, automatizar trabalhos repetitivos, criar ferramentas para outras pessoas, espalhar conhecimento.

O que ameaça a bolha da inteligência artificial

Microchip IA
 
Nos últimos meses, algumas das maiores empresas de tecnologia do planeta dispararam em valor. A sensação é de que a inteligência artificial, que vem ganhando velocidade como quem troca de marcha na estrada, pode transformar a vida diária de um jeito que, dez anos atrás, soaria exagero. Dentro da saúde onde a inteligência artificial detecta padrões antes do médico perceber, contratações mais rápidas quando o currículo não precisa se perder em pilhas, descoberta científica que cruza bases de dados como quem varre um oceano com um sonar. Dentro de tudo isso há expectativa no ar, e expectativa mexe com preços. A pergunta-âncora que nos acompanha daqui em diante é simples: o que estamos realmente comprando quando compramos IA?

A valorização recente de empresas que lideram essa corrida chama atenção, dentro disso, a OpenAI passou a ser avaliada na casa dos US$ 500 bilhões, um salto em relação ao número de outubro do ano passado. Outra como a Anthropic triplicou sua avaliação em um intervalo curto. O tom é de euforia, o tipo de euforia que costuma esvaziar salas e encher manchetes. Ao mesmo tempo, autoridades monetárias sinalizam cautela: o Banco da Inglaterra levantou a hipótese de uma “correção” rápida, correção de mercado é aquela queda brusca que ajusta preços quando crescem demais, como a conta de luz que vem alta e força o corte do ar-condicionado. O aviso não é sobre tecnologia em si, mas sobre o ritmo dos preços das empresas que a vendem.

É possível olhar para o painel de cotações e perguntar se esses valores são um reflexo de lucros presentes, mensuráveis no fim do trimestre, ou se são fruto de entusiasmo, confiança e um pouco de torcida sobre o que a IA poderá fazer amanhã. Em termos práticos: a avaliação de hoje representa a IA que existe ou a IA que imaginamos? A resposta definitiva costuma chegar tarde, quando a bolha estoura ou não estoura e a esta altura, os sinais já piscam.

Com o distanciamento do tempo, tudo que acontece durante uma bolha parece otimista demais. Experimente uma substituição: troque “IA” por “computadores” em manchetes recentes. Muita coisa fica ingênua de repente, como promessas de que a presença de máquinas resolveria, sozinha, problemas de gestão que ainda dependem de gente, processo e tempo. Prever o caminho de uma tecnologia em marcha, porém, é tarefa difícil. No ano 2000, havia quem imaginasse a internet como modismo que perderia fôlego, pouco antes de a bolha pontocom atingir o pico. O exagero na subida não impediu que a rede se tornasse infraestrutura básica do cotidiano, tão invisível quanto a água que corre no encanamento.

As bolhas, quando estouram, não mudam necessariamente o destino final da tecnologia. A internet não sumiu do mapa porque as ações caíram. O problema é que bolhas bagunçam a estrada. Preços desabam, planos de aposentadoria sentem o tranco, vagas desaparecem, investimentos produtivos viram poeira de curtíssimo prazo. Muitas dessas coisas acaba sufocada pelo barulho: projetos sólidos perdem espaço para apostas que rendem manchetes fáceis, e capital se concentra em poucos nomes, como se todo o futuro coubesse em meia dúzia de logotipos. Quem sente no dia a dia são pessoas de carne e osso sendo eles consumidores que veem serviços sumirem, operadores que encaram cortes de orçamento, gestores pressionados a justificar gastos que ainda não viraram resultado.

Hoje já existe ao menos um primeiro sinal clássico de bolha: a escalada veloz das avaliações. Se vier uma correção e os preços devolverem parte desse ganho, o enredo fica parecido com outros que já vimos. Se a subida seguir firme e sustentada, talvez estejamos diante de um novo patamar de mercado, onde a tecnologia de base como modelos, chips, datacenters, redes etc, podem se torna o eixo de uma economia inteira. Também há um cenário intermediário como as avaliações estabilizam e param de subir. O que acontece a partir daí depende da crença que sustentou a compra. Muitos investiram porque acreditou que o preço sempre subiria? Ou porque havia uma conta de lucro futura com premissas robustas?

Vale destacar do que é feita essa crença, quando o Banco da Inglaterra diz que as avaliações podem estar “esticadas”, a palavra importa. Aqui “Esticada” quer dizer que o elástico da expectativa foi puxado além do que os números atuais sustentam, como um caminhão que fica carregado demais e passa a gastar combustível que não estava nos planos. Investimento, no fundo, é uma aposta de que a IA vai aumentar a rentabilidade, sendo a rentabilidade, o dinheiro que sobra depois de pagar os custos das empresas envolvidas. Avaliações bilionárias sugerem apostas igualmente bilionárias de que, em algum ponto deste caminho, margens vão se abrir de maneira extraordinária.

Em alguns casos, essa aposta não se limita a ganhos graduais, mas mira algo mais radical como naa ideia de uma “superinteligência artificial”, jargão para designar um sistema com desempenho superior ao humano em praticamente todas as tarefas relevantes. A comparação simples ajuda, ela seria como contratar um time que trabalha 24 horas por dia, sem férias, aprendendo com cada tentativa, e que dirige caminhões, escreve relatórios, faz triagem hospitalar e ainda planeja rotas de navio sem errar a previsão de tempo. Se algo assim de fato surgisse e fosse distribuído de forma segura, o salto de produtividade seria gigantesco, com impacto direto em padrões de vida. E há algumas estimativas associando esse cenário a um valor agregado impensável. O investidor, ao comprar hoje, tenta reservar um pedaço possível desse amanhã.

Só que mercados não se movem apenas por planilhas impecáveis. Eles também se movem por medo e por gatilhos pequenos. Se, de repente, ganhar força a ideia de que os lucros prometidos não virão, muita gente tenta sair ao mesmo tempo. E não precisa de agulha grande para estourar balão. Às vezes, basta uma nota de rodapé, um contrato que atrasa, um sinal de que um cliente importante hesitou. O efeito trabalha como em uma fila de banco, um olha para o outro, desconfia, e logo a porta está cheia.

Vale recordar um trecho conhecido da história recente, no fim dos anos 1990, a possibilidade de acessar a internet sem dor de cabeça gerou um entusiasmo que abasteceu a bolha pontocom. Reportagens populares, do tipo que circulava na sala de espera do dentista, avisaram que muitas empresas estavam ficando sem dinheiro. Bastou isso para uma parte dos investidores médios, pessoas que não vive de mercado, que equilibra o medo de perder a oportunidade com o receio de apostar em algo pouco compreendido. Quando esse público muda de ideia, o fluxo muda.

Apesar da escalada de avaliação, há relatos de que OpenAI ainda não opera no azul. Estimativas sugerem que seria necessário um volume de receita várias vezes maior para virar a chave da lucratividade. Ao mesmo tempo, circula a informação de que a empresa teria registrado perdas bilionárias no primeiro semestre do ano. Isso não significa que a tecnologia não preste, significa que o modelo de negócios ainda busca equilíbrio. Uma fatia do valor atribuído à empresa parece vir de arranjos com fornecedores estratégicos de chips, em que investimentos de um lado garantem compras do outro, circularidade financeira é quando o dinheiro entra por uma porta e sai pela outra para sustentar uma estrutura que precisa de fôlego até as receitas chegarem e isso funciona por um tempo. Em algum momento, porém, os investidores vão pedir retorno palpável.

O quadro não é exclusivo de uma empresa. Muitas firmas de IA, neste momento, não parecem consistentemente lucrativas. O dinheiro que entra não está recompensando os prejuízos de hoje, ele compra uma chance de participar de uma fronteira que promete margens futuras. É um jogo legítimo, habitual em inovação de base, mas que exige disciplina para separar o que já entrega valor do que está no campo da aposta. Consumidores, operadores e gestores sentem essa distinção no cotidiano sendo o cliente que paga por um serviço quer estabilidade e clareza de preço, o engenheiro que opera um modelo quer previsibilidade de custo de inferência e o gestor que assina contrato quer saber quando o projeto deixa de queimar caixa.

Há caminhos para que a lucratividade aconteça. Novas frentes comerciais aparecem. Uma delas é o uso de IA para publicidade, a publicidade aqui é recomendação paga, quando um sistema sugere um produto ou serviço dentro de uma conversa, como o atendente que, no balcão, oferece o filtro de água junto com a cafeteira. Há também a possibilidade de chatbots indicarem produtos com base no contexto do diálogo. O cuidado está no modo de fazer, sendo a experiência digital recente está repleta de “padrões escuros”, expressão que descreve truques de interface que empurram o usuário a clicar onde não queria, como quando o site do hotel exibe “só mais um quarto disponível” para acelerar a compra. Modelos de linguagem podem aumentar a potência persuasiva dessas estratégias, e a linha entre serviço útil e manipulação fica fina. Transparência, rótulos claros, capacidade de optar por não ver certas recomendações sendo tudo isso vira parte do design de confiança.

Enquanto essas frentes comerciais se organizam, as gigantes de tecnologia como Meta, Alphabet, Microsoft, Amazon, despejam capital em infraestrutura de IA num volume comparável ao PIB de um país de médio porte. Não estamos falando de simples ajustes em plataformas de anúncios, e sim de blocos de concreto que sustentam a próxima década como data centers, redes de fibras, energia contratada de longo prazo, servidores com GPUs de ponta, parcerias para projetar chips. É investimento que não se justifica por modinha, ou ele prepara uma base para um ciclo de produtividade amplo, e então as receitas chegam, ou em algum momento a conta pesa. Se esse futuro a que essas obras servem entrar em dúvida, a bolha, caso exista, encontra o estalo.

O que estamos realmente comprando quando compramos IA? Um conjunto de capacidades que já economiza tempo em tarefas repetitivas, reduz fila em chat de atendimento, faz triagem de documentos e ajuda cientistas a gerar hipóteses mais rápido, também compramos promessas. E essas promessas são carros autônomos limpos nas ruas, médicos assistidos por algoritmos que não erram doses, cadeias logísticas que harmonizam caminhões no porto e navios no mar com matemática impecável. No meio disso, compramos também ruído, soluções genéricas aplicadas a problemas específicos, custos de computação que não fecham, expectativa de que com mais dados e mais força bruta tudo se resolve. Sendo que haverá ganhos e também limites.

Nas empresas, o sinal de que a aposta é madura aparece quando três perguntas têm resposta coerente. Primeira: qual processo de trabalho muda de fato, com indicador e prazo? Segunda: qual custo marginal de rodar a solução por unidade de demanda — custo marginal é aquele gasto adicional para atender um pedido a mais — e em que ponto ele fica menor do que a alternativa humana ou híbrida? Terceira: onde está o risco regulatório e reputacional? Porque nada arranha mais uma marca do que um sistema que recomenda algo inadequado no momento errado. Se a área de produto consegue mostrar, com exemplos e números, que “o tempo médio de atendimento caiu de 6 para 3 minutos porque o modelo resume a conversa anterior e propõe a próxima ação”, a tese se sustenta melhor. Ou também se o gestor financeiro enxerga que “cada 1.000 requisições custam X e geram Y de receita contratada”, a discussão sai do achismo.

Para quem investe, um exercício de sanidade ajuda como separar o valor presente do valor opcional. Valor presente é aquilo que a empresa já sabe fazer e cobra por isso e valor opcional é o bilhete para um possível salto, como a adoção de um novo modelo mais eficiente que reescreve a base de custos. Quando o opcional vira quase tudo, o risco aumenta. E se o salto demorar um ano a mais? E o custo podendo subir de energia no período? E caso   o fornecedor de chips priorizar outro cliente? As respostas mexem não com teoria, mas com fluxo de caixa, com a conta que precisa fechar no fim do mês, com o bônus do time que esperava virada no quarto trimestre.

Pacientes querem ganho de qualidade em diagnósticos, sem vieses que prejudiquem grupos já vulneráveis. Profissionais temem substituição, mas topam ferramentas que removem tarefas maçantes e aumentam a autonomia. Pequenas empresas precisam de soluções com preço previsível, sem sustos como aqueles pacotes de dados que estouram sem aviso. Quem lida com a operação, a pessoa que monitora filas, que decide priorização, que acompanha indicadores, precisa de IA que explique por que sugeriu uma rota em vez de outra, e não de uma caixa-preta que só “acerta na média”. É aí que a confiança se constrói ou se perde.

Se houver uma correção forte de preços, ela não apaga a utilidade da IA que já se mostrou valiosa. Ferramentas que reduzem erros de digitação, que ajudam no controle de qualidade de código, que organizam documentos jurídicos por similaridade, continuarão úteis. O que muda é o barulho ao redor, a velocidade com que executivos decidem novos aportes, a disposição de migrar sistemas inteiros de uma vez. Algumas histórias recentes ensinam que ciclos mais calmos favorecem projetos bem definidos, com metas realistas, enquanto ciclos de euforia atraem slogans. E há sempre alguém vendendo o “motor mágico” que promete mais potência com menos combustível. Na mecânica real, o ganho vem de projeto, atrito menor, manutenção correta e em tecnologia, também.

Quem está no comando de orçamentos precisa de um mapa simples como priorizar casos de uso que tocam receita e custo com provas de conceito curtas, cuidar de governança de dados para evitar que modelos “aprendam” coisas que não deveriam, negociar contratos com gatilhos de preço que protejam a empresa de variações bruscas, e manter o time treinado para entender o que a ferramenta faz e o que ela não faz. Se a IA é para ficar, e tudo indica que é, o importante é desenhar o lugar que ela ocupa no processo. Como uma nova máquina no chão de fábrica, não basta comprá-la, é preciso reorganizar o fluxo ao redor, treinar operadores, rever manutenção, medir resultado. Só assim a promessa vira hábito que se paga.

Olhar para o quadro maior ajuda no ajuste fino das expectativas, sendo onda atual combina três elementos: poder computacional crescente, dados abundantes e algoritmos que se beneficiam de escala. Isso cria uma impressão de inevitabilidade: basta pôr mais máquinas e tudo melhora. A história mostra que não é tão simples e a eletricidade demorou décadas para elevar a produtividade porque as fábricas precisaram reorganizar sua planta, trocando eixos de transmissão por motores distribuídos. O desenvolvimento da computação pessoal levou tempo até que software e trabalho se alinhassem. A IA generativa ainda busca seus encaixes finos, os que resolvem dores reais, no tempo das pessoas e das organizações.

Voltemos para a pergunta: o que estamos realmente comprando quando compramos IA? Compramos eficiência onde ela já se comprovou, e coragem de experimentar onde há sinal de retorno, compramos também o risco de descobrir que em algumas áreas o ganho é menor do que parecia, e que a curva de aprendizado exige mais cuidado do que o slide de apresentação sugeria. Em períodos de euforia, lembramos pouco das operações que não podem parar como o caminhão esperando no porto, o call center que precisa encerrar ligações com clareza, o hospital que não tolera erro de triagem, e em períodos de correção, exageramos no freio. O equilíbrio não vem da fantasia de um futuro perfeito nem do pânico de uma queda de braço no mercado, ele vem de alinhar capacidade técnica, modelo de negócio e valor entregue.

Se as avaliações seguirem subindo, talvez se consolide um ciclo longo, puxado por infraestrutura e por aplicações maduras. Elas podem estabilizarem, sobreviverão os casos em que a matemática fecha. Se corrigirem, voltaremos a conversar com outra serenidade. Em todos os cenários, o teste é prático sendo a tecnologia melhora a vida de quem usa? O operador que passa turno no data center tem menos panes para resolver? A gestora que fecha orçamento enxerga previsibilidade no próximo trimestre? O consumidor que conversa com um assistente digital sente que é respeitado, informado e não manipulado? Quando essas respostas caminham na direção certa, os gráficos do mercado tendem a acompanhar, cedo ou tarde.

A euforia não dura para sempre, assim como a cautela excessiva não é destino. Enquanto o pêndulo oscila, cabe a cada empresas, reguladores, pesquisadores, investidores manter a régua no concreto. Métrica clara, custo transparente, ética aplicada, contrato que protege. Se ignorarmos, a oscilação do mercado nos lembrará, uma vez mais, que expectativa sem lastro pesa pouco quando a maré muda.