Mecânica quântica: buscando entender melhor a realidade

Mécânica quântica

Cem anos após o seu nascimento, a mecânica quântica continua entre as teorias mais poderosas e bem-sucedidas da ciência. De computação quântica a sensores de precisão, o impacto tecnológico é inegável e ajuda a explicar por que 2025 foi proclamado o Ano Internacional da Ciência e Tecnologia Quânticas.

A postagem convida a um gesto adicional: perguntar o que, afinal, essa teoria diz sobre o próprio mundo. O formalismo nos conta algo claro sobre a natureza da realidade? Sistemas quânticos têm propriedades definidas antes de medirmos? Nossas observações criam realidades ou apenas as revelam?

Não são questões abstratas. Compreender com nitidez “do que trata” a teoria é vital para a coerência a longo prazo e para integrá-la ao restante da física. O consenso, porém, não existe. A comunidade de pesquisa segue debatendo fundamentos que teimam em provocar discordância.

Essa incerteza apareceu num levantamento global recente sobre questões fundacionais, conduzido pela Nature. Os resultados expuseram uma tensão persistente entre visões “realistas”, que buscam uma descrição objetiva e visualizável dos fenômenos, e visões “epistêmicas”, que veem o formalismo como ferramenta para organizar conhecimento e prever resultados de medida.

Apenas 5% dos 1100 respondentes declararam plena confiança na interpretação de Copenhague, ainda dominante em livros e laboratórios. O racha também atinge a função de onda: entidade física, mero dispositivo de cálculo ou reflexo subjetivo de crença? A falta de acordo num ponto tão central evidencia certa fragilidade teórica subjacente. A disposição para explorar alternativas revela vitalidade intelectual, mas também aponta limites dos caminhos atuais.

Por “realismo”, entende-se a ideia de que sistemas possuem propriedades definidas independentemente da observação. “Epistêmico” remete ao conhecimento: o formalismo serviria para organizar crenças e prever frequências de resultados, não para descrever o que existe. A “função de onda” pode ser vista como objeto físico, como ferramenta matemática ou como estado de informação. E “medida”, aqui, não é apenas ler um ponteiro; envolve interação que altera o próprio sistema. Diante disso, faz sentido perguntar: a matemática descreve ou apenas cataloga?

Em quadro mais amplo, 75% acreditam que a teoria será, ao menos em parte, substituída por um arcabouço mais completo. De modo animador, 85% concordam que esforços de interpretação em termos intuitivos ou físicos têm valor. A abertura para alternativas, ao mesmo tempo, reforça a percepção de insuficiências.

A proliferação interpretativa pode nascer de um problema mais profundo: falta uma fundação física bem definida. A mecânica quântica descreve resultados estatísticos de medidas, sem explicitar mecanismos. A causalidade cedeu espaço a prescrições operacionais; na prática, a teoria funciona com brilho, mas permanece conceptualmente opaca.

O caminho, então, talvez não seja multiplicar interpretações, e sim buscar compreensão física mais funda dos fenômenos. Uma via promissora é a eletrodinâmica estocástica (a sigla em inglês, SED, de stochastic electrodynamics), teoria clássica acrescida de um fundo eletromagnético aleatório: o vácuo real, ou campo de ponto zero descrito por Max Planck já em 1911. Nesse quadro, causalidade e localidade são recuperadas ao explicar o comportamento quântico como resposta estatística de partículas a esse campo onipresente.

Muitos pesquisadores, vindos de linhagens distintas, contribuíram para a SED. Desde os primeiros trabalhos com Trevor Marshall, Timothy Boyer e outros, a teoria foi refinada a ponto de explicar o surgimento de elementos tidos como blocos do formalismo quântico, como o comutador básico e as desigualdades de Heisenberg.

As partículas ganhariam caráter ondulatório não por uma dualidade intrínseca, mas por interação com o campo de vácuo. Flutuações quânticas, padrões de interferência e emaranhamento emergem dessa interação, sem recorrer a influências não locais ou a realidades que dependem do observador. A ênfase da SED é menos mecânica e mais eletrodinâmica.

Ninguém afirma que a SED seja palavra final. O que se propõe é um quadro coerente para processos microfísicos baseado em campos e forças físicos. Crucialmente, não se abandona o formalismo quântico; ele é recontextualizado como teoria efetiva, um resumo estatístico de dinâmicas mais profundas. Isso permite manter os sucessos da mecânica quântica enquanto se investigam origens e mecanismos.

Uma preocupação recorrente em encontros científicos ilustra o clima: “Temo que a ciência confie demais que a aceitação da verdade é inevitável”, resume a provocação de Gino Elia, ecoando debates de palco e bastidores.

Para muitos, a SED indica reconciliação possível entre fenômenos quânticos e noções caras ao restante da física, realismo, causalidade, localidade. Mostra também que abordagens alternativas podem gerar previsões testáveis e oferecer novos ângulos para puzzles antigos. Um efeito fora do escopo atual do formalismo, hoje talvez testável graças a avanços experimentais, seria a violação prevista das desigualdades de Heisenberg em intervalos de tempo ultracurtos.

Com o avanço da ciência quântica, convém não perder de vista seus alicerces conceptuais. Uma compreensão causalmente fundamentada não distrai do progresso tecnológico: é pré-requisito para realizá-lo por inteiro. Voltar a atenção às fundações pode, quem sabe, concluir o edifício cuja base começou a subir um século atrás.


Referência;

Physicists disagree wildly on what quantum mechanics says about reality, Nature survey shows - A mecânica quântica é uma das teorias mais bem -sucedidas da ciência - e torna possível grande parte da vida moderna. As tecnologias que variam de chips de computador a máquinas de imagem médica dependem da aplicação de equações, primeiro esboçado há um século , que descrevem o comportamento dos objetos na escala microscópica. https://www.nature.com/articles/d41586-025-02342-y

Método egípcio do sono

Método egípcio do sono

Método egípcio do sono está viralizando, mas funciona mesmo? Noites quentes e insones dão o tom do verão em muitas cidades. O chamado método egípcio de sono aparece como um truque de baixa tecnologia para atravessar o calor sem sofrer. O que há por trás dele? A ideia de usar um lençol levemente úmido como aliado do descanso tem base física simples e uma lógica prática: resfriar o corpo enquanto você dorme.

O método consiste em dormir sob um tecido ligeiramente úmido para aproveitar o resfriamento evaporativo, reduzindo a temperatura corporal durante a noite. Funciona melhor em climas quentes e secos, especialmente quando não há ar-condicionado, e tende a falhar em ambientes muito úmidos; pessoas com pele sensível podem notar irritação. Em adultos saudáveis, costuma ser seguro, desde que o quarto tenha boa ventilação, o tecido seja leve e natural, e o lençol não fique encharcado.

A prática é atribuída, pelo nome, a regiões desérticas onde se dormia sem ventiladores ou ar-condicionado. O princípio é o mesmo que torna o suor eficiente: resfriamento evaporativo. Quando a água passa do estado líquido para vapor, ela absorve calor do ambiente, aqui, a camada de ar junto à pele e, com isso, promove um leve resfriamento. O termo técnico “resfriamento evaporativo” descreve exatamente esse processo físico.

Em termos práticos, a proposta é simples: umedeça um lençol ou uma toalha com água fria, torça bem para não pingar e deite-se por baixo desse tecido leve. Algumas variações sugerem dormir com roupas mínimas ou mesmo sem roupas, para aumentar a transferência de calor. Outra alternativa popular é vestir uma camiseta levemente úmida. Em todos os casos, o quarto precisa ter circulação de ar para que a umidade não se acumule.

Vale a pena lembrar que a experiência sensorial conta. Dormir coberto por um pano molhado pode soar pouco atraente, mas em ambientes extremamente quentes e sem outras opções, a técnica pode oferecer alívio. A regra de ouro é evitar exageros: tecido úmido, não encharcado.

Existe uma razão fisiológica para preferirmos um ambiente fresco à noite. A temperatura corporal diminui ao anoitecer como parte do ritmo circadiano, um relógio biológico de aproximadamente 24 horas que regula sono, vigília e processos metabólicos. Esse declínio ajuda o cérebro a reconhecer que é hora de desacelerar. Se o ambiente permanece quente, o corpo tem dificuldade em realizar essa queda, e o início do sono se atrasa.

Quando o calor noturno persiste, não é só pegar no sono que fica difícil. Manter o sono também vira desafio, com despertares mais frequentes e sensação de descanso incompleto. Talvez você já tenha percebido isso em ondas de calor: a noite fica mais agitada, o travesseiro esquenta, o lençol incomoda. Nesse cenário, um mecanismo extra de resfriamento pode fazer diferença.

Achados de pesquisas associam quartos mais frescos a adormecer mais rápido, melhor qualidade de sono e maior tempo de sono profundo, a fase mais restauradora. Há trabalhos sugerindo, inclusive, que noites mais quentes se correlacionam com relatos de sono inquieto. O padrão não surpreende quem vive em locais quentes: quando a madrugada não esfria, o descanso escapa.

Organizações de sono costumam recomendar ambientes em torno de 18 °C (cerca de 65 °F) para dormir bem. Chegar a essa faixa sem ar-condicionado, durante ondas de calor, não é trivial. A técnica do lençol úmido pode ajudar a aproximar o corpo dessa sensação térmica, mesmo quando o termômetro insiste em números altos.

A física impõe limites. O resfriamento por evaporação depende da umidade relativa do ar. Em clima seco, a água evapora rapidamente e retira mais calor; em clima úmido, a evaporação se arrasta, e a sensação pode virar um “pegajoso e morno” pouco agradável. Outro ponto é a ventilação: um quarto sem circulação acumula vapor, atrapalha a evaporação e deixa o ambiente abafado.

Há também a pele. Pessoas com dermatite atópica, eczema ou sensibilidade cutânea podem sentir irritação por contato prolongado com tecido úmido. Se a pele coça, avermelha ou arde, é sinal para buscar outra estratégia. Higiene do material conta: tecidos que secam lentamente em ambientes úmidos podem favorecer mofo e bactérias.

Em geral, o método se adapta a quem vive em regiões áridas, sem ar-condicionado, e enfrenta noites quentes. Também pode interessar a quem tenta reduzir consumo de energia. Para outros contextos, a eficácia varia. Às vezes, funciona como apoio temporário enquanto você investe em ventilação melhor ou blackout adequado.


Referências:

Ambient heat and human sleep - As temperaturas ambientes estão aumentando globalmente, com os maiores aumentos registrados à noite. Ao mesmo tempo, a prevalência de sono insuficiente está aumentando em muitas populações, com custos substanciais para a saúde e o bem-estar humanos.  https://arxiv.org/abs/2011.07161

Qual é a melhor temperatura para dormir? A temperatura ambiente ideal para dormir é entre 15,6°C e 18,3°C. No entanto, cada pessoa é diferente, e essa temperatura pode não ser adequada para você. Bebês e idosos também podem precisar de uma temperatura ambiente um pouco mais quente.  https://www.healthline.com/health/sleep/best-temperature-to-sleep

Large Language Models (LLMs) podem explicar cognição?

Cérebro e cognição
Há uma pergunta que ronda qualquer conversa séria sobre inteligência artificial e mente humana: é possível usar um grande modelo de linguagem como um “modelo cognitivo”? A questão não é trivial. Um modelo, no vocabulário científico, não é um clone do fenômeno; é uma simplificação útil, construída para iluminar mecanismos, testar hipóteses e permitir intervenções que seriam impraticáveis no alvo real. Quando o alvo é a mente, mexemos em terreno delicado: expectativas filosóficas, intuições sobre “entendimento” e uma história de controvérsias sobre o que conta como explicação psicológica. Ainda assim, há um caminho frutífero nesse labirinto: tratar os Large Language Models (LLMs) como artefatos científicos — com direito a janela para seus estados internos, controle sobre dados de entrada e um mapa explícito de analogias com as capacidades humanas. 

Antes de dobrar a esquina para as questões técnicas, vale um passo atrás. A ciência sempre se apoiou em modelos. De planetas a proteínas, modelamos sistemas para intervir sobre eles de forma segura e econômica. Um modelo nunca reproduz tudo; seleciona dimensões relevantes e apaga o resto. Quando psicólogos criam “modelos cognitivos”, o script é o mesmo: construir um artefato computacional que capte princípios de um processo mental — percepção, decisão, linguagem — e, a partir dele, gerar previsões mensuráveis. Essa prática teve idas e vindas. Redes neurais simples foram acusadas de não lidar com símbolos; modelos bayesianos foram criticados por parecerem distantes da implementação neural. O paradoxo é conhecido: quanto mais abstrato, mais claro; quanto mais biológico, mais opaco. A utilidade nasce do equilíbrio entre essas tensões.

Os LLMs entram nessa conversa com um detalhe que reorganiza o tabuleiro: escala. Treinados para prever sequências de palavras em corpora gigantescos, esses sistemas aprenderam a gerar texto condicionado ao contexto. Quando recebem uma “instrução” (prompt), realizam tarefas diversas: resumo, tradução, programação, redação. O termo técnico que primeiro chamou atenção foi “aprendizado em poucos exemplos” (few-shot learning): a capacidade de ajustar o comportamento com base em instruções breves, às vezes sem exemplos explícitos. Para quem modela cognição, isso abre uma avenida. Não se trata de perguntar se o modelo “entende” como humanos, mas de investigar que regularidades emergem quando um algoritmo conhecido encontra um certo regime de dados. A questão investigável muda de lugar: do rótulo “entendimento” para propriedades mensuráveis — generalização, sensibilidade a estrutura, dependência de contexto, robustez a intervenções.

Essa mudança de foco recoloca a linguagem em perspectiva. Humanos exibem “aprendizado estatístico”, a habilidade de extrair regularidades de sequências auditivas e visuais desde o berço. Redes recorrentes e, mais recentemente, arquiteturas baseadas em atenção (transformers) mostraram-se férteis para explorar esse fenômeno. Trocando em miúdos: quando variamos sistematicamente o tipo de estrutura disponível no treino, observamos como o modelo “descobre” padrões e até onde vai sua generalização. Existem gramáticas que surgem com pouquíssimos exemplos; existem construções que exigem muito mais. Em certos casos, mesmo sem ver um exemplo direto, o sistema aprende a regra porque o conjunto de pistas indiretas é suficiente. Essa ideia, aprender sem exemplos explícitos, por alinhamento estrutural, tem afinidade com debates clássicos sobre a aquisição de linguagem.

Um cético poderia perguntar: mas o humano criança não lê bilhões de palavras. A comparação é justa e precisa aparecer logo de cara. O aprendizado humano opera com amostras limitadas, ruído sensorial, canais múltiplos (visão, toque, socialidade), objetivos concorrentes. LLMs, ao contrário, são expostos a volumes de texto sem precedentes, e suas parametrizações têm bilhões de pesos. Essa assimetria cria disanalogias reais: efeitos de “contaminação de dados” (quando o teste aparece no treino), dependência de curadoria opaca, ajustes finais com reforço a partir de preferências humanas (o famoso RLHF) que redesenham o comportamento para ficar “mais útil” em conversa. A honestidade intelectual exige que isso seja dito sem maquiagem. A saída não é negar a diferença, e sim definir qual mapeamento pretendemos entre modelo e mente: o modelo não encarna uma criança; ele implementa uma classe de algoritmos de previsão sobre linguagem. É esse mecanismo, previsores condicionais em larga escala, que nos interessa como lente sobre certos aspectos do aprender humano.

Um bom modelo científico precisa permitir intervenções que o sistema original não comporta. Essa é a chave. Em humanos, sondamos o cérebro com medidas indiretas e ruidosas. Em uma rede neural, podemos inspecionar unidades, camadas, trajetórias de ativação; podemos “lesionar” partes, controlar inputs de forma radical, reconstruir a história de aprendizagem. Duas estratégias se destacam. A primeira é o “probing” (sondagem): treinar decodificadores para verificar que tipo de informação está codificada em representações internas. A segunda é o “criado controlado” (controlled rearing): manipular o ecossistema de treino, a quantidade, o conteúdo, a ordem temporal, e observar quais representações emergem. Quando essas duas estratégias convergem, ganhamos poder causal: não só sabemos que o modelo acerta, como sabemos por qual trilha representacional ele chega lá.

Há episódios instrutivos nessa direção. Um exemplo famoso discute a capacidade de uma rede em aprender o operador relacional “mesmo” — o conceito de identidade. Por anos, argumentou-se que esse tipo de relação simbólica seria inalcançável para sistemas conexionistas. Experimentos recentes mostram que redes conseguem, sim, induzir o “mesmo/diferente” como um operador abstrato e, quando sondadas, exibem representações que desempenham papel análogo a um símbolo. O debate deixa de ser “pode ou não pode?” para virar “em que condições emerge, e como se manifesta?”. Nessa virada, o tom deixa de ser metafísico e se torna empírico, com ganho metodológico para ambos os lados.

E se formos para um terreno socialmente mais espinhoso, como “teoria da mente” (ToM), a habilidade de representar crenças e desejos alheios? Avaliações iniciais sugeriram que certos LLMs resolviam tarefas clássicas de falsa crença. Sequências seguintes de estudos mostraram um quadro mais matizado: desempenho sensível a variações triviais na formulação, inconsistências entre modelos, ganho com ajustes de prompt, perdas quando a tarefa exige transferência robusta. O que isso nos diz? Que linguagem carrega muitos indícios de estados mentais — verbos como “pensar”, “acreditar”, “querer” são onipresentes e que um preditor treinado massivamente pode capturar algumas regularidades pragmáticas envolvidas em raciocínio social. Mas também nos lembra que “passar um teste” não basta para atribuir arquitetura cognitiva equivalente. A pista mais promissora está em perguntas que quase ninguém faz: que representações internas desses modelos separam crença de desejo? Que padrões de entrada são indispensáveis para aprender a atribuir estados mentais? Como fica o desempenho quando retiramos sistematicamente expressões mentalistas do treino?

O que puxa um fio importante: transparência e reprodutibilidade. Muitos dos sistemas mais potentes são oferecidos como serviços com acesso limitado. Sem parâmetros abertos, sem dados de treino, sem controle de semente aleatória, a reprodutibilidade fica comprometida. Um resultado hoje pode não se repetir amanhã; um “acerto” pode estar apoiado em memorizações específicas e invisíveis. Para a comunidade que modela cognição, isso não é detalhe técnico, é um bloqueio epistemológico. Sem a possibilidade de intervir, comparar versões, rodar ablações, perdemos justamente aquilo que transforma um artefato em modelo científico. Não é coincidência que chamadas por modelos abertos, com corpora documentados e pesos disponíveis, estejam crescendo. Quando um campo inteiro depende de caixas-pretas semanais, a ciência perde fôlego.

Vale insistir nesse ponto porque ele organiza o restante da discussão: um bom modelo cognitivo não precisa “ser” humano; precisa ser acessível, manipulável e mapeável de forma clara para as capacidades que queremos compreender. Esse refrão reaparece aqui porque sustenta as decisões metodológicas mais difíceis. Ao comparar humanos e LLMs em tarefas de linguagem, por exemplo, não buscamos equivalência fenomenológica total. Buscamos relações de analogia: em quais condições uma família de algoritmos de previsão gera comportamento análogo? Onde reside a diferença? Como variam as respostas quando controlamos as pistas disponíveis? Essa perspectiva organiza investigações cumulativas, e não brigas semânticas sobre “entendimento”.

Há construções que exigem longa cadeia de dependências, como discursos aninhados ou concordância em longa distância. Pesquisas que variam a quantidade de dados mostram curvas interessantes: para certas estruturas, uma fração mínima de exposição já produz generalização; para outras, o salto aparece apenas com ordens de magnitude a mais. Ao retirar exemplos diretos da construção, mas manter pistas indiretas, alguns modelos ainda aprendem, sinal de que não estamos apenas diante de “tabelas de lookup”, e sim de abstrações que capturam regularidade estrutural. Esse tipo de experimento, comum em cognição, ganha potência quando feito com artefatos de código aberto, nos quais podemos repetir, estressar, refinar.

Em paralelo, a questão do “contágio” de dados exige cuidado. Se benchmarks públicos são usados no treino, os resultados inflacionam. As avaliações mais sérias multiplicam controles: versões parafraseadas, composições adversariais, itens sintéticos, variações de superfície. Essa engenharia de testes não é perfumaria; é o que distingue um efeito de memorização de um efeito de competência. Curiosamente, o mesmo raciocínio vale para humanos: crianças podem “decorar” pedaços do input sem dominar a regra. O método científico é simétrico: blindar o teste para que ele capture a propriedade que nos interessa.

Em torno desse núcleo, emergem mal-entendidos recorrentes. Um deles é a demanda por “biologicidade”: se não se parece com cérebro, não serve para explicar a mente. Esse argumento confunde níveis de análise. Um circuito elétrico pode não parecer um neurônio, mas explicar com precisão o comportamento de um receptor auditivo em certas frequências. Uma equação diferencial não tem sinapses, mas modela com elegância a dinâmica de populações. O que define um bom modelo é a fidelidade às regularidades relevantes, a capacidade de gerar previsões e a abertura à refutação. Para certos problemas, por exemplo, inferência pragmática em linguagem, abstrações probabilísticas oferecem claridade que um mapa sináptico não entrega. Para outros, por exemplo, tempo de reação motor, detalhes biológicos são inescapáveis. O “encaixe” entre fenômeno e formalismo é uma arte que a psicologia vem aprendendo há décadas.

Outra confusão frequente gira em torno de “consciência” e “intencionalidade”. Atribuir a um LLM as mesmas qualidades fenomenológicas de um sujeito humano é deslocar o debate para um terreno metafísico onde os progressos empíricos ficam reféns de intuições. Em vez disso, focamos em propriedades operacionais: rastros de inferência, estabilidade de respostas a intervenções, sensibilidade a contexto social codificado em linguagem. Ao manter a régua nesse nível, evitamos tanto o endeusamento quanto o descarte apressado.

Mas e o risco de circularidade? Se treinamos um modelo em textos escritos por humanos, é natural que ele reflita padrões cognitivos humanos. O ponto crucial está no que fazemos com essa circularidade. Se a tomamos como trivialidade e paramos por aí, nada aprendemos. Se a exploramos com intervenções controladas, removendo pistas, manipulando distribuição de tópicos, invertendo frequências, podemos isolar o papel de certas estruturas e identificar quais capacidades dependem de exposição explícita e quais emergem por composição. Esse tipo de “cirurgia” está fora do nosso alcance com crianças aprendendo sua língua materna, mas é perfeitamente viável com modelos.

Há também o terreno fértil da comparação entre arquiteturas. Como muda o perfil de generalização quando trocamos recorrência por atenção? Quais efeitos são devidos ao objetivo de treino — previsão de próxima palavra — e quais ao ajuste posterior via feedback humano? Quando observamos ganhos em raciocínio lógico após um estágio de “chain-of-thought”, estamos medindo competência nova ou apenas a adoção de um formato de resposta que torna visível uma heurística antiga? Perguntas assim pedem experimentos de ablação, reexecuções com sementes controladas, replicações em corpora sintéticos. E tudo isso remete, de novo, à necessidade de acessibilidade.

A discussão sobre “tamanho” merece cuidado separado. Redes maiores tendem a performar melhor em uma variedade de benchmarks, o que levou a uma espécie de “escala como destino”. Mas nem toda capacidade escala da mesma maneira. Há efeitos de platô, reversões, regressões por sobreajuste a estilos particulares de texto. Em psicologia, é chamado de atenção para “curvas de aprendizado” que mudam de inclinação quando um novo princípio representacional é conquistado. Talvez algo análogo ocorra aqui: certos marcos só aparecem quando o espaço de hipóteses interno se torna rico o bastante. A pergunta útil não é “quanto maior, melhor?”, e sim “que princípio novo aparece quando passamos de X para Y?”. A resposta, se bem delineada, informa teorias sobre aquisição de regras, composição e abstração, temas centrais na ciência cognitiva.

Uma linha promissora de pesquisa usa os LLMs como “baseline” para entender o que a exposição puramente linguística explica. Se um fenômeno comportamental em humanos também aparece num modelo treinado só com texto, ganhamos um argumento de parcimônia: talvez a linguagem carregue pistas suficientes para aquela habilidade. Se não aparece, duas hipóteses sobem no pódio: ou a exposição humana inclui canais não linguísticos indispensáveis, ou o objetivo de treino precisa mudar (por exemplo, incorporar ação e percepção). Em ambos os casos, o modelo nos empurra a formular melhor as condições de aprendizagem.

No meio de tanta premissa técnica, há um fio reflexivo que não quero perder: por que essa conversa mobiliza tanto desconforto? Parte vem do receio de reduzir a mente a estatísticas de palavras. Parte vem da história recente de exageros no marketing de IA. Parte vem de uma intuição legítima de que experiência encarnada, corpo e socialidade importam para formar conceitos. O entendimento aqui não é aceitar um reducionismo apressado, mas praticar um pluralismo disciplinado: usar LLMs como uma entre várias janelas, com funções específicas, limites claros e integração honesta com outros níveis de descrição, do neurônio à cultura.

Para tornar esse pluralismo operacional, algumas práticas ajudam. Documentar corpora e tornar públicas as listas de exclusão e inclusão. Fixar sementes e registrar versões. Publicar pesos e ferramentas de instrumentação sempre que possível. Desenvolver bancos de testes que variam sistematicamente forma e conteúdo, com dificuldade controlada e pistas dosadas. Estimular reavaliações entre grupos independentes, inclusive adversariais. 

Volto ao entendimento, agora com outra luz: o valor de um modelo cognitivo está em sua capacidade de ser questionado. Queremos que falhe em condições diagnósticas, que revele seus limites, que sirva de contraexemplo para teorias otimistas demais. Um LLM fechado, estável por decreto, intocável em seus dados, pode ser ótimo produto; como modelo científico, é tímido. Quando abrimos a caixa, colocamos a comunidade para conspirar com e contra o artefato e é dessa fricção que saem os aprendizados mais sólidos.

Há também um aspecto pedagógico nessa história. Ao explicar o que é um LLM para quem não vive nas trincheiras da Inteligência Artificial, ganharíamos muito ao dizer algo simples: é um preditor de linguagem que aprendeu a continuar sequências de texto com base em um oceano de exemplos. Esse preditor é surpreendentemente bom em capturar padrões de uso, reempacotar conhecimento enciclopédico e simular vozes estilísticas. Quando perguntamos se isso “entende” como um humano, mudamos o jogo sem perceber. A pergunta produtiva é: o que a habilidade de prever palavras nos revela sobre o modo como humanos extraem, combinam e generalizam regularidades linguísticas? 

E quando a conversa vai para fora da linguagem? Sobre física do senso comum, planejamento motor, percepção espacial, a história é menos generosa. Um sistema treinado só com texto tropeça em tarefas que exigem interação com mundo, feedback sensório-motor, aprendizado causal fora da palavra. Aqui, os LLMs podem ser parte da solução, como módulos linguísticos acoplados a agentes que agem e sentem, mas dificilmente serão a peça única. Isso, longe de ser um golpe fatal, é um convite a arquiteturas híbridas e a programas de pesquisa que misturam modalidades.

No fim da leitura, talvez fique uma sensação dupla: desconfiança e curiosidade. É uma combinação saudável. A desconfiança nos protege de confundir ferramenta com teoria. A curiosidade nos empurra a experimentar, abrir, sondar. Se a ciência cognitiva abraça os LLMs nesse espírito, ganha um laboratório vivo para estudar como estruturas linguísticas e estatísticas podem dar origem a comportamentos complexos. Se mantivermos a régua do método, intervenções claras, mapas de analogia explícitos, reprodutibilidade como princípio, o risco de delírio diminui, e o espaço para descobertas reais aumenta.

Eu gosto de imaginar o seguinte exercício mental. Suponha que amanhã surja um corpus anotado de forma impecável, um conjunto de pesos aberto e uma ferramenta de instrumentação que nos permita “puxar” uma camada do modelo e observar como ela responde a variações mínimas na estrutura de uma frase. Suponha que possamos retirar do treino todo verbo mentalista e observar como isso afeta tarefas de raciocínio social. Suponha que possamos treinar versões idênticas do modelo, exceto por uma única diferença na distribuição de pronomes, e medir como isso altera inferências de correferência. Essa bateria de experiências, ainda que hipotética, não é ficção científica. É um roteiro de pesquisa dentro do nosso alcance, desde que escolhamos as ferramentas que preservam o caráter público e manipulável da ciência.

Esse roteiro não invalida a importância de teorias psicológicas clássicas, ao contrário, oferece um espaço de teste. Hipóteses sobre o papel de pistas pragmáticas, sobre a emergência de operadores lógicos, sobre a necessidade de input multimodal podem ser levadas ao ringue com modelos de linguagem como sparring partners. Quando a teoria prevê X e o modelo mostra Y, ganhamos informação. Quando convergem, consolidamos explicações. Quando divergem, aprendemos onde cavar.

Se a pergunta inicial era “podemos usar LLMs como modelos de cognição?”, a resposta que proponho é pragmática: sim, desde que os tratemos como modelos científicos, não como oráculos, e desde que lutemos por acessibilidade e reprodutibilidade. O caminho passa por abrir caixas, medir mais, controlar melhor, comparar com cuidado. A recompensa é luminosa: entender um pouco mais como sistemas de aprendizado, quer em silício, quer em tecido, podem extrair estrutura de fluxos caóticos de linguagem e transformar isso em comportamento. E, quem sabe, ao fazer esse trabalho com rigor e sobriedade, possamos também recuperar um hábito precioso da boa ciência: trocar certezas grandiloquentes por perguntas que rendem experimentos.


Referências:

Wigner, E. P. — The Unreasonable Effectiveness of Mathematics in the Natural Sciences - A eficácia “desarrazoada” da matemática nas ciências naturais: Ensaio clássico argumentando que estruturas matemáticas descrevem surpreendentemente bem fenômenos físicos, levantando questões sobre por que a matemática “combina” com o mundo. https://web.njit.edu/~akansu/PAPERS/The%20Unreasonable%20Effectiveness%20of%20Mathematics%20(EP%20Wigner).pdf

Ma, W. J. — Organizing probabilistic models of perception - Organizando modelos probabilísticos da percepção: Revisão que sistematiza como modelos bayesianos explicam julgamentos perceptivos sob incerteza e ruído. https://www.cell.com/trends/cognitive-sciences/abstract/S1364-6613(12)00201-X?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS136466131200201X%3Fshowall%3Dtrue

Peterson, J. C.; Bourgin, D. D.; Agrawal, M.; Reichman, D.; Griffiths, T. L. — Using large-scale experiments and machine learning to discover theories of human decision-making - Experimentos em larga escala e aprendizado de máquina para teorias da decisão humana: Propõe pipeline que combina big data e ML para identificar e comparar teorias de tomada de decisão. https://cocosci.princeton.edu/papers/peterson2021-science.pdf

Goodman, N. D.; Frank, M. C. — Pragmatic language interpretation as probabilistic inference - Interpretação pragmática da linguagem como inferência probabilística: Defende que entender enunciados envolve raciocínio bayesiano sobre intenções do falante e contexto. https://langcog.stanford.edu/papers_new/goodman-2016-underrev.pdf

Marcus, G. F. — The Algebraic Mind: Integrating Connectionism and Cognitive Science - A mente algébrica: integrando conexionismo e ciência cognitiva: Argumenta que representações simbólicas e regras são necessárias para explicar cognição, complementando redes conexionistas. https://sites.pitt.edu/~perfetti/PDF/Marcus.pdf

Jones, M.; Love, B. C. — Bayesian Fundamentalism or Enlightenment? On the explanatory status and theoretical contributions of Bayesian models of cognition - Fundamentalismo bayesiano ou esclarecimento? Sobre o estatuto explicativo dos modelos bayesianos da cognição: Avalia forças e limites da abordagem bayesiana enquanto teoria psicológica. http://matt.colorado.edu/papers/jones-love-BBS.pdf

Brown, T. B. et al. — Language Models are Few-Shot Learners - Modelos de linguagem aprendem com poucos exemplos: Mostra que modelos de larga escala podem executar novas tarefas via prompts com poucos ou nenhum exemplo explícito. https://arxiv.org/abs/2005.14165

Elman, J. L. et al. — Rethinking innateness: A connectionist perspective on development - Repensando a inatidez: uma perspectiva conexionista sobre o desenvolvimento: Livro que propõe como aprendizado distribuído ao longo do tempo pode explicar aquisições cognitivas sem fortes pressupostos inatos. https://psycnet.apa.org/record/1997-97335-000

Christiansen, M. H.; Chater, N. — Toward a Connectionist Model of Recursion in Human Linguistic Performance - Rumo a um modelo conexionista de recursão no desempenho linguístico humano: Explora se e como redes conexionistas podem lidar com estruturas recursivas na linguagem. https://onlinelibrary.wiley.com/doi/abs/10.1207/s15516709cog2302_2

Binz, M.; Schulz, E. — Using cognitive psychology to understand GPT-3 - Usando psicologia cognitiva para entender o GPT-3: Aplica paradigmas clássicos de cognição para analisar capacidades e limites de um LLM. https://www.pnas.org/doi/10.1073/pnas.2218523120

Shiffrin, R.; Mitchell, M. — Probing the psychology of AI models - Sondando a psicologia de modelos de IA: Editorial/ensaio que discute boas práticas e armadilhas ao inferir “psicologia” a partir de sistemas de IA. https://www.pnas.org/doi/10.1073/pnas.2300963120

Frank, M. C. — Bridging the data gap between children and large language models - Encurtando o abismo de dados entre crianças e LLMs: Argumenta que a exposição massiva a texto por LLMs contrasta com o input limitado de crianças e discute implicações. https://www.cell.com/trends/cognitive-sciences/abstract/S1364-6613(23)00203-6?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS1364661323002036%3Fshowall%3Dtrue

Ouyang, L. et al. — Training language models to follow instructions with human feedback - Treinando modelos de linguagem para seguir instruções com feedback humano: Introduz RLHF para alinhar saídas a preferências humanas em tarefas instruídas. https://arxiv.org/abs/2203.02155

Mitchell, M.; Krakauer, D. C. — The debate over understanding in AI’s large language models - O debate sobre “entendimento” em grandes modelos de linguagem: Examina o que “entender” deveria significar e os limites de atribuir entendimento a LLMs. https://www.pnas.org/doi/10.1073/pnas.2215907120

Marcus, G. F.; Vijayan, S.; Bandi Rao, S.; Vishton, P. M. — Rule Learning by Seven-Month-Old Infants - Aprendizado de regras por bebês de sete meses: Experimentos mostram sensibilidade infantil a padrões abstratos (como ABA/ABB) em sequências. https://www.science.org/doi/10.1126/science.283.5398.77

Geiger, A.; Carstensen, A.; Frank, M. C.; Potts, C. — Relational reasoning and generalization using nonsymbolic neural networks - Raciocínio relacional e generalização com redes neurais não simbólicas: Demonstra que redes podem aprender relações “mesmo/diferente” e generalizar além do treino. https://abcarstensen.com/files/GeigerCarstensenFrankPotts2022_neuralNetworkRelationalReasoning.pdf

Geiger, A.; Wu, Z.; Potts, C.; Icard, T.; Goodman, N. D. — Finding Alignments Between Interpretable Causal Variables and Distributed Neural Representations - Alinhando variáveis causais interpretáveis a representações neurais distribuídas: Propõe métodos para mapear variáveis causais humanas em representações internas de redes. https://proceedings.mlr.press/v236/geiger24a/geiger24a.pdf

Zhang, Y.; Warstadt, A.; Li, X.; Bowman, S. R. — When Do You Need Billions of Words of Pretraining Data? - Quando você precisa de bilhões de palavras de pré-treino?: Estuda como a quantidade de dados afeta desempenho e quando ganhos de escala realmente aparecem. https://aclanthology.org/2021.acl-long.90/

Warstadt, A.; Bowman, S. R. — Can neural networks acquire a structural bias from raw linguistic data? - Redes neurais podem adquirir viés estrutural a partir de dados linguísticos brutos?: Investiga se redes derivam preferências estruturais apenas da distribuição do input. https://cognitivesciencesociety.org/cogsci20/papers/0381/0381.pdf

Wellman, H. M. — Theory of mind: The state of the art - Teoria da mente: estado da arte: Revisão abrangente sobre desenvolvimento, medidas e teorias de ToM em humanos. https://www.sv.uio.no/livet-rundt-studiene/studiestart/kollokviefadder/artikler-til-kollokvietreff/tom_stateoftheart_wellman.pdf

Kosinski, M. — Theory of Mind May Have Spontaneously Emerged in Large Language Models - Teoria da mente pode ter emergido espontaneamente em LLMs: Relata desempenho positivo de LLMs em tarefas de crença falsa e discute possíveis mecanismos. https://arxiv.org/vc/arxiv/papers/2302/2302.02083v1.pdf

Ullman, T. — Large Language Models Fail on Trivial Alterations to Theory-of-Mind Tasks - LLMs falham com alterações triviais em tarefas de teoria da mente: Mostra que pequenas mudanças de enunciado derrubam o desempenho, questionando a robustez. https://arxiv.org/abs/2302.08399

Gandhi, K.; Fränken, J.-P.; Gerstenberg, T.; Goodman, N. D. — Understanding Social Reasoning in Language Models with Language Models - Entendendo o raciocínio social em LLMs com LLMs: Introduz avaliações amplas de raciocínio social e discute onde os modelos acertam e erram. https://arxiv.org/abs/2306.15448

Koster-Hale, J. et al. — Mentalizing regions represent distributed, continuous, and abstract dimensions of others’ beliefs - Regiões de mentalização representam dimensões abstratas e contínuas das crenças alheias: Evidência de neuroimagem de que áreas de ToM codificam dimensões abstratas de crenças. https://pmc.ncbi.nlm.nih.gov/articles/PMC5696012/

Ruffman, T.; Slade, L.; Crowe, E. — The Relation between Children’s and Mothers’ Mental State Language and Theory-of-Mind Understanding - Relação entre a linguagem de estados mentais de mães/crianças e a compreensão de teoria da mente: Associa uso de vocabulário mentalista a avanços em ToM infantil. https://srcd.onlinelibrary.wiley.com/doi/abs/10.1111/1467-8624.00435?sid=nlm%3Apubmed

Liesenfeld, A.; Lopez, A.; Dingemanse, M. — Opening up ChatGPT: Tracking openness, transparency, and accountability in instruction-tuned text generators - Abrindo o ChatGPT: rastreando abertura, transparência e responsabilização em geradores ajustados por instruções: Propõe métricas e acompanhamento público do grau de “abertura” de modelos instruídos. https://arxiv.org/abs/2307.05532

Como diferenças individuais afetam a confiança e a mudança de decisão

Núcleo accumbens

Tomada de decisão é o nome dado ao processo pelo qual escolhemos entre opções possíveis. Parece simples, mas envolve muito mais do que o instante do “sim” ou do “não”: inclui comparar alternativas, estimar riscos, atualizar crenças com novas evidências e, às vezes, voltar atrás. Quem nunca pesou prós e contras e, minutos depois, mudou de ideia ao perceber um detalhe que havia passado batido?

Pesquisas em neurociência, psicologia e ciências do comportamento mapearam regiões e dinâmicas que sustentam escolhas, embora ainda existam pontos obscuros. Entre as peças desse quebra-cabeça, uma estrutura ganhou destaque quando o assunto é ponderar custos, benefícios e probabilidades de desfecho: o nucleus accumbens.

O nucleus accumbens integra os gânglios da base, um conjunto subcortical ligado à seleção de ações e ao encaminhamento do que vale ser feito agora. Em termos funcionais, participa do processamento de recompensa e motivação. Vários estudos relatam maior atividade desse núcleo em condições clínicas como dependência química e transtornos de ansiedade, sinal de que valor subjetivo e expectativa se misturam a sintomas e padrões de comportamento.

Com esse pano de fundo, um grupo da University of Minnesota Medical School investigou como a dopamina no nucleus accumbens participa de componentes específicos do decidir. Dopamina, aqui, é um neuromodulador (substância que regula a comunicação neural) que ajusta aprendizado, vigor e escolha. A pergunta norteadora era direta e ambiciosa: variações rápidas de dopamina refletem a confiança que o indivíduo tem na própria avaliação enquanto ainda está ponderando?

Os resultados, publicados na revista Nature Neuroscience, indicam uma ligação entre a dinâmica dopaminérgica no nucleus accumbens e a confiança em decisões no período de avaliação. Em linguagem direta, trata-se de um sinal que acompanha, em tempo real, a crença de estar no caminho certo, antes do compromisso final com uma alternativa.

Os autores argumentam que decidir não é um bloco discreto. Funciona como fluxo contínuo, com fases de avaliação e reavaliação que vão além da previsão imediata de resultados e incorporam valor passado e valor futuro. O corpo clássico de pesquisas, centrado no erro de previsão de recompensa, explica boa parte do aprendizado por reforço, mas deixa lacunas sobre decisões voluntárias e autoguiadas. Outro ponto importante envolve diferenças individuais no processamento de valor, capazes de moldar como a dopamina regula escolhas ao longo do tempo.

Para testar essa visão dinâmica, os cientistas recorreram a uma tarefa neuroeconômica do tipo “Restaurant Row”, comum em estudos de preferência e custo-benefício. A equipe realizou experimentos com camundongos adultos, combinando registro neural e manipulação causal.

Os animais executaram uma tarefa de forrageamento econômico, um paradigma em que cada ação leva a recompensas distintas. Em termos simples, o camundongo podia puxar uma alavanca que liberava imediatamente água açucarada cuja quantidade decaía com o tempo, ou abandonar o ponto e buscar outra oportunidade, com custo de espera e incerteza. Pergunta inevitável: quando você troca um ganho certo por uma aposta futura, o que pesa mais, a paciência ou a urgência?

Enquanto os animais decidiam, os pesquisadores registravam a atividade dopaminérgica no nucleus accumbens por meio de sensores de fluorescência. Em seguida aplicaram optogenética, técnica que usa luz para controlar neurônios geneticamente modificados, permitindo aumentar ou reduzir a liberação de dopamina em momentos pontuais.

Com isso, puderam observar como pequenas alterações no sinal químico mudavam a maneira de avaliar e de reconsiderar opções. Os dados sugerem que a dinâmica da dopamina acompanha a confiança. Picos mais altos se alinham a maior convicção, enquanto quedas sinalizam hesitação. Um achado extra merece atenção. Certos perfis de variação anteciparam momentos de mudar de ideia, como se o sistema estivesse reponderando valores recentes e esperados. Note como o ponto central se reafirma sem alarde. O mesmo sinal que embala convicção também marca a fronteira de uma virada estratégica.

Que implicações isso tem para nós? Em humanos, medir assinaturas de confiança no accumbens pode ajudar a entender escolhas impulsivas ou rígidas. Transtornos associados a decisões pobres, de dependência a transtorno obsessivo-compulsivo, talvez envolvam não só o quanto se espera de uma recompensa, mas a forma como se revisa o próprio julgamento em tempo real. Se a dopamina modula essa revisão, vale explorar intervenções que restaurem a capacidade de avaliar e reavaliar sem aprisionar a pessoa em rotas repetitivas.

Essas intervenções podem ir de treinamentos comportamentais a abordagens farmacológicas cuidadosamente controladas, sempre orientadas por medidas objetivas de valor e confiança. No plano conceitual, a mensagem é valiosa. Decidir não é apenas antecipar resultados. É monitorar a própria certeza e ajustar o curso quando a paisagem muda. Essa perspectiva, ancorada em sinais dopaminérgicos no nucleus accumbens, aproxima a arte de escolher da arte de reconsiderar. 

Pergunta final para levar adiante. Que contexto cognitivo favorece ajustes oportunos sem paralisar pela dúvida? Começa com informação de qualidade, modelos mentais transparentes, tempo suficiente para avaliar custos e benefícios e um espaço que tolere revisões fundamentadas. Tal arranjo dá ao cérebro margem para usar dopamina como régua de valor e como bússola de confiança. Quando a bússola oscila, o sistema não se perde. Ele compara caminhos, reavalia pesos, testa hipóteses e muda de direção se for preciso. E a pergunta inicial ganha uma resposta provisória e prática. A dopamina sinaliza valor, mas também sinaliza certeza. 


Referência:

Individual differences in decision-making shape how mesolimbic dopamine regulates choice confidence and change-of-mind - A sinalização de dopamina no núcleo accumbens é um substrato neural importante para a tomada de decisão. As teorias dominantes geralmente discretizam e homogeneízam a tomada de decisão, quando na realidade ela é um processo contínuo, com componentes de avaliação e reavaliação que vão além da simples previsão de resultados, incluindo a consideração de valores passados e futuros. Um grande volume de estudos examinou a dopamina mesolímbica no contexto do erro de previsão de recompensa, mas ainda existem lacunas importantes na nossa compreensão de como a dopamina regula a tomada de decisão volitiva e autoguiada. Além disso, há pouca consideração sobre as diferenças individuais no processamento de valor que podem moldar como a dopamina regula a tomada de decisão. Aqui, usando uma tarefa de forrageamento econômico em camundongos, descobrimos que a dinâmica da dopamina no núcleo accumbens central refletia a confiança nas decisões durante sua avaliação, bem como tanto o valor passado quanto o futuro durante a reavaliação e mudança de opinião. https://www.nature.com/articles/s41593-025-02015-z

Python: A história de origem

Vídeo do YouTube


Se você é da área de ciências, com certeza já ouviu falar da linguagem de programação Python. Ela aparece em todo lugar: biologia, ciências humanas, clima, inteligência artificial. Por quê? Porque junta duas coisas raras: código fácil de ler e um monte de ferramentas prontas para trabalhar com dados, gráficos e modelos.

O que é Python, na prática? É uma linguagem em que você escreve e executa na hora. Você digita algumas linhas, aperta “rodar” e vê o resultado. Isso ajuda a testar ideias rapidamente, algo essencial em pesquisa.  Quer fazer contas com tabelas grandes? NumPy ajuda com matrizes (tabelas de números) e operações rápidas. Precisa de dados com colunas nomeadas, filtros e junções? Pandas organiza tudo em DataFrames (tabelas com rótulos, parecidas com planilhas). Precisa visualizar? Matplotlib e Seaborn geram gráficos de linhas, barras e mapas de calor em poucos comandos. Vai treinar um modelo para reconhecer padrões? Scikit-learn oferece algoritmos clássicos de aprendizado de máquina com uma forma de uso parecida entre eles.

De onde veio essa cultura? Python foi criado por Guido van Rossum nos anos 1990 com uma ideia simples: código claro vale ouro. Existe até um textinho famoso, o “Zen of Python”, que dá conselhos como “legibilidade conta” e “casos comuns devem ser fáceis”. Para quem escreve métodos e precisa que outras pessoas repitam o experimento, isso faz toda a diferença.

Neste documentário do YouTube você vai conhecer mais sua história e saber como esta linguagem de programação tem sido muito importante na ciência atual.

Quando o núcleo “vaza”: o que o rutênio diz sobre a Terra profunda

Terra Quente

Imagine a Terra recém-nascida, um oceano de magma envolvendo um coração metálico em formação. Nesse cenário, o ferro líquido afunda e puxa consigo elementos que gostam de ferro, os siderófilos, como o rutênio. A narrativa clássica termina aqui: tudo o que é siderófilo teria sido sequestrado para o núcleo externo (um mar denso de metal líquido), longe do manto e, mais ainda, da superfície. Só que novas pistas químicas e sísmicas contam uma história mais inquieta. E se parte desse material do núcleo estiver, sim, encontrando um caminho de volta?

Falamos de duas camadas com densidades e composições distintas.

Núcleo externo: líquido, composto majoritariamente de ferro e níquel, onde nascem as correntes metálicas que alimentam o campo magnético.

Manto: sólido que flui lentamente, rico em silicatos, responsável por convecção e plumas que alimentam vulcões de ponto quente.

Por décadas, a interface entre esses domínios foi tratada como uma fronteira impermeável para o metal líquido. As novas evidências enfraquecem essa ideia. A pergunta passa a ser como o material cruzaria a fronteira e onde ele apareceria para nós.

Isótopos são versões do mesmo elemento com massas diferentes; seus padrões isotópicos funcionam como impressões digitais. O rutênio-100 (e a família de isótopos de Ru) é siderófilo: na Terra primordial, preferiu o ferro e partiu para o núcleo. Se hoje encontramos assinaturas isotópicas de Ru típicas do núcleo em rochas vulcânicas, duas coisas se tornam plausíveis:

o magma que as formou interagiu com material de origem nuclear, ou

o manto guardou um reservatório primitivo com o mesmo padrão, preservado e só agora amostrado.

O primeiro cenário ganhou tração porque os locais amostrados, Galápagos, Havaí e Ilha de Baffin, são clássicos hotspots: pontos quentes alimentados por plumas mantélicas que sobem das profundezas, potencialmente desde a base do manto.

Abaixo da África e do Pacífico, análises sísmicas há anos mapeiam estruturas gigantes na base do manto, na fronteira com o núcleo. Em linguagem técnica, aparecem como regiões de baixa velocidade de cisalhamento (conhecidas pela sigla em inglês LLSVPs): “blocos” continentais de cristais quentes, de granulação grande, com propriedades elásticas anômalas. O quadro que emerge é sedutor: plumas podem varrer essas zonas e carregar traços de material que escapa do núcleo externo, eventualmente trazendo para cima exatamente o tipo de assinatura isotópica observada nas lavas.

Pergunta direta: se o núcleo sempre foi uma prisão perfeita para o ferro e seus parceiros, de onde mais viria um padrão de rutênio tão parecido com o esperado para o núcleo?

Três peças, um mesmo retrato

Geoquímica: rochas vulcânicas de hotspots exibem razões isotópicas de Ru compatíveis com material do núcleo.

Geofísica: LLSVPs e outras anomalias na base do manto sugerem canais onde trocas químicas são possíveis.

Tectônica térmica: plumas que atravessam essa zona servem de elevadores para sinais profundos.

Repare no ponto-chave: a velha noção de uma barreira intransponível entre núcleo e manto não explica bem o conjunto de dados.

Ciclo profundo de elementos, elementos siderófilos podem reentrar na química de superfície, ainda que em traços, influenciando catálise natural, oxirredução em magmas e cronômetros geoquímicos baseados em isótopos.

Plumas como sondas, hotspots deixam de ser apenas fontes de basalto “exótico” e viram fios-terra conectados ao limite núcleo–manto.

Evolução da Terra, modelos de diferenciação primitiva (a grande separação metal–silicato) ganham ciclos de retorno e mistura tardia que podem explicar por que certos traços não batem com previsões simples.

Conceitos em linhas:

Isótopo: mesmo elemento, massas distintas; as razões isotópicas funcionam como assinaturas de origem.

Siderófilo: elemento que prefere ferro; na Terra primitiva, acabou no núcleo.

Pluma mantélica: coluna quente e de baixa densidade que sobe do manto profundo e pode alimentar vulcanismo de ponto quente.

LLSVP: megaestrutura na base do manto com propriedades sísmicas anômalas; possível ponte para trocas com o núcleo.

Nem toda assinatura de Ru implica “núcleo na superfície”. Uma alternativa discutida é um reservatório antigo no manto (material primordial “estocado” desde a diferenciação), periodicamente amostrado por plumas. Como separar as hipóteses? Com mais marcadores. Combinar Ru com outros siderófilos (ósmio, irídio, platina) e com sistemas radioisotópicos sensíveis ao tempo (por exemplo, Hf-W) ajuda a desenhar a linha do tempo entre formação do núcleo, mistura e emergência do sinal.

Entender trocas núcleo–manto afeta como lemos o campo magnético ao longo das eras, como estimamos fluxos de calor que dirigem placas tectônicas e como pensamos o orçamento de elementos catalíticos que podem ter influenciado a química prebiótica. No fundo, é sobre passado profundo explicando processos atuais.


Referência:

Earth’s Core Appears To Be Leaking Up and Out of Earth’s Surface - https://www.quantamagazine.org/earths-core-appears-to-be-leaking-up-and-out-of-earths-surface-20250804/

Moléculas com elementos superpesados

Tabela Periódica

Há uma zona da Tabela Periódica que a gente costuma olhar de soslaio: aquele bloco deslocado lá embaixo, onde vivem lantanídeos e actinídeos. Em livros didáticos, ele aparece como um apêndice arrumadinho; na prática, é um território onde a química encosta na física nuclear e onde as regras familiares da tabela começam a se contorcer. Foi exatamente aí que uma equipe do Lawrence Berkeley National Laboratory (LBNL) decidiu fincar uma bandeira: produzir e identificar diretamente moléculas contendo o elemento nobélio (No, Z = 102) e compará-las, lado a lado, com moléculas de actínio (Ac, Z = 89). Parece detalhe técnico? É desses detalhes que derrubam ou confirmam colunas inteiras do nosso entendimento químico.

A chefe da empreitada, Jennifer Pore, foi direta: medir as propriedades químicas de No em moléculas reais abre caminho para revisar a posição dos elementos mais pesados na tabela. E não estamos falando de um palpite teórico: é a primeira vez que um elemento tão pesado é observado em uma molécula com identificação direta da espécie química. O que sai desse tipo de medição não é só curiosidade de rodapé; é um teste de estresse para a ideia de que a Tabela Periódica continua “prevendo” comportamentos à medida que descemos os degraus dos números atômicos.

A Tabela Periódica é uma espécie de mapa mental: grupos (colunas) juntam elementos com propriedades parecidas; períodos (linhas) organizam o aumento do número de prótons (Z). Essa organização dá um poder preditivo delicioso: dá para palpitar o ponto de fusão, reatividade, estados de oxidação. Só que esse mapa foi desenhado, historicamente, com base em elétrons que obedecem a velocidades não relativísticas. Quando Z cresce demais, entra em cena um efeito que costuma ficar escondido nas aulas básicas: relatividade.

Dito isso: núcleos muito carregados puxam com tal força os elétrons mais internos que efeitos relativísticos passam a contrair níveis "s" e "p", expandir "d" e "f", reforçar acoplamentos spin-órbita e turbinar blindagens eletrônicas (blindagem é quando elétrons mais próximos do núcleo “protegem” os externos do campo positivo). Se a distribuição eletrônica muda, a química muda. A ponto de uma pergunta voltar com força: os elementos mais pesados estão mesmo nas “casas” certas da tabela?

Entre os actinídeos (Z > 88), esse embaralhamento fica particularmente picante porque os orbitais "5f" entram em jogo. Dois extremos servem de âncora:

Actínio (Ac), o primeiro da série, não tem elétrons em "5f" e, de tão raro, teve estrutura cristalina em compostos resolvida só recentemente.

Nobélio (No), na outra ponta, carrega 14 elétrons em "5f" (configuração cheia) e permanece um enigma químico por uma razão simples: ele quase não existe na natureza, vive por instantes e precisa ser fabricado átomo a átomo.

Se as propriedades químicas variam ao longo da série, e tudo indica que variam, comparar Ac e No em ambiente molecular controlado vale ouro.

Produzir Ac e No não é “misturar reagentes”. É física de aceleradores. A equipe do LBNL partiu de feixes de cálcio-48 (⁴⁸Ca) acelerados no Ciclótron de 88 polegadas. Esses projéteis foram lançados contra dois alvos distintos:

¹⁶⁹Tm (túlio) para gerar actínio,

²⁰⁸Pb (chumbo) para gerar nobélio.

As reações nucleares criam uma sopa radioativa onde os íons de interesse são minoria. Entra então o Berkeley Gas-filled Separator, que funciona como um porteiro exigente: separa íons actinídeos do material de feixe não reagido e dos subprodutos. O fluxo “limpo” segue para o coração químico do experimento: FIONA — For the Identification Of Nuclide A — um espectrômetro de massas de alta velocidade acoplado a uma câmara “gas catcher” (capturadora de gás).

No "gas catcher", reina hélio ultrapuro com traços calibrados de H₂O e N₂, a cerca de 150 torr. Os íons de Ac e No chegam quentes e supercarregados; batem no gás, perdem energia, relaxam para o estado 2+ e, nesse “banho”, acabam se coordenando com as impurezas controladas. É aí que formam-se complexos de coordenação, pequenas moléculas onde o íon metálico 2+ interage com água e nitrogênio. Pense nesses ligantes como “mãos” que seguram o metal pelo lado certo, permitindo comparar geometrias e forças de ligação entre Ac²⁺ e No²⁺.

Um detalhe elegante: a mistura gás-íon sai por um orifício de 1,3 mm e entra numa região de pressão de poucos torr. Essa transição provoca expansão supersônica, que resfria o conjunto de forma abrupta e estabiliza as espécies moleculares recém-nascidas. A química, aqui, é literal e temporal: nascem, esfriam, sobrevivem por tempo suficiente para serem medidas.

As moléculas passam por um RFQ cooler-buncher (uma armadilha quadrupolar de rádio-frequência) que aprisiona os íons por até 50 ms. Nesse período, as colisões com o hélio terminam de termalizar o conjunto (todo mundo chega à mesma temperatura). Em seguida, as espécies são reaceleradas e entram na etapa que dá o selo de autenticidade: espectrometria de massas de alta precisão. É aqui que o FIONA brilha.

Estudos anteriores com elementos superpesados eram um pouco “arqueológicos”: observavam partículas secundárias do decaimento radioativo para inferir, indiretamente, qual molécula poderia ter existido. O problema é que esse caminho vive de suposições importadas de química “leve”. Com FIONA, a equipe mede diretamente a razão massa-carga das espécies moleculares que acabou de formar. É rápido (crucial, porque esses átomos têm prazos curtíssimos) e sensível (importante, porque as taxas de produção são baixas). O resultado é uma identificação positiva da espécie química, nada de listas de possibilidades: é esta molécula aqui.

Quando alguém diz que No é o elemento mais pesado já observado em uma molécula identificada diretamente, está dizendo também que a química dos superpesados saiu da inferência e ganhou medição limpa. Daí vem a confiança para comparar como No²⁺ e Ac²⁺ se ligam a H₂O e N₂ e para detectar diferenças estruturais que se alinham com aquilo que a relatividade sugeria: a distribuição eletrônica muda, a química muda junto.

Se a missão era “comparar extremos”, faz sentido olhar ligantes simples que toda química de coordenação respeita: água (forte candidata a formar aquo-complexos) e nitrogênio (que sonda outras geometrias e forças de ligação). A equipe relata diferenças claras de afinidade e modo de coordenação entre Ac²⁺ e No²⁺. Não é apenas questão de “grudar mais forte ou mais fraco”; trata-se de como o íon organiza o entorno, quantas moléculas cabem na primeira esfera de coordenação, que simetria emerge e como isso aparece no espectro de massas.

Por que essas minúcias importam? Porque as séries "f" (lantanídeos e actinídeos) carregam uma reputação de “parecidos entre si”. É verdade em boa medida para lantanídeos, mas entre os actinídeos o peso relativístico inclina a balança. Se No — com 5f cheio — se comporta de modo distinto de Ac — sem 5f — em complexos reais, temos um ponto de apoio experimental para ajustar tendências periódicas na zona mais nebulosa da tabela.

Será que a Tabela Periódica segue predizendo propriedades com a mesma elegância quando atravessamos Z = 100? Vale guardar essa pergunta.

A beleza do experimento está na costura. Cada etapa depende da outra e todas precisam ser rápidas e limpas:

Produção nuclear: acelerador gera átomos raríssimos em condições controladas.

Separação: o Gas-filled Separator filtra o que interessa.

Formação molecular: o gas catcher com He + H₂O + N₂ em 150 torr cria o ambiente para complexos 2+ surgirem.

Resfriamento supersônico: o jato que sai pelo orifício de 1,3 mm evita que as moléculas se desfaçam antes da medida.

Aprisionamento RFQ: os íons assentam a poeira térmica.

FIONA: pesa e identifica.

Essa sequência cuida de um problema clássico na química de superpesados: tempo. Muitos isótopos vivem milissegundos ou segundos. Fazer química com relógio correndo exige engenharia de fluxo e espectrometria veloz. Sem isso, voltamos às inferências de decaimento.

Se você acompanha terapias emergentes, talvez tenha ouvido falar do ²²⁵Ac. Esse isótopo do actínio emite partículas alfa e, acoplado a vetores moleculares (anticorpos, peptídeos), tem se mostrado promissor em oncologia para atingir metástases com doses locais altíssimas e pouca penetração (ótimo para preservar tecido saudável). O gargalo, porém, é fornecimento: pouco ²²⁵Ac é produzido e, por ser raro, muitas perguntas básicas de química ficam sem resposta, porque todo mundo corre para aplicações clínicas.

E onde entra a pesquisa com Ac²⁺ e ligantes simples? Entram as regras de coordenação. Entender como o actínio se liga a água, nitrogênio e, por extensão, a grupos funcionais de biomoléculas, ajuda a projetar quelantes estáveis, rotas de produção e protocolos de purificação. Em português claro: menos perda, mais estabilidade, mais chance de levar a dose certa ao tumor. Ciência básica tem dessas: um ajuste fino em química de coordenação melhora o pipeline clínico.

A Tabela Periódica não vai desmoronar. O ponto é outro. Para Z altos, a relatividade impõe correções que deformam tendências sutis. O que a equipe de Pore está dizendo, com dados na mão, é: parem de inferir exclusivamente por analogia com vizinhos mais leves. Meçam. Os actinídeos respondem a "5f" de maneiras que o ensino introdutório não captura. E superpesados, que já flertam com a região “ilha de estabilidade” no nuclear, podem exibir química que não encaixa confortavelmente nos quadradinhos onde os colocamos por tradição.

É aqui que aquela pergunta volta: até onde a tabela prevê sem ajuda? Minha leitura é pragmática: a tabela continua sendo o melhor mapa que temos, mas para Z > 100 o mapa precisa de correções relativísticas na legenda. E essas correções variam de elemento para elemento; não dá para generalizar com base em meia dúzia de medidas de bancada.

Identificação direta importa: parar de inferir moléculas por decaimento e pesá-las muda o patamar de confiança.

Ac vs No expõe 5f: comparar extremos da série revela assimetrias químicas coerentes com efeitos relativísticos.

Aplicações não são longínquas: do ²²⁵Ac em terapia alfa a materiais e separações químicas, entender coordenação acelera tecnologia.

Perceba como esses três pontos se conectam. São formas diferentes de dizer que química de superpesados só avança quando física nuclear, engenharia de feixes, dinâmica de gases e espectrometria correm em paralelo.

Quais ligantes além de H₂O e N₂ revelam diferenças ainda mais marcantes entre Ac²⁺ e No²⁺? Fosfinas? Haletos? Carboxilatos?

Como variam estados de oxidação acessíveis em condições brandas? Há janelas para No³⁺ ou No⁺ em ambientes específicos?

Que papel o solvente (e não só a fase gasosa resfriada) joga em estabilidade e cinética desses complexos?

Até onde o FIONA consegue ir em Z e tempo de meia-vida sem perder resolução?

Essas questões mapeiam o caminho natural: ampliar a biblioteca de ligantes, cruzar com teoria relativística robusta e forçar a tabela a mostrar onde precisa ser retocada.

Hoje, a plataforma usa excitação a laser para disparar a química do emissor recém-feito. O sonho para integração industrial é emissores acionados eletricamente, como LEDs, que dispensem ótica externa pesada. A própria equipe sinaliza esse rumo: incorporar emissores elétricos à plataforma que já faz captura gasosa, formação molecular e identificação rápida. Esse casamento simplifica a estrada até chips e módulos capazes de sondar química de elementos raros sem laboratório inteiro em volta.

Lá no começo, como foi mencionado, era medir moléculas com No poderia “sacudir” o rodapé da Tabela Periódica. Volto a ela aqui, sacudir não significa jogar fora; significa ajustar o prumo. A sequência experimental, da produção nuclear à massas de alta precisão, oferece um padrão para outros superpesados. Quanto mais espécies diretamente identificadas, mais sólida fica a base para dizer quem fica onde na tabela e que propriedades anotar no “manual do usuário” de cada quadradinho.

Segue útil, como sempre. Só que, quando o relógio relativístico marca presença, predição sem medida vira chute educado. A boa notícia é que ferramentas como o FIONA tornam medir viável. E medir é o primeiro passo para prever de novo, agora com as correções certas.


Referência:

Direct identification of Ac and No molecules with an atom-at-a-time technique - A tabela periódica fornece uma estrutura intuitiva para entender as propriedades químicas. No entanto, seus padrões tradicionais podem quebrar para os elementos mais pesados ​​que ocupam o fundo do gráfico. Os grandes núcleos de actinídeos ( Z > 88) e elementos superanças ( z ≥ 104) dão origem a efeitos relativísticos que devem alterar substancialmente seus comportamentos químicos, indicando potencialmente que atingimos o fim de uma tabela periódica preditiva 1 . Os efeitos relativísticos já foram citados pela química incomum dos actinídeos em comparação com os de seus colegas de lantanídeo 2 . Infelizmente, é difícil entender o impacto total dos efeitos relativísticos, pois a pesquisa sobre os actinídeos e elementos superanças posteriores é escassa.  https://www.nature.com/articles/s41586-025-09342-y