Mostrando postagens com marcador física. Mostrar todas as postagens
Mostrando postagens com marcador física. Mostrar todas as postagens

Do bit ao qubit

Processador Qubits


Bits se parecem com interruptores: ligados ou desligados. Qubits jogam outro jogo. Pense em uma moeda girando no ar — antes de cair, ela está, de certo modo, em “cara” e “coroa” ao mesmo tempo. É esse comportamento, estranho para a intuição cotidiana, que sustenta a computação quântica. Quando a lógica binária encontra limites, a mecânica quântica oferece um repertório de possibilidades que se combinam e interferem.

Um qubit (quantum bit) é a unidade básica de informação em um computador quântico. Um bit clássico assume 0 ou 1. O qubit pode ocupar uma superposição (combinação linear de estados) descrita por ψ = α|0⟩ + β|1⟩, em que α e β são amplitudes complexas. No ato da medida (observação com um aparelho), a superposição colapsa para 0 ou 1 com probabilidades proporcionais a |α|² e |β|². Parece paradoxal? O ganho computacional nasce justamente dessa sobreposição de possibilidades antes do registro final.

Com n qubits, o espaço de estados tem tamanho 2ⁿ. Dez qubits já codificam 1.024 configurações simultâneas; cinquenta chegam à casa do quadrilhão. Não é que o computador “faça tudo ao mesmo tempo”, e sim que algoritmos habilidosos exploram interferências para reforçar as respostas corretas e cancelar as erradas.

A ideia tomou forma nos anos 1980. Paul Benioff propôs uma máquina de Turing descrita por leis quânticas, e Richard Feynman defendeu que sistemas quânticos seriam os melhores simuladores de si mesmos. Entre o papel e o hardware, havia um abismo: fabricar objetos físicos que realmente sustentassem superposição e coerência (manutenção de fases quânticas) tempo suficiente para calcular.

Além da superposição, qubits podem exibir emaranhamento (correlações não clássicas entre sistemas). O exemplo de vitrine é o estado de Bell (|00⟩ + |11⟩)/√2. Medir o primeiro qubit dá 0? O segundo, medido na mesma base, retorna 0 com correlação perfeita. Einstein apelidou o fenômeno de “ação fantasmagórica à distância”. O que isso diz sobre o real? Que certas relações só fazem sentido quando tratadas pelo formalismo quântico.

Teoria só ganha corpo quando há uma implementação física.

Qubits supercondutores. Em chips resfriados a frações de kelvin, o material torna-se supercondutor e permite circuitos artificiais — transmons, fluxonium — cujo comportamento é regido por níveis quânticos. Empresas como Google e IBM investem nessa rota. Em 9 de dezembro de 2024, o grupo de IA quântica do Google apresentou o Willow, com 105 qubits supercondutores e foco explícito em reduzir erros à medida que a escala cresce. Essa é a fronteira que realmente importa: mais qubits só ajudam se o fator qualidade acompanhar.

Pesquisadores na Rússia relatam qubits baseados em “átomos artificiais” sobre arseneto de gálio, com controle de carga e spin via campo elétrico, além de operações de um qubit no patamar de 99,993% em arquiteturas tipo fluxonium. A mensagem é clara: robustez e controlabilidade são tão decisivas quanto o número bruto de qubits.

Em armadilhas iônicas, qubits são átomos carregados suspensos por campos eletromagnéticos, manipulados por lasers com fidelidades altíssimas. Já os fótons suportam operações em temperatura ambiente e viabilizam esquemas como amostragem de bósons; equipes chinesas produziram demonstrações fotônicas ambiciosas (como a família “Jiuzhang”), úteis para tarefas específicas.

Cada plataforma troca vantagens: supercondutores escalam integração com microeletrônica; íons oferecem fidelidades excepcionais; fótons simplificam transmissão e detecção. Qual caminho vence? Talvez nenhum sozinho.

Qubits são sensíveis. Interações com o ambiente, vibrações, calor, ruído eletromagnético, provocam decoerência (perda de informação de fase). O “relógio” útil é o tempo de coerência. Em muitas arquiteturas, fala-se de dezenas de microssegundos; grupos vêm relatando milissegundo em transmons bem projetados. Parece pouco? Em escala quântica, uma milissegundo permite milhares de portas lógicas. A corrida é dupla: ganhar coerência e encurtar circuitos via melhores algoritmos e compilações.

Para que serve um computador quântico? Não é uma máquina “melhor para tudo”. É uma máquina excelente para certas classes de problemas.

Criptografia: O algoritmo de Shor fatoraria inteiros grandes com eficiência, afetando esquemas como RSA. Falta escala prática: demanda milhões de qubits lógicos (qubits “efetivos” após correção de erros). O mercado já se antecipa com criptografia pós-quântica em navegadores e protocolos.

Química e materiais: Moléculas obedecem leis quânticas; simular seus estados eletrônicos cresce em complexidade de forma explosiva. Qubits podem atacar regras de correlação eletrônica que travam métodos clássicos, acelerando a busca por catalisadores, fármacos e materiais com propriedades sob medida.

Otimização:
Roteamento, alocação, despacho de energia. Algoritmos variacionais e máquinas de annealing quântico exploram paisagens de custo com heurísticas novas. A promessa é dividi-las de modo híbrido: partes clássicas estruturam o problema, rotinas quânticas tratam subproblemas difíceis.

2025 foi declarado Ano Internacional da Ciência e Tecnologia Quânticas. A fotografia do momento inclui:

Processadores maiores (IBM Osprey com 433 qubits em 2022), mas a comunidade aprendeu a não confundir contagem de qubits com potência útil.

Qubits lógicos ganhando tração: esforços acadêmicos, como o grupo de Mikhail Lukin, demonstram codificação e controle na casa de dezenas de lógicos — peça-chave porque um qubit lógico exige muitos qubits físicos.

Planos nacionais surgindo com metas explícitas (famílias de 75 qubits a curto prazo e centenas a médio prazo), sinalizando priorização estratégica.

É aqui que um ponto merece ser reforçado mais adiante: qualidade, fidelidade e taxa de erro pesam mais que contadores de qubits em slides.

A mecânica quântica proíbe clonagem exata de estados desconhecidos (o no-cloning theorem). Como então proteger informação contra ruído? A saída é codificação quântica: representar um qubit lógico em muitos qubits físicos e detectar/mitigar erros sem “medir o estado” diretamente. O preço é alto. Estruturas completas de correção pedem milhões de qubits físicos para algumas centenas ou milhares de lógicos. Também há obstáculo de engenharia: cada qubit extra traz fiação, controle e dissipação dentro do criostato. Não surpreende ver propostas como bolometria em grafeno para leitura mais eficiente e de baixa potência. Otimização térmica e eletrônica é tão vital quanto teoria de códigos.

Em 2019, o Sycamore (53 qubits, Google) executou uma amostragem aleatória em ~200 segundos, alegadamente inalcançável por supercomputadores em tempos razoáveis. A IBM contestou, estimando que o Summit poderia reproduzir a tarefa em alguns dias com aproximações. Qual a lição? Supremacia quântica é um marco de tarefa, não um selo universal. O foco migra para vantagem quântica prática: resolver problemas relevantes melhor do que alternativas clássicas reais.

Uma linha que desperta expectativa usa quasipartículas de Majorana para criar qubits topológicos, em tese, naturalmente protegidos contra certos ruídos. A Microsoft divulgou o Majorana 1 em 19 de fevereiro de 2025, baseado em materiais com propriedades topológicas (condutores/supercondutores projetados). Se a proteção topológica se comprovar em escala, o custo de correção pode cair, encurtando a estrada até máquinas úteis.

A visão mais sóbria aponta para sistemas híbridos. Processadores clássicos continuam no comando do grosso do cálculo; aceleradores quânticos atacam subrotinas de otimização, simulação química e aprendizado onde a vantagem seja demonstrável. A pergunta: isso os tornará onipresentes? Provavelmente não. A aposta é em nicho de alto impacto, com integração de software e nuvem escondendo a complexidade quântica do usuário final.

Escala por escala não fecha a conta sem qualidade. Fidelidade de portas, taxa de erro por ciclo, profundidade de circuito e tempo de coerência determinam se um algoritmo sai do quadro-negro e roda no chip. É tentador comparar só “número de qubits”, mas essa métrica isolada engana. O progresso mais transformador pode vir de redução drástica de erros, mesmo com contagens modestas.

Onde estamos, em termos práticos?

Criptografia pós-quântica entra em produtos correntes para mitigar risco futuro.

Simulação molecular começa a sair do estágio de prova de conceito em instâncias pequenas, com pipelines que combinam etapas clássicas e quânticas.

Otimização industrial testa protótipos variacionais sob métricas de custo reais.

Sensoriamento quântico avança em gravimetria, magnetometria e relógios atômicos — áreas onde a mecânica quântica já rende vantagens tangíveis.

Qubits inauguram uma maneira diferente de processar informação. São temperamentais, pedem extremos criogênicos e rotinas de controle precisas, e ainda resolvem uma fração estreita de problemas. O horizonte de um computador quântico universal permanece distante, mas os tijolos já formam pontes úteis. Se a metáfora da moeda girando ajuda, vale acrescentar outra: o desafio não é só manter a moeda no ar; é coreografar muitas moedas, fazê-las colidir de modos controlados e ler o padrão resultante sem que o ambiente estrague a dança.

A Mecânica Quântica Comemora 100 Anos

Mecânica quântica

 

“Feliz aniversário, mecânica quântica.” O brinde ecoa no salão do hotel em Hamburgo, num começo de noite de junho, e o aplauso parece uma onda que atravessa mesas e taças. Cerca de trezentos pesquisadores desembarcam ali para abrir uma conferência de seis dias dedicada ao centenário da teoria mais bem-sucedida da física. Entre rostos conhecidos, veteranos de computação quântica e criptografia quântica, quatro nomes com Nobel no currículo. Festa? Sim. Mas também uma pausa estratégica para perguntar o que, afinal, aprendemos em cem anos, e o que ainda falta entender.

Um século antes, um pós-doutorando de 23 anos, Werner Heisenberg, foge de uma crise de rinite alérgica e procura abrigo em Heligolândia, ilha varrida pelo vento no Mar do Norte. Ali fecha contas que virariam o coração de uma nova descrição do mundo atômico e subatômico. Não mais órbitas nítidas, como em miniaturas do Sistema Solar, e sim probabilidades: a física deixa de apostar no “onde está” e abraça o “com que chance estará”. Soa contraintuitivo? É justamente esse estranhamento que pede comemoração e debate.

2025 carrega o selo da ONU para ciência e tecnologia quânticas, e o encontro em Heligolândia vira símbolo do ano. Entre os participantes, Alain Aspect, Serge Haroche, David Wineland e Anton Zeilinger, os prêmios reconhecem experimentos que transformaram paradoxos em ferramentas de laboratório. A teoria continua radical. A física clássica mira diretamente a matéria; a mecânica quântica, em contraste, trata de possibilidades. Em vez de trajetórias contínuas, distribuições de resultado. Em vez de “o elétron está aqui”, “a chance de o elétron estar aqui é tal”. O que é realidade quando o próprio conceito de “estar” se dobra ao ato de medir?

Na manhã seguinte à abertura, cientistas e alguns jornalistas embarcam rumo à ilha. A conversa começa no convés: Časlav Brukner e Markus Arndt, da Universidade de Viena, discutem se espaço e tempo obedecem às mesmas regras quânticas que partículas. Adán Cabello, de Sevilha, se junta. Gestos largos. Perguntas cruzadas. “O que você quer dizer com ‘o que eu quero dizer’?”, alguém provoca. Quando o ferry enfrenta o mar grosso e a névoa turva o horizonte, surge a confissão que percorre a semana: “Ganhamos esta teoria. Ainda não sabemos o que ela significa”. Incômodo salutar, digno de centenário.

A ilha, quase 1.400 habitantes entre a Terra Baixa e a Terra Alta, tem tradição de observação obsessiva: no século XIX, Heinrich Gätke marcou gerações de aves e de naturalistas. Talvez esse legado de olhar disciplinado tenha inspirado Heisenberg a podar suposições invisíveis e reter apenas o mensurável. Um gesto metodológico que ecoa até hoje: descrição baseada em dados acessíveis, não em mecanismos imaginados.

O acúmulo de pistas vinha de décadas. Em 1900, Max Planck quantiza a energia para explicar o espectro da radiação térmica (energia em “pacotes”, não em fluxo contínuo). Poucos anos depois, Albert Einstein trata a luz como quanta, e o fóton entra em cena. Em 1913, Niels Bohr propõe níveis discretos para os elétrons no átomo de hidrogênio. Mas faltava amarrar essas peças sem recorrer a órbitas invisíveis. Em Heligolândia, Heisenberg dá o salto: abandona o retrato mental do átomo e constrói uma linguagem de transições observáveis, codificadas em tabelas numéricas que, mais tarde, Max Born reconhece como álgebra de matrizes. A ordem de multiplicação passa a importar; A×B não é B×A. Chame isso de não comutatividade (propriedade algébrica em que inverter a ordem muda o resultado). No miolo dessa estranheza matemática, nasce a mecânica quântica.

O relato de Heisenberg sobre a madrugada de euforia, uma quase embriaguez intelectual diante de “estruturas matemáticas” oferecidas pela natureza, circula entre anedotas de colegas. Pauli encontra “nova esperança”. Born enxerga o código escondido. O trio Born-Heisenberg-Jordan publica a “trilogia de Heligolândia” e desenha o comportamento de sistemas quânticos com precisão inédita. A seguir, Erwin Schrödinger escreve o famoso “equivalente ondulatório”: a equação que governa ψ (a função de onda), objeto matemático que descreve possibilidades. Importa lembrar: para Born, ψ não é “o elétron espalhado como geleia”, e sim um mapa de probabilidades (picos indicam onde a partícula tende a ser encontrada). O mesmo fenômeno, duas linguagens compatíveis.

O próximo passo vira ícone cultural. Em 1927, Heisenberg formula o princípio da incerteza: não há como cravar, ao mesmo tempo, posição e momento de um elétron com precisão arbitrária. Não se trata de limitação de instrumentos; é estrutura da teoria. Se a física descreve o real, então o real admite zonas onde certos pares de propriedades não coexistem como números definidos. Estranha ideia? Basta lembrar que o experimento só devolve um resultado por vez, ainda que a teoria ofereça um cardápio de possibilidades.

Décadas depois, John Bell prova um caminho para testar a “não-localidade” que Einstein desconfiava. Os experimentos confirmam: partículas separadas podem exibir correlações que nenhuma teoria de variáveis ocultas locais explica. Não é que informação viaje mais rápido que a luz. É que certas propriedades simplesmente não existem antes da medida de modo clássico. Aqui, a pergunta retorna: o que é “existir”, antes de olhar?

Enquanto filósofos da física duelam, o laboratório avança. Relógios atômicos alcançam precisões que atravessariam idades cósmicas sem perder um segundo. Imagens de átomos em arranjos programáveis lembram coreografias. Computadores quânticos prometem tarefas inalcançáveis a chips de silício tradicionais, explorando superposição (vários estados ao mesmo tempo) e emaranhamento (correlações não clássicas). Sensores quânticos aspiram a sentir ondas gravitacionais e campos magnéticos com finura inédita. Simuladores quânticos já ajudam a investigar materiais exóticos. Criptografia quântica protege enlaces reais: qualquer tentativa de interceptar altera o estado e denuncia o espião. E a biologia? Há hipóteses de que pássaros naveguem pelo campo magnético com auxílio de efeitos quânticos, que plantas retardem perdas energéticas graças à coerência, que receptores olfativos usem tunelamento eletrônico. A natureza, ao que parece, faz “quântica” desde sempre.

O incômodo filosófico não desaparece. A chamada “problema da medida” permanece no centro. O que acontece, exatamente, quando um resultado emerge e todas as outras possibilidades “colapsam”? Falar em colapso é usar uma receita prática: ψ evolui segundo a equação de Schrödinger até que interações com o aparelho e o ambiente selecionem um resultado. Mas isso é ontologia ou somente contabilidade de crenças? A resposta divide auditórios. Há quem prefira muitos mundos (todas as possibilidades se realizam em ramos que não se comunicam). Para outros, a multiplicação de universos tem custo metafísico demais. Há o QBism, de Christopher Fuchs, que interpreta ψ como “catálogo de graus de crença” de um agente racional sobre as consequências de suas ações; nessa leitura, o colapso é atualização de informação, não salto físico. E há quem admita sem pudor: “não entendo; quero entender”.

Se a teoria funciona tão bem, por que insistir em significados? Porque a ambição científica inclui costurar números e mundo. Carlton Caves sintetiza com humor: “é embaraçoso não termos uma história convincente sobre a realidade”. Na ilha, o desconforto vem acompanhado de propostas. Alguns apostam em informação como fundamento. Outros reabilitam o papel do observador. Há quem suspeite que o tempo, ele próprio, tenha natureza quântica. E há a frente que olha para a gravidade: a única força sem descrição quântica completa. A relatividade geral curva espaço-tempo; a mecânica quântica pressupõe um palco fixo e um relógio uniforme. Como conciliar? Talvez a saída esteja num casamento menos óbvio do que o imaginado nas tentativas de “gravidade quântica” tradicionais. Quando Lucien Hardy diz que a relatividade já é estranha por si, não é metáfora gratuita, a fusão com a quântica promete fogueira conceitual.

No cotidiano da conferência, Heligolândia lembra que contextos importam. Sem IVA da União Europeia, sem carros, com dialeto frisão nas ruas e restaurantes que fecham cedo, a ilha impõe outro ritmo. O contraste com o fluxo acelerado da ciência global ressalta uma lição de método: desacelerar rende clareza. Heisenberg abandonou imagens sedutoras para manter o que os aparelhos efetivamente entregavam, cores e intensidades de luz. A mesma disciplina de excluir o que não se mede pode ajudar a filtrar, ainda hoje, discursos sedutores e hipóteses difíceis de testar.

A mecânica quântica nunca foi apenas cálculo sofisticado, é mudança de quadro mental. Falamos menos de “o que é” e mais de “o que pode ser” e “com que probabilidade será”. Isso não diminui a ambição de descrever o real; reorganiza o caminho. Interpretar não é luxo acadêmico; é tentativa de ligar o contínuo e macroscópico ao granular e probabilístico sem perder de vista que medimos com instrumentos macroscópicos. Se você sente um leve desconforto ao ler isso, está em boa companhia.

No encerramento, uma piada balcânica repassada por Brukner arranca sorrisos: “Os primeiros cem anos são duros. Depois fica mais fácil”. Quem dera fosse simples. Mas há motivos para otimismo. A saída de Heligolândia ocorre sob céu azul e mar calmo; no barco, as conversas recomeçam. Ninguém ali parece satisfeito com respostas provisórias, e é justamente essa inquietação que move o campo. Como não perguntar: o próximo século aceitará continuar lidando com probabilidades ou encontrará uma narrativa mais integrada para a realidade?

Heisenberg, em 1925, recusou a tentação de visualizar demais. A escola de Copenhague venceu debates com Einstein sobre o que considerar “real”. A ponte entre o clássico tangível e o quântico estranhamente eficaz, porém, ainda está em construção. Talvez um novo ingrediente, seja gravidade, seja informação, seja uma forma mais precisa de decoerência (perda de coerência quântica pela interação com o ambiente), reescreva trechos do roteiro. Até lá, vale manter o espírito deste centenário: rigor na matemática, coragem para duvidar das imagens fáceis, abertura para hipóteses que nos tirem da zona de conforto.

Se existe um brinde apropriado para cem anos de teoria é este: que continuemos a medir melhor, a perguntar melhor e a sustentar o desconforto criativo de não saber. Porque a sensação de que “falta alguma coisa” não é defeito. É o motor. E talvez seja justamente isso que explique por que a mecânica quântica, mesmo completa o bastante para guiar relógios, chips e lasers, ainda convida física e filosofia para a mesma mesa. Quem sabe o próximo copo, daqui a cem anos, celebre não só a potência das previsões, mas também um entendimento mais sereno do que chamaríamos, sem aspas, de realidade.

Aquecendo ouro além do limite

Ouro
Ouça o artigo:

Ouro sólido a temperaturas mais de 14 vezes superiores ao próprio ponto de fusão parece coisa de ficção, só que um experimento recente mostrou isso, atravessando um limite teórico popularizado como “catástrofe de entropia”. O resultado nasce de medições de temperatura feitas com espalhamento inelástico de raios X de alta resolução (IXS) e sugere algo desconcertante: a pergunta “até que temperatura um sólido pode ir antes de derreter?” não tem uma resposta simples.

Por que se acreditava no teto de três vezes a fusão? Porque modelos termodinâmicos indicavam que vibrações atômicas cresceriam a ponto de desordenar qualquer rede cristalina. A pista nova vem do tempo de aquecimento. Se a energia entra tão rápido que a rede não consegue se expandir, forma-se um estado extremamente quente que preserva a estrutura sólida por instantes. Parece contraintuitivo? É exatamente a graça da física fora do equilíbrio, quando o sistema evolui mais depressa do que suas variáveis internas conseguem responder.

No laboratório, uma fina película de ouro, com cerca de 50 nanômetros, recebeu pulsos laser intensos de apenas 50 femtosegundos (1 fs = 10⁻¹⁵ s). A taxa de aquecimento passou de 10¹⁵ kelvins por segundo, permitindo levar o metal a 14 vezes os 1064 °C do seu ponto de fusão. Isso fica muito acima da tal catástrofe, que alguns cálculos colocavam perto de 3000 °C. Como medir a temperatura em estados que duram só picossegundos? Entra em cena um “termômetro” de raios X.

Um feixe de raios X interage com os átomos, que absorvem fótons em uma frequência e reemitem em outra. A diferença de frequências carrega um desvio Doppler (mudança aparente de frequência por movimento), sensível a se a emissão caminha na direção do detector ou se afasta. Como os átomos vibram termicamente de modo aleatório, a distribuição de velocidades guarda a própria temperatura. Quanto mais quente, maior a energia cinética média e mais larga a distribuição; portanto, maior a largura do espectro espalhado, que funciona como termômetro sem depender de modelos computacionais.

Vale notar o desafio instrumental. É preciso um espectrômetro de altíssima resolução, capaz de resolver diferenças de energia na faixa de milieletrovolts (meV), e um feixe de raios X brilhante o bastante para extrair sinal significativo de amostras minúsculas e efêmeras. Pressão e densidade, em regimes extremos, já se medem com certa rotina; temperatura, por outro lado, costuma ser inferida com incertezas grandes, justamente por não haver “termômetros” que sobrevivam a acontecimentos tão rápidos.

O ganho científico é amplo, em física de plasmas e de materiais, medir diretamente a temperatura iônica em matéria densa e fortemente excitada abre portas: diagnosticar condições internas de planetas gigantes, por exemplo, ou guiar projetos de fusão, onde conhecer com precisão a temperatura em diferentes regimes é decisivo. Estudos fundamentais também agradecem, porque agora os limites últimos de estabilidade de sólidos podem ser verificados experimentalmente, em vez de existir só em previsões.

Um ponto pede atenção: o truque não é “magia do ouro”, é controle temporal. Ao injetar energia mais depressa do que a rede cristalina consegue relaxar, evita-se a expansão volumétrica imediata e, com ela, o caminho comum até a fusão. O sólido, então, existe em um patamar extremo por um piscar de olhos. Isso reconfigura a maneira de formular a velha questão do derretimento: quando o tempo entra na dança, não basta falar em temperatura; é preciso falar em trajetória temporal de aquecimento.

O método já começa a migrar do ouro para outros alvos. Materiais comprimidos por choque estão na mira, inclusive ferro em condições que lembram interiores planetários. Nesses cenários, mede-se simultaneamente velocidade de partículas e temperatura, acessando estados sólidos e fundidos sob compressão dinâmica. Aonde isso leva em termos práticos? A novas janelas para entender como se fortalecem ligas metálicas sob impacto térmico e mecânico e a ferramentas de diagnóstico em tempo real para ambientes extremos.

Um detalhe técnico costuma passar despercebido: a abordagem é independente de modelo. Em vez de ajustar curvas com muitas hipóteses, ela observa uma grandeza primária, a largura espectral, que resulta da estatística de velocidades atômicas. Para quem estuda matéria fora do equilíbrio, esse tipo de observável direto vale ouro — sem trocadilho.

Que implicações conceituais ficam na mesa? Primeiro, estados superquentes de sólidos não violam a termodinâmica, apenas exploram regimes onde a expansão e a reorganização estrutural ficam “atrasadas” em relação ao depósito de energia. Segundo, respostas sobre “o quanto um sólido aguenta” passam a depender do relógio, não só do termômetro. Terceiro, instrumentos que enxergam meV em janelas de picossegundos transformam especulações em medidas.

Você confiaria que um cristal permaneça inteiro quando tudo nele treme? A experiência mostra que, por um instante mensurável, sim. E esse instante é o suficiente para renovar perguntas antigas e abrir espaço para experimentos que, até ontem, pareciam impraticáveis.

 


Referência:

Em seu estudo histórico Fecht e Johnson revelaram um fenômeno que chamaram de "catástrofe da entropia", um ponto crítico em que a entropia de cristais superaquecidos se iguala à de seus equivalentes líquidos. Este ponto marca o limite superior de estabilidade para sólidos em temperaturas tipicamente em torno de três vezes o seu ponto de fusão. Apesar da previsão teórica deste limite máximo de estabilidade, sua exploração prática tem sido impedida por numerosos eventos intermediários desestabilizadores, coloquialmente conhecidos como hierarquia de catástrofes, que ocorrem em temperaturas muito mais baixas. Aqui, testamos experimentalmente esse limite sob condições de aquecimento ultrarrápido, rastreando diretamente a temperatura da rede usando espalhamento inelástico de raios X de alta resolução. https://www.nature.com/articles/s41586-025-09253-y