Por que gravar DVD/Blu-ray já não compensa (e o que fazer em vez disso)

Armazenamento
 
Há alguns anos, ter um gravador de DVD — ou até um combo leitor de Blu-ray — era praticamente item obrigatório em qualquer computador. Hoje, a realidade virou do avesso: notebooks e desktops modernos quase nunca trazem unidade óptica, o preço por gigabyte de HDD e SSD despencou, e os fluxos de trabalho de backup migraram para HDs externos, NAS e nuvem. No seu caso, faz todo sentido ter desistido de comprar um gravador Blu-ray USB e investir num HDD: é mais barato no médio prazo, mais rápido e muito mais prático.

Abaixo, explico por quê, comparo custo/benefício, comento cenários onde DVD/Blu-ray ainda têm lugar (são poucos), e dou um roteiro bem objetivo para você montar um esquema de backups consistente — incluindo um “home server” com TrueNAS e serviços caseiros ao estilo “Google Drive/Spotify/Netflix doméstico”.

1) Custo por gigabyte: óptico não consegue mais competir


O fator mais decisivo é o custo por gigabyte. Mesmo que a mídia Blu-ray “de balcão” pareça barata por unidade, o cálculo muda quando você multiplica pela capacidade e inclui o gravador:

Mídia Blu-ray “comum” (BD-R 25 GB): você paga uma quantia por disco e leva apenas 25 GB. Para ter 1 TB de backup, seriam necessários 40 discos. Além de custoso, é trabalhoso e demorado.
    
BD-R 50/100 GB: aumentam a capacidade, mas também o preço por disco. E mídias de 100 GB (BD-R XL) exigem gravadores e compatibilidade que encarecem o setup. No final, o custo por TB segue pouco competitivo.
    
Gravador Blu-ray USB: além do preço do equipamento, há a manutenção e a incerteza de compatibilidade/drivers ao longo dos anos.
    

Compare isso a um HDD de 4–8 TB: você paga uma vez, pluga via USB, e resolve anos de backup com um dispositivo. E consegue reaproveitar, substituir, migrar dados, verificar integridade… sem montar “coleções” de discos.

2) Capacidade e escalabilidade: HD (e SSD) ganham de lavada


Backup cresce. Fotos, vídeos, bibliotecas de jogos, projetos e máquinas virtuais somam rapidamente centenas de gigabytes. Manter isso em pilhas de mídia óptica vira gambiarra:

HDDs oferecem 2, 4, 8, 12 TB (ou mais) num único volume. Você não precisa fazer gerenciamento de dezenas de discos físicos.
    
SSDs caíram de preço e são excelentes para dados “quentes” (trabalho diário), embora, no custo por GB, os HDDs ainda sejam a opção econômica para “arquivo”.
    

Essa escalabilidade também significa menos tempo de administração. Com um NAS/TrueNAS, você ajusta o pool de armazenamento, adiciona discos, faz snapshots e deixa as rotinas automáticas cuidarem de tudo.


3) Velocidade e conveniência: backup sem sofrimento


Gravar um BD-R de 25 GB a 6× ou 8× leva tempo. E você ainda precisa verificar a gravação, rotular, armazenar, organizar, achar depois… Em HDD/SSD, copiar 25 GB é questão de minutos — e automatizável:

Backups incrementais diários, semanais e mensais rodando sozinhos.
    
Verificação de integridade por checksums, ZFS scrubs, logs e alertas.
    
Restauração granular (um arquivo, uma pasta) sem ficar caçando o disco correto.
    

No mundo real, backup que dá trabalho acaba sendo negligenciado. GANHA quem tem um fluxo simples e automático.


4) Confiabilidade e durabilidade: nuances importantes


Há um mito de que “CD/DVD/Blu-ray duram para sempre”. Não é bem assim. Há fatores como qualidade da mídia, condições de armazenamento (umidade, calor, luz), camada orgânica da tinta (em discos graváveis), além do risco de bit rot (degradação de dados ao longo do tempo). Existem mídias especiais como M-DISC, que prometem durabilidade muito maior, mas custam mais e ainda exigem unidades compatíveis. Mesmo nesses casos:

Você depende de leitores que talvez não existam daqui a 10–15 anos. Hoje já é difícil achar drive confiável em lojas comuns.
    
HDD/SSD + verificação + múltiplas cópias é a abordagem mais realista. HDDs não são eternos, mas, com monitoramento SMART, rotação de mídias e redundância, você mitiga a maioria dos riscos.
    

Em curadoria e preservação digital séria, ninguém confia em um único meio físico. O que funciona é estratégia (ver adiante a regra 3-2-1).

5) Compatibilidade e futuro: óptico está saindo de cena


Seu relato resume a tendência: o último notebook com drive estragou, consertar não compensou, e os novos já vêm sem. O mercado descontinuou o padrão. Isso significa:

Menos softwares atualizados voltados a gravação, menos drives no varejo, menos suporte técnico.
    
Trocar arquivos por nuvem, NAS, pendrive virou o padrão universal; mídia óptica virou exceção.
    

Você pode até manter um gravador USB “para emergências”. Mas como solução principal de backup, é remar contra a maré — tanto técnica quanto econômica.

6) Onde DVD/Blu-ray ainda faz sentido (os poucos casos)


Nem tudo é preto no branco. Há usos específicos em que a mídia óptica pode ser útil:

Consoles antigos (PS2/PS3): para gravar mídias compatíveis, mods, preservação de jogos em formato físico etc. Mesmo assim, muita gente migrou para storage via rede ou cartões/SSD conforme o console permite.
    
Entrega física e imutável: quando você precisa “carimbar” um conjunto de arquivos para terceiros sem risco de alteração (por exigência jurídica ou contratual). Entretanto, hoje pendrives lacrados e assinatura digital resolvem melhor.
    
Arquivamento frio de longo prazo (com M-DISC): se você precisa guardar um conjunto pequeno e estático de dados por décadas e quer um terceiro pilar além de HDD + nuvem. Ainda assim, faça verificação periódica e mantenha um leitor funcional guardado.
    
Colecionismo e mídia física: filmes, shows e edições especiais. Aí é estética/coleção, não backup.
    

Se você não está em nenhum desses cenários, HDD/SSD e NAS vencem.

7) “Home server” com TrueNAS: seu “Google Drive/Spotify/Netflix caseiro”


Se a ideia é parar de depender de mídia óptica e montar um ecossistema em casa, o TrueNAS (ou alternativas como Unraid, OpenMediaVault) é o caminho natural:

ZFS (no TrueNAS) traz snapshots, scrubs, checksums end-to-end, compressão transparente e replicação. Isso reduz corrupção silenciosa e facilita voltar no tempo.
    
Compartilhamento via SMB/NFS/AFP/FTP/WebDAV: monte seu “Google Drive caseiro” acessível na rede local e, se quiser, pela internet (com bastante cuidado de segurança).
    
Jails/Containers/Apps: Plex/Jellyfin (sua “Netflix caseira”), Navidrome/koel (sua “Spotify caseira”), Nextcloud (drive/agenda/contatos), Photoprism/Immich (galeria de fotos com IA), Transmission/qBittorrent, etc.
    
Automação de backup: com Borg/Restic, rsync, rclone, Sanoid/Syncoid (snapshots e replicação ZFS), você agenda tarefas e esquece.
    

Dicas práticas para esse setup

Discos em pares ou vdevs redundantes (espelhamento/RAID-Z). Lembre: RAID não é backup, é disponibilidade. O backup é outra cópia, separada.
    
No-break (UPS): ZFS gosta de desligamentos limpos. Um UPS evita corrupção por queda de energia.
    
SMART + e-mail/Telegram de alerta: falha preditiva? Troque o disco antes de perder dados.
    
Snapshots frequentes: por exemplo, de hora em hora por 48 h, diários por 30 dias, semanais por 3 meses, mensais por 1 ano.
    

8) Estratégia de backup que funciona (regra 3-2-1)


A regra de ouro, simples e eficaz:

3 cópias dos seus dados (o original + 2 backups).
    
Em 2 tipos diferentes de mídia (por exemplo, HDD local e nuvem/NAS).
    
1 cópia off-site (fora de casa), para desastres físicos (roubo, incêndio, inundação).
    

Como aplicar no dia a dia:

Cópia 1 (local, rápida): HDD externo USB sempre por perto, atualizado com um software de backup (Time Machine, Veeam Agent, Acronis, Duplicati, Borg/Restic).
    
Cópia 2 (NAS/TrueNAS): sincronização contínua das pastas principais, com snapshots e scrubs.
    
Cópia 3 (off-site): pode ser nuvem (Backblaze B2, Wasabi, S3, Google Drive, OneDrive) via rclone/Restic/Borg, ou um HDD rotativo guardado na casa de um parente e trocado mensalmente.
    

Se quiser um “4º pilar”, aí sim M-DISC pode entrar para um conjunto pequeno e valioso (documentos essenciais, chaves, fotos selecionadas). Mas trate como redundância extra, não como pilar principal.

9) Ferramentas e práticas que fazem diferença


Verificação por checksum (hash): garanta que o arquivo copiado é idêntico ao original (md5/sha256). Em ZFS, isso já é embutido.
    
Criptografia: para HDDs externos e nuvem, use VeraCrypt/BitLocker/FileVault/LUKS. Em ZFS, ative encryption at rest nos datasets.
    
Backups incrementais e agendados: nada de lembrar “na mão”. Agende (cron/timers) e receba relatórios.
    
Testes de restauração: de tempos em tempos, restaure um conjunto de arquivos para validar o processo.
    
Organização: padronize nomes de pastas (ex.: 2025-Projetos/Nome-Projeto), datas (ISO: YYYY-MM-DD) e uma política mínima de arquivamento. Um backup bagunçado vira dor de cabeça na hora H.
    

10) E se eu insistir no Blu-ray para alguns backups?


Se por algum motivo você quiser manter uma “aba” no Blu-ray, dá para minimizar riscos:

Prefira mídia de qualidade (fabricantes e linhas reconhecidas; para longevidade, avalie M-DISC).
    
Use gravador confiável e, se possível, com suporte a verificação pós-gravação (compare checksum do conteúdo).
    
Escolha corretamente BD-R vs BD-RE: BD-R (gravável uma vez) é mais estável que regravável para arquivamento. BD-RE pode ser útil para testes/rotinas temporárias.
    
Evite “span” manual de grandes volumes: não divida um backup gigante em dezenas de discos. Prefira criar conjuntos lógicos pequenos (ex.: documentos essenciais, álbuns de família curados).
    
Armazene direito: caixa fechada, ambiente seco e fresco, longe de luz solar. Rotule com caneta adequada (nunca marcadores agressivos).
    
Mantenha um leitor sobressalente: guarde o gravador USB e teste a leitura anualmente para não descobrir na hora errada que o hardware morreu.
    

Ainda assim, reforço: para backups sérios e rotineiros, você vai gastar menos tempo, dinheiro e paciência com HDD/SSD + NAS + nuvem.

11) Quanto custa “na vida real”?


Sem entrar em preços exatos (mudam o tempo todo), o panorama típico é:

HDDs externos têm custo por TB muito baixo e capacidade alta. Comprar dois (ou três) para rotação/espelhamento sai mais barato do que montar um “arsenal” de Blu-ray.
    
SSD SATA/NVMe é mais caro por GB, mas compensa em desempenho para dados de trabalho, VMs e catálogos que você acessa toda hora.
    
NAS/TrueNAS envolve investimento inicial (placa, CPU, RAM, gabinete, discos), mas entrega centralização, redundância e automação que economizam anos de dor de cabeça.
    
Nuvem tem custo mensal, mas serve como off-site de fácil acesso e escalabilidade imediata.
    

Na hora de economizar, lembre: tempo também é custo. Gravar, testar, etiquetar e guardar 40 discos para fechar 1 TB cobra um preço em horas de vida que você não recupera.

12) O caminho recomendado (passo a passo pragmático)


Defina o que é crítico: documentos pessoais, fotos de família, projetos de trabalho, chaves e senhas (use um gerenciador com exportação segura).
    
Faça um inventário rápido de tamanho: quantos GB/TB você realmente precisa proteger hoje? E o que pode ir para arquivo frio?
    
Compre 2 HDDs externos (mesma capacidade): um fica local, outro você usa em rotação (vai para a casa de um parente/armário no trabalho). Se tiver um NAS/TrueNAS, ele já é a segunda camada local.
    
Automatize:
    
    No PC: agende backup incremental diário (Duplicati, Veeam Agent, Acronis, Time Machine, Borg/Restic).
        
    No TrueNAS: ative snapshots e scrubs; se possível, replicação para outro destino (outro NAS/HDD).
        
Criptografe os HDDs externos, especialmente o off-site.
    
Adote nuvem para a pasta “crítica” (documentos e fotos insubstituíveis). Use rclone/Restic/Borg para sincronizar.
    
Teste restauração a cada trimestre. Abra arquivos, verifique checksums.
    
Opcional: para um conjunto mínimo e “sagrado” (por exemplo, scans de documentos, chaves, árvore genealógica), grave 1–2 discos M-DISC como cópia extra. Guarde bem. É redundância, não pilar.
    

13) Respondendo às dúvidas que você levantou


“Pensei em comprar um gravador Blu-ray USB para alguns backups, mas desisti.” Decisão sensata. Pelo custo total (drive + mídias) e pela dor operacional, HDD ganha com folga.
    
“O disco custa 5 a 10 reais e tem só 25 GB.” O número já mostra a ineficiência: o preço por TB explode quando você multiplica por dezenas de discos.
    
“Prefiro comprar um HDD para fazer backup.” Correto. Melhor ainda: dois HDDs (um local + um off-site), ou um HDD + nuvem.
    
“Só compensa gravar para PS2/PS3 ou coisa bem específica.” Exato. E mesmo nesses casos, hoje existem soluções por rede/cartão/SSD que reduzem a necessidade de mídia.
    

14) Segurança e ransomware: não esqueça do “air-gap”


Além de redundância, pense em segmentação:

Tenha pelo menos uma cópia desconectada (air-gapped). Um HDD que fica a maior parte do tempo fora da USB é imune a ataques ativos e a erros humanos.
    
Se expor seus serviços do TrueNAS na internet, use VPN, autenticação forte, atualizações em dia e mínimo de portas abertas. Exposição ingênua é convite a ransomware.
    

15) Conclusão: backup é estratégia, não mídia


No fim, não é sobre o “charme” do Blu-ray ou a nostalgia dos DVDs — é sobre probabilidade de recuperar seus dados quando mais precisar. Para isso, você precisa de:

Camadas (HDD local, NAS, nuvem/off-site);
    
Automação (agendamentos, snapshots, verificações);
    
Integridade (checksums, scrubs, testes de restauração);
    
Segurança (criptografia, air-gap, boas práticas de rede).
    

A mídia óptica, hoje, é ferramenta de nicho: serve para casos muito específicos, colecionismo ou como redundância adicional de pequenos conjuntos estáticos. Para todo o resto — especialmente backup do dia a dia — HDD/SSD e um home server com TrueNAS (ou equivalente) entregam um pacote incomparável de custo, performance e praticidade.

Se é para investir, faça como você concluiu: compre um bom HDD (ou dois), monte um esquema 3-2-1, e — se quiser dar um passo além — configure um TrueNAS com snapshots e replicação. Assim você tem, de fato, um “Google Drive/Spotify/Netflix caseiro” e, o mais importante, dorme tranquilo sabendo que o seu backup não depende de torcer para que “aquele disco 27” esteja legível na hora do aperto.

Mecânica quântica: buscando entender melhor a realidade

Mécânica quântica

Cem anos após o seu nascimento, a mecânica quântica continua entre as teorias mais poderosas e bem-sucedidas da ciência. De computação quântica a sensores de precisão, o impacto tecnológico é inegável e ajuda a explicar por que 2025 foi proclamado o Ano Internacional da Ciência e Tecnologia Quânticas.

A postagem convida a um gesto adicional: perguntar o que, afinal, essa teoria diz sobre o próprio mundo. O formalismo nos conta algo claro sobre a natureza da realidade? Sistemas quânticos têm propriedades definidas antes de medirmos? Nossas observações criam realidades ou apenas as revelam?

Não são questões abstratas. Compreender com nitidez “do que trata” a teoria é vital para a coerência a longo prazo e para integrá-la ao restante da física. O consenso, porém, não existe. A comunidade de pesquisa segue debatendo fundamentos que teimam em provocar discordância.

Essa incerteza apareceu num levantamento global recente sobre questões fundacionais, conduzido pela Nature. Os resultados expuseram uma tensão persistente entre visões “realistas”, que buscam uma descrição objetiva e visualizável dos fenômenos, e visões “epistêmicas”, que veem o formalismo como ferramenta para organizar conhecimento e prever resultados de medida.

Apenas 5% dos 1100 respondentes declararam plena confiança na interpretação de Copenhague, ainda dominante em livros e laboratórios. O racha também atinge a função de onda: entidade física, mero dispositivo de cálculo ou reflexo subjetivo de crença? A falta de acordo num ponto tão central evidencia certa fragilidade teórica subjacente. A disposição para explorar alternativas revela vitalidade intelectual, mas também aponta limites dos caminhos atuais.

Por “realismo”, entende-se a ideia de que sistemas possuem propriedades definidas independentemente da observação. “Epistêmico” remete ao conhecimento: o formalismo serviria para organizar crenças e prever frequências de resultados, não para descrever o que existe. A “função de onda” pode ser vista como objeto físico, como ferramenta matemática ou como estado de informação. E “medida”, aqui, não é apenas ler um ponteiro; envolve interação que altera o próprio sistema. Diante disso, faz sentido perguntar: a matemática descreve ou apenas cataloga?

Em quadro mais amplo, 75% acreditam que a teoria será, ao menos em parte, substituída por um arcabouço mais completo. De modo animador, 85% concordam que esforços de interpretação em termos intuitivos ou físicos têm valor. A abertura para alternativas, ao mesmo tempo, reforça a percepção de insuficiências.

A proliferação interpretativa pode nascer de um problema mais profundo: falta uma fundação física bem definida. A mecânica quântica descreve resultados estatísticos de medidas, sem explicitar mecanismos. A causalidade cedeu espaço a prescrições operacionais; na prática, a teoria funciona com brilho, mas permanece conceptualmente opaca.

O caminho, então, talvez não seja multiplicar interpretações, e sim buscar compreensão física mais funda dos fenômenos. Uma via promissora é a eletrodinâmica estocástica (a sigla em inglês, SED, de stochastic electrodynamics), teoria clássica acrescida de um fundo eletromagnético aleatório: o vácuo real, ou campo de ponto zero descrito por Max Planck já em 1911. Nesse quadro, causalidade e localidade são recuperadas ao explicar o comportamento quântico como resposta estatística de partículas a esse campo onipresente.

Muitos pesquisadores, vindos de linhagens distintas, contribuíram para a SED. Desde os primeiros trabalhos com Trevor Marshall, Timothy Boyer e outros, a teoria foi refinada a ponto de explicar o surgimento de elementos tidos como blocos do formalismo quântico, como o comutador básico e as desigualdades de Heisenberg.

As partículas ganhariam caráter ondulatório não por uma dualidade intrínseca, mas por interação com o campo de vácuo. Flutuações quânticas, padrões de interferência e emaranhamento emergem dessa interação, sem recorrer a influências não locais ou a realidades que dependem do observador. A ênfase da SED é menos mecânica e mais eletrodinâmica.

Ninguém afirma que a SED seja palavra final. O que se propõe é um quadro coerente para processos microfísicos baseado em campos e forças físicos. Crucialmente, não se abandona o formalismo quântico; ele é recontextualizado como teoria efetiva, um resumo estatístico de dinâmicas mais profundas. Isso permite manter os sucessos da mecânica quântica enquanto se investigam origens e mecanismos.

Uma preocupação recorrente em encontros científicos ilustra o clima: “Temo que a ciência confie demais que a aceitação da verdade é inevitável”, resume a provocação de Gino Elia, ecoando debates de palco e bastidores.

Para muitos, a SED indica reconciliação possível entre fenômenos quânticos e noções caras ao restante da física, realismo, causalidade, localidade. Mostra também que abordagens alternativas podem gerar previsões testáveis e oferecer novos ângulos para puzzles antigos. Um efeito fora do escopo atual do formalismo, hoje talvez testável graças a avanços experimentais, seria a violação prevista das desigualdades de Heisenberg em intervalos de tempo ultracurtos.

Com o avanço da ciência quântica, convém não perder de vista seus alicerces conceptuais. Uma compreensão causalmente fundamentada não distrai do progresso tecnológico: é pré-requisito para realizá-lo por inteiro. Voltar a atenção às fundações pode, quem sabe, concluir o edifício cuja base começou a subir um século atrás.


Referência;

Physicists disagree wildly on what quantum mechanics says about reality, Nature survey shows - A mecânica quântica é uma das teorias mais bem -sucedidas da ciência - e torna possível grande parte da vida moderna. As tecnologias que variam de chips de computador a máquinas de imagem médica dependem da aplicação de equações, primeiro esboçado há um século , que descrevem o comportamento dos objetos na escala microscópica. https://www.nature.com/articles/d41586-025-02342-y

Método egípcio do sono

Método egípcio do sono

Método egípcio do sono está viralizando, mas funciona mesmo? Noites quentes e insones dão o tom do verão em muitas cidades. O chamado método egípcio de sono aparece como um truque de baixa tecnologia para atravessar o calor sem sofrer. O que há por trás dele? A ideia de usar um lençol levemente úmido como aliado do descanso tem base física simples e uma lógica prática: resfriar o corpo enquanto você dorme.

O método consiste em dormir sob um tecido ligeiramente úmido para aproveitar o resfriamento evaporativo, reduzindo a temperatura corporal durante a noite. Funciona melhor em climas quentes e secos, especialmente quando não há ar-condicionado, e tende a falhar em ambientes muito úmidos; pessoas com pele sensível podem notar irritação. Em adultos saudáveis, costuma ser seguro, desde que o quarto tenha boa ventilação, o tecido seja leve e natural, e o lençol não fique encharcado.

A prática é atribuída, pelo nome, a regiões desérticas onde se dormia sem ventiladores ou ar-condicionado. O princípio é o mesmo que torna o suor eficiente: resfriamento evaporativo. Quando a água passa do estado líquido para vapor, ela absorve calor do ambiente, aqui, a camada de ar junto à pele e, com isso, promove um leve resfriamento. O termo técnico “resfriamento evaporativo” descreve exatamente esse processo físico.

Em termos práticos, a proposta é simples: umedeça um lençol ou uma toalha com água fria, torça bem para não pingar e deite-se por baixo desse tecido leve. Algumas variações sugerem dormir com roupas mínimas ou mesmo sem roupas, para aumentar a transferência de calor. Outra alternativa popular é vestir uma camiseta levemente úmida. Em todos os casos, o quarto precisa ter circulação de ar para que a umidade não se acumule.

Vale a pena lembrar que a experiência sensorial conta. Dormir coberto por um pano molhado pode soar pouco atraente, mas em ambientes extremamente quentes e sem outras opções, a técnica pode oferecer alívio. A regra de ouro é evitar exageros: tecido úmido, não encharcado.

Existe uma razão fisiológica para preferirmos um ambiente fresco à noite. A temperatura corporal diminui ao anoitecer como parte do ritmo circadiano, um relógio biológico de aproximadamente 24 horas que regula sono, vigília e processos metabólicos. Esse declínio ajuda o cérebro a reconhecer que é hora de desacelerar. Se o ambiente permanece quente, o corpo tem dificuldade em realizar essa queda, e o início do sono se atrasa.

Quando o calor noturno persiste, não é só pegar no sono que fica difícil. Manter o sono também vira desafio, com despertares mais frequentes e sensação de descanso incompleto. Talvez você já tenha percebido isso em ondas de calor: a noite fica mais agitada, o travesseiro esquenta, o lençol incomoda. Nesse cenário, um mecanismo extra de resfriamento pode fazer diferença.

Achados de pesquisas associam quartos mais frescos a adormecer mais rápido, melhor qualidade de sono e maior tempo de sono profundo, a fase mais restauradora. Há trabalhos sugerindo, inclusive, que noites mais quentes se correlacionam com relatos de sono inquieto. O padrão não surpreende quem vive em locais quentes: quando a madrugada não esfria, o descanso escapa.

Organizações de sono costumam recomendar ambientes em torno de 18 °C (cerca de 65 °F) para dormir bem. Chegar a essa faixa sem ar-condicionado, durante ondas de calor, não é trivial. A técnica do lençol úmido pode ajudar a aproximar o corpo dessa sensação térmica, mesmo quando o termômetro insiste em números altos.

A física impõe limites. O resfriamento por evaporação depende da umidade relativa do ar. Em clima seco, a água evapora rapidamente e retira mais calor; em clima úmido, a evaporação se arrasta, e a sensação pode virar um “pegajoso e morno” pouco agradável. Outro ponto é a ventilação: um quarto sem circulação acumula vapor, atrapalha a evaporação e deixa o ambiente abafado.

Há também a pele. Pessoas com dermatite atópica, eczema ou sensibilidade cutânea podem sentir irritação por contato prolongado com tecido úmido. Se a pele coça, avermelha ou arde, é sinal para buscar outra estratégia. Higiene do material conta: tecidos que secam lentamente em ambientes úmidos podem favorecer mofo e bactérias.

Em geral, o método se adapta a quem vive em regiões áridas, sem ar-condicionado, e enfrenta noites quentes. Também pode interessar a quem tenta reduzir consumo de energia. Para outros contextos, a eficácia varia. Às vezes, funciona como apoio temporário enquanto você investe em ventilação melhor ou blackout adequado.


Referências:

Ambient heat and human sleep - As temperaturas ambientes estão aumentando globalmente, com os maiores aumentos registrados à noite. Ao mesmo tempo, a prevalência de sono insuficiente está aumentando em muitas populações, com custos substanciais para a saúde e o bem-estar humanos.  https://arxiv.org/abs/2011.07161

Qual é a melhor temperatura para dormir? A temperatura ambiente ideal para dormir é entre 15,6°C e 18,3°C. No entanto, cada pessoa é diferente, e essa temperatura pode não ser adequada para você. Bebês e idosos também podem precisar de uma temperatura ambiente um pouco mais quente.  https://www.healthline.com/health/sleep/best-temperature-to-sleep

Large Language Models (LLMs) podem explicar cognição?

Cérebro e cognição
Há uma pergunta que ronda qualquer conversa séria sobre inteligência artificial e mente humana: é possível usar um grande modelo de linguagem como um “modelo cognitivo”? A questão não é trivial. Um modelo, no vocabulário científico, não é um clone do fenômeno; é uma simplificação útil, construída para iluminar mecanismos, testar hipóteses e permitir intervenções que seriam impraticáveis no alvo real. Quando o alvo é a mente, mexemos em terreno delicado: expectativas filosóficas, intuições sobre “entendimento” e uma história de controvérsias sobre o que conta como explicação psicológica. Ainda assim, há um caminho frutífero nesse labirinto: tratar os Large Language Models (LLMs) como artefatos científicos — com direito a janela para seus estados internos, controle sobre dados de entrada e um mapa explícito de analogias com as capacidades humanas. 

Antes de dobrar a esquina para as questões técnicas, vale um passo atrás. A ciência sempre se apoiou em modelos. De planetas a proteínas, modelamos sistemas para intervir sobre eles de forma segura e econômica. Um modelo nunca reproduz tudo; seleciona dimensões relevantes e apaga o resto. Quando psicólogos criam “modelos cognitivos”, o script é o mesmo: construir um artefato computacional que capte princípios de um processo mental — percepção, decisão, linguagem — e, a partir dele, gerar previsões mensuráveis. Essa prática teve idas e vindas. Redes neurais simples foram acusadas de não lidar com símbolos; modelos bayesianos foram criticados por parecerem distantes da implementação neural. O paradoxo é conhecido: quanto mais abstrato, mais claro; quanto mais biológico, mais opaco. A utilidade nasce do equilíbrio entre essas tensões.

Os LLMs entram nessa conversa com um detalhe que reorganiza o tabuleiro: escala. Treinados para prever sequências de palavras em corpora gigantescos, esses sistemas aprenderam a gerar texto condicionado ao contexto. Quando recebem uma “instrução” (prompt), realizam tarefas diversas: resumo, tradução, programação, redação. O termo técnico que primeiro chamou atenção foi “aprendizado em poucos exemplos” (few-shot learning): a capacidade de ajustar o comportamento com base em instruções breves, às vezes sem exemplos explícitos. Para quem modela cognição, isso abre uma avenida. Não se trata de perguntar se o modelo “entende” como humanos, mas de investigar que regularidades emergem quando um algoritmo conhecido encontra um certo regime de dados. A questão investigável muda de lugar: do rótulo “entendimento” para propriedades mensuráveis — generalização, sensibilidade a estrutura, dependência de contexto, robustez a intervenções.

Essa mudança de foco recoloca a linguagem em perspectiva. Humanos exibem “aprendizado estatístico”, a habilidade de extrair regularidades de sequências auditivas e visuais desde o berço. Redes recorrentes e, mais recentemente, arquiteturas baseadas em atenção (transformers) mostraram-se férteis para explorar esse fenômeno. Trocando em miúdos: quando variamos sistematicamente o tipo de estrutura disponível no treino, observamos como o modelo “descobre” padrões e até onde vai sua generalização. Existem gramáticas que surgem com pouquíssimos exemplos; existem construções que exigem muito mais. Em certos casos, mesmo sem ver um exemplo direto, o sistema aprende a regra porque o conjunto de pistas indiretas é suficiente. Essa ideia, aprender sem exemplos explícitos, por alinhamento estrutural, tem afinidade com debates clássicos sobre a aquisição de linguagem.

Um cético poderia perguntar: mas o humano criança não lê bilhões de palavras. A comparação é justa e precisa aparecer logo de cara. O aprendizado humano opera com amostras limitadas, ruído sensorial, canais múltiplos (visão, toque, socialidade), objetivos concorrentes. LLMs, ao contrário, são expostos a volumes de texto sem precedentes, e suas parametrizações têm bilhões de pesos. Essa assimetria cria disanalogias reais: efeitos de “contaminação de dados” (quando o teste aparece no treino), dependência de curadoria opaca, ajustes finais com reforço a partir de preferências humanas (o famoso RLHF) que redesenham o comportamento para ficar “mais útil” em conversa. A honestidade intelectual exige que isso seja dito sem maquiagem. A saída não é negar a diferença, e sim definir qual mapeamento pretendemos entre modelo e mente: o modelo não encarna uma criança; ele implementa uma classe de algoritmos de previsão sobre linguagem. É esse mecanismo, previsores condicionais em larga escala, que nos interessa como lente sobre certos aspectos do aprender humano.

Um bom modelo científico precisa permitir intervenções que o sistema original não comporta. Essa é a chave. Em humanos, sondamos o cérebro com medidas indiretas e ruidosas. Em uma rede neural, podemos inspecionar unidades, camadas, trajetórias de ativação; podemos “lesionar” partes, controlar inputs de forma radical, reconstruir a história de aprendizagem. Duas estratégias se destacam. A primeira é o “probing” (sondagem): treinar decodificadores para verificar que tipo de informação está codificada em representações internas. A segunda é o “criado controlado” (controlled rearing): manipular o ecossistema de treino, a quantidade, o conteúdo, a ordem temporal, e observar quais representações emergem. Quando essas duas estratégias convergem, ganhamos poder causal: não só sabemos que o modelo acerta, como sabemos por qual trilha representacional ele chega lá.

Há episódios instrutivos nessa direção. Um exemplo famoso discute a capacidade de uma rede em aprender o operador relacional “mesmo” — o conceito de identidade. Por anos, argumentou-se que esse tipo de relação simbólica seria inalcançável para sistemas conexionistas. Experimentos recentes mostram que redes conseguem, sim, induzir o “mesmo/diferente” como um operador abstrato e, quando sondadas, exibem representações que desempenham papel análogo a um símbolo. O debate deixa de ser “pode ou não pode?” para virar “em que condições emerge, e como se manifesta?”. Nessa virada, o tom deixa de ser metafísico e se torna empírico, com ganho metodológico para ambos os lados.

E se formos para um terreno socialmente mais espinhoso, como “teoria da mente” (ToM), a habilidade de representar crenças e desejos alheios? Avaliações iniciais sugeriram que certos LLMs resolviam tarefas clássicas de falsa crença. Sequências seguintes de estudos mostraram um quadro mais matizado: desempenho sensível a variações triviais na formulação, inconsistências entre modelos, ganho com ajustes de prompt, perdas quando a tarefa exige transferência robusta. O que isso nos diz? Que linguagem carrega muitos indícios de estados mentais — verbos como “pensar”, “acreditar”, “querer” são onipresentes e que um preditor treinado massivamente pode capturar algumas regularidades pragmáticas envolvidas em raciocínio social. Mas também nos lembra que “passar um teste” não basta para atribuir arquitetura cognitiva equivalente. A pista mais promissora está em perguntas que quase ninguém faz: que representações internas desses modelos separam crença de desejo? Que padrões de entrada são indispensáveis para aprender a atribuir estados mentais? Como fica o desempenho quando retiramos sistematicamente expressões mentalistas do treino?

O que puxa um fio importante: transparência e reprodutibilidade. Muitos dos sistemas mais potentes são oferecidos como serviços com acesso limitado. Sem parâmetros abertos, sem dados de treino, sem controle de semente aleatória, a reprodutibilidade fica comprometida. Um resultado hoje pode não se repetir amanhã; um “acerto” pode estar apoiado em memorizações específicas e invisíveis. Para a comunidade que modela cognição, isso não é detalhe técnico, é um bloqueio epistemológico. Sem a possibilidade de intervir, comparar versões, rodar ablações, perdemos justamente aquilo que transforma um artefato em modelo científico. Não é coincidência que chamadas por modelos abertos, com corpora documentados e pesos disponíveis, estejam crescendo. Quando um campo inteiro depende de caixas-pretas semanais, a ciência perde fôlego.

Vale insistir nesse ponto porque ele organiza o restante da discussão: um bom modelo cognitivo não precisa “ser” humano; precisa ser acessível, manipulável e mapeável de forma clara para as capacidades que queremos compreender. Esse refrão reaparece aqui porque sustenta as decisões metodológicas mais difíceis. Ao comparar humanos e LLMs em tarefas de linguagem, por exemplo, não buscamos equivalência fenomenológica total. Buscamos relações de analogia: em quais condições uma família de algoritmos de previsão gera comportamento análogo? Onde reside a diferença? Como variam as respostas quando controlamos as pistas disponíveis? Essa perspectiva organiza investigações cumulativas, e não brigas semânticas sobre “entendimento”.

Há construções que exigem longa cadeia de dependências, como discursos aninhados ou concordância em longa distância. Pesquisas que variam a quantidade de dados mostram curvas interessantes: para certas estruturas, uma fração mínima de exposição já produz generalização; para outras, o salto aparece apenas com ordens de magnitude a mais. Ao retirar exemplos diretos da construção, mas manter pistas indiretas, alguns modelos ainda aprendem, sinal de que não estamos apenas diante de “tabelas de lookup”, e sim de abstrações que capturam regularidade estrutural. Esse tipo de experimento, comum em cognição, ganha potência quando feito com artefatos de código aberto, nos quais podemos repetir, estressar, refinar.

Em paralelo, a questão do “contágio” de dados exige cuidado. Se benchmarks públicos são usados no treino, os resultados inflacionam. As avaliações mais sérias multiplicam controles: versões parafraseadas, composições adversariais, itens sintéticos, variações de superfície. Essa engenharia de testes não é perfumaria; é o que distingue um efeito de memorização de um efeito de competência. Curiosamente, o mesmo raciocínio vale para humanos: crianças podem “decorar” pedaços do input sem dominar a regra. O método científico é simétrico: blindar o teste para que ele capture a propriedade que nos interessa.

Em torno desse núcleo, emergem mal-entendidos recorrentes. Um deles é a demanda por “biologicidade”: se não se parece com cérebro, não serve para explicar a mente. Esse argumento confunde níveis de análise. Um circuito elétrico pode não parecer um neurônio, mas explicar com precisão o comportamento de um receptor auditivo em certas frequências. Uma equação diferencial não tem sinapses, mas modela com elegância a dinâmica de populações. O que define um bom modelo é a fidelidade às regularidades relevantes, a capacidade de gerar previsões e a abertura à refutação. Para certos problemas, por exemplo, inferência pragmática em linguagem, abstrações probabilísticas oferecem claridade que um mapa sináptico não entrega. Para outros, por exemplo, tempo de reação motor, detalhes biológicos são inescapáveis. O “encaixe” entre fenômeno e formalismo é uma arte que a psicologia vem aprendendo há décadas.

Outra confusão frequente gira em torno de “consciência” e “intencionalidade”. Atribuir a um LLM as mesmas qualidades fenomenológicas de um sujeito humano é deslocar o debate para um terreno metafísico onde os progressos empíricos ficam reféns de intuições. Em vez disso, focamos em propriedades operacionais: rastros de inferência, estabilidade de respostas a intervenções, sensibilidade a contexto social codificado em linguagem. Ao manter a régua nesse nível, evitamos tanto o endeusamento quanto o descarte apressado.

Mas e o risco de circularidade? Se treinamos um modelo em textos escritos por humanos, é natural que ele reflita padrões cognitivos humanos. O ponto crucial está no que fazemos com essa circularidade. Se a tomamos como trivialidade e paramos por aí, nada aprendemos. Se a exploramos com intervenções controladas, removendo pistas, manipulando distribuição de tópicos, invertendo frequências, podemos isolar o papel de certas estruturas e identificar quais capacidades dependem de exposição explícita e quais emergem por composição. Esse tipo de “cirurgia” está fora do nosso alcance com crianças aprendendo sua língua materna, mas é perfeitamente viável com modelos.

Há também o terreno fértil da comparação entre arquiteturas. Como muda o perfil de generalização quando trocamos recorrência por atenção? Quais efeitos são devidos ao objetivo de treino — previsão de próxima palavra — e quais ao ajuste posterior via feedback humano? Quando observamos ganhos em raciocínio lógico após um estágio de “chain-of-thought”, estamos medindo competência nova ou apenas a adoção de um formato de resposta que torna visível uma heurística antiga? Perguntas assim pedem experimentos de ablação, reexecuções com sementes controladas, replicações em corpora sintéticos. E tudo isso remete, de novo, à necessidade de acessibilidade.

A discussão sobre “tamanho” merece cuidado separado. Redes maiores tendem a performar melhor em uma variedade de benchmarks, o que levou a uma espécie de “escala como destino”. Mas nem toda capacidade escala da mesma maneira. Há efeitos de platô, reversões, regressões por sobreajuste a estilos particulares de texto. Em psicologia, é chamado de atenção para “curvas de aprendizado” que mudam de inclinação quando um novo princípio representacional é conquistado. Talvez algo análogo ocorra aqui: certos marcos só aparecem quando o espaço de hipóteses interno se torna rico o bastante. A pergunta útil não é “quanto maior, melhor?”, e sim “que princípio novo aparece quando passamos de X para Y?”. A resposta, se bem delineada, informa teorias sobre aquisição de regras, composição e abstração, temas centrais na ciência cognitiva.

Uma linha promissora de pesquisa usa os LLMs como “baseline” para entender o que a exposição puramente linguística explica. Se um fenômeno comportamental em humanos também aparece num modelo treinado só com texto, ganhamos um argumento de parcimônia: talvez a linguagem carregue pistas suficientes para aquela habilidade. Se não aparece, duas hipóteses sobem no pódio: ou a exposição humana inclui canais não linguísticos indispensáveis, ou o objetivo de treino precisa mudar (por exemplo, incorporar ação e percepção). Em ambos os casos, o modelo nos empurra a formular melhor as condições de aprendizagem.

No meio de tanta premissa técnica, há um fio reflexivo que não quero perder: por que essa conversa mobiliza tanto desconforto? Parte vem do receio de reduzir a mente a estatísticas de palavras. Parte vem da história recente de exageros no marketing de IA. Parte vem de uma intuição legítima de que experiência encarnada, corpo e socialidade importam para formar conceitos. O entendimento aqui não é aceitar um reducionismo apressado, mas praticar um pluralismo disciplinado: usar LLMs como uma entre várias janelas, com funções específicas, limites claros e integração honesta com outros níveis de descrição, do neurônio à cultura.

Para tornar esse pluralismo operacional, algumas práticas ajudam. Documentar corpora e tornar públicas as listas de exclusão e inclusão. Fixar sementes e registrar versões. Publicar pesos e ferramentas de instrumentação sempre que possível. Desenvolver bancos de testes que variam sistematicamente forma e conteúdo, com dificuldade controlada e pistas dosadas. Estimular reavaliações entre grupos independentes, inclusive adversariais. 

Volto ao entendimento, agora com outra luz: o valor de um modelo cognitivo está em sua capacidade de ser questionado. Queremos que falhe em condições diagnósticas, que revele seus limites, que sirva de contraexemplo para teorias otimistas demais. Um LLM fechado, estável por decreto, intocável em seus dados, pode ser ótimo produto; como modelo científico, é tímido. Quando abrimos a caixa, colocamos a comunidade para conspirar com e contra o artefato e é dessa fricção que saem os aprendizados mais sólidos.

Há também um aspecto pedagógico nessa história. Ao explicar o que é um LLM para quem não vive nas trincheiras da Inteligência Artificial, ganharíamos muito ao dizer algo simples: é um preditor de linguagem que aprendeu a continuar sequências de texto com base em um oceano de exemplos. Esse preditor é surpreendentemente bom em capturar padrões de uso, reempacotar conhecimento enciclopédico e simular vozes estilísticas. Quando perguntamos se isso “entende” como um humano, mudamos o jogo sem perceber. A pergunta produtiva é: o que a habilidade de prever palavras nos revela sobre o modo como humanos extraem, combinam e generalizam regularidades linguísticas? 

E quando a conversa vai para fora da linguagem? Sobre física do senso comum, planejamento motor, percepção espacial, a história é menos generosa. Um sistema treinado só com texto tropeça em tarefas que exigem interação com mundo, feedback sensório-motor, aprendizado causal fora da palavra. Aqui, os LLMs podem ser parte da solução, como módulos linguísticos acoplados a agentes que agem e sentem, mas dificilmente serão a peça única. Isso, longe de ser um golpe fatal, é um convite a arquiteturas híbridas e a programas de pesquisa que misturam modalidades.

No fim da leitura, talvez fique uma sensação dupla: desconfiança e curiosidade. É uma combinação saudável. A desconfiança nos protege de confundir ferramenta com teoria. A curiosidade nos empurra a experimentar, abrir, sondar. Se a ciência cognitiva abraça os LLMs nesse espírito, ganha um laboratório vivo para estudar como estruturas linguísticas e estatísticas podem dar origem a comportamentos complexos. Se mantivermos a régua do método, intervenções claras, mapas de analogia explícitos, reprodutibilidade como princípio, o risco de delírio diminui, e o espaço para descobertas reais aumenta.

Eu gosto de imaginar o seguinte exercício mental. Suponha que amanhã surja um corpus anotado de forma impecável, um conjunto de pesos aberto e uma ferramenta de instrumentação que nos permita “puxar” uma camada do modelo e observar como ela responde a variações mínimas na estrutura de uma frase. Suponha que possamos retirar do treino todo verbo mentalista e observar como isso afeta tarefas de raciocínio social. Suponha que possamos treinar versões idênticas do modelo, exceto por uma única diferença na distribuição de pronomes, e medir como isso altera inferências de correferência. Essa bateria de experiências, ainda que hipotética, não é ficção científica. É um roteiro de pesquisa dentro do nosso alcance, desde que escolhamos as ferramentas que preservam o caráter público e manipulável da ciência.

Esse roteiro não invalida a importância de teorias psicológicas clássicas, ao contrário, oferece um espaço de teste. Hipóteses sobre o papel de pistas pragmáticas, sobre a emergência de operadores lógicos, sobre a necessidade de input multimodal podem ser levadas ao ringue com modelos de linguagem como sparring partners. Quando a teoria prevê X e o modelo mostra Y, ganhamos informação. Quando convergem, consolidamos explicações. Quando divergem, aprendemos onde cavar.

Se a pergunta inicial era “podemos usar LLMs como modelos de cognição?”, a resposta que proponho é pragmática: sim, desde que os tratemos como modelos científicos, não como oráculos, e desde que lutemos por acessibilidade e reprodutibilidade. O caminho passa por abrir caixas, medir mais, controlar melhor, comparar com cuidado. A recompensa é luminosa: entender um pouco mais como sistemas de aprendizado, quer em silício, quer em tecido, podem extrair estrutura de fluxos caóticos de linguagem e transformar isso em comportamento. E, quem sabe, ao fazer esse trabalho com rigor e sobriedade, possamos também recuperar um hábito precioso da boa ciência: trocar certezas grandiloquentes por perguntas que rendem experimentos.


Referências:

Wigner, E. P. — The Unreasonable Effectiveness of Mathematics in the Natural Sciences - A eficácia “desarrazoada” da matemática nas ciências naturais: Ensaio clássico argumentando que estruturas matemáticas descrevem surpreendentemente bem fenômenos físicos, levantando questões sobre por que a matemática “combina” com o mundo. https://web.njit.edu/~akansu/PAPERS/The%20Unreasonable%20Effectiveness%20of%20Mathematics%20(EP%20Wigner).pdf

Ma, W. J. — Organizing probabilistic models of perception - Organizando modelos probabilísticos da percepção: Revisão que sistematiza como modelos bayesianos explicam julgamentos perceptivos sob incerteza e ruído. https://www.cell.com/trends/cognitive-sciences/abstract/S1364-6613(12)00201-X?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS136466131200201X%3Fshowall%3Dtrue

Peterson, J. C.; Bourgin, D. D.; Agrawal, M.; Reichman, D.; Griffiths, T. L. — Using large-scale experiments and machine learning to discover theories of human decision-making - Experimentos em larga escala e aprendizado de máquina para teorias da decisão humana: Propõe pipeline que combina big data e ML para identificar e comparar teorias de tomada de decisão. https://cocosci.princeton.edu/papers/peterson2021-science.pdf

Goodman, N. D.; Frank, M. C. — Pragmatic language interpretation as probabilistic inference - Interpretação pragmática da linguagem como inferência probabilística: Defende que entender enunciados envolve raciocínio bayesiano sobre intenções do falante e contexto. https://langcog.stanford.edu/papers_new/goodman-2016-underrev.pdf

Marcus, G. F. — The Algebraic Mind: Integrating Connectionism and Cognitive Science - A mente algébrica: integrando conexionismo e ciência cognitiva: Argumenta que representações simbólicas e regras são necessárias para explicar cognição, complementando redes conexionistas. https://sites.pitt.edu/~perfetti/PDF/Marcus.pdf

Jones, M.; Love, B. C. — Bayesian Fundamentalism or Enlightenment? On the explanatory status and theoretical contributions of Bayesian models of cognition - Fundamentalismo bayesiano ou esclarecimento? Sobre o estatuto explicativo dos modelos bayesianos da cognição: Avalia forças e limites da abordagem bayesiana enquanto teoria psicológica. http://matt.colorado.edu/papers/jones-love-BBS.pdf

Brown, T. B. et al. — Language Models are Few-Shot Learners - Modelos de linguagem aprendem com poucos exemplos: Mostra que modelos de larga escala podem executar novas tarefas via prompts com poucos ou nenhum exemplo explícito. https://arxiv.org/abs/2005.14165

Elman, J. L. et al. — Rethinking innateness: A connectionist perspective on development - Repensando a inatidez: uma perspectiva conexionista sobre o desenvolvimento: Livro que propõe como aprendizado distribuído ao longo do tempo pode explicar aquisições cognitivas sem fortes pressupostos inatos. https://psycnet.apa.org/record/1997-97335-000

Christiansen, M. H.; Chater, N. — Toward a Connectionist Model of Recursion in Human Linguistic Performance - Rumo a um modelo conexionista de recursão no desempenho linguístico humano: Explora se e como redes conexionistas podem lidar com estruturas recursivas na linguagem. https://onlinelibrary.wiley.com/doi/abs/10.1207/s15516709cog2302_2

Binz, M.; Schulz, E. — Using cognitive psychology to understand GPT-3 - Usando psicologia cognitiva para entender o GPT-3: Aplica paradigmas clássicos de cognição para analisar capacidades e limites de um LLM. https://www.pnas.org/doi/10.1073/pnas.2218523120

Shiffrin, R.; Mitchell, M. — Probing the psychology of AI models - Sondando a psicologia de modelos de IA: Editorial/ensaio que discute boas práticas e armadilhas ao inferir “psicologia” a partir de sistemas de IA. https://www.pnas.org/doi/10.1073/pnas.2300963120

Frank, M. C. — Bridging the data gap between children and large language models - Encurtando o abismo de dados entre crianças e LLMs: Argumenta que a exposição massiva a texto por LLMs contrasta com o input limitado de crianças e discute implicações. https://www.cell.com/trends/cognitive-sciences/abstract/S1364-6613(23)00203-6?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS1364661323002036%3Fshowall%3Dtrue

Ouyang, L. et al. — Training language models to follow instructions with human feedback - Treinando modelos de linguagem para seguir instruções com feedback humano: Introduz RLHF para alinhar saídas a preferências humanas em tarefas instruídas. https://arxiv.org/abs/2203.02155

Mitchell, M.; Krakauer, D. C. — The debate over understanding in AI’s large language models - O debate sobre “entendimento” em grandes modelos de linguagem: Examina o que “entender” deveria significar e os limites de atribuir entendimento a LLMs. https://www.pnas.org/doi/10.1073/pnas.2215907120

Marcus, G. F.; Vijayan, S.; Bandi Rao, S.; Vishton, P. M. — Rule Learning by Seven-Month-Old Infants - Aprendizado de regras por bebês de sete meses: Experimentos mostram sensibilidade infantil a padrões abstratos (como ABA/ABB) em sequências. https://www.science.org/doi/10.1126/science.283.5398.77

Geiger, A.; Carstensen, A.; Frank, M. C.; Potts, C. — Relational reasoning and generalization using nonsymbolic neural networks - Raciocínio relacional e generalização com redes neurais não simbólicas: Demonstra que redes podem aprender relações “mesmo/diferente” e generalizar além do treino. https://abcarstensen.com/files/GeigerCarstensenFrankPotts2022_neuralNetworkRelationalReasoning.pdf

Geiger, A.; Wu, Z.; Potts, C.; Icard, T.; Goodman, N. D. — Finding Alignments Between Interpretable Causal Variables and Distributed Neural Representations - Alinhando variáveis causais interpretáveis a representações neurais distribuídas: Propõe métodos para mapear variáveis causais humanas em representações internas de redes. https://proceedings.mlr.press/v236/geiger24a/geiger24a.pdf

Zhang, Y.; Warstadt, A.; Li, X.; Bowman, S. R. — When Do You Need Billions of Words of Pretraining Data? - Quando você precisa de bilhões de palavras de pré-treino?: Estuda como a quantidade de dados afeta desempenho e quando ganhos de escala realmente aparecem. https://aclanthology.org/2021.acl-long.90/

Warstadt, A.; Bowman, S. R. — Can neural networks acquire a structural bias from raw linguistic data? - Redes neurais podem adquirir viés estrutural a partir de dados linguísticos brutos?: Investiga se redes derivam preferências estruturais apenas da distribuição do input. https://cognitivesciencesociety.org/cogsci20/papers/0381/0381.pdf

Wellman, H. M. — Theory of mind: The state of the art - Teoria da mente: estado da arte: Revisão abrangente sobre desenvolvimento, medidas e teorias de ToM em humanos. https://www.sv.uio.no/livet-rundt-studiene/studiestart/kollokviefadder/artikler-til-kollokvietreff/tom_stateoftheart_wellman.pdf

Kosinski, M. — Theory of Mind May Have Spontaneously Emerged in Large Language Models - Teoria da mente pode ter emergido espontaneamente em LLMs: Relata desempenho positivo de LLMs em tarefas de crença falsa e discute possíveis mecanismos. https://arxiv.org/vc/arxiv/papers/2302/2302.02083v1.pdf

Ullman, T. — Large Language Models Fail on Trivial Alterations to Theory-of-Mind Tasks - LLMs falham com alterações triviais em tarefas de teoria da mente: Mostra que pequenas mudanças de enunciado derrubam o desempenho, questionando a robustez. https://arxiv.org/abs/2302.08399

Gandhi, K.; Fränken, J.-P.; Gerstenberg, T.; Goodman, N. D. — Understanding Social Reasoning in Language Models with Language Models - Entendendo o raciocínio social em LLMs com LLMs: Introduz avaliações amplas de raciocínio social e discute onde os modelos acertam e erram. https://arxiv.org/abs/2306.15448

Koster-Hale, J. et al. — Mentalizing regions represent distributed, continuous, and abstract dimensions of others’ beliefs - Regiões de mentalização representam dimensões abstratas e contínuas das crenças alheias: Evidência de neuroimagem de que áreas de ToM codificam dimensões abstratas de crenças. https://pmc.ncbi.nlm.nih.gov/articles/PMC5696012/

Ruffman, T.; Slade, L.; Crowe, E. — The Relation between Children’s and Mothers’ Mental State Language and Theory-of-Mind Understanding - Relação entre a linguagem de estados mentais de mães/crianças e a compreensão de teoria da mente: Associa uso de vocabulário mentalista a avanços em ToM infantil. https://srcd.onlinelibrary.wiley.com/doi/abs/10.1111/1467-8624.00435?sid=nlm%3Apubmed

Liesenfeld, A.; Lopez, A.; Dingemanse, M. — Opening up ChatGPT: Tracking openness, transparency, and accountability in instruction-tuned text generators - Abrindo o ChatGPT: rastreando abertura, transparência e responsabilização em geradores ajustados por instruções: Propõe métricas e acompanhamento público do grau de “abertura” de modelos instruídos. https://arxiv.org/abs/2307.05532

Como diferenças individuais afetam a confiança e a mudança de decisão

Núcleo accumbens

Tomada de decisão é o nome dado ao processo pelo qual escolhemos entre opções possíveis. Parece simples, mas envolve muito mais do que o instante do “sim” ou do “não”: inclui comparar alternativas, estimar riscos, atualizar crenças com novas evidências e, às vezes, voltar atrás. Quem nunca pesou prós e contras e, minutos depois, mudou de ideia ao perceber um detalhe que havia passado batido?

Pesquisas em neurociência, psicologia e ciências do comportamento mapearam regiões e dinâmicas que sustentam escolhas, embora ainda existam pontos obscuros. Entre as peças desse quebra-cabeça, uma estrutura ganhou destaque quando o assunto é ponderar custos, benefícios e probabilidades de desfecho: o nucleus accumbens.

O nucleus accumbens integra os gânglios da base, um conjunto subcortical ligado à seleção de ações e ao encaminhamento do que vale ser feito agora. Em termos funcionais, participa do processamento de recompensa e motivação. Vários estudos relatam maior atividade desse núcleo em condições clínicas como dependência química e transtornos de ansiedade, sinal de que valor subjetivo e expectativa se misturam a sintomas e padrões de comportamento.

Com esse pano de fundo, um grupo da University of Minnesota Medical School investigou como a dopamina no nucleus accumbens participa de componentes específicos do decidir. Dopamina, aqui, é um neuromodulador (substância que regula a comunicação neural) que ajusta aprendizado, vigor e escolha. A pergunta norteadora era direta e ambiciosa: variações rápidas de dopamina refletem a confiança que o indivíduo tem na própria avaliação enquanto ainda está ponderando?

Os resultados, publicados na revista Nature Neuroscience, indicam uma ligação entre a dinâmica dopaminérgica no nucleus accumbens e a confiança em decisões no período de avaliação. Em linguagem direta, trata-se de um sinal que acompanha, em tempo real, a crença de estar no caminho certo, antes do compromisso final com uma alternativa.

Os autores argumentam que decidir não é um bloco discreto. Funciona como fluxo contínuo, com fases de avaliação e reavaliação que vão além da previsão imediata de resultados e incorporam valor passado e valor futuro. O corpo clássico de pesquisas, centrado no erro de previsão de recompensa, explica boa parte do aprendizado por reforço, mas deixa lacunas sobre decisões voluntárias e autoguiadas. Outro ponto importante envolve diferenças individuais no processamento de valor, capazes de moldar como a dopamina regula escolhas ao longo do tempo.

Para testar essa visão dinâmica, os cientistas recorreram a uma tarefa neuroeconômica do tipo “Restaurant Row”, comum em estudos de preferência e custo-benefício. A equipe realizou experimentos com camundongos adultos, combinando registro neural e manipulação causal.

Os animais executaram uma tarefa de forrageamento econômico, um paradigma em que cada ação leva a recompensas distintas. Em termos simples, o camundongo podia puxar uma alavanca que liberava imediatamente água açucarada cuja quantidade decaía com o tempo, ou abandonar o ponto e buscar outra oportunidade, com custo de espera e incerteza. Pergunta inevitável: quando você troca um ganho certo por uma aposta futura, o que pesa mais, a paciência ou a urgência?

Enquanto os animais decidiam, os pesquisadores registravam a atividade dopaminérgica no nucleus accumbens por meio de sensores de fluorescência. Em seguida aplicaram optogenética, técnica que usa luz para controlar neurônios geneticamente modificados, permitindo aumentar ou reduzir a liberação de dopamina em momentos pontuais.

Com isso, puderam observar como pequenas alterações no sinal químico mudavam a maneira de avaliar e de reconsiderar opções. Os dados sugerem que a dinâmica da dopamina acompanha a confiança. Picos mais altos se alinham a maior convicção, enquanto quedas sinalizam hesitação. Um achado extra merece atenção. Certos perfis de variação anteciparam momentos de mudar de ideia, como se o sistema estivesse reponderando valores recentes e esperados. Note como o ponto central se reafirma sem alarde. O mesmo sinal que embala convicção também marca a fronteira de uma virada estratégica.

Que implicações isso tem para nós? Em humanos, medir assinaturas de confiança no accumbens pode ajudar a entender escolhas impulsivas ou rígidas. Transtornos associados a decisões pobres, de dependência a transtorno obsessivo-compulsivo, talvez envolvam não só o quanto se espera de uma recompensa, mas a forma como se revisa o próprio julgamento em tempo real. Se a dopamina modula essa revisão, vale explorar intervenções que restaurem a capacidade de avaliar e reavaliar sem aprisionar a pessoa em rotas repetitivas.

Essas intervenções podem ir de treinamentos comportamentais a abordagens farmacológicas cuidadosamente controladas, sempre orientadas por medidas objetivas de valor e confiança. No plano conceitual, a mensagem é valiosa. Decidir não é apenas antecipar resultados. É monitorar a própria certeza e ajustar o curso quando a paisagem muda. Essa perspectiva, ancorada em sinais dopaminérgicos no nucleus accumbens, aproxima a arte de escolher da arte de reconsiderar. 

Pergunta final para levar adiante. Que contexto cognitivo favorece ajustes oportunos sem paralisar pela dúvida? Começa com informação de qualidade, modelos mentais transparentes, tempo suficiente para avaliar custos e benefícios e um espaço que tolere revisões fundamentadas. Tal arranjo dá ao cérebro margem para usar dopamina como régua de valor e como bússola de confiança. Quando a bússola oscila, o sistema não se perde. Ele compara caminhos, reavalia pesos, testa hipóteses e muda de direção se for preciso. E a pergunta inicial ganha uma resposta provisória e prática. A dopamina sinaliza valor, mas também sinaliza certeza. 


Referência:

Individual differences in decision-making shape how mesolimbic dopamine regulates choice confidence and change-of-mind - A sinalização de dopamina no núcleo accumbens é um substrato neural importante para a tomada de decisão. As teorias dominantes geralmente discretizam e homogeneízam a tomada de decisão, quando na realidade ela é um processo contínuo, com componentes de avaliação e reavaliação que vão além da simples previsão de resultados, incluindo a consideração de valores passados e futuros. Um grande volume de estudos examinou a dopamina mesolímbica no contexto do erro de previsão de recompensa, mas ainda existem lacunas importantes na nossa compreensão de como a dopamina regula a tomada de decisão volitiva e autoguiada. Além disso, há pouca consideração sobre as diferenças individuais no processamento de valor que podem moldar como a dopamina regula a tomada de decisão. Aqui, usando uma tarefa de forrageamento econômico em camundongos, descobrimos que a dinâmica da dopamina no núcleo accumbens central refletia a confiança nas decisões durante sua avaliação, bem como tanto o valor passado quanto o futuro durante a reavaliação e mudança de opinião. https://www.nature.com/articles/s41593-025-02015-z

Python: A história de origem

Vídeo do YouTube


Se você é da área de ciências, com certeza já ouviu falar da linguagem de programação Python. Ela aparece em todo lugar: biologia, ciências humanas, clima, inteligência artificial. Por quê? Porque junta duas coisas raras: código fácil de ler e um monte de ferramentas prontas para trabalhar com dados, gráficos e modelos.

O que é Python, na prática? É uma linguagem em que você escreve e executa na hora. Você digita algumas linhas, aperta “rodar” e vê o resultado. Isso ajuda a testar ideias rapidamente, algo essencial em pesquisa.  Quer fazer contas com tabelas grandes? NumPy ajuda com matrizes (tabelas de números) e operações rápidas. Precisa de dados com colunas nomeadas, filtros e junções? Pandas organiza tudo em DataFrames (tabelas com rótulos, parecidas com planilhas). Precisa visualizar? Matplotlib e Seaborn geram gráficos de linhas, barras e mapas de calor em poucos comandos. Vai treinar um modelo para reconhecer padrões? Scikit-learn oferece algoritmos clássicos de aprendizado de máquina com uma forma de uso parecida entre eles.

De onde veio essa cultura? Python foi criado por Guido van Rossum nos anos 1990 com uma ideia simples: código claro vale ouro. Existe até um textinho famoso, o “Zen of Python”, que dá conselhos como “legibilidade conta” e “casos comuns devem ser fáceis”. Para quem escreve métodos e precisa que outras pessoas repitam o experimento, isso faz toda a diferença.

Neste documentário do YouTube você vai conhecer mais sua história e saber como esta linguagem de programação tem sido muito importante na ciência atual.

Quando o núcleo “vaza”: o que o rutênio diz sobre a Terra profunda

Terra Quente

Imagine a Terra recém-nascida, um oceano de magma envolvendo um coração metálico em formação. Nesse cenário, o ferro líquido afunda e puxa consigo elementos que gostam de ferro, os siderófilos, como o rutênio. A narrativa clássica termina aqui: tudo o que é siderófilo teria sido sequestrado para o núcleo externo (um mar denso de metal líquido), longe do manto e, mais ainda, da superfície. Só que novas pistas químicas e sísmicas contam uma história mais inquieta. E se parte desse material do núcleo estiver, sim, encontrando um caminho de volta?

Falamos de duas camadas com densidades e composições distintas.

Núcleo externo: líquido, composto majoritariamente de ferro e níquel, onde nascem as correntes metálicas que alimentam o campo magnético.

Manto: sólido que flui lentamente, rico em silicatos, responsável por convecção e plumas que alimentam vulcões de ponto quente.

Por décadas, a interface entre esses domínios foi tratada como uma fronteira impermeável para o metal líquido. As novas evidências enfraquecem essa ideia. A pergunta passa a ser como o material cruzaria a fronteira e onde ele apareceria para nós.

Isótopos são versões do mesmo elemento com massas diferentes; seus padrões isotópicos funcionam como impressões digitais. O rutênio-100 (e a família de isótopos de Ru) é siderófilo: na Terra primordial, preferiu o ferro e partiu para o núcleo. Se hoje encontramos assinaturas isotópicas de Ru típicas do núcleo em rochas vulcânicas, duas coisas se tornam plausíveis:

o magma que as formou interagiu com material de origem nuclear, ou

o manto guardou um reservatório primitivo com o mesmo padrão, preservado e só agora amostrado.

O primeiro cenário ganhou tração porque os locais amostrados, Galápagos, Havaí e Ilha de Baffin, são clássicos hotspots: pontos quentes alimentados por plumas mantélicas que sobem das profundezas, potencialmente desde a base do manto.

Abaixo da África e do Pacífico, análises sísmicas há anos mapeiam estruturas gigantes na base do manto, na fronteira com o núcleo. Em linguagem técnica, aparecem como regiões de baixa velocidade de cisalhamento (conhecidas pela sigla em inglês LLSVPs): “blocos” continentais de cristais quentes, de granulação grande, com propriedades elásticas anômalas. O quadro que emerge é sedutor: plumas podem varrer essas zonas e carregar traços de material que escapa do núcleo externo, eventualmente trazendo para cima exatamente o tipo de assinatura isotópica observada nas lavas.

Pergunta direta: se o núcleo sempre foi uma prisão perfeita para o ferro e seus parceiros, de onde mais viria um padrão de rutênio tão parecido com o esperado para o núcleo?

Três peças, um mesmo retrato

Geoquímica: rochas vulcânicas de hotspots exibem razões isotópicas de Ru compatíveis com material do núcleo.

Geofísica: LLSVPs e outras anomalias na base do manto sugerem canais onde trocas químicas são possíveis.

Tectônica térmica: plumas que atravessam essa zona servem de elevadores para sinais profundos.

Repare no ponto-chave: a velha noção de uma barreira intransponível entre núcleo e manto não explica bem o conjunto de dados.

Ciclo profundo de elementos, elementos siderófilos podem reentrar na química de superfície, ainda que em traços, influenciando catálise natural, oxirredução em magmas e cronômetros geoquímicos baseados em isótopos.

Plumas como sondas, hotspots deixam de ser apenas fontes de basalto “exótico” e viram fios-terra conectados ao limite núcleo–manto.

Evolução da Terra, modelos de diferenciação primitiva (a grande separação metal–silicato) ganham ciclos de retorno e mistura tardia que podem explicar por que certos traços não batem com previsões simples.

Conceitos em linhas:

Isótopo: mesmo elemento, massas distintas; as razões isotópicas funcionam como assinaturas de origem.

Siderófilo: elemento que prefere ferro; na Terra primitiva, acabou no núcleo.

Pluma mantélica: coluna quente e de baixa densidade que sobe do manto profundo e pode alimentar vulcanismo de ponto quente.

LLSVP: megaestrutura na base do manto com propriedades sísmicas anômalas; possível ponte para trocas com o núcleo.

Nem toda assinatura de Ru implica “núcleo na superfície”. Uma alternativa discutida é um reservatório antigo no manto (material primordial “estocado” desde a diferenciação), periodicamente amostrado por plumas. Como separar as hipóteses? Com mais marcadores. Combinar Ru com outros siderófilos (ósmio, irídio, platina) e com sistemas radioisotópicos sensíveis ao tempo (por exemplo, Hf-W) ajuda a desenhar a linha do tempo entre formação do núcleo, mistura e emergência do sinal.

Entender trocas núcleo–manto afeta como lemos o campo magnético ao longo das eras, como estimamos fluxos de calor que dirigem placas tectônicas e como pensamos o orçamento de elementos catalíticos que podem ter influenciado a química prebiótica. No fundo, é sobre passado profundo explicando processos atuais.


Referência:

Earth’s Core Appears To Be Leaking Up and Out of Earth’s Surface - https://www.quantamagazine.org/earths-core-appears-to-be-leaking-up-and-out-of-earths-surface-20250804/