Conheça os Cubesats

Vídeo: Este antigo mega-predador foi construído para ser furtivo
Ouça o artigo:

Quando você olha para o céu em uma noite clara e pensa em satélites, talvez venha à mente apenas aquela constelação de luzes que parece imitar um trem voador: são os CubeSats, pequeninos cubos de 10 cm que, juntos, estão redesenhando o que entendemos por comunicação espacial. Eu me peguei pensando nesses dispositivos num entardecer qualquer, lendo alguns artigos de astronomia, e observando a Lua surgir por trás das copas das árvores e imaginando quantos deles cruzavam aquele enorme vazio entre a Terra e as estrelas. Será que imaginamos direito o potencial que esses nano-satélites têm de conectar cada canto do planeta?

A história dos CubeSats começa lá atrás, no final dos anos 1990, quando estudantes da universidade decidiram criar satélites off-the-shelf — isto é, usando componentes comerciais prontos, com o objetivo de levar experimentos ao espaço a baixo custo. A ideia era simples e genial: um cubo de 1U (10 × 10 × 10 cm) de poucas centenas de gramas, com painéis solares colados nas faces, capaz de gerar entre 1 e 7 W em luz plena. Se você multiplicar essas unidades, obtém 2U, 3U, até 16U, e, com isso, consegue ajustar massa (até 21 kg) e potência conforme a necessidade da missão.

O que aconteceu depois foi uma explosão de possibilidades: rapidamente, surgiram constelações de CubeSats para mapeamento do clima, detecção de terremotos, experimentos de biologia, e, claro, comunicações. Mas por que usar tantos satélites pequenos em vez de alguns grandes? Um dos grandes entendimento é a cobertura global: em órbitas baixas (entre 200 e 900 km de altitude), um feixe de rádio (ou laser) de cada satélite atinge apenas uma pequena mancha da Terra — o “footprint” —, exigindo dezenas ou centenas deles para um serviço contínuo. Por outro lado, cada NanoSat pesa pouco e custa uma fração do que custaria um satélite tradicional, o que torna viável construir e lançar constelações com centenas de unidades.

Como montar uma constelação eficiente?

Suponha que você queira garantir cobertura permanente de determinada região. Que tipo de arranjo usar? Existem alguns designs clássicos:

Walker: satélites distribuídos em planos orbitais igualmente espaçados, todos com mesmo ângulo de inclinação. A ideia é simples — reparta os cubos uniformemente, sincronize-os e você obtém cobertura “quase” homogênea em certas latitudes. Como desvantagem, as zonas perto do Equador recebem menos atenção se a inclinação for alta.

Street-of-coverage: planos polares inclinados que se sobrepõem estrategicamente, garantindo mais fatias na cobertura. Garante boa atenção aos polos, mas é mais complexo de implementar e exige múltiplas estações de lançamento.

Flower: inspirado em pétalas giratórias, todos os satélites seguem órbitas “fechadas” num referencial terrestre rotativo, de modo que cada um espalha seus passos como se fosse uma flor abrindo e fechando seus caules. É elegante na teoria, mas exige sincronismo apurado.

Eu tive algumas reflexões sobre essas constelações quando li que, para cobrir o Equador com ângulo de elevação mínimo de 10°, são necessários mais de 20 satélites em órbita a 600 km — um verdadeiro balé espacial.

E como calcular isso na prática? Há uma fórmula para o ângulo central da Terra (θ), que envolve a altitude h, o raio terrestre Rₑ e o ângulo de elevação φ:

θ = arcsin [ (ρ · sin(90° + φ)) / (h + Rₑ) ]


onde a ρ é a distância oblíqua entre satélite e estação. Com θ em mãos, basta dividir 360° por 2θ para saber quantos satélites por plano são necessários, e por 4θ para descobrir quantos planos formam um anel completo. Parece complicado? É, mas simplifica o trabalho de um engenheiro de missão.

Muito mais do que só distribuir cubos

Ter a constelação no espaço é meio caminho andado. Para trocar dados, cada CubeSat precisa de um sistema de rádio ou de laser a bordo (ou ambos). Pense no link satélite-terra (C2G) como um bate-papo entre dois velhos amigos separados por milhares de quilômetros de atmosfera e espaço: você quer ouvir cada palavra (baixa taxa de erro), mas não tem muita força para falar (baixo consumo de energia) e só pode usar uma frequência que não atrapalhe ninguém.

Opções de comunicação

RF (rádio frequência)

VHF/UHF (centenas de MHz): é o clássico, simples, tolera erro de apontamento e penetra nuvens e chuva razoavelmente bem. O preço é que “cabe” pouca informação por segundo, algo em torno de kilobits a poucos megabits por segundo.

S, X, Ka-bands (GHz): mais espaço no espectro, maior vazão — dezenas a centenas de Mbps — mas sofre mais com absorção por chuva e requer antenas (ainda) menores. Já vi projetos usando Ka-band para baixar imagens de satélite a 150 Mbps — imagine acelerar suas fotos de alta definição direto do espaço.

Laser (óptico)


Como um chat de vídeo em fibra ótica, oferece Gbps de taxa, sem ser afetado por congestionamento de spectrum RF. O porém é apontar um feixe fino para uma estação que está girando junto com a Terra, entre nuvens e turbulências. Pontaria precisa (beam-steering), sensores de rastreamento e espelhos ajustáveis são o nome do jogo.

VLC (comunicação por luz visível via LEDs)


Uma aposta recente: falar entre satélites com luzes LED de alta potência, que gastam menos energia que lasers, mas oferecem taxas mais modestas, até alguns Mbps. Ainda em pesquisa, sobretudo para constelações de satélites em enxame (swarm), onde o apontamento fica mais relaxado.

Cada tecnologia tem compensações em perda de sinal, erro de bit e consumo de energia. Por exemplo, a atenuação atmosférica (La) e a perda por polarização (Lpol) entram na conta do link budget — aquele cálculo que diz se “dá pra trocar dados?” ou “vai dar ruim, sinal tá fraco demais”.

Modelando o canal

No fim, a velocidade e a confiabilidade desse bate-papo dependem de como o sinal sofre no percurso. Tem multipercurso (eco em prédios ou montanhas), desvanecimento rápido (fading) e até variações lentas devido a grandes obstáculos (shadowing). Para lidar com isso, pesquisadores criaram estatísticas de canal:

Loo: modelo rural clássico, mistura desvanecimento Rayleigh (muitos caminhos refletidos) com sombra log-normal (árvores e colinas).

Corazza-Vatalaro: combina Rician (quando há um caminho direto forte) com log-normal, serve pra LEO/MEO.

Markov multi-estado: canal visto como uma sequência de “estados” — passar por uma sombra, depois um fading, depois um bom link —, ideal pra órbitas baixas que atravessam áreas urbanas e rurais em minutos.

Uma lição que fiquei com isso é: para constelações grandes, usar um modelo dinâmico que se adapte ao ângulo de elevação do satélite (mais baixo = mais obstáculos) é crucial para projetar códigos de correção de erro eficientes.

Do bit à transmissão

Você já parou para pensar que cada “0” e “1” precisa atravessar o espaço? Por isso, a escolha de modulação e codificação é vital:

Modulações binárias (BPSK, QPSK): redundância alta, robustez a ruídos, gastam menos energia mas usam mais banda. Indicado quando você tem pouca largura de espectro mas precisa garantir confiabilidade.

Modulações de ordem maior (8PSK, 16QAM): comprimem mais bits por hertz, ideal quando a banda é cara e o link é “limpo” (altas frequências com trovoadas longe).

Em todo caso, sempre vem junto um código de correção de erro (FEC – forward error correction). LDPC (low-density parity-check) e Turbo Codes são hits atuais. Eles permitem que você receba dados mesmo com BER (bit error rate) de 10⁻⁶, coisa que há décadas era impensável para satélites pequenos.

Um exemplo prático: imagine um CubeSat na frequência X-band, transmitindo a 100 Mbps para baixar vídeos de monitoramento de desmatamento. Se você usar QPSK + LDPC ½ (isto é, metade dos bits são redundância), consegue manter link estável mesmo quando o satélite está a 30° de elevação, quando o footprint começa a ficar quase tangente à Terra.

Entre satélites: a internet orbital

Não é só satélite-terra que interessa: as conexões CubeSat-to-CubeSat (C2C) abrem a porta para redes espaciais resilientes. Se um satélite se aproxima do horizonte da estação, outro já assume o fluxo de dados. Isso é parte da visão de “Internet of Space Things” — IoST —, onde cada CubeSat é um nó que encaminha pacotes roteados por protocolos adaptados ao espaço: latências de centenas de milissegundos, órbitas que mudam ocasionalmente de vizinhança e enlaces intermitentes.

Esses links C2C podem usar RF em bandas SHF/EHF, tolerantes a apontamento impreciso, ou lasers ultrarrápidos (Gbps), exigindo sistemas de tracking finíssimos. Já vi laboratório testando swarms de 50 cubos, cada um trocando dados em laser a 5,6 Gbps — um verdadeiro parque de diversões para engenheiros ópticos.

Num desses testes, chamava atenção como a luz não sofre turbulência atmosférica (ufa!), mas a troca de pontos no espaço exige esmero mecânico: reaction wheels, rodízios — para garantir que um feixe de milésimos de grau não escape do receptor receptor num outro satélite girando gravidade-afora.

Qual é o futuro?

Depois de absorver tudo isso, pergunto: onde chegaremos em duas décadas? Eis alguns insights:

Integração 6G e CubeSats: imaginou celular conectando diretamente a um CubeSat via mmWave? Baixa latência e alta taxa podem levar IoT rural a outro patamar.

Redes definidas por software (SDN) no espaço: gerenciamento dinâmico de rotas e frequências, permitindo que as constelações se reorganizem conforme falhas ou picos de demanda.

Energia solar avançada: painéis flexíveis em faces curvas, supercapacitores e até células de combustível oferecendo mais potência para lasers de alta vazão.

IA embarcada: algoritmos de machine learning para alocar recursos de maneira autônoma, ajustar modulação e codificação “on the fly” de acordo com condições de canal previstas por sensores a bordo.

Reforçar o ponto-chave é importante: não basta lançar satélites, é preciso orquestrá-los com inteligência — distribuir carga, mover órbitas ligeiramente, otimizar links C2C em tempo real. E, cá entre nós, esse é o verdadeiro desafio tecnológico: integrar hardware leve e robusto com software ágil e nos trilhos.

Digamos que, enquanto a saga desses cubinhos coloridos continua, cada nova missão nos aproxima de um mundo onde a conectividade não é privilégio de quem mora em grandes centros. Mais do que pixels de luz cortando o firmamento, os CubeSats carregam a ambição de deixar o planeta inteiro ao alcance de um toque — seu smartphone falando via espaço, para que nenhuma fronteira seja barreira. É impressionante como, ao simplificar o hardware (um cubo de 10 cm com componentes comerciais), conseguimos expandir o alcance da ciência, da educação e da troca de informações.

E você, quando for olhar para cima de novo, poderá sorrir considerando que aqueles pontos voadores — que parecem brincadeira de criança — são, na verdade, laboratórios e centrais de telecomunicações em miniatura, prestes a redefinir o que significa estar “conectado”. 

O estilo de vida do Temnodontosaurus

Vídeo: Este antigo mega-predador foi construído para ser furtivo
Ouça o artigo:

Você já imaginou como seria o encontro inesperado com um dos maiores predadores marinhos que já habitaram os oceanos jurássicos? Há cerca de 183 milhões de anos, muito antes que os mares fossem habitados por baleias ou tubarões gigantes, existia uma criatura que dominava esses ambientes com uma eficiência assustadora: o Temnodontosaurus. Um animal colossal, com olhos desproporcionalmente grandes capazes de enxergar claramente na escuridão profunda dos mares antigos. Pois bem, recentemente, cientistas lançaram nova luz sobre esse predador intrigante, revelando algo que surpreendeu até mesmo os paleontólogos mais experientes.

Analisando cuidadosamente os fósseis de uma nadadeira anterior excepcionalmente bem preservada, pesquisadores descobriram detalhes anatômicos que sugerem fortemente que o Temnodontosaurus era um caçador extremamente furtivo. Essa conclusão vem preencher uma lacuna importante no entendimento do estilo de vida desse animal, uma vez que informações sobre tecidos moles, geralmente não preservados em fósseis, sempre foram escassas.

De forma simples, ela mostrou adaptações anatômicas notáveis, incluindo uma estrutura parecida com uma asa, com bordas serrilhadas reforçadas por uma camada de tecido cartilaginoso conhecida como condrodermis. Esse detalhe anatômico pode parecer pequeno, mas na verdade é um grande achado. Ao analisar esse formato incomum por meio de simulações digitais, os cientistas perceberam que tais serrilhas eram capazes de reduzir significativamente o ruído gerado pelo movimento do animal na água, especialmente os sons de baixa frequência que viajariam grandes distâncias e alertariam suas presas.

Pense nisso como uma espécie de "camuflagem acústica": enquanto nadava, esse predador jurássico produzia pouquíssimo ruído, permitindo-lhe se aproximar sorrateiramente de presas desatentas, como peixes, lulas e até outros répteis marinhos menores, sem ser detectado. Em outras palavras, o Temnodontosaurus não dependia apenas de sua visão impressionante, mas também de uma estratégia de caça sofisticada e silenciosa, uma verdadeira máquina de emboscadas que navegava pelas sombras oceânicas.

É fascinante pensar como esses detalhes tão minuciosos da vida pré-histórica podem ser resgatados após milhões de anos graças ao trabalho meticuloso dos pesquisadores. De acordo com as recentes publicações científicas na revista Nature e no Science News, essa descoberta tem implicações ainda maiores. Ela ajuda os paleontólogos a compreender melhor como os grandes répteis marinhos dominavam os mares, revelando que estratégias de caça furtiva eram mais comuns e diversificadas do que se imaginava até então.

Outro ponto que chama a atenção é como essas adaptações especializadas podem oferecer insights para a engenharia moderna. As estruturas que permitiam ao Temnodontosaurus nadar silenciosamente poderiam inspirar tecnologias atuais para reduzir ruídos subaquáticos em veículos como submarinos e drones aquáticos, algo que hoje preocupa cada vez mais os cientistas devido ao impacto do ruído em animais marinhos sensíveis.

Essa descoberta também mostra como mesmo pequenos detalhes preservados em fósseis podem mudar completamente a nossa visão sobre criaturas extintas. O Temnodontosaurus, antes conhecido apenas como um grande predador com olhos enormes, agora é visto como um caçador extremamente sofisticado e adaptado, cujo método furtivo lhe conferia uma vantagem crucial para sobreviver em ecossistemas altamente competitivos do passado.


Referência:

Adaptations for stealth in the wing-like flippers of a large ichthyosaur - https://www.nature.com/articles/s41586-025-09271-w

Rituais de banquete durante o Neolítico no sudoeste asiático

Neurobiologia do sono
Ouça o artigo:

Quando pensamos no surgimento da agricultura, é comum imaginar campos cultivados, sementes semeadas e animais domesticados por vizinhanças próximas. Mas e se eu dissesse que, já lá pelos idos de 9.600 a.C., pessoas cruzavam montanhas carregando presas inteiras de porcos‑selvagens para celebrar ritos coletivos? Pois foi exatamente isso que a combinação de técnicas microscópicas e geoquímicas revelou na Ásia, um sítio do Neolítico Inicial no Irã ocidental. O incrível esforço de transportar animais de áreas distantes não serviu apenas ao apetite: reforçou laços sociais, expressou crenças e, sem que percebêssemos, lançou as bases para a gestão de rebanhos milênios antes do advento das fazendas modernas.

É fácil supor que, num mundo pré‑agrícola, cada comunidade caçava em seu quintal, consumia ali mesmo e deixava os rastros no solo local. Mas o local contava outra história. Num edifício semicircular, provavelmente usado como espaço público, pesquisadores encontraram restos de dezenove porcos‑selvagens cuidadosamente empilhados num poço — cerca de 700 kg de carne. Para alimentar 350 a 1.200 adultos num único banquete (ou talvez armazenar parte da carne para consumo futuro), era preciso não só habilidade no abate e preparo (observe como o processo de salga ou desidratação exige controle de fluxo de ar, temperatura e umidade) mas, sobretudo, planejamento logístico: onde encontrar tantos animais e como trazê‑los até ali?

Eu tive algumas reflexões enquanto lia os detalhes do estudo, especialmente quando percebi que não se tratava de mero quantitativo: havia um componente simbólico, quase performático, na ação de reunir aqueles corpos. A arqueologia costuma enfatizar a subsistência, mas aqui ficamos diante de algo mais profundo. Qual era o significado de levar carne fresca — ou mesmo crânios, caso tivessem sido preservados — de porcos, espécies não‑domesticadas e raramente caçadas na região, para um sítio distante? Será que cada animal representava um voto de união entre grupos espalhados pelos vales e montanhas?

Para descobrir, os cientistas recorreram a duas ferramentas poderosas. Primeiro, a histologia dentária: ao fatiar molas de porcos em lâminas finíssimas (~50 µm) e examinar as linhas de crescimento do esmalte (os chamados lamináceos diários), determinaram quanto tempo levou para formar cada porção do dente (esse ritmo de extensão de esmalte, medido em micrômetros por dia, indica períodos de 6 a 12 meses de desenvolvimento). Em seguida, partiram para a geoquímica: usando microsonda de íons (SHRIMP‑SI), mediram variações semanais no fosfato dentário, que refletem a água ingerida (e, portanto, a estação do ano e a altitude de cada local). Paralelamente, com laser‑ablação e espectrometria de massas, mapearam as proporções, um marcador do tipo de rocha e solo onde o animal viveu.

Quatro dos cinco dentes analisados exibiam assinaturas isotópicas (tanto de oxigênio quanto de estrôncio) compatíveis com áreas situadas a dezenas de quilômetros de distância do local de origem. Um boi‑porco (batizado de ASB449 pelos pesquisadores) era ligeiramente mais “local”, mas os demais vieram de terras distintas, cada qual com perfil geoquímico próprio. Não havia uniformidade de procedência: os animais não faziam parte de um mesmo grupo familiar (somente um ninho de porcos solenóide seria caçado em massa ali perto). Ao contrário, cada espécime carregava histórias de nascimento em estações diferentes, alguns nascidos na primavera, outros no fim de verão, e de forrageamento em ecossistemas variados, como sugerem picos de bário (Ba) associados a hábitos alimentares ou a mudanças sazonais de pastagem.

Um detalhe me pegou de surpresa: para transportar porcos inteiros, mortos e eviscerados, seria preciso desbravar trilhas montanhosas com um peso considerável. Estimou‑se que, mesmo em terreno plano, percorrer 70 km a pé, a distância mínima até regiões com valores distintos, levaria ao menos um dia inteiro de caminhada. Em altitudes elevadas, o trajeto ficaria mais lento e exaustivo. As opções eram: caçadores viajando longe para abater e trazer as carcaças; grupos de caçadores distintos contribuindo com troféus; ou até pessoas consumindo carne em lugares remotos e depois levando só os crânios como oferenda ritual. Em qualquer cenário, havia um esforço monumental, quase hercúleo, envolvido.

Você pode se perguntar: “Por que tanto empenho em caçar um animal perigoso e inusitado, e não escolher uma presa mais comum, como cabras montesas ou cervos?” (pergunta retórica, mas relevante). A resposta talvez esteja no valor simbólico do porco‑selvagem: feroz, imprevisível, associado a territórios selvagens e, portanto, a forças da natureza. Ao integrar esses animais num banquete público, as comunidades não apenas supriam a fome; afirmavam poder, memória compartilhada e crenças sobre a conexão entre humanos, animais e paisagens. Cada osso colocado ali representava uma história de travessia, de aliança e de domínio sobre espaços distantes.

O caráter performático desses rituais, aliás, ecoa práticas etnográficas de sociedades caçadoras e agrícolas: em muitos grupos, caçar não é só coletar alimento, mas uma interação relacional com o animal, um diálogo que envolve respeito, oferendas (por vezes objetos cerimoniais colocados sobre o cadáver), rituais de desmembramento e devolução de ossos ao ambiente como gesto de reciprocidade. Não diferente, no Neolítico Inicial, “bater o ponto” numa celebração com porcos não se limitava ao paladar: era uma afirmação de redes sociais, alianças e visões de mundo.

E há, claro, todo um pano de fundo tecnológico: aplicar métodos histológicos a dentes de javali, afinar técnicas de microdrilling e análises in situ, construir mapas isotópicos de amplas regiões usando bancos de dados geológicos e plantas modernas, tudo isso para contar uma história que, a princípio, poderia parecer óbvia: “caçaram e comeram juntos”. Mas foi justamente ali, no detalhe dos isótopos e no formato de cada lâmina de esmalte, que emergiu a complexidade do gesto humano.

A pesquisa mostra que o Neolítico foi muito mais do que semear trigo e domesticar bode. Foi inventar maneiras de se conectar, com o outro, com o animal, com o território. Foi traduzir a paisagem em símbolos e carregá-los no corpo de um porco, a pé, por vales e montanhas, para celebrar, mim, um senso de pertencimento. Talvez seja esse o legado mais duradouro: a noção de que ritos de comunhão se constroem não apenas com pão e vinho, mas com o sacrifício de esforços físicos, histórias cruzadas e a crença de que atravessar distâncias aproxima tribos.


Referência:

Transport of animals underpinned ritual feasting at the onset of the Neolithic in southwestern Asia. https://www.nature.com/articles/s43247-025-02501-z

Um entendimento da neurobiologia do sono

Neurobiologia do sono
Ouça o artigo:

Imagine-se deitado numa noite comum, os olhos focados no teto, enquanto a mente se recusa a aportar no porto tranquilo do sono. Talvez você já tenha sentido essa frustração, como se um interruptor interno tivesse queimado, deixando seu cérebro em vigília constante. Nesse cenário, a neurobiologia do sono se revela não apenas fascinante, mas essencial para compreendermos por que algumas noites escorregam pelo nosso controle e outras nos envolvem em um abraço reparador.

O sono é um fenômeno multifacetado: não se resume a fechar os olhos e, pronto, entrar em um estado de inatividade. É um processo ativo, orquestrado por redes neuronais específicas e moduladores químicos, que se alternam entre fases distintas — o sono de ondas lentas (o tal do slow wave sleep, marcado por ondas delta) e o sono REM (rapid eye movement), onde os sonhos costumam emergir. Cada ciclo dura em média noventa minutos, e a sequência ideal varia de quatro a seis ciclos por noite. Mas por que, afinal, nos afastamos do padrão ideal?

Em primeiro lugar, é preciso considerar o papel do ritmo circadiano (o “relógio biológico” que regula praticamente tudo em nosso corpo). Esse relógio reside no núcleo supraquiasmático (SCN, uma pequena região do hipotálamo) e recebe informações luminosas diretamente da retina. Quando a luz cai, dizemos ao SCN que é dia; no escuro, ele libera sinais químicos — por exemplo, melatonina (um indutor de sono produzido pela glândula pineal) — para avisar que a hora de descansar se aproxima. Esse mecanismo é tão primoroso que regula também a liberação de hormônios como o cortisol (o qual, quando em excesso à noite, atrapalha o adormecer, pois atua como acelerador do sistema de alerta).

Mas há um segundo ator no palco: a homeostase do sono. Imagine um contador interno que vai registrando, em cada minuto acordado, uma “dívida de sono”. Quanto mais tempo ficamos sem dormir, maior essa dívida e, portanto, maior o impulso para dormir profundo (o sono de ondas lentas). O compostor bioquímico desse mecanismo se chama adenosina (um neuromodulador que impede a disparada excessiva de neurônios, promovendo descanso). À medida que nos mantemos despertos, níveis crescentes de adenosina se acumulam no cérebro, sinalizando aquela famosa sonolência tarde da tarde. Quando finalmente deitamos a cabeça, a adenosina age: reduz a excitabilidade neural e facilita a transição para o sono.

Porém, no mundo real, nossa “dívida” nem sempre é paga. Há fatores ambientais, como luzes artificiais e ruídos, e fatores internos, como estresse, ansiedade, mudanças hormonais e condições patológicas. Insônia, por exemplo, é definida como dificuldade para iniciar, manter ou obter sono reparador, mesmo com oportunidade adequada. E mais: pessoas com insônia crônica costumam apresentar hiperarousal (hiperestimulação fisiológica) — ou seja, o corpo “se recusa” a desacelerar. Em vez de detectar o acúmulo de adenosina e convidar ao descanso, o organismo segue em alerta máximo, como se algo ainda estivesse por acontecer.

Existe um conjunto de neurotransmissores, corticotropina (CRH), noradrenalina, dopamina — que participam do circuito de estresse e emoção. Quando esses mensageiros estão em alta, o sono sofre um boicote: áreas do sistema límbico, responsáveis pelas emoções e memória, incham de atividade, liberando adrenalina e mantendo o córtex pré-frontal (centro de cognição) em estado de vigília leve ou até moderada. Resultado: insônia de manutenção, fragmentada, com despertares frequentes, sono superficial e sensação de cansaço no dia seguinte.

Eu tive algumas reflexões quando observava algumas pessoas com insônia primária: muitos relatam se sentir “ligados” até horas após deitar, incapazes de desligar pensamentos sobre prazos, responsabilidades e até lembranças de conversas antigas. É como se o cérebro adotasse um modo sicronizado com o estresse. Essa analogia com circuitos elétricos nem sempre é perfeita, mas ilustra a dificuldade de modular adequadamente a energia interna. Em estágio ideal, o hipotálamo anterior ventrolateral (VLPO) — composto por neurônios galaninérgicos e GABAérgicos — atua como um freio: ao ativar-se, ele inibe grupos neuronais responsáveis pela vigília (monoaminas do tronco cerebral). Porém, na insônia, a interação entre VLPO e essas regiões de vigília parece enfraquecida, e o freio não segurar o acelerador.

Vale observar como certos animais compartilham mecanismos básicos de sono. Em Drosophila melanogaster (a mosca-da-fruta), variantes genéticas afetam diretamente padrões de descanso, apontando para a importância de genes e proteínas no processo. Os chamados clock genes (genes do relógio) compõem o mecanismo de feedback molecular que regula o ciclo circadiano. Em mamíferos, proteínas semelhantes desempenham papel análogo no núcleo supraquiasmático, reforçando a tese de que dormir é uma necessidade tão antiga quanto a própria vida complexa.

Retornando ao assunto humano, surge a hipótese de que tratamentos eficazes (terapia cognitivo-comportamental para insônia ou uso de agonistas adrenérgicos específicos) podem “recalibrar” esses circuitos. Estudos indicam que terapias podem diminuir níveis de cortisol noturno e reduzir atividade no córtex pré-frontal dorsal, facilitando a ativação apropriada do VLPO. Será que, então, a insônia poderia ser encarada como uma disfunção reversível dos sistemas de regulação de sono? Os resultados iniciais apontam para sim, mas precisamos de pesquisas com monitoramento neurobiológico detalhado, como EEG de alta densidade e ressonância magnética funcional.

Mas não é só o estresse que mexe com nosso descanso. Mudanças na arquitetura do sono ocorrem naturalmente com a idade: o sono de ondas lentas diminui, a eficiência do sono cai e os despertares noturnos aumentam. Hormônios como estradiol e progesterona (nas mulheres pós-menopausa) e a queda de melatonina impactam profundamente essa dinâmica. Já nos jovens, fatores de desenvolvimento neural podem interferir, provocando atrasos na fase de sono (o famoso “jet lag social” dos adolescentes, que levam o sono para tarde da noite e têm dificuldade de acordar cedo).

Em paralelo, há uma interação intrigante entre emoção e sono. O sistema límbico, especialmente a amígdala, modular o sono e a vigília. Experiências aversivas (condicionamento de medo) podem causar insônia transitória ou até crônica, pois ressonam em circuitos de memória emocional. E se olharmos para doenças neurológicas, notamos que regiões como o hipotálamo lateral (onde se localizam neurônios de hipócretina/orexina) estão envolvidas tanto no controle de apetite quanto na regulação do ciclo sono-vigília. Na narcolepsia, deficiência de orexina resulta em excesso de sono diurno, já na insônia primária essa substância pode estar em desequilíbrio inverso, promovendo hiperativação.

Passado, presente e futuro se mesclam quando consideramos que tratamentos farmacológicos antigos (benzodiazepínicos) atuam de forma geral no GABA, enquanto terapias emergentes buscam alvo em receptores específicos de melatonina (MT1/MT2), antagonistas de CRH ou mesmo moduladores de orexina. O panorama abre caminho a um modelo mais granular de intervenção, focado em fenótipos — ou seja, marcadores objetivos de diferentes subtipos de insônia. Identificar biomarcadores no EEG, na resposta ao MSLT (teste de latência múltipla de sono) ou em perfis metabólicos pode permitir terapias personalizadas.

Aliás, lembre-se do que eu disse sobre a hiperativação: ela não é somente uma queixa subjetiva. Estudos mostram que pacientes com insônia apresentam aumento de atividade do sistema nervoso simpático (SNS), medido por frequência cardíaca elevada e níveis de catecolaminas no sangue. Esse estado de “alerta interno” é contraproducente para o adormecer e pode contribuir para comorbidades como depressão e ansiedade, além de risco cardiovascular elevado.

Outra perspectiva que merece destaque é a epigenética do sono. Fatores ambientais — estresse crônico, padrões irregulares de luz — podem alterar a metilação de genes relacionados ao ritmo circadiano, impactando a expressão de clock genes. Isso sugere que a insônia não é apenas disfunção temporária, mas pode envolver mudanças duradouras no genoma neuronal, de difícil reversão sem intervenções adequadas.

E onde entra nossa vida cotidiana? Rotinas irregulares, uso de eletrônicos antes de dormir e o estilo de vida 24/7 elevam o nível de ativação e perturbam a coordenação entre ritmo circadiano e homeostase do sono. Há, então, um componente comportamental tão influente quanto o biológico. Diminuir a exposição à luz azul, manter horários consistentes de sono e praticar técnicas de relaxamento são estratégias simples, mas poderosas para restabelecer o equilíbrio.

Voltando ao terreno das pesquisas: um ponto de inflexão futuro será o uso de neuroimagem integrada com machine learning para mapear padrões individuais de sono. Imagine um aplicativo que, ao cruzar dados de smartwatch com perfis de EEG domiciliar, indique o melhor momento para dormir ou sugira intervenções farmacológicas pontuais — tudo baseado em dados reais, não em protocolos genéricos.

Concluindo esta viagem pela neurobiologia do sono, fica claro que a complexidade do tema desafia simplicidades. Não há uma única porta de entrada para o descanso — são muitas chaves, trocadas em sincronia: relógio interno, contador de dívida de sono, neurotransmissores de estresse, circuitos emocionais, hormônios e nossas escolhas diárias. E, apesar de toda essa complexidade, o sono continua sendo um dos pilares mais fundamentais da saúde, influenciando cognição, humor, metabolismo e longevidade.

Se eu pudesse reforçar um ponto, seria este: compreender e respeitar nossos ciclos não é um luxo, é uma necessidade básica. Valorizar o sono é tão importante quanto alimentar-se bem ou praticar exercícios. E, quando surgirem dificuldades, buscar ajuda especializada, considerando tanto aspectos biológicos (como níveis de adenosina, disfunção do VLPO, desregulação de orexina) quanto comportamentais (higiene do sono, terapias cognitivas).

 


Referências:

Slow-wave sleep (SWS): frequentemente chamado de sono profundo , é o terceiro estágio do sono sem movimentos rápidos dos olhos (NREM), onde a atividade eletroencefalográfica é caracterizada por ondas delta lentas . https://en.wikipedia.org/wiki/Slow-wave_sleep

Rapid eye movement sleep (REM sleep or REMS): é uma fase única do sono em mamíferos (incluindo humanos ) e aves , caracterizada por movimentos rápidos e aleatórios dos olhos , acompanhados de baixo tônus muscular em todo o corpo e pela propensão do indivíduo a sonhar intensamente. As temperaturas do corpo e do cérebro aumentam durante o sono REM, e a temperatura da pele diminui para os valores mais baixos. https://en.wikipedia.org/wiki/Rapid_eye_movement_sleep

 Suprachiasmatic nucleus ou nuclei (SCN): é uma pequena região do cérebro no hipotálamo , situada diretamente acima do quiasma óptico . É responsável pela regulação dos ciclos do sono em animais. A recepção de entradas de luz de células ganglionares da retina fotossensíveis permite que ela coordene os relógios celulares subordinados do corpo e se adapte ao ambiente. As atividades neuronais e hormonais que ele gera regulam muitas funções corporais diferentes em um ciclo de aproximadamente 24 horas. https://en.wikipedia.org/wiki/Suprachiasmatic_nucleus

 Ventrolateral preoptic nucleus (VLPO): é um pequeno aglomerado de neurônios situado no hipotálamo anterior , logo acima e ao lado do quiasma óptico no cérebro de humanos e outros animais. https://en.wikipedia.org/wiki/Ventrolateral_preoptic_nucleus

 

 

Decisão rápida e carga cognitiva em consentimentos

Decisões rápidas cognitivas
Ouça o artigo:

Imagine um cenário em que você está navegando no seu aplicativo favorito, talvez um serviço de streaming de músicas ou aquele jogo viciante, quando, de repente, surge uma janelinha pedindo permissão para coletar seus dados. Você clica em “aceitar” quase no piloto automático, pressupondo que, afinal, quem não quer uma experiência mais personalizada? Mas, espere um pouco: será que essa sensação de controle é mesmo real? Ou estamos diante de um truque sutil, resultado de artifícios que criam uma ilusão de empoderamento?

Eu tive algumas reflexões sobre isso recentemente, enquanto organizava minhas anotações para um artigo. Fiquei pensando: por que, se os usuários dizem estar preocupados com a privacidade, ainda assim compartilham tanta informação pessoal? E mais: quais processos mentais estão acontecendo por trás desse “aceitar” quase automático? Talvez a resposta não esteja em uma simples lista de prós e contras, mas no modo como nosso cérebro reage, em frações de segundo, aos sinais que recebemos.

Em tempos de algoritmos onipresentes, chamamos de ilusão de empoderamento o fenômeno em que plataformas digitais nos fazem acreditar que temos autonomia sobre nossos dados, quando, na prática, continuam a coletá-los de forma ampla. Você já percebeu como as políticas de privacidade, aquelas páginas intermináveis e cheias de jargão técnico, muitas vezes usam termos vagos como “incluindo, mas não se limitando a”? Essa ambiguidade não é acidente; é parte da estratégia para nos fazer sentir no comando, mesmo que sejamos meros espectadores de um espetáculo cujo roteiro não lemos por completo.

Mas por que isso funciona tão bem? Se pensarmos em carga cognitiva (a “carga mental” que nosso cérebro suporta ao processar informações), existe uma linha tênue entre o que conseguimos entender com clareza e aquilo que nos confunde. Quando a explicação é concisa e direta, gastamos menos esforço para compreendê-la e, de certa forma, relaxamos a guarda. Já quando o texto é denso, técnico e repleto de termos complexos, nossa mente trava. É como se fosse mais fácil simplesmente concordar e seguir adiante, para poupar a energia mental.

Você já ouviu falar no modelo associativo-proposicional? Em linhas gerais, ele explica que nosso cérebro opera em duas frentes: Processamento associativo — respostas automáticas, emocionais, quase instintivas, que surgem sem muito raciocínio consciente. Processamento proposicional — análises lógicas, cuidadosas, guiadas por princípios de coerência e verdade.

Quando lemos um lembrete pop-up dizendo “Gerencie suas preferências de privacidade”, ativamos rapidamente associações que já tínhamos: privacidade = segurança; controle = bom. Essa reação rápida faz parte do processamento associativo. Só depois entramos em cena com o proposicional, questionando se aquilo faz sentido ou se estamos sendo enganados. Na maioria das vezes, não damos tempo para essa segunda etapa, clicamos e ponto final.

E aqui mora o perigo. Se a plataforma torna o primeiro passo fácil (alta interpretabilidade), nos sentimos seguro logo de cara. Mas se o texto for confuso (baixa interpretabilidade), nosso cérebro fica sobrecarregado, gerando um conflito interno, seria essa parte que consome mais recursos cognitivos. Nessas situações de tensão, em que o processamento proposicional entra em conflito a necessidade de agir rápido, tendemos a recuar ou reagir com resistência, mas nem sempre conscientemente.

Num experimento interessante, voluntários foram expostos a diferentes versões de mensagens de privacidade: umas fáceis de entender, outras mais obscuras. Enquanto isso, registrava-se a atividade cerebral em milissegundos, utilizando eletrodos (sim, era tipo um capacete high-tech). Resultado? Quando a mensagem era clara, surgia um pico de atenção moderado e logo passava, e as pessoas aceitavam compartilhar dados com mais facilidade. Mas, quando o texto era emaranhado e pouco interpretável, notava-se outro tipo de pico, associado a conflito e controle, que dificultava o clique em “aceitar”.

Isso me faz pensar nos pop-ups intermináveis que surgem em sites: para chamar sua atenção, eles misturam cores, palavras-chave em negrito e botões de cliques fáceis — tudo calculado para ativar o nosso processamento associativo e driblar o proposicional crítico. Engraçado: agimos como se estivéssemos no controle, mas, na verdade, esses estímulos estão orquestrando nossas reações.

Mas não é só uma questão de design persuasivo. Existe todo um arcabouço legal e ético em torno disso. Leis como a Lei Geral de Proteção de Dados (LGPD) no Brasil ou o GDPR na Europa tentam garantir que as empresas forneçam informações transparentes. O problema é que “transparência” virou sinônimo de “encheção de linguiça jurídica”. Cabeças mais críticas (e cansadas) pegam atalhos: “Eu li, mas… sei lá, tudo parece igual.” E lá vamos nós, cedendo aos termos que raramente lemos.

Será que estamos condenados a aceitar esse jogo de gato e rato entre plataformas e usuários? Talvez a chave esteja em desenvolver não apenas legislações mais claras, mas também em fortalecer nossa literacia digital — a capacidade de entender, questionar e controlar o fluxo de informações e dados. E aqui entra uma breve experiência pessoal: em determinado momento, configurei meu navegador para bloquear todos os pop-ups de consentimento, só para testar minha reação. No começo, senti-me poderoso — até perceber que várias funções de sites que gosto simplesmente pararam de funcionar. Foi aí que entendi o quão dependentes nos tornamos de “personalização” em troca de nossos dados.

Você já parou para pensar quantas vezes clicou em “aceitar” sem ler? Até que ponto aquele simples gesto reflete sua vontade real? E se, num futuro não tão distante, fosse possível ajustar um equilíbrio diferente — onde a interpretabilidade das políticas fosse elevada e a compreensibilidade garantisse uma leitura natural, sem jargões?

O desafio é grande, mas não impossível. As empresas podem investir em linguagem acessível (lembra quando aprendíamos que “jargão” não cai bem?). Por sua vez, nós, usuários, podemos exigir padrões mais claros e, ao mesmo tempo, exercitar nossa capacidade crítica. É uma via de mão dupla: plataformas responsáveis e cidadãos conscientes.

Então, leitor, qual será seu próximo clique? Pense nos pequenos detalhes: a cor do botão, o texto em itálico, a ausência de definições claras. Será que você está dando seu consentimento com plena consciência, ou apenas seguindo uma coreografia invisível? Cultivar a capacidade de parar por um instante e refletir pode ser o primeiro passo para retomar o controle — uma escolha proposicional, consciente e fundamentada.

 


Referências:

 Shi, Z. & Zhang, S. (2022). Review and Prospect of Neuromarketing ERP Research – Review e Perspectivas da Pesquisa ERP em Neuromarketing – Este trabalho apresenta uma revisão sistemática dos últimos 20 anos de estudos que utilizam potenciais relacionados a eventos (ERP) no campo do neuromarketing, destacando as principais ferramentas de neurociência, como EEG, empregadas para investigar os correlatos neurais dos processos decisórios de consumo, atenção e memória. Os autores compilam e analisam criticamente os componentes ERP mais recorrentes (incluindo P2 e N2), mapeiam as áreas cerebrais envolvidas na tomada de decisão perante estímulos de marketing e comparam abordagens neuromarketing com perspectivas tradicionais de marketing. Apesar do crescimento no uso de técnicas neurocientíficas, o estudo conclui que a área carece de consenso teórico e sugere direções futuras para aprimorar a aplicabilidade do ERP em estratégias de gestão de marketing. https://ideas.repec.org/a/bjx/jomwor/v2023y2023i2p125-139id246.html

 

As diferentes personalidades que criamos no meio digital

Personalidade Virtual
Ouça o artigo:

O universo digital nos presenteia, a cada login, com um espelho multifacetado: ali, somos simultaneamente autor e ator, público e plateia. Essa experiência de criar um “eu” virtual não é trivial; é um laboratório comportamental em que testamos traços de personalidade, percebemos (observe como esse padrão emerge…) repercussões sociais e, por vezes, acolhemos versões de nós mesmos que o mundo “offline” não nos permitiria. Mas por que nos envolvemos tanto nessa construção? Qual é o papel psicológico dessa persona virtual e de que forma ela dialoga com quem somos quando desconectamos?

Logo de cara, vale deixar claro que a noção de identidade não é fixa. No passado, psicólogos falavam em Self (termo em inglês para si mesmo) como algo quase imutável, como se carregássemos um único “eu real”. Hoje, sabemos que nossa identidade é fluida. Somos mosaicos de experiências, crenças e expectativas, e cada contexto — da roda de amigos ao fórum especializado — pede uma coloração diferente. Quando entramos em um ambiente online, criamos um avatar ou perfil que pode aproximar-se do nosso eu “habitual” ou se distanciar por completo, abraçando uma versão idealizada, experimental ou até negativa.

Em estudos de ambientes altamente customizáveis, como jogos de mundo aberto e plataformas de avatares em 3D, observa-se que muitos usuários seguem a rota da “idealização”. É comum que, ao construir um personagem, o jogador realce traços positivos: olhos maiores, corpo tonificado, roupas estilosas. E não é só estético: traços de personalidade podem ser acentuados ali, no código — mais ousadia, mais sociabilidade, menos timidez. Esse comportamento ecoa um fenômeno batizado de Proteus Effect, que sugere que, ao adotar uma representação mais confiante, a pessoa pode levar esse viés para interações futuras, inclusive fora da tela. Eu tive algumas reflexões sobre isso quando criei, certa vez, um avatar metido a líder de clã em um jogo de fantasia mitológica. Primeiro achei besteira, mas percebi que, ao responder mensagens de guilda com tom mais assertivo, meu próprio discurso no trabalho ganhou outro contorno e, olha, nem foi intencional.

Mas nem todo mundo vai nessa de “self turbo”. Há quem explore o oposto: a versão negativa de si mesmo. Em vez de livrar-se de defeitos, o indivíduo conscientemente exagera aspectos menos desejáveis — raiva, sarcasmo, distanciamento. Isso pode ser visto como uma válvula de escape (um conceito que, em psicologia, chamado de “catarse”: liberação de emoções negativas num espaço seguro). Em alguns fóruns ou jogos, esse “eu-negativo” até diverte, mas há o perigo de reforçar padrões agressivos se a pessoa permanecer enclausurada em bolhas de conteúdo igualmente tóxico. A curto prazo dá alívio, mas e a longo prazo? Será que o online nos empurra a confirmar traços que no fundo gostaríamos de suavizar?

Voltando ao espectro intermediário, muitos optam por “turismo de identidade”: um passeio por possibilidades que não têm a ver nem com o real, nem com o ideal, mas com o exótico — ser um elfo filósofo, um cyborg melancólico, uma entidade misteriosa sem gênero definido. Isso amplia horizontes internos, exercita a empatia e permite refletir sobre limites entre persona e essência. Qualquer semelhança com aquele amigo de faculdade que, num role-play, se revelou poeta é pura coincidência (ou não…). Essa capacidade de experimentar “outros eus” sem risco é uma das forças do ambiente digital. E o mais curioso: às vezes a gente descobre talentos escondidos. Já vi alguns que mal falava em público ganhar desenvoltura ao representar um personagem carismático em podcasts de ficção colaborativa.

Mas por que tanto interesse em reinventar-se? Parte da resposta está na segurança que o anonimato oferece. Quando ninguém sabe seu nome real, diminui a chance de julgamento imediato. Isso motiva explorarmos partes suprimidas, seja a faceta criativa, inquieta ou provocadora. Chama-se anonimato um “escudo psicossocial” (entenda: barreira invisível que protege o indivíduo do olhar crítico alheio). Com ele, experimentos de comportamento se tornam possíveis sem custos reputacionais. Porém, se abusarmos desse escudo, corremos o risco de dissociação, esquecer quem somos fora do teclado. Daí brota a pergunta retórica inevitável: quem me garante que, ao desconectar, ainda saberei voltar ao meu ponto de partida?

Aqui cabe um parêntese: cada plataforma tem suas próprias convenções, e nós nos adaptamos a elas. No LinkedIn, falamos de conquistas e projetos (postagens mais formais). No Instagram, exibimos momentos polidos, às vezes em slow motion, e nos preocupamos com “grid harmônico”. No Twitter, o jogo é de provocação e brevidade, quase um exercício de copywriting instantâneo. No TikTok, somos roteiristas de 15 segundos, ousando coreografias ou dublagens. Essa “performance adaptativa” não é artificialidade pura; é, em grande medida, política de discurso: escolhemos como nos posicionar diante de audiências específicas. Mas, convenhamos, seguir scripts invisíveis cansa. Quando o conteúdo que funcionou no Instagram vai mal num canal de texto livre, a frustração bate — e a gente percebe que não basta ser bom, tem que calibrar o figurino pro palco certo.

E o que isso diz sobre autenticidade? Será que existe um “eu autêntico” circulando na internet? A noção de Self autêntico talvez seja um mito. Melhor encarar a identidade como processo dinâmico — não um estado a ser alcançado. Honestidade não é prerrogativa de ausência de filtros, mas de coerência entre intenções e ações. Em outras palavras, ser autêntico online é escolher quando intensificar ou conter traços de acordo com objetivos e, ainda assim, sentir-se alinhado consigo mesmo. Se, por exemplo, seu objetivo ao postar é compartilhar conhecimento e, na prática, você se vê buscando curtidas fáceis, aí reside o conflito interno.

Você já esqueceu de quem era seu “eu offline” por passar horas ajustando filtros? Eu mesmo, certa vez, me deparei com um espelho no corredor do prédio e quase não me reconheci: carrego hoje menos rímel digital, mas acabei retardando o encontro comigo mesmo ao investir demais na imagem. Esses deslizes sutis mostram que, se não traçarmos limites, a construção digital pode consumir tempo e energia que seriam gastos em interações presenciais, leituras profundas ou até em momentos de ócio produtivo, aquele que gera insights sem intervenção de algoritmos.

E há benefícios concretos quando usamos bem essa plasticidade identitária. Profissionais que praticam oratória em avatares antes de subir ao palco real relatam ganhos de confiança. Estudantes que testam diferentes estilos de redação em blogs simulados aperfeiçoam a clareza e a persuasão. Grupos de apoio online permitem que pessoas em isolamento social encontrem acolhimento. Ou seja, o “eu virtual” pode ser uma ferramenta de aprimoramento (um conceito que economistas chamam de capital humano: recursos adquiridos que valorizam o indivíduo em diferentes esferas).

Mas atenção: esses ganhos dependem de uma postura consciente. Se entramos na lógica do “só quero ser popular”, acabamos refém de métricas alheias, alimentando ansiedade por validação constante. Alguém aí já sentiu aquela aceleração no peito quando recebe notificação de “novo seguidor”? É sinal de que delegamos a terceiros o papel de confirmar nosso valor. Alternativa mais saudável é encarar notificações como indicadores, não decretos, de relevância, sem transferir a elas o peso de nossa autoestima.

Poucas reflexões são lineares; a real experiência é cheia de idas e vindas. Passamos do deleite de criar um personagem invencível à nostalgia de uma mãe nos chamando para o almoço. Somos simultaneamente o arquiteto do código e a pessoa esperando respostas de e-mail. É nesse vaivém que mora a riqueza: usar a virtualidade como playground experimental, mas dar vistas d’olhos ocasionalmente para o terreno firme, onde pulsa nossa vida cotidiana, com seus sons, odores e toques.

E o futuro? As fronteiras entre real e virtual tendem a se dissolver: da realidade aumentada que projeta informações na rua ao metaverso que promete mundos inteiros para habitar. Nessa confluência, nossa capacidade de navegar identidades será ainda mais exigida. Quem sabe passaremos mais tempo em “eus estendidos” que em versões biológicas? Talvez avatars emocionais interajam entre si, independentemente de estarmos presentes. Se isso soa distante, lembre‑se: há dez anos ninguém imaginava um condomínio inteiro de reuniões por vídeo. Então cabe reforçar: cultivar flexibilidade (um atributo cognitivo que chamamos de plasticidade mental) será chave para manter coerência interna em múltiplos cenários, reais ou virtuais. 


Referências: 

The Proteus Effect: The Effect of Transformed Self-Representation on Behavior - O Efeito Proteus: O impacto da auto-representação transformada no comportamento. Mostra como avatares virtuais influenciam atitudes e ações reais dos usuários.
https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1468-2958.2007.00299.x

Virtual Superheroes: Using Superpowers in Virtual Reality to Encourage Prosocial Behavior - Super-heróis virtuais: Usando superpoderes na realidade virtual para incentivar comportamentos pró-sociais. Explora como experiências virtuais com superpoderes podem aumentar empatia e ações altruístas no mundo real.
https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0055003

The Dark Triad and trait self-objectification as predictors of men’s use and self-presentation behaviors on social networking sites - A Tríade Sombria e a auto-objetificação como preditores do uso e comportamento de autopromoção de homens em redes sociais. Analisa traços de personalidade ligados a narcisismo, maquiavelismo e psicopatia no uso das redes.
https://www.sciencedirect.com/science/article/abs/pii/S0191886914007259

The influence of self-discrepancy between the virtual and real selves in virtual communities - A influência da discrepância entre o eu virtual e o eu real em comunidades virtuais. Investiga como a diferença entre identidade digital e identidade real afeta emoções e engajamento.
https://www.sciencedirect.com/science/article/abs/pii/S0747563212002580

The Ideal Self at Play: The Appeal of Video Games That Let You Be All You Can Be - O Eu Ideal em Jogo: O apelo de videogames que permitem ser tudo o que você pode ser. Estudo mostra como jogos que se alinham com o “eu ideal” aumentam prazer e envolvimento.
https://journals.sagepub.com/doi/10.1177/0956797611418676

Self-concept deficits in massively multiplayer online role-playing games addiction - Déficits no autoconceito em casos de vício em jogos de RPG online massivos. Mostra que lacunas no autoconhecimento estão relacionadas ao uso compulsivo desses ambientes.
https://pubmed.ncbi.nlm.nih.gov/23428827/

The psychological functions of avatars and alt(s): A qualitative study - As funções psicológicas de avatares e personagens alternativos: Um estudo qualitativo. Examina os múltiplos papéis que os avatares exercem no bem-estar, expressão e exploração de identidade.
https://www.sciencedirect.com/science/article/abs/pii/S0747563213004287

Self-Presentation Theory: Self-Construction and Audience Pleasing - Teoria da Autopresentação: Autoconstrução e agrado à audiência. Fundamenta a ideia de que moldamos o comportamento com base nas expectativas percebidas dos outros.
https://link.springer.com/chapter/10.1007/978-1-4612-4634-3_4

Cyberspace romance: The psychology of online relationships - Romance no ciberespaço: A psicologia dos relacionamentos online. Analisa vínculos afetivos mediados por telas e suas particularidades emocionais.
https://psycnet.apa.org/record/2006-20070-000

Self-Concept Clarity and Online Self-Presentation in Adolescents - Clareza do autoconceito e autopresentação online em adolescentes. Explora como a estabilidade da autoimagem impacta o modo como jovens se mostram nas redes.
https://pubmed.ncbi.nlm.nih.gov/27830930/

The impact of eSports and online video gaming on lifestyle behaviours in youth: A systematic review - O impacto de eSports e jogos online no estilo de vida de jovens: Uma revisão sistemática. Mapeia como o engajamento com games digitais afeta saúde, rotina e socialização.
https://www.sciencedirect.com/science/article/abs/pii/S0747563221002971

A plastic virtual self - Um eu virtual plástico. Estudo reflete sobre a maleabilidade da identidade digital e suas implicações para cognição, empatia e comportamento.
https://www.taylorfrancis.com/chapters/edit/10.4324/9780429321542-38/plastic-virtual-self-mel-slater-maria-sanchez-vives

Cérebro e energia

Energia e cérebro
Ouça o artigo:

Cheguei em casa depois de um daqueles dias em que tudo pareceu exigir mais do que eu tinha para dar. Queria só largar o corpo no sofá e deixar a televisão me distrair. Curiosamente, mesmo nesses momentos, a sensação de cansaço mental persiste, como se a cabeça continuasse rodando a toda velocidade. Durante muito tempo, acreditei que repouso seria igual a economia de energia cerebral, mas descobri que o quadro é bem mais intrigante. O cérebro, mesmo aparentemente inerte, consome quase tanta energia quanto em momentos de intensa atividade intelectual.

Quando falo de energia no cérebro, estou falando do que os biólogos chamam de custo metabólico da cognição. Ou seja, quanto “combustível” o cérebro precisa para manter suas funções, seja descansando ou resolvendo um problema matemático. Estudos recentes mostram que tarefas consideradas difíceis, aquelas que exigem atenção, memória ou raciocínio, usam só cerca de 5% mais energia do que quando estamos em repouso.(1) A primeira reação pode ser estranheza: não era para ficar cansado só de pensar em tanta coisa?

O segredo está em como o cérebro distribui seus gastos. Grande parte desse consumo energético é dedicada à manutenção de funções básicas, aquelas que operam nos bastidores. Enquanto a maioria dos pesquisadores se concentrou durante anos em processos como atenção, tomada de decisão e memória de trabalho, um novo olhar tem iluminado o papel essencial dos processos de fundo. O cérebro regula todo um conjunto de sistemas fisiológicos, alocando recursos e reagindo a demandas do ambiente, consciente ou inconscientemente.

Há quem diga que o cérebro serve apenas para pensar. Mas, do ponto de vista energético, ele é um órgão desenhado para gerenciar o corpo, coordenar órgãos, regular variáveis internas e ainda navegar um ambiente externo cheio de desafios. E tudo isso dentro dos limites impostos pela evolução, que atua como uma espécie de contadora exigente, cobrando cada gasto e cada desperdício.

Não raro, a sensação de fadiga mental não resulta de falta de energia propriamente dita, mas de uma tendência evolutiva a preservar recursos. A biologia opera segundo restrições severas, especialmente num órgão tão sofisticado e caro quanto o cérebro humano. Quando estudo o metabolismo neural, começo a enxergar a cognição como resultado de um ajuste fino entre as pressões evolutivas, os limites impostos pela energia disponível e as tarefas que precisamos desempenhar.

O cérebro é um consumidor voraz. Representa apenas cerca de 2% do peso corporal, mas exige 20% de toda a energia do corpo adulto. No caso dos bebês, esse percentual pode chegar a 50%. O combustível principal? A molécula chamada ATP (trifosfato de adenosina), produzida a partir de glicose e oxigênio, que chega às células nervosas por uma rede intrincada de capilares, algo em torno de 600 quilômetros de vasos, se alguém quisesse medir tudo. Uma vez dentro do neurônio, o ATP abastece as comunicações, sustentando disparos elétricos e a troca de sinais químicos entre células.

A manutenção do chamado potencial de membrana, que prepara cada neurônio para agir quando necessário, consome pelo menos metade da energia do cérebro. Medir diretamente o ATP em cérebros humanos é complicado e invasivo. Por isso, pesquisadores recorrem a métodos indiretos, como a tomografia por emissão de pósitrons (PET) para medir consumo de glicose, ou a ressonância magnética funcional (fMRI) para observar o fluxo sanguíneo. Essas técnicas revelam que o salto de consumo energético entre um cérebro em repouso e outro empenhado em tarefas é pequeno: cerca de 5%. Ou seja, o esforço extra para pensar é modesto se comparado ao trabalho constante de manutenção.

É interessante notar que, até meados dos anos 1990, cientistas encaravam a atividade cerebral em repouso como “ruído”, algo sem função clara. Aos poucos, perceberam que existe muito sinal útil nesse “ruído”. Um exemplo marcante é a chamada rede do modo padrão (default mode network), que entra em cena enquanto descansamos, imaginando futuros possíveis, relembrando o passado ou sentindo alguma dor que ficou esquecida. Essa rede mantém o cérebro ocupado em devaneios, reorganizando lembranças e simulando cenários.

Paralelamente, o cérebro faz um trabalho silencioso para garantir o equilíbrio corporal, o tal estado de homeostase. Controla temperatura, glicose, batimentos cardíacos, respiração e outros parâmetros fundamentais para manter tudo funcionando. Um pequeno deslize nesses controles pode trazer consequências sérias e rápidas.

Comecei a pensar, será que grande parte desse gasto não serve para algo além da simples regulação? Um pesquisador sugeriu que, de fato, o cérebro dedica seu metabolismo basal a prever o que vem pela frente. Em vez de apenas reagir, constrói modelos sofisticados do ambiente para antecipar demandas e alocar recursos antes mesmo de sentir a necessidade. Essa abordagem preditiva oferece vantagem adaptativa: preparar-se antes de o problema acontecer pode ser a diferença entre sobreviver e sucumbir.

Evolutivamente, essa capacidade preditiva fez toda a diferença. Um aumento de apenas 5% no consumo energético durante atividades cognitivas pode não parecer nada, mas, considerando o cérebro como um órgão altamente demandante, o acúmulo desse esforço ao longo dos dias se torna relevante. Imagine: se alguém mantivesse esse ritmo elevado por vinte dias seguidos, gastaria a energia equivalente a um dia inteiro só pensando. Para populações que viviam sob restrição alimentar, esse detalhe era vital, poderia separar vida e morte.

Fiquei refletindo sobre isso outro dia, lembrando daqueles momentos em que o cansaço mental parecia desproporcional ao esforço real. Agora faz sentido: nosso cérebro possui mecanismos automáticos que nos freiam, ativando sensações de fadiga para evitar gasto excessivo. É uma herança dos tempos de escassez, quando cada caloria era disputada.

Outro ponto fascinante: a própria transmissão de informação no cérebro é limitada por essas regras energéticas. Um neurônio, em teoria, poderia disparar até 500 vezes por segundo. Porém, se todos os neurônios adotassem esse ritmo frenético, o sistema colapsaria. O ritmo ótimo de transmissão, aquele em que ainda é possível distinguir as mensagens sem perder a clareza, fica em torno de 250 disparos por segundo. Na prática, nossos neurônios funcionam numa média de apenas 4 disparos por segundo, bem menos do que seria possível.

O mais curioso é que muitas dessas transmissões nem chegam a passar adiante. Mesmo quando um impulso elétrico alcança a sinapse, só cerca de 20% das tentativas resultam em comunicação com o neurônio vizinho. Se o objetivo fosse maximizar a quantidade de informação transmitida, a eficiência deveria ser maior, não? Mas o cérebro não busca esse tipo de maximização. Ele quer, acima de tudo, economizar ATP, otimizar a quantidade de informação transmitida por unidade de energia, e não simplesmente transmitir tudo que pode.

Essa equação muda nossa compreensão do cansaço mental. A sensação de esgotamento depois de um dia de atenção intensa está menos relacionada à ausência de energia, e mais à ativação de mecanismos internos para limitar o gasto. Um lembrete constante do quanto nosso sistema nervoso evoluiu para equilibrar flexibilidade, inovação comportamental e restrição metabólica.

Enquanto escrevo destaco um ponto importante: grande parte do que chamamos de “atividade cerebral” acontece sem que percebamos. Pensar consome energia, sim, mas é a manutenção silenciosa, os ajustes automáticos, o monitoramento constante do corpo e do ambiente que levam o maior pedaço desse orçamento energético.

O cérebro humano é um exemplo brilhante de negociação evolutiva. Carregamos na cabeça um órgão de altíssimo custo, capaz de invenção, previsão e adaptação, mas que opera dentro de limites rígidos impostos por sua própria biologia. A energia investida no pensamento é real, embora menor do que a intuição sugere. É a soma das pequenas diferenças, multiplicadas pela rotina diária, que moldou nossa espécie e ainda determina nossos limites.

 


Referência:

1 - The metabolic costs of cognition:  https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(24)00319-X