Há uma pergunta que ronda qualquer conversa séria sobre inteligência artificial e mente humana: é possível usar um grande modelo de linguagem como um “modelo cognitivo”? A questão não é trivial. Um modelo, no vocabulário científico, não é um clone do fenômeno; é uma simplificação útil, construída para iluminar mecanismos, testar hipóteses e permitir intervenções que seriam impraticáveis no alvo real. Quando o alvo é a mente, mexemos em terreno delicado: expectativas filosóficas, intuições sobre “entendimento” e uma história de controvérsias sobre o que conta como explicação psicológica. Ainda assim, há um caminho frutífero nesse labirinto: tratar os Large Language Models (LLMs) como artefatos científicos — com direito a janela para seus estados internos, controle sobre dados de entrada e um mapa explícito de analogias com as capacidades humanas.
Antes de dobrar a esquina para as questões técnicas, vale um passo atrás. A ciência sempre se apoiou em modelos. De planetas a proteínas, modelamos sistemas para intervir sobre eles de forma segura e econômica. Um modelo nunca reproduz tudo; seleciona dimensões relevantes e apaga o resto. Quando psicólogos criam “modelos cognitivos”, o script é o mesmo: construir um artefato computacional que capte princípios de um processo mental — percepção, decisão, linguagem — e, a partir dele, gerar previsões mensuráveis. Essa prática teve idas e vindas. Redes neurais simples foram acusadas de não lidar com símbolos; modelos bayesianos foram criticados por parecerem distantes da implementação neural. O paradoxo é conhecido: quanto mais abstrato, mais claro; quanto mais biológico, mais opaco. A utilidade nasce do equilíbrio entre essas tensões.
Os LLMs entram nessa conversa com um detalhe que reorganiza o tabuleiro: escala. Treinados para prever sequências de palavras em corpora gigantescos, esses sistemas aprenderam a gerar texto condicionado ao contexto. Quando recebem uma “instrução” (prompt), realizam tarefas diversas: resumo, tradução, programação, redação. O termo técnico que primeiro chamou atenção foi “aprendizado em poucos exemplos” (few-shot learning): a capacidade de ajustar o comportamento com base em instruções breves, às vezes sem exemplos explícitos. Para quem modela cognição, isso abre uma avenida. Não se trata de perguntar se o modelo “entende” como humanos, mas de investigar que regularidades emergem quando um algoritmo conhecido encontra um certo regime de dados. A questão investigável muda de lugar: do rótulo “entendimento” para propriedades mensuráveis — generalização, sensibilidade a estrutura, dependência de contexto, robustez a intervenções.
Essa mudança de foco recoloca a linguagem em perspectiva. Humanos exibem “aprendizado estatístico”, a habilidade de extrair regularidades de sequências auditivas e visuais desde o berço. Redes recorrentes e, mais recentemente, arquiteturas baseadas em atenção (transformers) mostraram-se férteis para explorar esse fenômeno. Trocando em miúdos: quando variamos sistematicamente o tipo de estrutura disponível no treino, observamos como o modelo “descobre” padrões e até onde vai sua generalização. Existem gramáticas que surgem com pouquíssimos exemplos; existem construções que exigem muito mais. Em certos casos, mesmo sem ver um exemplo direto, o sistema aprende a regra porque o conjunto de pistas indiretas é suficiente. Essa ideia, aprender sem exemplos explícitos, por alinhamento estrutural, tem afinidade com debates clássicos sobre a aquisição de linguagem.
Um cético poderia perguntar: mas o humano criança não lê bilhões de palavras. A comparação é justa e precisa aparecer logo de cara. O aprendizado humano opera com amostras limitadas, ruído sensorial, canais múltiplos (visão, toque, socialidade), objetivos concorrentes. LLMs, ao contrário, são expostos a volumes de texto sem precedentes, e suas parametrizações têm bilhões de pesos. Essa assimetria cria disanalogias reais: efeitos de “contaminação de dados” (quando o teste aparece no treino), dependência de curadoria opaca, ajustes finais com reforço a partir de preferências humanas (o famoso RLHF) que redesenham o comportamento para ficar “mais útil” em conversa. A honestidade intelectual exige que isso seja dito sem maquiagem. A saída não é negar a diferença, e sim definir qual mapeamento pretendemos entre modelo e mente: o modelo não encarna uma criança; ele implementa uma classe de algoritmos de previsão sobre linguagem. É esse mecanismo, previsores condicionais em larga escala, que nos interessa como lente sobre certos aspectos do aprender humano.
Um bom modelo científico precisa permitir intervenções que o sistema original não comporta. Essa é a chave. Em humanos, sondamos o cérebro com medidas indiretas e ruidosas. Em uma rede neural, podemos inspecionar unidades, camadas, trajetórias de ativação; podemos “lesionar” partes, controlar inputs de forma radical, reconstruir a história de aprendizagem. Duas estratégias se destacam. A primeira é o “probing” (sondagem): treinar decodificadores para verificar que tipo de informação está codificada em representações internas. A segunda é o “criado controlado” (controlled rearing): manipular o ecossistema de treino, a quantidade, o conteúdo, a ordem temporal, e observar quais representações emergem. Quando essas duas estratégias convergem, ganhamos poder causal: não só sabemos que o modelo acerta, como sabemos por qual trilha representacional ele chega lá.
Há episódios instrutivos nessa direção. Um exemplo famoso discute a capacidade de uma rede em aprender o operador relacional “mesmo” — o conceito de identidade. Por anos, argumentou-se que esse tipo de relação simbólica seria inalcançável para sistemas conexionistas. Experimentos recentes mostram que redes conseguem, sim, induzir o “mesmo/diferente” como um operador abstrato e, quando sondadas, exibem representações que desempenham papel análogo a um símbolo. O debate deixa de ser “pode ou não pode?” para virar “em que condições emerge, e como se manifesta?”. Nessa virada, o tom deixa de ser metafísico e se torna empírico, com ganho metodológico para ambos os lados.
E se formos para um terreno socialmente mais espinhoso, como “teoria da mente” (ToM), a habilidade de representar crenças e desejos alheios? Avaliações iniciais sugeriram que certos LLMs resolviam tarefas clássicas de falsa crença. Sequências seguintes de estudos mostraram um quadro mais matizado: desempenho sensível a variações triviais na formulação, inconsistências entre modelos, ganho com ajustes de prompt, perdas quando a tarefa exige transferência robusta. O que isso nos diz? Que linguagem carrega muitos indícios de estados mentais — verbos como “pensar”, “acreditar”, “querer” são onipresentes e que um preditor treinado massivamente pode capturar algumas regularidades pragmáticas envolvidas em raciocínio social. Mas também nos lembra que “passar um teste” não basta para atribuir arquitetura cognitiva equivalente. A pista mais promissora está em perguntas que quase ninguém faz: que representações internas desses modelos separam crença de desejo? Que padrões de entrada são indispensáveis para aprender a atribuir estados mentais? Como fica o desempenho quando retiramos sistematicamente expressões mentalistas do treino?
O que puxa um fio importante: transparência e reprodutibilidade. Muitos dos sistemas mais potentes são oferecidos como serviços com acesso limitado. Sem parâmetros abertos, sem dados de treino, sem controle de semente aleatória, a reprodutibilidade fica comprometida. Um resultado hoje pode não se repetir amanhã; um “acerto” pode estar apoiado em memorizações específicas e invisíveis. Para a comunidade que modela cognição, isso não é detalhe técnico, é um bloqueio epistemológico. Sem a possibilidade de intervir, comparar versões, rodar ablações, perdemos justamente aquilo que transforma um artefato em modelo científico. Não é coincidência que chamadas por modelos abertos, com corpora documentados e pesos disponíveis, estejam crescendo. Quando um campo inteiro depende de caixas-pretas semanais, a ciência perde fôlego.
Vale insistir nesse ponto porque ele organiza o restante da discussão: um bom modelo cognitivo não precisa “ser” humano; precisa ser acessível, manipulável e mapeável de forma clara para as capacidades que queremos compreender. Esse refrão reaparece aqui porque sustenta as decisões metodológicas mais difíceis. Ao comparar humanos e LLMs em tarefas de linguagem, por exemplo, não buscamos equivalência fenomenológica total. Buscamos relações de analogia: em quais condições uma família de algoritmos de previsão gera comportamento análogo? Onde reside a diferença? Como variam as respostas quando controlamos as pistas disponíveis? Essa perspectiva organiza investigações cumulativas, e não brigas semânticas sobre “entendimento”.
Há construções que exigem longa cadeia de dependências, como discursos aninhados ou concordância em longa distância. Pesquisas que variam a quantidade de dados mostram curvas interessantes: para certas estruturas, uma fração mínima de exposição já produz generalização; para outras, o salto aparece apenas com ordens de magnitude a mais. Ao retirar exemplos diretos da construção, mas manter pistas indiretas, alguns modelos ainda aprendem, sinal de que não estamos apenas diante de “tabelas de lookup”, e sim de abstrações que capturam regularidade estrutural. Esse tipo de experimento, comum em cognição, ganha potência quando feito com artefatos de código aberto, nos quais podemos repetir, estressar, refinar.
Em paralelo, a questão do “contágio” de dados exige cuidado. Se benchmarks públicos são usados no treino, os resultados inflacionam. As avaliações mais sérias multiplicam controles: versões parafraseadas, composições adversariais, itens sintéticos, variações de superfície. Essa engenharia de testes não é perfumaria; é o que distingue um efeito de memorização de um efeito de competência. Curiosamente, o mesmo raciocínio vale para humanos: crianças podem “decorar” pedaços do input sem dominar a regra. O método científico é simétrico: blindar o teste para que ele capture a propriedade que nos interessa.
Em torno desse núcleo, emergem mal-entendidos recorrentes. Um deles é a demanda por “biologicidade”: se não se parece com cérebro, não serve para explicar a mente. Esse argumento confunde níveis de análise. Um circuito elétrico pode não parecer um neurônio, mas explicar com precisão o comportamento de um receptor auditivo em certas frequências. Uma equação diferencial não tem sinapses, mas modela com elegância a dinâmica de populações. O que define um bom modelo é a fidelidade às regularidades relevantes, a capacidade de gerar previsões e a abertura à refutação. Para certos problemas, por exemplo, inferência pragmática em linguagem, abstrações probabilísticas oferecem claridade que um mapa sináptico não entrega. Para outros, por exemplo, tempo de reação motor, detalhes biológicos são inescapáveis. O “encaixe” entre fenômeno e formalismo é uma arte que a psicologia vem aprendendo há décadas.
Outra confusão frequente gira em torno de “consciência” e “intencionalidade”. Atribuir a um LLM as mesmas qualidades fenomenológicas de um sujeito humano é deslocar o debate para um terreno metafísico onde os progressos empíricos ficam reféns de intuições. Em vez disso, focamos em propriedades operacionais: rastros de inferência, estabilidade de respostas a intervenções, sensibilidade a contexto social codificado em linguagem. Ao manter a régua nesse nível, evitamos tanto o endeusamento quanto o descarte apressado.
Mas e o risco de circularidade? Se treinamos um modelo em textos escritos por humanos, é natural que ele reflita padrões cognitivos humanos. O ponto crucial está no que fazemos com essa circularidade. Se a tomamos como trivialidade e paramos por aí, nada aprendemos. Se a exploramos com intervenções controladas, removendo pistas, manipulando distribuição de tópicos, invertendo frequências, podemos isolar o papel de certas estruturas e identificar quais capacidades dependem de exposição explícita e quais emergem por composição. Esse tipo de “cirurgia” está fora do nosso alcance com crianças aprendendo sua língua materna, mas é perfeitamente viável com modelos.
Há também o terreno fértil da comparação entre arquiteturas. Como muda o perfil de generalização quando trocamos recorrência por atenção? Quais efeitos são devidos ao objetivo de treino — previsão de próxima palavra — e quais ao ajuste posterior via feedback humano? Quando observamos ganhos em raciocínio lógico após um estágio de “chain-of-thought”, estamos medindo competência nova ou apenas a adoção de um formato de resposta que torna visível uma heurística antiga? Perguntas assim pedem experimentos de ablação, reexecuções com sementes controladas, replicações em corpora sintéticos. E tudo isso remete, de novo, à necessidade de acessibilidade.
A discussão sobre “tamanho” merece cuidado separado. Redes maiores tendem a performar melhor em uma variedade de benchmarks, o que levou a uma espécie de “escala como destino”. Mas nem toda capacidade escala da mesma maneira. Há efeitos de platô, reversões, regressões por sobreajuste a estilos particulares de texto. Em psicologia, é chamado de atenção para “curvas de aprendizado” que mudam de inclinação quando um novo princípio representacional é conquistado. Talvez algo análogo ocorra aqui: certos marcos só aparecem quando o espaço de hipóteses interno se torna rico o bastante. A pergunta útil não é “quanto maior, melhor?”, e sim “que princípio novo aparece quando passamos de X para Y?”. A resposta, se bem delineada, informa teorias sobre aquisição de regras, composição e abstração, temas centrais na ciência cognitiva.
Uma linha promissora de pesquisa usa os LLMs como “baseline” para entender o que a exposição puramente linguística explica. Se um fenômeno comportamental em humanos também aparece num modelo treinado só com texto, ganhamos um argumento de parcimônia: talvez a linguagem carregue pistas suficientes para aquela habilidade. Se não aparece, duas hipóteses sobem no pódio: ou a exposição humana inclui canais não linguísticos indispensáveis, ou o objetivo de treino precisa mudar (por exemplo, incorporar ação e percepção). Em ambos os casos, o modelo nos empurra a formular melhor as condições de aprendizagem.
No meio de tanta premissa técnica, há um fio reflexivo que não quero perder: por que essa conversa mobiliza tanto desconforto? Parte vem do receio de reduzir a mente a estatísticas de palavras. Parte vem da história recente de exageros no marketing de IA. Parte vem de uma intuição legítima de que experiência encarnada, corpo e socialidade importam para formar conceitos. O entendimento aqui não é aceitar um reducionismo apressado, mas praticar um pluralismo disciplinado: usar LLMs como uma entre várias janelas, com funções específicas, limites claros e integração honesta com outros níveis de descrição, do neurônio à cultura.
Para tornar esse pluralismo operacional, algumas práticas ajudam. Documentar corpora e tornar públicas as listas de exclusão e inclusão. Fixar sementes e registrar versões. Publicar pesos e ferramentas de instrumentação sempre que possível. Desenvolver bancos de testes que variam sistematicamente forma e conteúdo, com dificuldade controlada e pistas dosadas. Estimular reavaliações entre grupos independentes, inclusive adversariais.
Volto ao entendimento, agora com outra luz: o valor de um modelo cognitivo está em sua capacidade de ser questionado. Queremos que falhe em condições diagnósticas, que revele seus limites, que sirva de contraexemplo para teorias otimistas demais. Um LLM fechado, estável por decreto, intocável em seus dados, pode ser ótimo produto; como modelo científico, é tímido. Quando abrimos a caixa, colocamos a comunidade para conspirar com e contra o artefato e é dessa fricção que saem os aprendizados mais sólidos.
Há também um aspecto pedagógico nessa história. Ao explicar o que é um LLM para quem não vive nas trincheiras da Inteligência Artificial, ganharíamos muito ao dizer algo simples: é um preditor de linguagem que aprendeu a continuar sequências de texto com base em um oceano de exemplos. Esse preditor é surpreendentemente bom em capturar padrões de uso, reempacotar conhecimento enciclopédico e simular vozes estilísticas. Quando perguntamos se isso “entende” como um humano, mudamos o jogo sem perceber. A pergunta produtiva é: o que a habilidade de prever palavras nos revela sobre o modo como humanos extraem, combinam e generalizam regularidades linguísticas?
E quando a conversa vai para fora da linguagem? Sobre física do senso comum, planejamento motor, percepção espacial, a história é menos generosa. Um sistema treinado só com texto tropeça em tarefas que exigem interação com mundo, feedback sensório-motor, aprendizado causal fora da palavra. Aqui, os LLMs podem ser parte da solução, como módulos linguísticos acoplados a agentes que agem e sentem, mas dificilmente serão a peça única. Isso, longe de ser um golpe fatal, é um convite a arquiteturas híbridas e a programas de pesquisa que misturam modalidades.
No fim da leitura, talvez fique uma sensação dupla: desconfiança e curiosidade. É uma combinação saudável. A desconfiança nos protege de confundir ferramenta com teoria. A curiosidade nos empurra a experimentar, abrir, sondar. Se a ciência cognitiva abraça os LLMs nesse espírito, ganha um laboratório vivo para estudar como estruturas linguísticas e estatísticas podem dar origem a comportamentos complexos. Se mantivermos a régua do método, intervenções claras, mapas de analogia explícitos, reprodutibilidade como princípio, o risco de delírio diminui, e o espaço para descobertas reais aumenta.
Eu gosto de imaginar o seguinte exercício mental. Suponha que amanhã surja um corpus anotado de forma impecável, um conjunto de pesos aberto e uma ferramenta de instrumentação que nos permita “puxar” uma camada do modelo e observar como ela responde a variações mínimas na estrutura de uma frase. Suponha que possamos retirar do treino todo verbo mentalista e observar como isso afeta tarefas de raciocínio social. Suponha que possamos treinar versões idênticas do modelo, exceto por uma única diferença na distribuição de pronomes, e medir como isso altera inferências de correferência. Essa bateria de experiências, ainda que hipotética, não é ficção científica. É um roteiro de pesquisa dentro do nosso alcance, desde que escolhamos as ferramentas que preservam o caráter público e manipulável da ciência.
Esse roteiro não invalida a importância de teorias psicológicas clássicas, ao contrário, oferece um espaço de teste. Hipóteses sobre o papel de pistas pragmáticas, sobre a emergência de operadores lógicos, sobre a necessidade de input multimodal podem ser levadas ao ringue com modelos de linguagem como sparring partners. Quando a teoria prevê X e o modelo mostra Y, ganhamos informação. Quando convergem, consolidamos explicações. Quando divergem, aprendemos onde cavar.
Se a pergunta inicial era “podemos usar LLMs como modelos de cognição?”, a resposta que proponho é pragmática: sim, desde que os tratemos como modelos científicos, não como oráculos, e desde que lutemos por acessibilidade e reprodutibilidade. O caminho passa por abrir caixas, medir mais, controlar melhor, comparar com cuidado. A recompensa é luminosa: entender um pouco mais como sistemas de aprendizado, quer em silício, quer em tecido, podem extrair estrutura de fluxos caóticos de linguagem e transformar isso em comportamento. E, quem sabe, ao fazer esse trabalho com rigor e sobriedade, possamos também recuperar um hábito precioso da boa ciência: trocar certezas grandiloquentes por perguntas que rendem experimentos.
Referências:
Peterson, J. C.; Bourgin, D. D.; Agrawal, M.; Reichman, D.; Griffiths, T. L. — Using large-scale experiments and machine learning to discover theories of human decision-making - Experimentos em larga escala e aprendizado de máquina para teorias da decisão humana: Propõe pipeline que combina big data e ML para identificar e comparar teorias de tomada de decisão.
https://cocosci.princeton.edu/papers/peterson2021-science.pdf
Goodman, N. D.; Frank, M. C. — Pragmatic language interpretation as probabilistic inference - Interpretação pragmática da linguagem como inferência probabilística: Defende que entender enunciados envolve raciocínio bayesiano sobre intenções do falante e contexto.
https://langcog.stanford.edu/papers_new/goodman-2016-underrev.pdf
Marcus, G. F. — The Algebraic Mind: Integrating Connectionism and Cognitive Science - A mente algébrica: integrando conexionismo e ciência cognitiva: Argumenta que representações simbólicas e regras são necessárias para explicar cognição, complementando redes conexionistas.
https://sites.pitt.edu/~perfetti/PDF/Marcus.pdf
Jones, M.; Love, B. C. — Bayesian Fundamentalism or Enlightenment? On the explanatory status and theoretical contributions of Bayesian models of cognition - Fundamentalismo bayesiano ou esclarecimento? Sobre o estatuto explicativo dos modelos bayesianos da cognição: Avalia forças e limites da abordagem bayesiana enquanto teoria psicológica.
http://matt.colorado.edu/papers/jones-love-BBS.pdf
Brown, T. B. et al. — Language Models are Few-Shot Learners - Modelos de linguagem aprendem com poucos exemplos: Mostra que modelos de larga escala podem executar novas tarefas via prompts com poucos ou nenhum exemplo explícito.
https://arxiv.org/abs/2005.14165
Elman, J. L. et al. — Rethinking innateness: A connectionist perspective on development - Repensando a inatidez: uma perspectiva conexionista sobre o desenvolvimento: Livro que propõe como aprendizado distribuído ao longo do tempo pode explicar aquisições cognitivas sem fortes pressupostos inatos.
https://psycnet.apa.org/record/1997-97335-000
Christiansen, M. H.; Chater, N. — Toward a Connectionist Model of Recursion in Human Linguistic Performance - Rumo a um modelo conexionista de recursão no desempenho linguístico humano: Explora se e como redes conexionistas podem lidar com estruturas recursivas na linguagem.
https://onlinelibrary.wiley.com/doi/abs/10.1207/s15516709cog2302_2
Binz, M.; Schulz, E. — Using cognitive psychology to understand GPT-3 - Usando psicologia cognitiva para entender o GPT-3: Aplica paradigmas clássicos de cognição para analisar capacidades e limites de um LLM.
https://www.pnas.org/doi/10.1073/pnas.2218523120
Shiffrin, R.; Mitchell, M. — Probing the psychology of AI models - Sondando a psicologia de modelos de IA: Editorial/ensaio que discute boas práticas e armadilhas ao inferir “psicologia” a partir de sistemas de IA.
https://www.pnas.org/doi/10.1073/pnas.2300963120
Ouyang, L. et al. — Training language models to follow instructions with human feedback - Treinando modelos de linguagem para seguir instruções com feedback humano: Introduz RLHF para alinhar saídas a preferências humanas em tarefas instruídas.
https://arxiv.org/abs/2203.02155
Mitchell, M.; Krakauer, D. C. — The debate over understanding in AI’s large language models - O debate sobre “entendimento” em grandes modelos de linguagem: Examina o que “entender” deveria significar e os limites de atribuir entendimento a LLMs.
https://www.pnas.org/doi/10.1073/pnas.2215907120
Marcus, G. F.; Vijayan, S.; Bandi Rao, S.; Vishton, P. M. — Rule Learning by Seven-Month-Old Infants - Aprendizado de regras por bebês de sete meses: Experimentos mostram sensibilidade infantil a padrões abstratos (como ABA/ABB) em sequências.
https://www.science.org/doi/10.1126/science.283.5398.77
Geiger, A.; Wu, Z.; Potts, C.; Icard, T.; Goodman, N. D. — Finding Alignments Between Interpretable Causal Variables and Distributed Neural Representations - Alinhando variáveis causais interpretáveis a representações neurais distribuídas: Propõe métodos para mapear variáveis causais humanas em representações internas de redes.
https://proceedings.mlr.press/v236/geiger24a/geiger24a.pdf
Zhang, Y.; Warstadt, A.; Li, X.; Bowman, S. R. — When Do You Need Billions of Words of Pretraining Data? - Quando você precisa de bilhões de palavras de pré-treino?: Estuda como a quantidade de dados afeta desempenho e quando ganhos de escala realmente aparecem.
https://aclanthology.org/2021.acl-long.90/
Warstadt, A.; Bowman, S. R. — Can neural networks acquire a structural bias from raw linguistic data? - Redes neurais podem adquirir viés estrutural a partir de dados linguísticos brutos?: Investiga se redes derivam preferências estruturais apenas da distribuição do input.
https://cognitivesciencesociety.org/cogsci20/papers/0381/0381.pdf
Kosinski, M. — Theory of Mind May Have Spontaneously Emerged in Large Language Models - Teoria da mente pode ter emergido espontaneamente em LLMs: Relata desempenho positivo de LLMs em tarefas de crença falsa e discute possíveis mecanismos.
https://arxiv.org/vc/arxiv/papers/2302/2302.02083v1.pdf
Ullman, T. — Large Language Models Fail on Trivial Alterations to Theory-of-Mind Tasks - LLMs falham com alterações triviais em tarefas de teoria da mente: Mostra que pequenas mudanças de enunciado derrubam o desempenho, questionando a robustez.
https://arxiv.org/abs/2302.08399
Gandhi, K.; Fränken, J.-P.; Gerstenberg, T.; Goodman, N. D. — Understanding Social Reasoning in Language Models with Language Models - Entendendo o raciocínio social em LLMs com LLMs: Introduz avaliações amplas de raciocínio social e discute onde os modelos acertam e erram.
https://arxiv.org/abs/2306.15448
Koster-Hale, J. et al. — Mentalizing regions represent distributed, continuous, and abstract dimensions of others’ beliefs - Regiões de mentalização representam dimensões abstratas e contínuas das crenças alheias: Evidência de neuroimagem de que áreas de ToM codificam dimensões abstratas de crenças.
https://pmc.ncbi.nlm.nih.gov/articles/PMC5696012/
Liesenfeld, A.; Lopez, A.; Dingemanse, M. — Opening up ChatGPT: Tracking openness, transparency, and accountability in instruction-tuned text generators - Abrindo o ChatGPT: rastreando abertura, transparência e responsabilização em geradores ajustados por instruções: Propõe métricas e acompanhamento público do grau de “abertura” de modelos instruídos.
https://arxiv.org/abs/2307.05532