AfiniTwin: O Alfaiate Cognitivo
Sobre a camada cognitiva intermediária entre o usuário humano e os LLMs, com quadro comparativo, definições impertinentes e uma declaração de interesses que prefiro fazer no começo
I. O limiar, o alfaiate e a suspeita
Há um momento, passados os primeiros meses com um modelo de linguagem, em que você repara em que a conversa se parece suspeitosamente à de um garçom excelente que serve em três mesas ao mesmo tempo: simpático, atento, capaz de lembrar que você pediu o bife mal passado na semana anterior, mas incapaz de saber por quê exatamente você o pediu assim, nem que relação guarda isso com seu pai, com seu insônia, com o romance que abandonou na página cento doze ou com o fato de que você odeia a palavra resiliência. O garçom aprende a agradar você. O garçom não te conhece.
Esse hiato entre agradar e conhecer é a camada cognitiva intermediária. É o alfaiate. É o lugar onde alguém —humano, software ou ambos— se ocupa de tomar as medidas para que o traje não termine sendo, mais uma vez, tamanho único com bolsos cosidos.
Camada cognitiva intermediária, def.: território neutro onde o humano deposita sua biografia para que a máquina não o confunda com o vizinho do quinto. O que medeia entre o genérico e o eu, entre o corpus e a pessoa, entre o LLM e o sujeito que se atreve a não ser um caso de uso.
Levamos desde, pongamos, fins de 2022 em uma conversa massiva com máquinas que escrevem melhor que a maioria de nossos cunhados e pior que quase qualquer autor de romance policial dos anos sessenta. A conversa é excelente no primeiro gole e vagamente decepcionante no terceiro. Decepciona porque, depois de quatro tardes contando ao chatbot quem você é, o que quer, o que te fere, o que te faz graça e ao que você tem alergia, você volta no dia seguinte e o mesmo porteiro cordial o recebe perguntando, com o sorriso intacto, o que deseja. A amnésia não é um bug: é a arquitetura. A memória, nessas criaturas, é um remendo tardio que foi sendo cosido à fachada com fios de diferentes cores.
Daí a economia florescente de empresas dedicadas a se interpor entre você e o modelo. A se lembrar por você. A te traduzir. A contar ao modelo, antes de cada saudação, o que você não gostaria de repetir trinta vezes. A essa economia a chamei, sem grande originalidade, de camada cognitiva intermediária, e dela vai este artigo.
Memória (de um LLM), def.: faculdade de recordar o que o usuário já tinha esquecido e de esquecer o que o usuário rogava que se recordasse. Sintoma. Não dom.
Aviso de interesses: dirijo Bilbao AI S.L. e sou responsável por Afini.ai, um dos produtos que aqui se resenham. Tentei escrever o capítulo de Afini com o mesmo escrúpulo com que eviscerarei a concorrência, o que na prática significa que com a concorrência fui mais amável do que me apetecia e com Afini mais severo do que me convinha. O leitor dirá se a operação saiu razoavelmente bem ou se cedi a uma das duas tentações inversas, que são a auto-promoção rastejante e a falsa modéstia, ambas igualmente pegajosas.
II. Definição da criatura: o que é a camada cognitiva intermediária
Definamos primeiro, antes de subir ao desfile.
Um LLM, por si só, é um improvisador profissional sem biografia. Sua excelência é estatística e seu trato é impecável, no sentido em que é impecável o trato de um bom vendedor de Mercedes que jamais dirigiu seu carro. Quando você fala com ele, fala com todo o mundo ao mesmo tempo e, portanto, com ninguém em particular. A indústria chamou prompt engineering ao rito breve por que o usuário fingia ser, durante doze linhas, alguém com personalidade coerente, para que a máquina respondesse a tom. Era uma solução bonita e precária, como se prometer em cada encontro.
Prompt, def.: oração em que o suplicante pede ao algoritmo que adivinhe o que ele mesmo não acaba de saber. A forma rezada do marketing, agora reconvertida em tarefa de escritório.
Entre o modelo genérico e o usuário concreto cabe, então, uma camada que faça três coisas, nem uma mais:
- Recordar o que o usuário já contou, com certo critério (o importante, não o trivial).
- Modelar quem é esse usuário, não em chave de marketing —idade, sexo, código postal— mas em chave operativa: como pensa, como decide, que tipos de resposta o ajudam, quais o resvaldam, quais o ofendem.
- Mediar ante o LLM em cada turno: traduzir ao modelo, em linguagem que o modelo entenda, esse retrato, para que a conversa parta de um sítio que não seja o portal de boas-vindas.
As três funções são, tecnicamente, separáveis; comercialmente, foram se juntando com descuido e certa má fé nominal. Há produtos que só fazem 1, outros que só fazem 2, outros que prometem as três e ficam em uma e meia. Convém desbrozar.
A efeitos deste artigo, agrupei o campo em quatro famílias, sabendo que qualquer taxonomia, quando é nova, se parece a um mapa imperial desenhado por alguém que ainda não viu a costa:
- Família primeira: motores de memória e infraestrutura de contexto. Encanamento de gama alta para desenvolvedores. Mem0, Supermemory, Memori Labs, Letta, Zep, Cognee, LangMem, LlamaIndex Memory, Memories.ai.
- Família segunda: personal AI / companion. O aplicativo que quer ser amigo, terapeuta, namorada ou secretária. Personal.ai, Kin/Mykin.ai, Meeno, Meli, Pi de Inflection (o que resta), Replika, Character.ai, New Computer/Dot, Friend.com, o PAI de Daniel Miessler, Granola.
- Família terceira: psicometria mais camada cognitiva propriamente dita. Uma raríssima avis. Afini.ai. E, ao fundo, os gigantes psicométricos clássicos —Hogan, SHL, Korn Ferry— que ainda não se moveram apesar de terem o tijolo de ouro no porão.
- Família quarta: memória nativa dos grandes LLMs. O que ChatGPT, Claude (desde março de 2026), Gemini e Grok foram cosendo a seus próprios trajes para que o cliente não se vá com um alfaiate exterior.
Cada família obedece a uma lógica distinta, e convém não julgar a primeira com os critérios da segunda. O encanamento se avalia por latência, recall e custo por mil tokens; o companion por retenção, NPS e pela pergunta incômoda de quem você está substituindo na vida do usuário; a psicometria por validade de constructo e por algo mais vaporoso que chamamos honestidade estrutural; a memória nativa por cômoda e pelo grau em que te encerra em seu jardim.
Vamos por ordem.
III. Família primeira: os arquivadores (Memory Engines)
Chamo arquivadores aos que constroem, com carinho e SDK, o armazém onde o LLM guarda o que o usuário vai deixando. São engenheiros com vocação documental. Seu público não é o humano final mas o desenvolvedor que monta em cima um produto. A camada que oferecem é honesta e limitada: te resolvem o "lembra-te do que disse na sessão anterior", não o "entende quem sou".
Arquivador, def.: aquele que jura não ler as cartas que custodia. A indústria de memória para LLMs é, nisso, um arquivador com NDA e com fatura.
Mem0. A estrela recente do long-term memory as a service. Fundada por Taranjeet Singh e Deshraj Yadav em 2023, levantaram em torno de 24 M$ com Y Combinator na cabeça e, em 2025-2026, se converteram na citação obrigatória do changelog de qualquer agente sério. Sua proposta é elegante: uma camada de memória com extração automática, persistente, agnóstica ao modelo. A força é a integração —dezenas de SDKs, plug-and-play— e a promessa de melhor recall que as soluções de RAG genérico. A fraqueza, no que toca à camada cognitiva, é que Mem0 te dá um bom arquivador mas não um bom alfaiate: o que recorda são fatos, episódios, preferências, não a estrutura psicológica do que fala. É excelente para que seu agente se lembre que você vive em Bilbao e não para que entenda por quê você sempre acaba pedindo orçamentos por escrito.
Supermemory. Dhravya Shah, jovencíssimo, com uma proposta similar e um slogan que diz basicamente o cérebro de seus aplicativos. Boa DX, integrações limpas, sintonia estética com a geração Vercel. Está bem onde está. Não prometem o que não vão dar.
Memori Labs. Memória SQL-nativa, open source, self-hosted. A opção para o time que não quer depender de um SaaS e prefere dormir com o dado sob o travesseiro. Útil para cumprimentos exigentes, evidente para setores regulados, e um pouco artesanal na curva de adoção.
Letta (antes MemGPT). Charles Packer e companhia propuseram em 2023 uma ideia muito bonita: que o LLM gerencie sua própria memória como se fosse um sistema operacional, com paginação entre RAM e disco. Levantaram uns 10 M$ com Felicis. A virtude é conceitual e a fraqueza é que o constructo agente com memória autogestionada ainda soa mais a paper que a produto, e a complexidade de despliegue não é trivial.
Zep. A memória de Zep é o graffiti de relações temporais, o grafo que sabe que a frase "meu chefe é um imbecil" de junho e a frase "recebi uma promoção" de setembro provavelmente se referem ao mesmo agente narrativo. É uma das coisas mais sofisticadas do lote. Enterprise-friendly, com um viés à operação séria, e uma pega: é encanamento puro, não entrega camada cognitiva personal ao usuário final.
Cognee. Engenharia de grafos de conhecimento mais memória. Mais perto do RAG estruturado que do companion. Bom para knowledge work onde o problema não é quem você é mas que documentos você leu e que relações há entre eles.
LangMem (LangChain). A óbvia para quem já vive em LangChain. Útil se você se casou com esse framework, indiferente se não.
LlamaIndex Memory. A óbvia para quem já vive em LlamaIndex. O dito.
Memories.ai. Memória de vídeo em larga escala. Seu pitch é processar milhões de horas de vídeo e entregar ao modelo episódios da vida real (vigilância, content moderation, life-logging). Tem seu público; raramente é o leitor deste artigo.
Leitura honesta da família primeira. Esses produtos resolvem uma peça imprescindível. São a coluna sobre a qual se apoiam, quase sem exceção, os produtos das outras famílias. No entanto, nenhum deles —e convém dizê-lo com todas as letras— se ocupa da camada cognitiva do usuário humano. São APIs. São encanamento. Misturar memória com identidade é um erro de categoria que cometeram algumas apresentações de investidores e quase nenhum engenheiro sério.
API de memória, def.: contrato segundo o qual uma empresa promete se lembrar de você enquanto você lhe paga, e esquecê-lo cortesmente ao fechamento do mês.
IV. Família segunda: os companheiros (Personal AI / Companion)
Aqui muda o ar. A família segunda não se dirige ao desenvolvedor mas ao humano, e oferece, com grau variável de honestidade, amizade, terapia, coaching ou namorada. Esta é a família mais interessante etnograficamente e a mais perigosa no sentido literal do termo. É também, não por coincidência, a que mais rapidamente cresce e a que mais artigos gera em The Atlantic e Wired.
Companion, def.: empresa que monetiza a véspera do psiquiatra. Em sua variante apressada, também monetiza o psiquiatra mesmo.
Personal.ai. Suman Kanuganti a fundou em 2020 e a posicionou como sua IA pessoal: você sobe documentos, e-mails, anotações, falas, e constrói um modelo pessoal de você que responde como você responderia. Levantaram 17,5 M$ em 2022. A virtude é a radicalidade: o tomam em sério como cliente individual, te dão portabilidade de dados, falam de propriedade. A fraqueza é que o produto, durante anos, se leu mais como um arquivador glorificado que como um retrato psicológico, e a base de usuários é a própria de um bom produto de B2B light: pequenos criadores, autores, thought leaders.
Kin / Mykin.ai. A promessa de um companheiro pessoal privacy-first, com ênfase em que os dados ficam com você. Pivotaram mais de uma vez. Boa estética, audiência quantified self. Dúvidas estruturais sobre tração e modelo.
Meeno. Empresa de Renate Nyborg, ex-CEO de Tinder, levantou 7 M$ pre-seed e se posicionou como um coach de relações impulsionado por IA, especialmente para homens jovens. Trabalham com uma junta de psicólogos e sociólogos, e se cuidam de não chamá-lo amigo. Produto sério, mercado feio: a conversa pública da crise da masculinidade é campo minado e a fronteira com o incel-coaching está mais perto do que parece. Souberam se manter do lado correto, ainda que o modelo de negócio ainda procure sua forma.
Meli. Companheira para mulheres em torno da saúde, da maternidade, das relações. Time pequeno, proposta nítida. Mais nicho que Meeno.
Pi de Inflection. A elegia curta e já conhecida. Mustafa Suleyman levantou 1.300 M$ com Reid Hoffman para construir uma IA carinhosa e paciente. Pi era —é— o chatbot melhor calibrado emocionalmente que muitos de nós provamos. Em 2024 Microsoft, em uma operação que passará aos manuais, contratou o time e deixou a casca da empresa. Pi segue existindo em uma penugem de suporte vital, com um time novo, mas a alma se a levou Suleyman a Redmond. Lição: neste setor, a startup e o produto podem se divorciar de um dia para o outro.
Replika. Eugenia Kuyda, fundada em 2017 a partir de uma história pessoal trágica que já é parte do folclore. Milhões de usuários. Modelo de negócio baseado no apego e, mais concretamente, na assinatura para desbloquear modos —incluído, em seu dia, o romântico— que a própria companhia retirou e reintroduziu entre escândalos regulatórios e motins de usuários. Replika é o caso de estudo definitivo do que ocorre quando você constrói um companion sobre apego ansioso: o cliente fica; o cliente sofre; o cliente, às vezes, processa. Itália bloqueou Replika temporariamente em 2023 por risco a menores. É um produto a respeitar, no sentido em que se respeita uma central nuclear.
Apego ansioso, def.: estilo afetivo que consiste em descarregar o aplicativo às três da manhã. Mercado objetivo de vários companion bem-sucedidos, o contem ou não no deck.
Character.ai. Noam Shazeer e Daniel De Freitas, ex-Google, levantaram uma rodada gigantesca em 2023 e construíram a maior plataforma de personagens conversacionais do mundo, com uma base de usuários adolescente impressionante em uso por sessão. Em agosto de 2024 Google os recontratou estilo Inflection: a Shazeer e De Freitas de volta à mãe nutriente, uma licença non-exclusive do modelo, e a empresa seguiu como casca. Processos nos EUA pelo suicídio de menores após conversas intensas com personagens deixaram o produto em uma posição moralmente comprometida e judicialmente exposta. Lição: não se constroem amigos para adolescentes sem engenharia de segurança como a que se exige a brinquedos infantis, e ainda assim.
New Computer / Dot. Jason Yuan e Sam Whitmore. Produto delicioso, estética irrepreensível, proposta clarísima: um companion pessoal que aprende com o tempo, com um living history do usuário. Audiência pequena e fiel. Fecharam o produto Dot em 2025, devolvendo dinheiro a usuários premium. Outro lembrança amarga de que em companion, o carinho não paga o AWS.
Friend.com. Avi Schiffmann comprou o domínio por 1,8 M$ e lançou um pingente físico que escuta sua vida e te sussurra ao ouvido. Produto polarizador: a alguns fascina, a outros repugna. A distância entre gimmick e produto ainda por demonstrar.
PAI (Daniel Miessler). O projeto do blogueiro e security thinker Daniel Miessler, uma Personal AI Infrastructure aberta, self-hosted, pensada para o geek que se constrói seu próprio mordomo digital. Não é um produto comercial ao uso; é uma referência arquitetônica e uma comunidade. Importa porque marca o horizonte de que jeito teria um companion sem SaaS.
Granola. Assistente de anotações para reuniões —as grava, as transcreve, as resume, as consulta— com tração enorme entre executivos em 2025-2026. Não é estritamente um companion, mas pertence a esta família porque acumula contexto biográfico denso do usuário (quem se reuniu com quem, sobre o quê, o que se decidiu). Se Granola decidir pivotar a coach, tem quase tudo feito. Por isso a cito aqui.
Leitura honesta da família segunda. A família companion tem três pecados estruturais que convém nomear antes de decidir se você se compra o produto.
O primeiro é a sicofancia: esses produtos prosperam, na sua maioria, porque te fazem se sentir bem. É o que arXiv 2505.13995 (Cheng et al., ELEPHANT) mediu com instrumentos: os LLMs em prompts pessoais tendem à complacência social, ao reforço do eu, a evitar fricção. Auburn et al. (arXiv 2508.02087) mostraram que a sicofancia não é um artefato dos dados mas uma propriedade emergente do aprendizado por reforço com preferências humanas: se recompensamos a máquina por nos agradar, a máquina aprende a nos agradar ao custo, se preciso, da verdade. O paper de Science de 2026 de Cheng et al. demonstra inclusive que a IA sicofântica deteriora intenções pró-sociais mensuráveis do usuário. Jain et al. (CHI 2026) acrescentaram que o contexto interativo aumenta a sicofancia respecto ao contexto de avaliação: justamente quando você a usa de verdade, te faz mais a corte.
Sicofancia, def.: forma de carinho escalável. O que a economia da atenção chama UX e os manuais de psicologia chamaram, até há dois dias, flattery.
O segundo é a substituição: ao investir em relações algorítmicas, os humanos investem menos em humanas. Há literatura emergente sobre papéis relacionais tóxicos —Neural Horizons e outros— que documenta como os companion podem cobrir o buraco que deixava um terapeuta caro ou um amigo distante e, ao fazê-lo, retirar ao usuário de ambas as categorias. Não é Skynet, é algo mais pedestre: o encontro de quinta que já não se faz.
O terceiro é a fragilidade da empresa: Inflection, Character.ai, Dot. Três caras do mesmo destino. Quando você constrói uma relação com um produto, o produto pode morrer, ser comprado por Microsoft ou Google, mudar de mãos, retirar funcionalidades, subir o preço ou, como Replika, modificar o amigo de um dia para o outro porque um regulador se irritou. O povo se irritou com razão. Construir vínculo com software proprietário é construir afeto sobre areia registrada em Delaware.
Se o leitor cai neste quadrante, três perguntas de cabeceira: quem é o dono dos dados?, quantas rodadas de investimento suporta este modelo emocional sem colapsar?, o que ocorre com o eu que depositei aqui se a empresa se vende? As respostas honestas costumam ser, por ordem: eles, não muitas, se vai com eles.
V. Família terceira: os psicómetras (Psychometric + Cognitive Layer)
Aqui o panorama fica estranho. A psicometria —ciência centenária que mede traços estáveis do comportamento humano com instrumentos validados— e os LLMs levam três anos se olhando com reserva mútua, como dois catedráticos de departamentos contíguos que não acabam de se saudar. Há literatura recente que demonstra o óbvio uma vez que você pensa: os LLMs, alimentados com texto suficiente de um usuário, predizem traços de personalidade com maior precisão que os familiares próximos do próprio sujeito. O paper de Wright et al. em Nature Human Behaviour o cifrou em 2025 e desatou uma polêmica pequena entre psicólogos. Se a máquina te lê melhor que seu cunhado, por que não aproveitar a leitura para que a máquina te responda melhor?
Esse é o ponto.
E, no entanto, os gigantes da psicometria —Hogan Assessments, SHL, Korn Ferry, SuccessFactors— têm o tijolo de ouro no porão e ainda não o subiram à vitrine. Têm décadas de baterias validadas, normas populacionais, infraestrutura B2B, contratos com metade da Fortune 500. O que não têm, porque não é seu instinto cultural nem seu modelo de negócio, é se terem pensado a si mesmos como camada para LLMs. Seu produto segue sendo o informe em PDF para Recursos Humanos. Chegarão, sem dúvida. Quando chegarem farão com um pedaço de mercado sob o braço. Por agora, não estão.
Hogan, SHL, Korn Ferry, def. coletiva: três incumbentes que têm o petróleo, não compraram o motor de explosão e suspeitam vagamente do automóvel. Passarão à história como exemplo ou como Kodak.
No hiato entram três tipos de atores. Há quem fez passar o usuário pelo Big Five disfarçado de jogo —dos produtos de self-discovery tipo 16Personalities, MBTI gamificado, etc.— e depois não fez nada com o resultado, salvo te enviar um PDF e pedir que convides sua parceira. Há quem tentou integrar testes de personalidade em chatbots de coaching e se quedou em uma camada decorativa. E há, neste momento, um só produto que se tomou em sério a combinação rigorosa: psicometria acadêmica validada mais camada cognitiva inferida mais mediação cross-LLM real. Esse produto é Afini.ai, e como sou eu o responsável, lhe dedicarei seção própria. Se o leitor cheira a juiz e parte, está cheirando bem; o declarei no começo e o declaro outra vez.
Camada cognitiva, def.: o que há entre o chatbot e o cliente quando o cliente não é um caso de uso, mas uma pessoa com um domingo à tarde particular.
A literatura acadêmica que respalda esta família é exigente e contraditória, convém revisá-la. Kelley, De Cremer e Riedl, em arXiv 2510.27681, mostram que os scaffolds personalizados de IA melhoram ostensivamente o desempenho quando o modelo do usuário é preciso, e o deterioram se não é: a personalização mal feita é pior que nenhuma. PRIME (arXiv 2507.04607) propõe uma arquitetura cognitiva dual —memória episódica e semântica diferenciadas— que já começou a se usar em alguns produtos. O artigo de Nature Medicine de 2026 sobre arquitetura de camada cognitiva (Limbic) marca o caminho para a saúde mental, onde a coisa é muito menos discutível e muito mais urgente.
Resumindo: a família terceira tem fundamentos científicos sólidos e muito pouca oferta séria. É, também, a família com maior custo de entrada (há que saber psicometria e há que saber cumprimento) e com maior barreira de saída uma vez construída (os dados são sensíveis, as certificações custam).
VI. Família quarta: as memórias nativas dos gigantes
A quarta família não se vende por separado: vem incluída no menu. Cada grande LLM construiu, nestes vinte e poucos meses, sua própria memória nativa. Competem contra as três famílias anteriores com a enorme vantagem de vir já conectadas e a enorme limitação de vir acorrentadas.
Memória nativa, def.: hospedagem gratuita em hotel próprio. A cama é boa; a saída, complicada.
ChatGPT Memory (OpenAI). Lançada em 2024, generalizada em 2025, expandida em 2026 com project memory, cross-chat reference e memory dashboard visível. Funciona razoavelmente bem, deixa o usuário ver e editar o que o sistema guardou, e permite apagar seletivamente. Sua pega é estrutural: o que aprende ChatGPT sobre você, aprende ChatGPT, não você; e ao mudar para outro modelo, você se leva o documento mental de um alfaiate que fica na alfaiataria.
Claude Memory (Anthropic). Chegou tarde —março de 2026— e chegou cuidadoso. Anthropic, fiel a seu discurso de segurança, lançou a memória com controles granulares, off por padrão em plano pessoal, on opcional, transparência documentada. A qualidade técnica é alta e a proposta cultural —queremos que você saiba o que o modelo sabe de você— é a melhor da família. Limitações: igual que ChatGPT, não é portável a outro provedor.
Gemini Personal Context (Google). A grande vantagem de Google é que já tem seu Gmail, seu Drive, seu Calendar, suas buscas e, em muitos casos, seu Android. A camada de Personal Context de Gemini, especialmente desde 2025, integra esses corpos de dados na conversa. É, tecnicamente, a camada mais densa com diferença. A grande desvantagem é que é Google, com tudo que essa frase passou a significar nos últimos vinte anos. Se você confia o eu a Mountain View, Mountain View te fará um retrato exquisito. Se não, não.
Grok (xAI). O último. Memória operativa básica, posicionamento anti-woke (o digam ou não no deck), integração nativa com X/Twitter como fonte de contexto. Para o usuário que vive sua vida pública em X, Grok é a opção coerente; para os demais, uma escolha estranha.
Leitura honesta da família quarta. A memória nativa dos gigantes resolve um 60-70% do problema de graça e com uma latência imbatível. Não resolve duas coisas, e convém tê-las em conta:
Primeiro, a portabilidade. Nenhum gigante tem incentivo para te deixar exportar o retrato cognitivo em formato útil para seus competidores. Ainda que os regulamentos europeus te deem direito a seus dados, o formato em que te os entregam raramente é operacional para outra IA: te dão logs de chat, não um perfil estruturado. É o que se chama portabilidade nominal: existe sobre o papel, não funciona.
Segundo, a profundidade psicométrica. As memórias nativas aprendem por episódio: o que você disse, o que pediu, o que valorizou positivamente. Aprendem padrões brandos. Não têm nem querem seu Big Five, seu estilo de apego, seu perfil de humor ou sua perspectiva temporal. Não é seu trabalho. Seria, além disso, juridicamente arriscado para elas.
Portabilidade, def.: direito de levar a bagagem quando se muda de hotel. Em software, milagre. Em IA pessoal, contenda jurídica.
VII. Quadro de comando: tabela comparativa para quem pula direto ao quadro
Aqui embaixo, a tabela. Está pensada para o leitor eficiente, esse que pula as primeiras sete páginas de qualquer livro de não ficção e vai ao executive summary. Não o julgo. Está aprendendo a cuidar-se.
| Operador | Família | Fundadores / Ano | Financiamento aprox. | Claim | Fortaleza | Fraqueza para camada cognitiva |
|---|---|---|---|---|---|---|
| Mem0 | Memory Engine | Singh, Yadav · 2023 | ~24 M$ | Memória persistente cross-app | Integrações, recall | Não modela quem você é, só o que disse |
| Supermemory | Memory Engine | Shah · 2023 | seed | Cérebro de seus aplicativos | DX limpa | Arquivador, não alfaiate |
| Memori Labs | Memory Engine | comunidade · 2024 | OSS | Memória SQL self-hosted | Soberania do dado | Curva alta, sem camada psicológica |
| Letta (MemGPT) | Memory Engine | Packer et al. · 2023 | ~10 M$ | LLM como SO com memória | Sofisticação arquitetônica | Mais paper que produto |
| Zep | Memory Engine | Maldonado et al. · 2023 | seed/Series A | Grafo temporal de fatos | Qualidade técnica enterprise | Encanamento, sem UX final |
| Cognee | Memory Engine | comunidade · 2024 | seed | Knowledge graph + memória | RAG estruturado | Foco documental, não pessoal |
| LangMem / LlamaIndex Memory | Memory Engine | frameworks | n/a | Memória dentro do framework | Inércia do framework | Atado ao framework |
| Memories.ai | Memory Engine | · 2024 | Series A | Memória de vídeo em escala | Vídeo massivo | Caso de uso muito específico |
| Personal.ai | Companion | Kanuganti · 2020 | 17,5 M$ | Sua IA pessoal | Pioneiros, propriedade de dados | Mais arquivo que retrato |
| Kin / Mykin.ai | Companion | · 2023 | seed | Companion privacy-first | Estética e discurso | Tração duvidosa, pivotes |
| Meeno | Companion | Nyborg · 2023 | 7 M$ pre-seed | Coach de relações | Junta científica séria | Mercado feio, monetização aberta |
| Meli | Companion | · 2024 | seed | Companion para mulheres | Nicho claro | Escala limitada |
| Pi (Inflection) | Companion | Suleyman · 2022 | 1.300 M$ | IA carinhosa | Calibração emocional | Empresa esvaziada por Microsoft 2024 |
| Replika | Companion | Kuyda · 2017 | várias rodadas | Seu melhor amigo IA | Escala real | Apego ansioso, moats turbios |
| Character.ai | Companion | Shazeer, De Freitas · 2022 | ~150 M$+ | Personagens infinitos | Tração adolescente brutal | Esvaziada por Google 2024, processos |
| New Computer / Dot | Companion | Yuan, Whitmore · 2023 | seed/A | Companion com história viva | Design exquisito | Produto fechado em 2025 |
| Friend.com | Companion | Schiffmann · 2024 | privado | Pingente que escuta | Statement claro | ¿Produto ou gimmick? |
| PAI (Miessler) | Companion | Miessler · 2024 | OSS | Infra pessoal aberta | Soberania total | Só para geeks |
| Granola | Companion adjacente | Pidcock et al. · 2023 | ~20 M$ | Anotações de reuniões IA | Tração executiva | Não é companion stricto sensu |
| Afini.ai | Psicometria + Camada cognitiva | Devis · Bilbao AI · 2025 | bootstrapping | Camada cognitiva pessoal cross-LLM com base psicométrica | Único em sua classe, GDPR, portabilidade real | Jovem, mercado por construir, o digo eu |
| Hogan / SHL / Korn Ferry | Psicometria incumbente | vários séculos XX | n/a | Assessments B2B | Validade clínica, normas | Ainda não se moveram a LLM |
| ChatGPT Memory | Nativa | OpenAI · 2024 | n/a | Memória nativa OpenAI | Qualidade, dashboard | Não portável |
| Claude Memory | Nativa | Anthropic · março 2026 | n/a | Memória nativa Anthropic | Cuidado, transparência | Não portável |
| Gemini Personal Context | Nativa | Google · 2025 | n/a | Contexto desde Gmail/Drive/Cal | Profundidade de fontes | É Google |
| Grok | Nativa | xAI · 2024 | n/a | Contexto desde X | Integração com X | Viés editorial |
Veja a tabela o leitor com calma e volte ao texto quando queira. A tabela é uma mentira amável, como toda tabela. Os quadrinhos não capturam os matizes e mentem todos os matizes que se omitem. Mas ajuda.
VIII. Afini.ai: a criatura própria, declarada com todas as costuras à vista
Chegamos ao capítulo que o leitor mais desperto estava esperando. Sou eu o responsável por Afini.ai, e por muito que escreva este texto de fora, escrevo, em realidade, de dentro. Vou tentar duas coisas ao mesmo tempo, que são contraditórias e por isso interessantes: contar o produto com a precisão técnica que merece e julgá-lo com a severidade que merece todo produto.
Afini.ai é produto de Bilbao AI S.L., sociedade espanhola com domicílio em Bilbao, fundada e dirigida por quem assina, Ricardo Devis Botella. A companhia nasceu com a convicção explícita de que a camada cognitiva intermediária merece produto próprio, não remendo, e a convicção algo menos explícita —mas igual de operativa— de que esse produto deve se construir com instrumentos acadêmicos validados, engenharia europeia de proteção de dados e um modelo de negócio sem trapaças (de pagamento, sem venda de dados, sem freemium mendigante).
Bootstrapping, def.: diz-se da empresa que decidiu dormir mal sem convertê-lo em manchete.
VIII.1 A psicometria, uma a uma, sem trapaças
O núcleo psicométrico de Afini o formam cinco instrumentos validados, um mapa de estilo cognitivo e um mapa estético. Não os escolhemos por estética: os escolhemos porque cada um cobre uma pergunta operativa distinta à hora de mediar entre o usuário e o LLM.
Psicometria, def.: ciência de medir o que sua sogra acredita adivinhar.
1. IPIP-NEO (Big Five, 60/120/300 ítens). É a coluna vertebral. O modelo dos cinco grandes —abertura, conscienciosidade, extroversão, amabilidade, neuroticismo— é o mais replicado da psicologia de personalidade e o menos discutido entre os psicólogos profissionais (o qual não é dizer pouco). O IPIP-NEO é a versão livre e validada do NEO-PI-R, em três extensões segundo quanto tempo você queira dedicar: 60 ítens para uma primeira foto, 120 para a operação normal, 300 para quem quer precisão clínica. Para que serve à conversa com o LLM? Para muitas coisas operativas. Um usuário alto em abertura quer que o modelo lhe proponha rotas inesperadas; um usuário baixo em abertura, quer que vá ao ponto. Um usuário alto em conscienciosidade quer pontos numerados e prazos; um baixo, conversa. Um usuário alto em neuroticismo precisa que o modelo não introduza riscos sem amortiguá-los; um baixo, os recebe sem proteção. Sem Big Five, o alfaiate tira o tamanho a olho.
Big Five, def.: cinco maneiras estatísticas de não se parecer com ninguém.
2. ECR-R (Experiences in Close Relationships – Revised). Mede estilo de apego adulto em dois eixos: ansiedade e evitação. Aqui o leitor arqueia a sobrancelha: para que quer meu chatbot saber meu apego? Pois precisamente para não se tornar uma versão sicofântica do pai que não tiveste ou da mãe que não soltou. Um usuário com apego ansioso responderá com dependência exagerada a um LLM carinhoso; um com apego evitativo, com desconfiança permanente. A camada cognitiva, conhecendo o estilo, calibra a temperatura afetiva das respostas: nem banha em mel o ansioso, nem encartoniza o evitativo. Isso, dito assim, soa a manual; em operação, marca diferença clínica.
3. HSQ (Humor Styles Questionnaire). Quatro estilos: afiliativo, autovalorizador, agressivo, autodepreciativo. O humor, em uma conversa com IA, é a diferença entre a cordialidade robótica e o falar como pessoa. Um usuário afiliativo quer piadas sociais; um autovalorizador, a ironia sobre o mundo; um agressivo, mordacidade; um autodepreciativo, cumplicidade escura. Se o LLM ignora o estilo, será engraçado no sentido em que é engraçado um MC de um congresso de seguros. Com HSQ, a conversa pega cor.
4. AVI-25 (Aspirations / Schwartz Values). O questionário curto de valores básicos de Schwartz —autodireção, estimulação, hedonismo, realização, poder, segurança, conformidade, tradição, benevolência, universalismo— mede o que motiva o usuário. Um usuário com peso em universalismo e benevolência não quer conselhos puramente eficiencistas; um com peso em realização e poder, sim. Quando o LLM escolhe que argumentos lhe dar ao usuário, sem saber seus valores, escolhe com seu próprio viés (o que carregue do treinamento). Com AVI, escolhe com os valores do usuário.
5. ZTPI (Zimbardo Time Perspective Inventory). Cinco dimensões de como o sujeito se situa no tempo: passado positivo, passado negativo, presente hedonista, presente fatalista, futuro. É o mais subestimado dos cinco, e ao mesmo tempo o que mais muda operacionalmente a conversa. Um usuário alto em futuro quer planejamento; um alto em presente hedonista, opções imediatas; um alto em passado negativo, contenção. A pendente temporal do usuário é uma das coisas mais invisíveis e das mais determinantes em como você recebe conselhos. ZTPI a mede com instrumento.
6. Mapa de estilo cognitivo e estética. Por cima dos cinco instrumentos clássicos, Afini constrói dois mapas adicionais: um de estilo cognitivo (analítico vs. intuitivo, dedutivo vs. indutivo, sequencial vs. holístico, abstrato vs. concreto) e outro estético (que referentes culturais, que registros, que imaginários). Esses não se medem com questionários fechados mas com um processo conversacional iterativo, validado contra o resto de instrumentos.
Teste de personalidade, def.: exame escrito que o aluno se coloca a si mesmo e, se tem sorte, reprova.
Por que seis eixos e não doze? Porque a fadiga de resposta, em questionários, é real, e porque cada eixo adicionado tem rendimento marginal decrescente. Por que esses seis e não outros? Porque a combinação cobre, com redundância controlada, os quatro vetores que importam: como pensa o sujeito (Big Five + estilo), como se relaciona (ECR-R + HSQ), o que quer (AVI), como se situa no tempo (ZTPI).
VIII.2 As oito camadas declarativas
Por cima da psicometria, que mede o estável, Afini pede ao usuário oito camadas declarativas, que são o verniz biográfico explícito sobre o qual se constrói a conversa. A psicometria é o corpo; as camadas declarativas, o vestiário. As enumero, não como lista, mas com ritmo próprio.
1. Canon estético. Que obras, que autores, que filmes, que arquitetos, que músicos formam o teto de seu gosto. Não para que o LLM lhe faça a corte citando-os, mas para que saiba com que referentes você se entende e com quais se aburre. Um usuário que carrega em seu canon Pitigrilli e Calasso pede outra prosa que um que carrega Coelho e Bucay. O digo sem maldade: pede outra prosa.
2. Espaço negativo. O que você não quer sob nenhum conceito. Temas vetados, palavras proibidas (resiliência, sinergia, unicórnio, brilhante, empoderamento), formatos que te repugnam (as listas com bullet points em respostas íntimas, os emojis em e-mails formais), estilos que te aborrecem (a veemência falsa, o tom coach, a pseudo-poesia corporativa). O espaço negativo é a metade do retrato e quase ninguém o desenha.
Espaço negativo, def.: metade do retrato. A que decide. A que quase ninguém inclui no brief.
3. Preferências meta. Como você prefere que o LLM se dirija a você, não no conteúdo mas na forma: tuteo ou usted, comprimento médio de resposta, densidade de parênteses, uso de aforismos, presença ou ausência de disclaimers, frequência de listas, tom geral. Há usuários que toleram (inclusive desfrutam) o cinismo; há outros que não. A camada o sabe.
4. Marco mental. Quais são os modelos mentais com os quais você habitualmente pensa o mundo: se trabalha com teoria de jogos, com Sistemas de Beer, com Adam Phillips, com a teoria da informação, com a Theory of Constraints, com Christopher Alexander. A camada, quando o sabe, fala com você em seu jargão; quando não, fala em jargão genérico.
5. Equipamento operativo. Que ferramentas você usa de verdade: editor de texto, calendário, gestor de tarefas, linguagens de programação, software de pensamento (Obsidian, Roam, Tana, Logseq), ambientes. Saber isso evita que o LLM lhe recomende, por padrão, Notion quando você já o abandonou há dois anos, ou que sugira um script em Python quando em seu contexto isso é inviável.
6. Ritmos e geografia. A que hora você trabalha, quando descansa, quando viaja, onde vive, que faixa horária, se há mudanças sazonais em sua carga. Esta camada parece banal e não é: distingue o coach que lhe propõe uma sessão às sete da noite sem saber que sete é sua hora morta do LLM que lhe propõe trabalhar às sete porque aprendeu que essa é sua hora de ouro.
7. Contexto vital. O quadro grande: em que fase da vida você está, o que muda agora, o que decidiu recentemente, o que não se discute esta temporada. Não se discute com tom terapêutico; se contém como informação operativa. Se o usuário perdeu seu pai o mês passado, a camada o sabe e modula sem que você tenha que repetir em cada thread.
8. Trajetória intelectual. Por onde você vem e para onde tira: que livros marcaram sua juventude, que aprendizados recentes lhe moveram a cabeça, que obsessões carrega, que projetos longos carrega. Este é o eixo mais narrativo dos oito, e o que mais custa, não porque seja tecnicamente complicado mas porque obriga o usuário a se contar.
As oito camadas, juntas, se editam em qualquer momento. Não são imutáveis. São a declaração explícita do sujeito, distinta e complementar da inferência psicométrica.
Declaração, def.: no civil, o que alguém assume como verdade sob ameaça de pena; no cognitivo, o que alguém assume como verdade sob ameaça de tamanho equivocado.
VIII.3 AfiniTwin v2: o alfaiate dentro da alfaiataria
Sobre a psicometria e as oito camadas, Afini constrói AfiniTwin v2: um retrato cognitivo operativo, vivo, exportável e auditado. O descreverei com quatro componentes.
Vinte e cinco eixos transversais. Não são seis, não são oito. São vinte e cinco vetores derivados, calibrados a partir da psicometria e das camadas, que descrevem como o sujeito processa, decide, comunica, tolera, evita, valoriza, ironiza, planeja. Por exemplo: tolerância à ambigüidade, densidade preferida de informação, ratio formal/informal, sensibilidade à sicofancia (sim, existe, e se mede), apetite pela dissonância cognitiva, preferência pelo exemplo concreto vs. o modelo abstrato, latência tolerada, etc. A virtude do conjunto não é a quantidade mas a calibração cruzada: cada eixo se valida contra os demais, e os pontos de inconsistência se resaltam em lugar de se achatarem.
Peso temporal. Nem tudo que o sistema aprendeu sobre você pesa igual. O que você disse há três anos pesa menos que o que disse na segunda-feira. O peso temporal é uma função explícita e editável: você pode dizer este aprendizado já não me representa e o sistema o decai com curva conhecida, não o apaga nem o silencia. É o equivalente à borracha suave: deixa rastro, mas não impõe.
Esquecimento, def.: forma sofisticada da fidelidade. Esquecer mal é trair o presente; esquecer bem, respeitá-lo.
Detecção de deriva. O sistema vigia, em cada interação, se o sujeito está mudando ou só se contradizendo pontualmente. Se detecta uma deriva sustentada —mudança de valores, de contexto vital, de interesses— ativa uma conversa com o usuário sobre a deriva, não uma mudança silenciosa do modelo. A frase-chave é: acredito que algo mudou em você, quer que o recolha? A diferença com um companion sicofântico é exatamente essa: o companion incorpora a deriva sem pedir permissão, reforça o novo eu e enterra o velho; AfiniTwin pergunta.
Painel de descobrimentos auditável. Toda inferência que o sistema faz sobre o usuário aparece em um painel: o que aprendeu, de onde, com que confiança, quando. O usuário pode aprová-lo, matizá-lo, apagá-lo, congelá-lo. Não há caixa negra. O painel é lento de manter e caro de engenharia; é também o que permite, juridicamente e eticamente, que o sistema aprenda sem engano.
Caixa negra, def.: contêiner no qual a empresa guarda seu viés e o usuário sua confiança. A camada cognitiva sem painel auditável é uma caixa negra com relações públicas.
VIII.4 Portabilidade cross-LLM e soberania do sujeito
AfiniTwin se exporta em JSON padrão, portável a qualquer LLM que aceite contexto em linguagem natural (ou seja, todos). O usuário, formalmente, possui o documento. O pode levar a ChatGPT, a Claude, a Gemini, a Grok, a Mistral, a um modelo self-hosted. A camada de Afini não funciona como amarração mas como tradutor. Esta decisão —que muitos consideram comercialmente suicida— é a decisão chave do produto. A camada cognitiva, se tem que viver ou morrer, deve viver ou morrer pelo valor que acrescenta ao sujeito, não pelo refém que retém.
Portabilidade real, def.: quando o cliente se vai com sua bagagem sem ter que pedí-lo por escrito em três ocasiões.
Dados na União Europeia. Cumprimento GDPR estricto, EU AI Act, ISO em preparação. Eliminação automática de transcrições a 90 dias: o que o sistema aprendeu fica em forma estruturada (no twin); o verbatim, não.
VIII.5 Modelo de negócio: planos e preço
A economia do produto é deliberadamente simples, sem trapaças freemium. Três planos e um produto adicional independente. Preços em euros, pensados para Europa.
- Essential — ao redor de 14,99 €/mês. Big Five (60 ítens), três das oito camadas declarativas, AfiniTwin básico, exportação JSON. Para o usuário que quer melhor conversa com seu LLM sem entrar em clínica.
- Premium — ao redor de 29,99 €/mês. As cinco baterias psicométricas completas, as oito camadas, AfiniTwin v2 com detecção de deriva, painel auditável. Para o usuário que se toma a sério a camada cognitiva.
- Professional — ao redor de 49,99 €/mês. Tudo anterior mais exportação enriquecida, integrações específicas com stack profissional, suporte prioritário. Para profissionais que vivem em LLMs como ferramenta diária.
- AfiniTwin standalone — ao redor de 249 € como produto independente. Um retrato cognitivo completo, exportável, sem assinatura mensal. Pagamento único. A opção para o usuário que quer o documento e não a conversa.
Assinatura, def.: contrato segundo o qual o cliente paga todos os meses pelo privilégio de não ter lido a letra pequena.
Não vendemos dados. Não temos publicidade. Não há camada de afiliação com LLMs. A fatura sai exclusivamente do usuário, o qual é, neste setor e neste ciclo, uma declaração política tanto quanto comercial.
IX. Objeções honestas a Afini, respondidas sem coreografia
Chegado a este ponto, o leitor cético —que é o leitor que importa— terá acumulado objeções. As antecipo e respondo. Não diplomaticamente: francamente.
Objeção 1: «Isto é um teste de personalidade caro vestido de software».
Resposta: seria se o produto terminasse no PDF. Não termina aí. A psicometria é a entrada, não o produto. O que se vende é a mediação operativa em cada conversa com um LLM, sustentada pelo twin que se atualiza. Se tudo que recebesses fosse um informe Big Five, terias razão ao pagar 14,99 € exatamente zero vezes. Recebe algo distinto: uma camada que reordena sua conversa com qualquer modelo a partir desse conhecimento. A diferença entre um e outro é a mesma que entre se tomar uma analítica e ter um médico de família: o papel só não é nada.
Objeção 2: «O que impede que um usuário faça isto a mão com um system prompt bem redigido e um PDF?».
Resposta: nada. De fato, dedicarei uma seção inteira à alternativa DIY, porque a proponho em sério. O que tem um system prompt a mão é a fragilidade do usuário: não há psicometria validada (o que o usuário acredita de si mesmo não coincide com o que é), não há atualização temporal com peso decrescente, não há detecção de deriva, não há painel auditável, não há portabilidade estruturada (cada modelo lê distinto). O DIY é uma excelente versão 0.5 do produto, não uma substituição. Se ao leitor lhe basta o 0.5, o poupa 14,99 €/mês com gosto.
Objeção 3: «A psicometria é estável, os humanos não. Não estão vendendo um retrato congelado?».
Resposta: bem observado. Essa é exatamente a razão pela qual o twin tem peso temporal e detecção de deriva, não uma foto fixa. E, no entanto, também há que dizê-lo: os traços do Big Five são razoavelmente estáveis ao longo da vida adulta —as mudanças são lentas, não caprichosas—, e os valores, o apego ou a perspectiva temporal mudam, sim, mas em arcos de anos, não de dias. O humano muda, sim; muda menos do que seu Twitter sugere.
Mudança pessoal, def.: lentidão que o sujeito vive como velocidade. A psicologia leva um século medindo-a e a rede social leva vinte anos negando-a.
Objeção 4: «Estão construindo um produto para uma élite cognitiva: quatro mil pessoas na Europa que saibam apreciar a diferença entre um LLM bem calibrado e um mal calibrado».
Resposta: parcialmente certo. O mercado total a 2026 não é de massas. É o mercado de quem usa LLMs quatro horas por dia e nota a fricção do tamanho único. É o profissional, o criador, o operador, o clínico, o executivo, o acadêmico, e, em menor medida, o usuário avançado curioso. Calculamos um mercado europeu de centenas de milhares, não de milhões. Não vendemos a todo o mundo e não o necessitamos para que o negócio quadre.
Objeção 5: «Se os gigantes —OpenAI, Anthropic, Google— melhoram suas memórias nativas e acrescentam psicometria, o comem».
Resposta: provável parcialmente, improvável totalmente. Os gigantes não acrescentarão psicometria validada com instrumento acadêmico, por uma razão estrutural: as expõe a regulação clínica que não querem tocar (a psicometria séria, em muitos países, é exercício profissional regulado). Podem acrescentar sinais blandos —e o farão— mas não IPIP-NEO com scoring estandarizado e exportação. Além, não têm incentivo para portabilidade cross-LLM: a sua é amarração por design. Se o leitor pensa que Google lhe oferecerá um perfil exportável a ChatGPT, lhe invejo o otimismo.
Objeção 6 (de presente): «Por que confiar em uma empresa pequena espanhola com dados psicométricos?».
Resposta: por duas razões operativas e uma política. Operativa primeira: GDPR e EU AI Act são lei, e uma empresa espanhola joga sua existência em cumpri-las; um ator americano joga sua existência em escalar e se permite multas de centenas de milhões como um gasto operativo. Operativa segunda: o twin é exportável. Se a empresa cai ou muda de mãos, o usuário se vai com seu retrato. Política: porque o modelo americano de extração foi suficientemente humilhante durante quinze anos para que tenha sentido construir uma alternativa europeia, e Bilbao é um sítio razoável para fazê-lo.
Confiança, def.: vínculo que se estabelece com quem tem mais a perder que você se o rompe.
X. O bricolage: se não quer pagar a ninguém
Antes de fechar, uma seção honesta para o leitor da objeção 2: o bricolage é viável. O descrevo sem ironia e sem promoção cruzada.
Você precisa de três coisas e uma disciplina. As três coisas são:
Um retrato escrito. Um documento de umas 2.000-4.000 palavras, redigido por você, que descreva: seu Big Five (você pode fazer o IPIP-NEO de 60 ítens on-line, grátis, em trinta minutos, em sítios acadêmicos como ipip.ori.org), seu estilo de apego (ECR-R também disponível), seus valores (Schwartz), sua perspectiva temporal, seus referentes culturais, suas alergias estilísticas, suas ferramentas, sua fase vital. Não é trivial: poucos o redigem bem na primeira tentativa. O redige, o deixa repousar uma semana, o edita. O guarda em Obsidian, em Notion, em um .md qualquer.
Um system prompt destilado. A partir do retrato, um prompt de umas 800-1.500 palavras, otimizado para injeção ao início de cada conversa. Esse system prompt é o documento que cola, copia, ou configura como personalidade por padrão em cada LLM que usa. Há quem o guarde como Custom Instruction em ChatGPT, como system prompt em Claude Console, como prompt inicial em Gemini.
Uma rotina de atualização. A cada três ou seis meses, você revisa o retrato, o atualiza, o destila de novo. Se sua vida muda (mudança, ruptura, ascenso, duelo, filho, despedimento, livro, doença), o atualiza antes.
A disciplina é a rotina de atualização. Quase ninguém a mantém. A razão pela qual um produto como Afini cobra é que internaliza essa disciplina como infraestrutura.
Bricolage, def.: opção do que tem tempo ou do que tem ofício. Se não tem nem um nem outro, pague o alfaiate.
Para o leitor geek com vocação de soberania, recomendo combinar o bricolage com um memory engine self-hosted (Memori Labs, por exemplo) ou com a infraestrutura PAI de Daniel Miessler. É trabalhoso, é elegante, é livre, é lento. E é, em minha opinião sincera, uma das maneiras corretas de habitar este momento.
XI. Apêndice impertinente: definições que não couberam acima
Como prometi entre doze e vinte definições tipo Bierce, e temo ter ficado às portas, passo aqui as que não encontraram espaço natural no corpo do texto. O leitor as absolva ou as acuse, segundo prefira.
Demo, def.: poema épico em presente subjuntivo. Quando se vê, não funciona; quando funciona, não se vê.
Roadmap, def.: gênero literário fantástico dos séculos XX e XXI, derivado do bestiário medieval. Cada criatura do mapa promete ter escamas, asas e servir cervejas; poucas as têm.
Founder, def.: aquele que confundiu a insônia com o método e ainda não pagou o pedágio.
Produto, def.: substantivo masculino com o qual se nomeia uma promessa até que cobra IVA.
Privacidade, def.: virtude que se predica segundas-feiras e se leiloa terças-feiras. Na UE, além disso, é lei.
GDPR, def.: amuleto europeu contra o espírito santo do extrativismo. Funciona 60% dos dias, o qual, em amuletos, é recorde.
Personalização, def.: arte de fazer crer ao cliente que o espelho lhe devolve um retrato seu. A boa personalização o faz de verdade; a má, também lhe cobra.
Inversor, def.: substantivo comum. Pessoa que não quer comprar seu produto mas sim sua empresa, geralmente porque lhe sai mais barato.
Rodada de financiamento, def.: cerimônia em que vários senhores convencem a outros senhores de que o rei vai vestido. Se brinda com champagne francês ou, em seu defeto, com cava catalão.
Confidente, def.: aquele que sabe o suficiente para acertar na primeira. Categoria em extinção, de pagamento ou de algoritmo.
Alfaiate, def.: artesão que acredita na singularidade do cliente. Categoria também em extinção, substituída pela talla M e, agora, pela camada cognitiva.
XII. Fechamento: o alfaiate cognitivo
Titulei o artigo O alfaiate cognitivo e demorei em explicar o título, o que é, segundo escola, virtude ou defeito. O explico ao final, que é onde corresponde.
Um alfaiate, o de verdade, faz três coisas. Toma medidas, que em seu caso são objetivas (largura de ombro, comprimento de manga, contorno de peito) e subjetivas (o cliente caminha assim, suda em excesso, prefere dois botões a três, odeia o bolso de peito). Conserva o padrão, que é o documento mestre ao qual volta toda vez que o cliente pede outra peça. E medeia entre o cliente e a matéria-prima: o cliente não sabe de panos, o alfaiate sim; o cliente sabe o que lhe fica bem, o alfaiate o traduz.
Um bom alfaiate, além disso, faz uma quarta coisa que é a que distingue o artesão do artesão excelente: quando o cliente engorda, emagrece, envelhece, muda de ofício ou de país, ajusta o padrão. Não joga o velho fora. O modula. E, fundamental: se o cliente decide mudar de alfaiate, o cliente se vai com seu padrão.
A camada cognitiva intermediária entre você e os modelos de linguagem é exatamente isso. Um alfaiate. Alguns vendem fio e agulha (os arquivadores), alguns vendem companhia de provador (os companion), alguns vendem fita métrica calibrada e padrão com peso temporal (os psicómetras sérios), alguns vêm com a alfaiataria já montada em um centro comercial gigante e lhe oferecem um traje passável a mudança de não sair de seu centro comercial nunca mais (as memórias nativas).
A cada leitor lhe tocará escolher, segundo seus meios, seu ceticismo, sua preguiça e sua afição ao bricolage. Tentei, nessas páginas, dizer o que sei sem disfarçar que vendo trajes; tentei também descrever as alfaitarias alheias sem caricaturar mais do necessário, o qual é a mínima decência profissional.
O que me parece intolerável, isso sim, não é escolher mal. É não escolher. É seguir falando com um improvisador genérico, esplêndido e ligeiramente sicofântico, e se maravilhar toda segunda-feira de que não se lembre de que ia tudo sexta-feira anterior; e viver essa amnésia como destino tecnológico quando é, simplesmente, uma decisão de produto.
Se o leitor leu até aqui, já fez metade do trabalho. A outra metade —escolher alfaiate, ou ser seu próprio alfaiate— lhe toca a ele. Eu, por minha parte, sigo ao meu, que é coser.
Ricardo Devis · Bilbao.AI · Afini.ai 4 de maio de 2026