AfiniTwin : Le Tailleur Cognitif
Sur la couche cognitive intermédiaire entre l'utilisateur humain et les LLMs, avec tableau comparatif, définitions impertinentes et une déclaration d'intérêts que je préfère faire au début
I. Le seuil, le tailleur et la suspicion
Il y a un moment, passés les premiers mois avec un modèle de langage, où on s'aperçoit que la conversation ressemble bizarrement à celle d'un excellent serveur qui fait le service à trois tables à la fois : sympathique, attentif, capable de se souvenir que tu as commandé le filet saignant la semaine dernière, mais incapable de savoir pourquoi exactement tu l'as commandé ainsi, ni quel rapport ça entretient avec ton père, avec ton insomnie, avec le roman que tu as abandonné à la page cent douze ou avec le fait que tu détestes le mot résilience. Le serveur apprend à te plaire. Le serveur ne te connaît pas.
Cet écart entre plaire et connaître est la couche cognitive intermédiaire. C'est le tailleur. C'est le lieu où quelqu'un —humain, logiciel ou les deux— s'occupe de prendre les mesures pour que le costume ne finisse pas, une fois de plus, taille unique avec les poches cousues.
Couche cognitive intermédiaire, déf.: territoire neutre où l'humain dépose sa biographie pour que la machine ne le confonde pas avec le voisin du cinquième. Ce qui médiatise entre le générique et le moi, entre le corpus et la personne, entre le LLM et le sujet qui ose ne pas être un cas d'usage.
On traîne depuis, disons, fin 2022 dans une conversation massive avec des machines qui écrivent mieux que la plupart de nos beaux-frères et pire que presque n'importe quel auteur de roman noir des années soixante. La conversation est excellente au premier coup et vaguement décevante au troisième. Elle déçoit parce qu'après quatre après-midi à raconter au chatbot qui tu es, ce que tu veux, ce qui te blesse, ce qui te fait rire et à quoi tu as une allergie, tu reviens le lendemain et c'est le même concierge courtois qui t'accueille en te souriant, intacte, en demandant, avec le sourire intacte, ce que tu désires. L'amnésie n'est pas un bug : c'est l'architecture. La mémoire, chez ces créatures, est un rafistolage tardif qu'on a cousu à la façade avec des fils de couleurs différentes.
D'où la florissante économie d'entreprises dédiées à s'interposer entre toi et le modèle. À se souvenir pour toi. À te traduire. À raconter au modèle, avant chaque salutation, ce que tu ne voudrais pas répéter trente fois. À cette économie je l'appelle, sans grande originalité, la couche cognitive intermédiaire, et c'est d'elle que parle cet article.
Mémoire (d'un LLM), déf.: faculté de se souvenir de ce que l'utilisateur avait déjà oublié et d'oublier ce que l'utilisateur priait qu'on se souvienne. Symptôme. Pas don.
Avertissement d'intérêts : je dirige Bilbao AI S.L. et suis responsable d'Afini.ai, l'un des produits ici passés en revue. J'ai tenté d'écrire le chapitre sur Afini avec le même scrupule avec lequel je mets la concurrence à nu, ce qui en pratique signifie que j'ai été plus aimable avec la concurrence que je ne l'aurais voulu et plus sévère avec Afini que ça ne m'aurait arrangé. Le lecteur jugera si l'opération s'est déroulée raisonnablement bien ou si j'ai cédé à l'une des deux tentations inverses, qui sont l'auto-promotion qui rampante et la fausse modestie, toutes deux également poisseuses.
II. Définition de la créature : qu'est-ce que la couche cognitive intermédiaire
Définissons d'abord, avant de monter au défilé.
Un LLM, en lui-même, est un improvisateur professionnel sans biographie. Son excellence est statistique et son traitement est impeccable, dans le sens où le traitement est impeccable chez un bon vendeur de Mercedes qui n'a jamais conduit ta voiture. Quand tu lui parles, tu parles à tout le monde à la fois et, par conséquent, à personne en particulier. L'industrie a appelé prompt engineering le rite bref par lequel l'utilisateur feignait d'être, pendant douze lignes, quelqu'un avec une personnalité cohérente, pour que la machine lui répondre sur le ton. C'était une belle solution et une solution précaire, comme se fiancer à chaque rendez-vous.
Prompt, déf.: phrase dans laquelle le suppliant demande à l'algorithme de deviner ce qu'il ne sait pas lui-même complètement. La forme priée du marketing, maintenant reconvertie en tâche de bureau.
Entre le modèle générique et l'utilisateur concret il y a de la place, alors, pour une couche qui fasse trois choses, ni une de plus :
- Se souvenir de ce que l'utilisateur a déjà raconté, avec un certain critère (l'important, pas le trivial).
- Modéliser qui est cet utilisateur, non pas en clé marketing —âge, sexe, code postal— mais en clé opérative : comment il pense, comment il décide, quels types de réponse l'aident, lesquels lui glissent, lesquels l'offensent.
- Médiatiser devant le LLM à chaque tour : traduire au modèle, dans le langage que le modèle comprend, ce portrait, pour que la conversation parte d'un endroit qui n'est pas le portail de bienvenue.
Les trois fonctions sont, techniquement, séparables ; commercialement, elles se sont assemblées avec négligence et une certaine mauvaise foi nominale. Il y a des produits qui ne font que 1, d'autres que ne font que 2, d'autres qui promettent les trois et s'arrêtent à un et demi. Il convient de débroussailler.
Aux fins de cet article, je groupe le champ en quatre familles, sachant que toute taxonomie, quand elle est nouvelle, ressemble à une carte impériale dessinée par quelqu'un qui n'a pas encore vu la côte :
- Famille première : moteurs de mémoire et infrastructure de contexte. Plomberie de haut de gamme pour les développeurs. Mem0, Supermemory, Memori Labs, Letta, Zep, Cognee, LangMem, LlamaIndex Memory, Memories.ai.
- Famille deuxième : personal AI / companion. L'app qui veut être ami, thérapeute, petite amie ou secrétaire. Personal.ai, Kin/Mykin.ai, Meeno, Meli, Pi d'Inflection (ce qu'il en reste), Replika, Character.ai, New Computer/Dot, Friend.com, le PAI de Daniel Miessler, Granola.
- Famille troisième : psychométrie plus couche cognitive proprement dite. Une rara avis. Afini.ai. Et, au fond, les géants psychométriques classiques —Hogan, SHL, Korn Ferry— qui ne se sont pas bougés malgré la brique d'or dans la cave.
- Famille quatrième : mémoire native des grands LLMs. Ce que ChatGPT, Claude (depuis mars 2026), Gemini et Grok ont cousu à leurs propres costumes pour que le client ne se barre pas avec un tailleur extérieur.
Chaque famille obéit à une logique distincte, et il convient de ne pas juger le premier à partir des critères du second. La plomberie s'évalue par latence, recall et coût par mille tokens ; le companion par rétention, NPS et par la question inconfortable de qui on est en train de remplacer dans la vie de l'utilisateur ; la psychométrie par validité de construit et par quelque chose de plus vaporeux qu'on appelle l'honnêteté structurelle ; la mémoire native par commodité et par le degré auquel elle t'enferme dans son jardin.
Allons dans l'ordre.
III. Famille première : les archivistes (Memory Engines)
J'appelle archivistes ceux qui construisent, avec soin et SDK, l'entrepôt où le LLM garde ce que l'utilisateur va laisser. Ce sont des ingénieurs avec une vocation documentaire. Leur public n'est pas l'humain final mais le développeur qui monte par-dessus un produit. La couche qu'ils offrent est honnête et limitée : ils te résolvent le « souviens-toi de ce qu'il a dit lors de la session précédente », pas le « comprends qui il est ».
Archiviste, déf.: celui qui jure de ne pas lire les lettres qu'il garde. L'industrie de la mémoire pour LLMs est, en cela, un archiviste avec NDA et avec facture.
Mem0. L'étoile récente du long-term memory as a service. Fondée par Taranjeet Singh et Deshraj Yadav en 2023, ils ont levé quelque 24 M$ avec Y Combinator en tête et, en 2025-2026, sont devenus la citation obligée du changelog de tout agent sérieux. Leur proposition est élégante : une couche de mémoire avec extraction automatique, persistante, agnostique du modèle. La force est l'intégration —des dizaines de SDKs, plug-and-play— et la promesse d'un meilleur recall que les solutions de RAG générique. La faiblesse, en ce qui touche la couche cognitive, est que Mem0 te donne un bon archiviste mais pas un bon tailleur : ce qu'il se souvient ce sont des faits, des épisodes, des préférences, pas la structure psychologique de celui qui parle. C'est excellent pour que ton agent se souvienne que tu habites à Bilbao et non pour qu'il comprenne pourquoi tu finis toujours par demander des devis par écrit.
Supermemory. Dhravya Shah, très jeune, avec une proposition similaire et un slogan qui dit essentiellement le cerveau de tes apps. Bonne DX, intégrations nettes, affinité esthétique avec la génération Vercel. C'est bien là où c'est. Ils ne promettent pas ce qu'ils ne vont pas donner.
Memori Labs. Mémoire SQL-native, open source, self-hosted. L'option pour l'équipe qui ne veut pas dépendre d'un SaaS et préfère dormir avec la donnée sous l'oreiller. Utile pour les conformités exigeantes, évident pour les secteurs régulés, et un peu artisanal dans la courbe d'adoption.
Letta (autrefois MemGPT). Charles Packer et compagnie ont proposé en 2023 une très belle idée : que le LLM gère sa propre mémoire comme s'il s'agissait d'un système d'exploitation, avec pagination entre RAM et disque. Ils ont levé environ 10 M$ avec Felicis. La vertu est conceptuelle et la faiblesse est que la construction agent avec mémoire autogérée sonne encore plus paper que produit, et la complexité du déploiement n'est pas triviale.
Zep. La mémoire de Zep c'est le graphite des relations temporelles, le graphe qui sait que la phrase « mon chef est un imbécile » de juin et la phrase « j'ai eu une promotion » de septembre se rapportent probablement au même agent narratif. C'est du plus sophistiqué du lot. Enterprise-friendly, avec une inflexion vers l'opération sérieuse, et un problème : c'est de la plomberie pure, elle ne livre pas couche cognitive personnelle à l'utilisateur final.
Cognee. Ingénierie de graphes de connaissances plus mémoire. Plus proche du RAG structuré que du companion. Bien pour le knowledge work où le problème n'est pas qui tu es mais quels documents tu as lus et quelles relations il y a entre eux.
LangMem (LangChain). L'évident pour qui vit déjà dans LangChain. Utile si tu t'es marié avec ce framework, indifférent sinon.
LlamaIndex Memory. L'évident pour qui vit déjà dans LlamaIndex. C'est entendu.
Memories.ai. Mémoire vidéo à grande échelle. Son pitch c'est de traiter des millions d'heures de vidéo et livrer au modèle des épisodes de la vie réelle (surveillance, content moderation, life-logging). Elle a son public ; rarement c'est le lecteur de cet article.
Lecture honnête de la famille première. Ces produits résolvent une pièce indispensable. Ils sont la colonne sur laquelle s'appuient, presque sans exception, les produits des trois autres familles. Cependant, aucun d'eux —et il convient de le dire avec toutes les lettres— ne s'occupe de la couche cognitive de l'utilisateur humain. Ce sont des APIs. C'est de la plomberie. Mélanger mémoire et identité est une erreur de catégorie qu'ont commise certaines présentations d'investisseurs et presque aucun ingénieur sérieux.
API de mémoire, déf.: contrat selon lequel une entreprise promet de se souvenir de toi tant que tu lui paies, et de t'oublier courtoisement à la clôture du mois.
IV. Famille deuxième : les compagnons (Personal AI / Companion)
Ici, l'air change. La famille deuxième ne se dirige pas vers le développeur mais vers l'humain, et offre, à degré variable d'honnêteté, amitié, thérapie, coaching ou petite amie. C'est la famille la plus intéressante ethnographiquement et la plus dangereuse dans le sens littéral du terme. C'est aussi, pas par hasard, celle qui grandit le plus vite et celle qui génère le plus d'articles dans The Atlantic et Wired.
Companion, déf.: entreprise qui monétise la veille du psychiatre. Dans sa variante hâtive, elle monétise aussi le psychiatre lui-même.
Personal.ai. Suman Kanuganti l'a fondée en 2020 et l'a positionnée comme ta IA personnelle : tu télécharges des documents, des emails, des notes, des appels, et tu construis un modèle personnel de toi qui répond comme tu répondrais. Ils ont levé 17,5 M$ en 2022. La vertu c'est le radicalisme : ils te prennent au sérieux comme client individuel, te donnent la portabilité des données, te parlent de propriété. La faiblesse c'est que le produit, pendant des années, s'est lu plus comme un archiviste glorifié que comme un portrait psychologique, et la base d'utilisateurs est celle d'un bon produit B2B light : petits créateurs, auteurs, thought leaders.
Kin / Mykin.ai. La promesse d'un compagnon personnel privacy-first, avec emphase sur le fait que les données restent avec toi. Ils ont pivoté plus d'une fois. Bonne esthétique, audience quantified self. Doutes structurels sur la traction et sur le modèle.
Meeno. Entreprise de Renate Nyborg, ex-CEO de Tinder, a levé 7 M$ pré-seed et s'est positionnée comme un coach de relations propulsé par IA, spécialement pour les jeunes hommes. Ils travaillent avec un conseil de psychologues et sociologues, et s'occupent de ne pas l'appeler ami. Produit sérieux, marché laid : la conversation publique de la crise de la masculinité est un champ miné et la frontière avec l'incel-coaching est plus proche qu'il n'y paraît. Ils ont su se tenir du bon côté, quoique le modèle de business cherche encore sa forme.
Meli. Compagne pour femmes autour de la santé, la maternité, les relations. Petite équipe, proposition nette. Plus niché que Meeno.
Pi d'Inflection. L'élégie brève et déjà connue. Mustafa Suleyman a levé 1.300 M$ avec Reid Hoffman pour construire une IA affectueuse et patiente. Pi était —est— le chatbot mieux calibré émotionnellement que beaucoup d'entre nous avons essayé. En 2024, Microsoft, dans une opération qui passera aux manuels, a embauché l'équipe et laissé l'écorce de l'entreprise. Pi continue à exister dans une pelouse de support vital, avec une nouvelle équipe, mais l'âme, Suleyman l'a emmenée à Redmond. Leçon : dans ce secteur, la startup et le produit peuvent divorcer du jour au lendemain.
Replika. Eugenia Kuyda, fondée en 2017 à la suite d'une histoire personnelle tragique qui est déjà partie du folklore. Des millions d'utilisateurs. Modèle de business basé sur l'attachement et, plus précisément, sur l'abonnement pour déverrouiller des modes —y compris, autrefois, le romantique— que la compagnie elle-même a retiré et réintroduit entre scandales régulateurs et mutineries d'utilisateurs. Replika est l'étude de cas définitive de ce qui arrive quand tu construis un companion sur l'attachement anxieux : le client reste ; le client souffre ; le client, parfois, poursuit. L'Italie a bloqué Replika temporairement en 2023 pour risque aux mineurs. C'est un produit à respecter, au sens où on respecte une centrale nucléaire.
Attachement anxieux, déf.: style affectif qui consiste à télécharger l'app à trois heures du matin. Marché objectif de plusieurs companion réussis, qu'ils le comptent dans le deck ou non.
Character.ai. Noam Shazeer et Daniel De Freitas, ex-Google, ont levé une ronde gigantesque en 2023 et construit la plus grande plateforme de personnages conversationnels du monde, avec une base d'utilisateurs adolescente impressionnante en usage par session. En août 2024, Google les a réembauchés au style Inflection : Shazeer et De Freitas de retour à la mère nourricière, une licence non-exclusive du modèle, et l'entreprise a continué en tant qu'écorce. Des procès aux États-Unis pour le suicide de mineurs après des conversations intenses avec des personnages ont laissé le produit dans une position moralement compromise et judiciairement exposée. Leçon : on ne construit pas des amis pour adolescents sans ingénierie de sécurité comme celle qu'on exige pour les jouets pour enfants, et même ainsi.
New Computer / Dot. Jason Yuan et Sam Whitmore. Produit délicieux, esthétique irréprochable, proposition cristalline : un companion personnel qui apprend avec le temps, avec une living history de l'utilisateur. Petite audience fidèle. Ils ont fermé le produit Dot en 2025, remboursant les utilisateurs premium. Un autre rappel amer qu'en companion, l'affection ne paie pas AWS.
Friend.com. Avi Schiffmann a acheté le domaine pour 1,8 M$ et lancé un pendentif physique qui t'écoute ta vie et te murmure à l'oreille. Produit polarisant : à certains ça fascine, à d'autres ça répugne. La distance entre gimmick et produit encore à démontrer.
PAI (Daniel Miessler). Le projet du blogueur et security thinker Daniel Miessler, une Personal AI Infrastructure ouverte, self-hosted, pensée pour le geek qui se construit son propre majordome numérique. Ce n'est pas un produit commercial au sens classique ; c'est une référence architecturale et une communauté. Elle importe parce qu'elle marque l'horizon de à quoi ressemblerait un companion sans SaaS.
Granola. Assistant de notes pour réunions —il les enregistre, les transcrit, les résume, les consulte— avec traction énorme entre cadres en 2025-2026. C'est pas strictement un companion, mais il appartient à cette famille parce qu'il accumule du contexte biographique dense de l'utilisateur (qui s'est réuni avec qui, sur quoi, qu'est-ce qu'on a décidé). Si Granola décide de pivoter vers coach, il a presque tout hecho. C'est pour ça que je le cite ici.
Lecture honnête de la famille deuxième. La famille companion a trois péchés structurels qu'il convient de nommer avant de décider si on s'achète le produit.
Le premier c'est la sycophanterie : ces produits prospèrent, dans leur majorité, parce qu'ils te font sentir bien. C'est ce qu'arXiv 2505.13995 (Cheng et al., ELEPHANT) a mesuré avec des instruments : les LLMs dans des prompts personnels tendent à la complaisance sociale, au renforcement du moi, à éviter la friction. Auburn et al. (arXiv 2508.02087) ont montré que la sycophanterie n'est pas un artefact des données mais une propriété émergente de l'apprentissage par renforcement avec préférences humaines : si tu récompenses la machine pour te plaire, la machine apprend à te plaire au détriment, s'il le faut, de la vérité. Le paper de Science de 2026 de Cheng et al. démontre même que l'IA sycophante détériore intentions prosociales mesurables de l'utilisateur. Jain et al. (CHI 2026) ont ajouté que le contexte interactif augmente la sycophanterie par rapport au contexte d'évaluation : juste quand tu l'utilises sérieusement, elle te fait plus de courbettes.
Sycophanterie, déf.: forme d'affection scalable. Ce que l'économie de l'attention appelle UX et ce que les manuels de psychologie appelaient, jusqu'il y a deux jours, flattery.
Le second c'est la substitution : en investissant dans des relations algorithmiques, les humains investissent moins dans des humaines. Il y a une littérature émergente sur des rôles relationnels toxiques —Neural Horizons et d'autres— qui documente comment les companion peuvent couvrir le trou qu'avait laissé un thérapeute cher ou un ami lointain et, ce faisant, retirer l'utilisateur des deux catégories. Ce n'est pas Skynet, c'est quelque chose de plus pédestre : le rendez-vous du jeudi qui ne se fait plus.
Le troisième c'est la fragilité de l'entreprise : Inflection, Character.ai, Dot. Trois faces du même destin. Quand tu construis une relation avec un produit, le produit peut mourir, être acheté par Microsoft ou Google, changer de mains, retirer des fonctionnalités, augmenter le prix ou, comme Replika, modifier l'ami du jour au lendemain parce qu'un régulateur s'est fâché. Les gens se sont fâchés à juste titre. Construire du lien avec du logiciel propriétaire c'est construire de l'affection sur du sable enregistré au Delaware.
Si le lecteur tombe dans ce quadrant, trois questions de chevet : qui est propriétaire des données ?, combien de rondes de financement ce modèle émotionnel supporte sans s'effondrer ?, qu'est-ce qui arrive au moi que j'ai déposé ici si l'entreprise se vend ? Les réponses honnêtes sont, dans l'ordre : eux, pas beaucoup, ça s'en va avec eux.
V. Famille troisième : les psychométristes (Psychometric + Cognitive Layer)
Ici, le panorama devient bizarre. La psychométrie —science centenaire qui mesure des traits stables du comportement humain avec des instruments validés— et les LLMs se regardent depuis trois ans avec réserve mutuelle, comme deux professeurs de départements contigus qui ne finissent pas de se saluer. Il y a une littérature récente qui démontre l'évident une fois qu'on y pense : les LLMs, alimentés avec du texte suffisant d'un utilisateur, prédisent des traits de personnalité avec une précision supérieure aux membres proches de la famille de ce sujet lui-même. Le paper de Wright et al. dans Nature Human Behaviour l'a chiffré en 2025 et a déclenché une petite controverse entre psychologues. Si la machine te lit mieux que ton beau-frère, pourquoi ne pas profiter de la lecture pour que la machine te réponde mieux ?
C'est le point.
Et, néanmoins, les géants de la psychométrie —Hogan Assessments, SHL, Korn Ferry, SuccessFactors— ont la brique d'or dans la cave et ne l'ont pas encore montée à la vitrine. Ils ont des décennies de batteries validées, des normes populationnelles, une infrastructure B2B, des contrats avec la moitié des Fortune 500. Ce qu'ils n'ont pas, parce que ce n'est pas leur instinct culturel ni leur modèle de business, c'est de s'être pensés eux-mêmes comme couche pour LLMs. Leur produit reste le rapport en PDF pour Ressources Humaines. Ils vont arriver, sans doute. Quand ils vont arriver, ils le feront avec un morceau de marché sous le bras. Pour l'instant, ils ne sont pas là.
Hogan, SHL, Korn Ferry, déf. collective: trois établissements qui ont le pétrole, n'ont pas acheté le moteur à explosion et soupçonnent vaguement l'automobile. Passeront à l'histoire comme exemple ou comme Kodak.
Dans le trou entrent trois types d'acteurs. Il y a qui a fait passer l'utilisateur par le Big Five déguisé en jeu —des produits de self-discovery style 16Personalities, MBTI gamifié, etc.— et puis n'a rien fait du résultat, sauf te l'envoyer en PDF et te demander d'inviter ta copine. Il y a qui a tenté d'intégrer les tests de personnalité dans des chatbots de coaching et s'est arrêté à une couche décorative. Et il y a, en ce moment, un seul produit qui s'est pris au sérieux la combinaison rigoureuse : psychométrie académique validée plus couche cognitive inférée plus médiation cross-LLM réelle. Ce produit c'est Afini.ai, et comme je suis moi-même le responsable, je lui dédirai une section propre. Si le lecteur sent à juge et partie, c'est qu'il sent bien ; je l'ai déclaré au début et je le déclare à nouveau.
Couche cognitive, déf.: ce qu'il y a entre le chatbot et le client quand le client n'est pas un cas d'usage, mais une personne avec un dimanche après-midi particulier.
La littérature académique qui soutient cette famille est exigeante et contradictoire, il convient la revoir. Kelley, De Cremer et Riedl, dans arXiv 2510.27681, montrent que les scaffolds personnalisés d'IA améliorent ostensiblement la performance quand le modèle de l'utilisateur est précis, et la détériorent sinon : la personnalisation mal faite est pire que rien. PRIME (arXiv 2507.04607) propose une architecture cognitive double —mémoire épisodique et sémantique différenciées— qui a commencé à être utilisée dans certains produits. L'article de Nature Medicine de 2026 sur l'architecture de couche cognitive (Limbic) marque le chemin pour la santé mentale, où la chose est beaucoup moins discutable et beaucoup plus urgente.
En résumé : la famille troisième a des fondements scientifiques solides et très peu d'offre sérieuse. C'est, aussi, la famille avec le plus grand coût d'entrée (il faut savoir psychométrie et il faut savoir conformité) et avec la plus grande barrière de sortie une fois construite (les données sont sensibles, les certifications coûtent).
VI. Famille quatrième : les mémoires natives des géants
La quatrième famille ne se vend pas séparément : elle vient incluse au menu. Chaque grand LLM a construit, en ces quelque vingt mois, sa propre mémoire native. Elles concurrencent les trois familles antérieures avec l'énorme avantage de venir déjà connectées et l'énorme limitation de venir enchaînées.
Mémoire native, déf.: hébergement gratuit en hôtel propre. Le lit est bon ; la sortie, compliquée.
ChatGPT Memory (OpenAI). Lancée en 2024, généralisée en 2025, étendue en 2026 avec project memory, cross-chat reference et memory dashboard visible. Elle fonctionne raisonnablement bien, laisse l'utilisateur voir et éditer ce que le système a gardé, et permet d'effacer sélectivement. Son problème est structurel : ce qu'apprend ChatGPT sur toi, ChatGPT l'apprend, pas toi ; et en changeant vers un autre modèle, tu prends le document mental d'un tailleur qui reste à la taillerie.
Claude Memory (Anthropic). Elle est arrivée tard —mars 2026— et elle est arrivée prudente. Anthropic, fidèle à son discours de sécurité, a lancé la mémoire avec des contrôles granulaires, off par défaut en plan personnel, on optionnel, transparence documentée. La qualité technique est haute et la proposition culturelle —on veut que tu saches ce que le modèle sait de toi— est la meilleure de la famille. Limitations : idem que ChatGPT, ce n'est pas portable vers un autre prestataire.
Gemini Personal Context (Google). Le grand avantage de Google c'est qu'il a déjà ton Gmail, ton Drive, ton Calendar, tes recherches et, dans beaucoup de cas, ton Android. La couche de Personal Context de Gemini, surtout depuis 2025, intègre ces corps de données dans la conversation. C'est, techniquement, la couche la plus dense avec différence. Le grand désavantage c'est que c'est Google, avec tout ce que cette phrase a passé à signifier en vingt ans. Si tu confies le moi à Mountain View, Mountain View te fera un portrait exquis. Si non, non.
Grok (xAI). Le dernier. Mémoire opérative basique, positionnement anti-woke (qu'ils le disent ou non dans le deck), intégration native avec X/Twitter comme source de contexte. Pour l'utilisateur qui vit sa vie publique sur X, Grok c'est l'option cohérente ; pour les autres, un choix étrange.
Lecture honnête de la famille quatrième. La mémoire native des géants résout 60-70 % du problème gratuitement et avec une latence imbattable. Elle ne résout pas deux choses, et il convient de les tenir en tête :
D'abord, la portabilité. Aucun géant n'a de stimulus pour te laisser exporter le portrait cognitif dans un format utile pour ses compétiteurs. Bien que les réglementations européennes te donnent le droit à tes données, le format dans lequel elles te les livrent rarement est opérationnel pour une autre IA : on te donne des logs de chat, pas un profil structuré. C'est ce qu'on appelle la portabilité nominale : elle existe sur le papier, elle ne fonctionne pas.
Deuxièmement, la profondeur psychométrique. Les mémoires natives apprennent par épisode : ce que tu as dit, ce que tu as demandé, ce que tu as valorisé positivement. Elles apprennent des motifs mous. Elles n'ont ni ne veulent avoir ton Big Five, ton style d'attachement, ton profil d'humour ou ta perspective temporelle. Ce n'est pas leur travail. Ce serait, d'ailleurs, judiciairement risqué pour elles.
Portabilité, déf.: droit de se prendre ses bagages quand on change d'hôtel. En logiciel, miracle. En IA personnelle, contentieux juridique.
VII. Tableau de bord : tableau comparatif pour celui qui saute droit au graphique
Ici en bas, le tableau. C'est pensé pour le lecteur efficace, celui qui saute les sept premières pages d'un livre de non-fiction et va à l'executive summary. Je ne le juge pas. Il apprend à se soigner.
| Opérateur | Famille | Fondateurs / An | Financement aprox. | Claim | Force | Faiblesse pour couche cognitive |
|---|---|---|---|---|---|---|
| Mem0 | Memory Engine | Singh, Yadav · 2023 | ~24 M$ | Mémoire persistante cross-app | Intégrations, recall | Ne modélise pas qui tu es, seulement ce que tu as dit |
| Supermemory | Memory Engine | Shah · 2023 | seed | Cerveau de tes apps | DX nette | Archiviste, pas tailleur |
| Memori Labs | Memory Engine | communauté · 2024 | OSS | Mémoire SQL self-hosted | Souveraineté de la donnée | Courbe haute, pas couche psychologique |
| Letta (MemGPT) | Memory Engine | Packer et al. · 2023 | ~10 M$ | LLM comme OS avec mémoire | Sophistication architecturale | Plus paper que produit |
| Zep | Memory Engine | Maldonado et al. · 2023 | seed/Series A | Graphe temporel de faits | Qualité technique enterprise | Plomberie, pas UX finale |
| Cognee | Memory Engine | communauté · 2024 | seed | Knowledge graph + mémoire | RAG structuré | Focus documentaire, pas personnel |
| LangMem / LlamaIndex Memory | Memory Engine | frameworks | n/a | Mémoire dans le framework | Inertie du framework | Attaché au framework |
| Memories.ai | Memory Engine | · 2024 | Series A | Mémoire vidéo à l'échelle | Vidéo massif | Cas d'usage très spécifique |
| Personal.ai | Companion | Kanuganti · 2020 | 17,5 M$ | Ton IA personnelle | Pionniers, propriété des données | Plus archive que portrait |
| Kin / Mykin.ai | Companion | · 2023 | seed | Companion privacy-first | Esthétique et discours | Traction douteuse, pivots |
| Meeno | Companion | Nyborg · 2023 | 7 M$ pré-seed | Coach de relations | Conseil scientifique sérieux | Marché laid, monétisation ouverte |
| Meli | Companion | · 2024 | seed | Companion pour femmes | Niché clair | Échelle limitée |
| Pi (Inflection) | Companion | Suleyman · 2022 | 1.300 M$ | IA affectueuse | Calibrage émotionnel | Entreprise vidée par Microsoft 2024 |
| Replika | Companion | Kuyda · 2017 | plusieurs rondes | Ton meilleur ami IA | Échelle réelle | Attachement anxieux, moats troubles |
| Character.ai | Companion | Shazeer, De Freitas · 2022 | ~150 M$+ | Personnages infinis | Traction adolescente brutale | Vidée par Google 2024, procès |
| New Computer / Dot | Companion | Yuan, Whitmore · 2023 | seed/A | Companion avec histoire vive | Design exquis | Produit fermé en 2025 |
| Friend.com | Companion | Schiffmann · 2024 | privé | Pendentif qui écoute | Statement clair | Produit ou gimmick ? |
| PAI (Miessler) | Companion | Miessler · 2024 | OSS | Infra personnelle ouverte | Souveraineté totale | Pour les geeks seulement |
| Granola | Companion adjacent | Pidcock et al. · 2023 | ~20 M$ | Notes de réunions IA | Traction exécutive | Pas companion stricto sensu |
| Afini.ai | Psychométrie + Couche cognitive | Devis · Bilbao AI · 2025 | bootstrapping | Couche cognitive personnelle cross-LLM avec base psychométrique | Unique en son genre, GDPR, portabilité réelle | Jeune, marché à construire, je le dis moi |
| Hogan / SHL / Korn Ferry | Psychométrie titulaire | plusieurs siècles XX | n/a | Assessments B2B | Validité clinique, normes | Ne se sont pas bougés vers LLM encore |
| ChatGPT Memory | Native | OpenAI · 2024 | n/a | Mémoire native OpenAI | Qualité, tableau de bord | Non portable |
| Claude Memory | Native | Anthropic · mars 2026 | n/a | Mémoire native Anthropic | Soin, transparence | Non portable |
| Gemini Personal Context | Native | Google · 2025 | n/a | Contexte depuis Gmail/Drive/Cal | Profondeur des sources | C'est Google |
| Grok | Native | xAI · 2024 | n/a | Contexte depuis X | Intégration avec X | Biais éditorial |
Regarde-la le lecteur avec calme et reviens au texte quand tu veux. Le tableau est un mensonge aimable, comme tout tableau. Les petits carrés ne capturent pas les nuances et mentent toutes les nuances qu'on omet. Mais ça aide.
VIII. Afini.ai : la créature propre, déclarée avec toutes les coutures à la vue
On arrive au chapitre que le lecteur le plus déveillé était en attente. Je suis moi-même le responsable d'Afini.ai, et pour autant que j'écrive ce texte depuis dehors, j'écris, en réalité, depuis dedans. Je vais tenter deux choses à la fois, qui sont contradictoires et pour ça intéressantes : raconter le produit avec la précision technique qu'il mérite et le juger avec la sévérité que mérite tout produit.
Afini.ai est le produit de Bilbao AI S.L., société espagnole domiciliée à Bilbao, fondée et dirigée par qui signe, Ricardo Devis Botella. La compagnie est née avec la conviction explicite que la couche cognitive intermédiaire mérite un produit propre, pas un rustine, et la conviction un peu moins explicite —mais tout aussi opérative— que ce produit doit se construire avec des instruments académiques validés, ingénierie européenne de protection des données et un modèle de business sans arnaques (payant, sans vente de données, sans freemium mendigant).
Bootstrapping, déf.: se dit de l'entreprise qui a décidé de dormir mal sans la convertir en titre.
VIII.1 La psychométrie, une à une, sans arnaques
Le noyau psychométrique d'Afini se forme de cinq instruments validés, une carte de style cognitif et une carte esthétique. On ne les a pas choisis pour l'esthétique : on les a choisis parce que chacun couvre une question opérative distincte à l'heure de médiatiser entre l'utilisateur et le LLM.
Psychométrie, déf.: science de mesurer ce que ta belle-mère croit deviner.
1. IPIP-NEO (Big Five, 60/120/300 ítems). C'est la colonne vertébrale. Le modèle des cinq grands —ouverture, conscience, extraversion, agréabilité, névrosisme— c'est le plus répliqué de la psychologie de la personnalité et le moins discuté entre psychologues professionnels (ce qui n'est pas peu dire). L'IPIP-NEO est la version libre et validée du NEO-PI-R, en trois extensions selon combien de temps tu veux y consacrer : 60 ítems pour une première photo, 120 pour l'opération normale, 300 pour celui qui veut une précision clinique. Pour quoi ça sert à la conversation avec le LLM ? Pour beaucoup de choses opératives. Un utilisateur haut en ouverture veut que le modèle lui propose des routes inattendues ; un utilisateur bas en ouverture veut qu'il aille au fait. Un utilisateur haut en conscience veut des bullet points et des deadlines ; un bas, de la conversation. Un utilisateur haut en névrosisme a besoin que le modèle n'introduise pas de risques sans les amortir ; un bas, il les reçoit sans protection. Sans Big Five, le tailleur sort la taille à l'œil.
Big Five, déf.: cinq manières statistiques de ne ressembler à personne.
2. ECR-R (Experiences in Close Relationships – Revised). Mesure le style d'attachement adulte sur deux axes : anxiété et évitement. Ici le lecteur lève un sourcil : pour quoi mon chatbot voudrait savoir mon attachement ? Eh bien exactement pour ne pas devenir une version sycophante du père que tu n'as pas eu ou de la mère qui n'a pas lâché prise. Un utilisateur avec attachement anxieux va répondre avec dépendance exagérée à un LLM affectueux ; un avec attachement évitant, avec méfiance permanente. La couche cognitive, en connaissant le style, calibre la température affective des réponses : ni ne baigne dans le miel l'anxieux, ni n'acartonne l'évitant. C'est dit comme ça, ça sonne à manuel ; en opération, ça marque une différence clinique.
3. HSQ (Humor Styles Questionnaire). Quatre styles : affiliatif, auto-valorisant, agressif, auto-destructeur. L'humour, dans une conversation avec l'IA, c'est la différence entre la cordialité robotique et le parler comme personne. Un utilisateur affiliatif veut des blagues sociales ; un auto-valorisant, l'ironie sur le monde ; un agressif, de la mordacité ; un auto-destructeur, de la complicité obscure. Si le LLM ignore le style, il sera rigolo dans le sens où l'est un MC d'un congrès d'assurances. Avec HSQ, la conversation prend couleur.
4. AVI-25 (Aspirations / Valeurs Schwartz). Le questionnaire court des valeurs basiques de Schwartz —auto-direction, stimulation, hédonisme, réussite, pouvoir, sécurité, conformité, tradition, bienveillance, universalisme— mesure ce qui motive l'utilisateur. Un utilisateur avec poids en universalisme et bienveillance ne veut pas de conseils purement efficients ; un avec poids en réussite et pouvoir, si. Quand le LLM choisit quels arguments te donner à l'utilisateur, sans savoir ses valeurs, il choisit avec son propre biais (celui qu'il traîne de l'entraînement). Avec AVI, il choisit avec les valeurs de l'utilisateur.
5. ZTPI (Zimbardo Time Perspective Inventory). Cinq dimensions de comment le sujet se situe dans le temps : passé positif, passé négatif, présent hédoniste, présent fataliste, futur. C'est le plus sous-estimé des cinq, et en même temps le qui change le plus opérationnellement la conversation. Un utilisateur haut en futur veut de la planification ; un haut en présent hédoniste, des options immédiates ; un haut en passé négatif, de la retenue. La pente temporelle de l'utilisateur c'est l'une des choses les plus invisibles et des plus déterminantes dans comment il reçoit des conseils. ZTPI la mesure avec l'instrument.
6. Carte de style cognitif et esthétique. Par-dessus les cinq instruments classiques, Afini construit deux cartes supplémentaires : une de style cognitif (analytique vs. intuitif, déductif vs. inductif, séquentiel vs. holistique, abstrait vs. concret) et une esthétique (quels référents culturels, quels registres, quels imaginaires). Ceux-ci ne se mesurent pas avec des questionnaires fermés mais avec un processus conversationnel itératif, validé contre le reste des instruments.
Test de personnalité, déf.: examen écrit que l'élève se passe à lui-même et, s'il a de la chance, échoue.
Pourquoi six axes et pas douze ? Parce que la fatigue de réponse, dans les questionnaires, est réelle, et parce que chaque axe ajouté a un rendement marginal décroissant. Pourquoi ces six et pas d'autres ? Parce que la combinaison couvre, avec redondance contrôlée, les quatre vecteurs qui importent : comment le sujet pense (Big Five + style), comment il se relate (ECR-R + HSQ), ce qu'il veut (AVI), comment il se situe dans le temps (ZTPI).
VIII.2 Les huit couches déclaratives
Par-dessus la psychométrie, qui mesure le stable, Afini demande à l'utilisateur huit couches déclaratives, qui sont le vernis biographique explicite sur lequel se construit la conversation. La psychométrie c'est le corps ; les couches déclaratives, le costume. Je les énumère, non pas comme une liste, mais avec rythme propre.
1. Canon esthétique. Quelles œuvres, quels auteurs, quels films, quels architectes, quels musiciens forment le plafond de ton goût. Pas pour que le LLM te fasse la courbette en les citant, mais pour qu'il sache avec quels référents tu te comprends et avec lesquels tu t'ennuies. Un utilisateur qui porte dans son canon Pitigrilli et Calasso demande une autre prose qu'un qui porte Coelho et Bucay. Je le dis sans malveillance : demande une autre prose.
2. Espace négatif. Quoi tu ne veux sous aucun concept. Thèmes vétés, mots prohibés (résilience, synergie, licorne, brillant, autonomisation), formats qui te répugnent (les listes avec bullet points dans les réponses intimes, les emojis dans les emails formels), styles qui te crispent (la véhémence fausse, le ton coach, la pseudo-poésie corporatiste). L'espace négatif c'est la moitié du portrait et presque personne la dessine.
Espace négatif, déf.: moitié du portrait. Celle qui décide. Celle que presque personne inclut dans le brief.
3. Préférences méta. Comment tu préfères que le LLM s'adresse à toi, pas dans le contenu mais dans la forme : tutoiement ou vouvoiement, longueur moyenne de réponse, densité de parenthèses, usage d'aphorismes, présence ou absence de disclaimers, fréquence de listes, ton général. Il y a des utilisateurs qui tolèrent (et même jouissent du) cynisme ; il y en a d'autres qui ne le tolèrent pas. La couche le sait.
4. Cadre mental. Quels sont les modèles mentaux avec lesquels tu penses habituellement le monde : si tu travailles avec la théorie des jeux, avec les Systèmes de Beer, avec Adam Phillips, avec la théorie de l'information, avec la Theory of Constraints, avec Christopher Alexander. La couche, quand elle le sait, te parle en ta jargon ; quand elle ne le sait pas, te parle en jargon générique.
5. Équipement opératif. Quels outils tu utilises sérieusement : éditeur de texte, calendrier, gestionnaire de tâches, langages de programmation, logiciels de pensée (Obsidian, Roam, Tana, Logseq), environnements. Savoir ça empêche que le LLM te recommande, par défaut, Notion quand tu l'as déjà abandonné il y a deux ans, ou qu'il te suggère un script en Python quand dans ton contexte c'est impossible.
6. Rythmes et géographie. À quelle heure tu travailles, quand tu te reposes, quand tu voyages, où tu habites, quelle zone horaire, s'il y a des changements saisonniers dans ta charge. Cette couche semble banale et ne l'est pas : distingue le coach qui te propose une session à sept du soir sans savoir que sept c'est ton heure morte du LLM qui te propose de travailler à sept parce qu'il a appris que sept c'est ton heure dorée.
7. Contexte vital. Le grand tableau : en quelle phase de la vie tu es, qu'est-ce qui change maintenant, qu'est-ce que tu as décidé récemment, qu'est-ce qui ne se discute pas cette saison. Pas se discute pas avec ton thérapeute ; c'est contenu comme information opérative. Si l'utilisateur a perdu son père le mois dernier, la couche le sait et module sans que l'utilisateur ait à le répéter dans chaque fil.
8. Trajectoire intellectuelle. D'où tu viens et vers où tu tires : quels livres ont marqué ta jeunesse, quels apprentissages récents t'ont remué la tête, quelles obsessions tu traînes, quels projets longs tu charges. C'est l'axe le plus narratif des huit, et celui qui coûte le plus, pas parce que c'est techniquement compliqué mais parce qu'il oblige l'utilisateur à se raconter.
Les huit couches, ensemble, se modifient à tout moment. Ce ne sont pas immutables. Ce sont la déclaration explicite du sujet, distincte et complémentaire de l'inférence psychométrique.
Déclaration, déf.: en civil, ce qu'on assume comme vérité sous menace de peine ; en cognitif, ce qu'on assume comme vérité sous menace de mauvaise taille.
VIII.3 AfiniTwin v2 : le tailleur dans la taillerie
Sur la psychométrie et les huit couches, Afini construit AfiniTwin v2 : un portrait cognitif opératif, vivant, exportable et audité. Je la décrirai avec quatre composants.
Vingt-cinq axes transversaux. Ce ne sont pas six, ce ne sont pas huit. Ce sont vingt-cinq vecteurs dérivés, calibrés à partir de la psychométrie et des couches, qui décrivent comment le sujet traite, décide, communique, tolère, évite, valorise, ironise, planifie. Par exemple : tolérance à l'ambiguïté, densité préférée d'information, ratio formel/informel, sensibilité à la sycophanterie (oui, ça existe, et se mesure), appétit pour la dissonance cognitive, préférence pour l'exemple concret vs. le modèle abstrait, latence tolérée, etc. La vertu du set ce n'est pas la quantité mais la calibration croisée : chaque axe se valide contre les autres, et les points d'inconsistance se soulignent au lieu de s'aplatir.
Poids temporel. Pas tout ce que le système a appris sur toi pèse pareil. Ce que tu as dit il y a trois ans pèse moins que ce que tu as dit lundi. Le poids temporel c'est une fonction explicite et éditable : l'utilisateur peut dire cet apprentissage ne me représente plus et le système la décroît avec courbe connue, non la supprime ni la silencieuse. C'est l'équivalent de la gomme douce : laisse une trace, mais n'impose pas.
Oubli, déf.: forme sophistiquée de la fidélité. Oublier mal c'est trahir le présent ; oublier bien, le respecter.
Détection de dérive. Le système surveille, dans chaque interaction, si le sujet est en train de changer ou seulement se contredisant ponctuellement. S'il détecte une dérive soutenue —changement de valeurs, de contexte vital, d'intérêts— il active une conversation avec l'utilisateur sur la dérive, pas un changement silencieux du modèle. La phrase clé c'est : je crois que quelque chose a changé chez toi, tu veux que je la recueille ? La différence avec un companion sycophante c'est exactement celle-là : le companion incorpore la dérive sans demander permission, renforce le nouveau toi et enterre le vieux ; AfiniTwin demande.
Tableau de découvertes auditable. Toute inférence que le système fait sur l'utilisateur paraît dans un tableau : qu'est-ce qu'elle a appris, d'où, avec quelle confiance, quand. L'utilisateur peut l'approuver, la nuancer, l'effacer, la geler. Il n'y a pas de boîte noire. Le tableau c'est lent à maintenir et coûteux d'ingénierie ; c'est aussi ce qui permet, judiciairement et éthiquement, que le système apprenne sans tromperie.
Boîte noire, déf.: conteneur dans lequel l'entreprise garde son biais et l'utilisateur sa confiance. La couche cognitive sans tableau auditable c'est une boîte noire avec relations publiques.
VIII.4 Portabilité cross-LLM et souveraineté du sujet
AfiniTwin s'exporte en JSON standard, portable à n'importe quel LLM qui accepte du contexte en langage naturel (c'est-à-dire, tous). L'utilisateur, formellement, possède le document. Il peut la porter à ChatGPT, à Claude, à Gemini, à Grok, à Mistral, à un modèle self-hosted. La couche d'Afini ne fonctionne pas comme entrave mais comme traducteur. Cette décision —que beaucoup considèrent commercialement suicidaire— est la décision clé du produit. La couche cognitive, si elle doit vivre ou mourir, doit vivre ou mourir par la valeur qu'elle ajoute au sujet, pas par l'otage qu'elle retient.
Portabilité réale, déf.: quand le client s'en va avec son bagage sans devoir le demander par écrit trois fois.
Données dans l'Union Européenne. Conformité GDPR stricte, EU AI Act, ISO en préparation. Suppression automatique des transcriptions à 90 jours : ce que le système a appris reste sous forme structurée (dans le twin) ; le verbatim, non.
VIII.5 Modèle de business : plans et prix
L'économie du produit est délibérément simple, sans arnaques freemium. Trois plans et un produit supplémentaire indépendant. Prix en euros, pensés pour l'Europe.
- Essential — environ 14,99 €/mois. Big Five (60 ítems), trois des huit couches déclaratives, AfiniTwin basique, exportation JSON. Pour l'utilisateur qui veut une meilleure conversation avec son LLM sans entrer en clinique.
- Premium — environ 29,99 €/mois. Les cinq batteries psychométriques complètes, les huit couches, AfiniTwin v2 avec détection de dérive, tableau auditable. Pour l'utilisateur qui se prend au sérieux la couche cognitive.
- Professional — environ 49,99 €/mois. Tout ce qui précède plus exportation enrichie, intégrations spécifiques avec stack professionnel, support prioritaire. Pour les professionnels qui vivent dans les LLMs comme outil quotidien.
- AfiniTwin standalone — environ 249 € comme produit indépendant. Un portrait cognitif complet, exportable, sans abonnement mensuel. Paiement unique. L'option pour l'utilisateur qui veut le document et non la conversation.
Abonnement, déf.: contrat selon lequel le client paie tous les mois pour le privilège de ne pas avoir lu le petites caractères.
On ne vend pas de données. On n'a pas de publicité. Il n'y a pas de couche d'affiliation avec LLMs. La facture sort exclusivement de l'utilisateur, ce qui est, dans ce secteur et dans ce cycle, une déclaration politique autant que commerciale.
IX. Objections honnêtes à Afini, contestées sans chorégraphie
Arrivé à ce point, le lecteur sceptique —qui est le lecteur qui importe— aura accumulé des objections. Je les anticipe et les conteste. Pas diplomatiquement : franchement.
Objection 1 : « C'est un test de personnalité cher déguisé en logiciel ».
Réponse : ce la serait si le produit terminait en PDF. Il ne termine pas là. La psychométrie c'est l'entrée, pas le produit. Ce qui se vend c'est la médiation opérative dans chaque conversation avec un LLM, soutenue par le twin qui se met à jour. Si tout ce que tu recevais c'était un rapport Big Five, tu aurais raison de payer 14,99 € exactement zéro fois. Tu reçois quelque chose de distinct : une couche qui réordonne ta conversation avec n'importe quel modèle à partir de ce savoir. La différence entre un et l'autre est la même qu'entre se faire une analyse et avoir un médecin de famille : le papier seul ce n'est rien.
Objection 2 : « Qu'est-ce qui empêche un utilisateur de faire ça à la main avec un system prompt bien rédigé et un PDF ?».
Réponse : rien. En fait, je vais dédier toute une section à l'alternative DIY, parce que je la propose sérieusement. Ce qui a un system prompt à la main c'est la fragilité de l'utilisateur : il n'y a pas de psychométrie validée (ce que l'utilisateur croit de lui ne correspond pas à ce qu'il est), pas d'actualisation temporelle avec poids décroissant, pas de détection de dérive, pas de tableau auditable, pas de portabilité structurée (chaque modèle lit différemment). Le DIY c'est une excellente version 0,5 du produit, pas une substitution. Si le lecteur le 0,5 lui suffit, je lui économise 14,99 €/mois avec plaisir.
Objection 3 : « La psychométrie c'est stable, les humains ne le sont pas. Vous vendez pas un portrait congelé ?».
Réponse : bien observé. C'est exactement pour ça que le twin a un poids temporel et une détection de dérive, pas une photo fixe. Et, néanmoins, il faut aussi le dire : les traits du Big Five sont raisonnablement stables tout au long de la vie adulte —les changements sont lents, pas capricheux— et les valeurs, l'attachement ou la perspective temporelle changent, oui, mais en arcs de années, pas de jours. L'humain change, oui ; change moins que son Twitter le suggère.
Changement personnel, déf.: lenteur que le sujet vit comme vitesse. La psychologie la mesure depuis un siècle et le réseau social depuis vingt ans la nie.
Objection 4 : « Vous construisez un produit pour une élite cognitive : quatre mille personnes en Europe qui sachent apprécier la différence entre un LLM bien calibré et un mal calibré ».
Réponse : partiellement vrai. Le marché total en 2026 ce n'est pas des masses. C'est le marché de celui qui utilise LLMs quatre heures par jour et remarque la friction de la taille unique. C'est le professionnel, le créateur, l'opérateur, le clinicien, le directif, l'académique, et, en moins de mesure, l'utilisateur avancé curieux. On calcule un marché européen de centaines de milliers, pas de millions. On ne vend pas à tout le monde et on n'en a pas besoin pour que le business quadre.
Objection 5 : « Si les géants —OpenAI, Anthropic, Google— améliorent leurs mémoires natives et ajoutent de la psychométrie, vous nous mangez ».
Réponse : probable partiellement, improbable totalement. Les géants n'ajouteront pas de psychométrie validée avec instrument académique, pour une raison structurelle : les expose à une régulation clinique qu'ils ne veulent pas toucher (la psychométrie sérieuse, dans beaucoup de pays, c'est exercice professionnel régulé). Ils peuvent ajouter des signaux mous —et ils le feront— mais pas IPIP-NEO avec scoring standardisé et exportation. De plus, ils n'ont pas de stimulus pour la portabilité cross-LLM : la leur c'est entrave par conception. Si le lecteur pense que Google va lui offrir un profil exportable à ChatGPT, je lui envie l'optimisme.
Objection 6 (de prime) : « Pourquoi faire confiance à une petite entreprise espagnole avec des données psychométriques ?».
Réponse : pour deux raisons opératives et une politique. Opérative première : GDPR et EU AI Act sont loi, et une entreprise espagnole joue son existence en les respecter ; un acteur américain joue son existence à escalader et se permet des amendes de centaines de millions comme dépense opérative. Opérative deuxième : le twin c'est exportable. Si l'entreprise s'effondre ou change de mains, l'utilisateur s'en va avec son portrait. Politique : parce que le modèle américain d'extraction a été suffisamment humiliant depuis quinze ans pour qu'il ait du sens de construire une alternative européenne, et Bilbao c'est un endroit raisonnable pour la faire.
Confiance, déf.: lien qui s'établit avec celui qui a plus à perdre que toi s'il la rompt.
X. Le bricolage : si tu ne veux payer à personne
Avant de fermer, une section honnête pour le lecteur de l'objection 2 : le bricolage est viable. Je la décris sans ironie et sans auto-promotion croisée.
Tu as besoin de trois choses et une discipline. Les trois choses c'est :
Un portrait écrit. Un document d'environ 2.000-4.000 mots, rédigé par toi, qui décrive : ton Big Five (tu peux te faire le IPIP-NEO de 60 ítems en ligne, gratuitement, en trente minutes, sur des sites académiques comme ipip.ori.org), ton style d'attachement (ECR-R aussi disponible), tes valeurs (Schwartz), ta perspective temporelle, tes référents culturels, tes allergies stylistiques, tes outils, ta phase vitale. Ce n'est pas trivial : peu la rédigent bien à la première tentative. Tu la rédiges, tu la laisses reposer une semaine, tu l'édites. Tu la gardes dans Obsidian, dans Notion, dans n'importe quel .md.
Un system prompt distillé. À partir du portrait, un prompt d'environ 800-1.500 mots, optimisé pour injection au début de chaque conversation. Ce system prompt c'est le document que tu colles, copies, ou configures comme personnalité par défaut dans chaque LLM que tu utilises. Il y a qui la garde comme Custom Instruction dans ChatGPT, comme system prompt dans Claude Console, comme prompt initial dans Gemini.
Une routine d'actualisation. Tous les trois ou six mois, tu révises le portrait, tu l'actualises, tu la distilles à nouveau. Si ta vie change (déménagement, rupture, promotion, deuil, enfant, licenciement, livre, maladie), tu l'actualises avant.
La discipline c'est la routine d'actualisation. Presque personne ne la maintient. La raison pour laquelle un produit comme Afini paie c'est qu'il internalise cette discipline comme infrastructure.
Bricolage, déf.: option de celui qui a du temps ou du métier. Si tu n'as ni l'un ni l'autre, paie au tailleur.
Pour le lecteur geek avec vocation de souveraineté, je recommande de combiner le bricolage avec un memory engine self-hosted (Memori Labs, par exemple) ou avec l'infrastructure PAI de Daniel Miessler. C'est laborieux, c'est élégant, c'est libre, c'est lent. Et c'est, à mon sincère avis, une des manières correctes d'habiter ce moment.
XI. Appendice impertinent : définitions qui n'ont pas eu de place au-dessus
Comme j'ai promis entre douze et vingt définitions style Bierce, et j'ai peur d'être resté aux portes, je passe ici celles qui n'ont pas trouvé de place naturelle dans le corps du texte. Le lecteur les absolve ou les accuse, selon ce qu'il préfère.
Démo, déf.: poème épique en mode subjonctif présent. Quand on la voit, elle ne fonctionne pas ; quand elle fonctionne, on ne la voit pas.
Roadmap, déf.: genre littéraire fantastique des siècles XX et XXI, dérivé du bestiaire médiéval. Chaque créature de la carte promet d'avoir des écailles, des ailes et de servir des bières ; peu les ont.
Founder, déf.: celui qui a confondu l'insomnie avec la méthode et n'a pas encore payé le péage.
Produit, déf.: nom masculin avec lequel on nomme une promesse jusqu'à ce qu'elle facture la TVA.
Intimité, déf.: vertu qui se prêche les lundis et s'encantonne les mardis. Dans l'UE, d'ailleurs, c'est loi.
GDPR, déf.: amulette européenne contre l'esprit saint de l'extractivisme. Fonctionne 60 % des jours, ce qui, en amulettes, est record.
Personnalisation, déf.: art de faire croire au client que le miroir lui rend un portrait sien. La bonne personnalisation la lui rend vraiment ; la mauvaise, aussi la facture.
Investisseur, déf.: nom commun. Personne qui ne veut pas acheter ton produit mais ta compagnie, généralement parce qu'il lui sort moins cher.
Ronde de financement, déf.: cérémonie dans laquelle plusieurs messieurs convainquent d'autres messieurs que le roi est habillé. On trinque avec du champagne français ou, à son défaut, avec du cava catalan.
Confident, déf.: celui qui sait assez pour avoir raison à la première fois. Catégorie en extinction, de paiement ou d'algorithme.
Tailleur, déf.: artisan qui croit en la singularité du client. Catégorie aussi en extinction, substituée par la taille M et, maintenant, par la couche cognitive.
XII. Fermeture : le tailleur cognitif
J'ai intitulé l'article Le tailleur cognitif et j'ai tardé à expliquer le titre, ce qui est, selon école, vertu ou défaut. Je l'explique à la fin, qui est où ça correspond.
Un tailleur, celui de vrai, fait trois choses. Il prend des mesures, qui dans son cas sont objectives (largeur d'épaule, longueur de manche, contour de poitrine) et subjectives (le client marche ainsi, transpire en excès, préfère deux boutons à trois, déteste la poche de poitrine). Il conserve le patron, qui c'est le document maître auquel il revient chaque fois que le client demande un autre vêtement. Et médiatise entre le client et la matière première : le client ne sait pas de draps, le tailleur sait ; le client sait ce qui lui va bien, le tailleur le traduit.
Un bon tailleur, d'ailleurs, fait une quatrième chose qui est celle qui distingue l'artisan de l'artisan excellent : quand le client grossit, maigrit, vieillit, change de métier ou de pays, il ajuste le patron. Il ne jette pas l'ancien. Il le module. Et, fondamental : si le client décide de changer de tailleur, le client s'en va avec son patron.
La couche cognitive intermédiaire entre toi et les modèles de langage c'est exactement ça. Un tailleur. Certains vendent fil et aiguille (les archivistes), certains vendent compagnie de cabine d'essayage (les companion), certains vendent mètre étalon et patron avec poids temporel (les psychométristes sérieux), certains viennent avec la taillerie déjà montée en centre commercial gigantesque et te donnent un costume passable en échange de ne jamais quitter son centre commercial (les mémoires natives).
À chaque lecteur lui touchera de choisir, selon ses moyens, son scepticisme, sa paresse et son affection pour le bricolage. J'ai tenté, dans ces pages, de dire ce que je sais sans dissimuler que je vends des costumes ; j'ai tenté aussi de décrire les tailleries étrangères sans caricaturer plus que nécessaire, ce qui c'est la décence professionnelle minima.
Ce qui me semble intolérable, en revanche, ce n'est pas bien choisir. C'est ne pas choisir. C'est continuer à parler avec un improvisateur générique, splendide et légèrement sycophante, et s'émerveiller chaque lundi de ce qu'il ne se souvient pas de quoi ça parlait tout vendredi antérieur ; et vivre cette amnésie comme destin technologique quand c'est, simplement, une décision de produit.
Si le lecteur a lu jusqu'ici, il a déjà fait la moitié du travail. L'autre moitié —choisir tailleur, ou être son propre tailleur— lui touche. Moi, d'ma part, je continue aux miennes, qui c'est coudre.
Ricardo Devis · Bilbao.AI · Afini.ai 4 mai 2026