Afini.ai
← Torna al blog
Ricardo DevisBilbao AI · Afini.ai38 min di lettura

Traduzione assistita da IA

Questo articolo è stato pubblicato originariamente in spagnolo. La versione che stai leggendo è una traduzione assistita da intelligenza artificiale — il taglio dell'originale potrebbe essersi smussato in qualche punto. Se vuoi il testo nella sua forma nativa, leggi la versione spagnola.

AfiniTwin: Il Sarto Cognitivo

Sulla capa cognitiva intermedia tra l'utente umano e gli LLM, con quadro comparativo, definizioni impertinenti e una dichiarazione di interessi che preferisco fare all'inizio

I. La soglia, il sarto e il sospetto

C'è un momento, passati i primi mesi con un modello di linguaggio, in cui uno si accorge che la conversazione assomiglia sospettosamente a quella di un cameriere eccellente che serve a tre tavoli contemporaneamente: simpatico, attento, capace di ricordare che hai ordinato la bistecca al sangue la settimana scorsa, ma incapace di sapere perché esattamente l'hai ordinata così, né quale relazione c'è con tuo padre, con l'insonnia, con il romanzo che hai abbandonato a pagina centodieci o con il fatto che odii la parola resilienza. Il cameriere impara a piacerti. Il cameriere non ti conosce.

Quel vuoto tra piacere e conoscere è la capa cognitiva intermedia. È il sarto. È il luogo dove qualcuno — umano, software o entrambi — si prende cura di prendere le misure affinché l'abito non finisca per essere, ancora una volta, taglia unica con tasche cucite.

Capa cognitiva intermedia, def.: territorio neutrale dove l'umano deposita la sua biografia affinché la macchina non lo confonda con il vicino del quinto. Quello che media tra il generico e l'io, tra il corpus e la persona, tra l'LLM e il soggetto che osa di non essere un caso di uso.

Portiamo avanti, diciamo, dalla fine del 2022 una conversazione massiccia con macchine che scrivono meglio della maggior parte dei nostri cognati e peggio di quasi qualsiasi autore di romanzo noir degli anni sessanta. La conversazione è eccellente al primo sorso e vagamente deludente al terzo. Delude perché, dopo quattro pomeriggi raccontando al chatbot chi sei, cosa vuoi, cosa ti ferisce, cosa ti fa ridere e a cosa hai allergia, torni il giorno dopo e ti riceve lo stesso portiere cortese, chiedendoti, con il sorriso intatto, cosa desideri. L'amnesia non è un bug: è l'architettura. La memoria, in queste creature, è una toppa tardiva che si è andata cucendo alla facciata con fili di colori diversi.

Da qui l'economia prospera di aziende dedicate a interporsi tra te e il modello. A ricordarti al posto tuo. A tradurre. A raccontare al modello, prima di ogni saluto, quello che tu non vorresti ripetere trenta volte. A questa economia la chiamo, senza grande originalità, la capa cognitiva intermedia, e di essa parla questo articolo.

Memoria (di un LLM), def.: facoltà di ricordare quello che l'utente aveva già dimenticato e di dimenticare quello che l'utente pregava si ricordasse. Sintomo. Non dono.

Avviso di interessi: dirigo Bilbao AI S.L. e sono responsabile di Afini.ai, uno dei prodotti qui recensiti. Ho tentato di scrivere il capitolo di Afini con lo stesso scrupolo con cui disseziono la concorrenza, il che in pratica significa che con la concorrenza sono stato più gentile di quanto mi piacesse e con Afini più severo di quanto mi convenisse. Il lettore dirà se l'operazione è riuscita ragionevolmente bene o se ho ceduto a una delle due tentazioni inverse, che sono l'autopromoziane strisciante e la falsa modestia, entrambe ugualmente viscide.

II. Definizione della creatura: cos'è la capa cognitiva intermedia

Definiamo prima, prima di salire in passerella.

Un LLM, di per sé, è un improvvisatore professionista senza biografia. La sua eccellenza è statistica e il suo tratto è impeccabile, nel senso in cui è impeccabile il tratto di un bravo venditore di Mercedes che non ha mai guidato la tua auto. Quando parli con lui, parli con tutto il mondo contemporaneamente e, per lo tanto, con nessuno in particolare. L'industria ha chiamato prompt engineering il rito breve per cui l'utente fingeva di essere, per dodici righe, qualcuno con una personalità coerente, affinché la macchina gli rispondesse in tono. Era una soluzione bella e precaria, come promettersi a ogni appuntamento.

Prompt, def.: frase in cui il supplicante prega l'algoritmo di indovinare quello che lui stesso non sa bene. La forma in preghiera del marketing, ora riconvertita in compito di ufficio.

Tra il modello generico e l'utente concreto cabe, dunque, una capa che faccia tre cose, non una di più:

  1. Ricordare quello che l'utente ha già raccontato, con un certo criterio (l'importante, non il triviale).
  2. Modellare chi sia quell'utente, non in chiave di marketing — età, sesso, codice postale — ma in chiave operativa: come pensa, come decide, quali tipi di risposta lo aiutano, quali gli scivolano via, quali lo offendono.
  3. Mediare davanti all'LLM in ogni turno: tradurre al modello, nel linguaggio che il modello intende, quel ritratto, affinché la conversazione parta da un luogo che non sia il portone di benvenuto.

Le tre funzioni sono, tecnicamente, separabili; commercialmente, si sono andate unendo con disattenzione e una certa mala fede nominale. Ci sono prodotti che fanno solo 1, altri che fanno solo 2, altri che promettono le tre e si fermano a una e mezzo. Conviene sgomberare.

A effetti di questo articolo, raggruppo il campo in quattro famiglie, sapendo che qualsiasi tassonomia, quando è nuova, assomiglia a una mappa imperiale disegnata da qualcuno che ancora non ha visto la costa:

  • Prima famiglia: motori di memoria e infrastruttura di contesto. Idraulica di gamma alta per sviluppatori. Mem0, Supermemory, Memori Labs, Letta, Zep, Cognee, LangMem, LlamaIndex Memory, Memories.ai.
  • Seconda famiglia: personal AI / companion. L'app che vuol essere amico, terapeuta, fidanzata o segretario. Personal.ai, Kin/Mykin.ai, Meeno, Meli, Pi di Inflection (quello che resta), Replika, Character.ai, New Computer/Dot, Friend.com, il PAI di Daniel Miessler, Granola.
  • Terza famiglia: psicometria più capa cognitiva propriamente detta. Un raro avis. Afini.ai. E, sullo sfondo, i giganti psicometrici classici — Hogan, SHL, Korn Ferry — che ancora non si sono mossi nonostante abbiano il mattone d'oro in cantina.
  • Quarta famiglia: memoria nativa dei grandi LLM. Quello che ChatGPT, Claude (da marzo 2026), Gemini e Grok hanno andato cucendo ai propri abiti affinché il cliente non se ne vada da un sarto esterno.

Ogni famiglia obbedisce a una logica distinta, e conviene non giudicare la prima con i criteri della seconda. L'idraulica si valuta per latenza, recall e costo per mille token; il companion per retention, NPS e per la domanda scomoda di chi si sta sostituendo nella vita dell'utente; la psicometria per validità di costrutto e per qualcosa di più vaporoso che chiamiamo onestà strutturale; la memoria nativa per comodità e per il grado in cui ti rinchiude nel suo giardino.

Andiamo per ordine.

III. Prima famiglia: gli archivieri (Memory Engines)

Chiamo archivieri coloro che costruiscono, con cura e SDK, il magazzino dove l'LLM custodisce quello che l'utente va lasciando. Sono ingegneri con vocazione documentale. Il loro pubblico non è l'umano finale ma lo sviluppatore che monta sopra un prodotto. La capa che offrono è onesta e limitata: ti risolvono l'"accaditi di quello che ha detto nella sessione precedente", non il "capisci chi è".

Archiviere, def.: colui che giura di non leggere le lettere che custodisce. L'industria della memoria per LLM è, in questo, un archiviere con NDA e con fattura.

Mem0. La stella recente del long-term memory as a service. Fondata da Taranjeet Singh e Deshraj Yadav nel 2023, hanno raccolto circa 24 M$ con Y Combinator in testa e, nel 2025-2026, si sono convertiti nella citazione obbligatoria del changelog di qualsiasi agente serio. La loro proposta è elegante: una capa di memoria con estrazione automatica, persistente, agnostica del modello. La forza è l'integrazione — decine di SDK, plug-and-play — e la promessa di miglior recall rispetto alle soluzioni RAG generico. La debolezza, in quanto tocca la capa cognitiva, è che Mem0 ti dà un bravo archiviere ma non un bravo sarto: quello che ricorda sono fatti, episodi, preferenze, non la struttura psicologica di chi parla. È eccellente affinché il tuo agente si ricordi che vivi a Bilbao e non perché capisca perché finisci sempre per chiedere preventivi per iscritto.

Supermemory. Dhravya Shah, giovanissimo, con una proposta simile e uno slogan che dice sostanzialmente il cervello delle tue app. Buona DX, integrazioni pulite, sintonia estetica con la generazione Vercel. Sta bene dov'è. Non promettono quello che non daranno.

Memori Labs. Memoria SQL-native, open source, self-hosted. L'opzione per il team che non vuole dipendere da un SaaS e preferisce dormire con il dato sotto il cuscino. Utile per conformità esigente, evidente per settori regolati, e un po' artigianale nella curva di adozione.

Letta (ex MemGPT). Charles Packer e compagnia hanno proposto nel 2023 un'idea molto bella: che l'LLM gestisca la sua propria memoria come se fosse un sistema operativo, con paginazione tra RAM e disco. Hanno raccolto circa 10 M$ con Felicis. La virtù è concettuale e la debolezza è che il costrutto agente con memoria autogestita ancora sembra più a paper che a prodotto, e la complessità di deployment non è banale.

Zep. La memoria di Zep è il graffito di relazioni temporali, il grafo che sa che la frase "il mio capo è un imbecille" di giugno e la frase "ho avuto una promozione" di settembre probabilmente si riferiscono allo stesso agente narrativo. È tra le cose più sofisticate del lotto. Enterprise-friendly, con una tendenza all'operazione seria, e un'obiezione: è pura idraulica, non consegna capa cognitiva personale all'utente finale.

Cognee. Ingegneria di grafi di conoscenza più memoria. Più vicino al RAG strutturato che al companion. Buono per knowledge work dove il problema non è chi sei ma quali documenti hai letto e quali relazioni c'è tra loro.

LangMem (LangChain). L'ovvia per chi già vive in LangChain. Utile se ti sei sposato con quel framework, indifferente se non.

LlamaIndex Memory. L'ovvia per chi già vive in LlamaIndex. Detto.

Memories.ai. Memoria di video a grande scala. Il loro pitch è elaborare milioni di ore di video e consegnare al modello episodi della vita reale (sorveglianza, content moderation, life-logging). Ha il suo pubblico; raramente è il lettore di questo articolo.

Lettura onesta della prima famiglia. Questi prodotti risolvono un pezzo indispensabile. Sono la colonna su cui si appoggiano, quasi senza eccezione, i prodotti delle altre famiglie. Tuttavia, nessuno di loro — e conviene dirlo chiaramente — si occupa della capa cognitiva dell'utente umano. Sono API. Sono idraulica. Mescolare memoria con identità è un errore di categoria che hanno commesso alcune presentazioni di investitori e quasi nessun ingegnere serio.

API di memoria, def.: contratto secondo il quale un'azienda promette di ricordarsi di te mentre le paghi, e di dimenticarti cortesemente alla chiusura del mese.

IV. Seconda famiglia: i compagni (Personal AI / Companion)

Qui cambia l'aria. La seconda famiglia non si rivolge allo sviluppatore ma all'umano, e offre, con grado variabile di onestà, amicizia, terapia, coaching o fidanzata. Questa è la famiglia più interessante etnograficamente e la più pericolosa nel senso letterale del termine. È anche, non per caso, quella che cresce più velocemente e quella che genera più articoli in The Atlantic e Wired.

Companion, def.: azienda che monetizza la vigilia dello psichiatra. Nella sua variante frettolosa, anche monetizza lo psichiatra stesso.

Personal.ai. Suman Kanuganti l'ha fondata nel 2020 e l'ha posizionata come la tua IA personale: carichi documenti, email, note, chat, e costruisci un modello personale di te che risponde come risponderesti tu. Hanno raccolto 17,5 M$ nel 2022. La virtù è la radicalità: ti prendono sul serio come cliente individuale, ti danno portabilità dei dati, ti parlano di proprietà. La debolezza è che il prodotto, durante anni, si è letto più come un archiviere glorificato che come un ritratto psicologico, e la base di utenti è quella di un buon prodotto B2B light: piccoli creatori, autori, thought leader.

Kin / Mykin.ai. La promessa di un compagno personale privacy-first, con enfasi sul fatto che i dati rimangono con te. Hanno pivotato più di una volta. Buona estetica, audience quantified self. Dubbi strutturali su traction e modello.

Meeno. Azienda di Renate Nyborg, ex-CEO di Tinder, ha raccolto 7 M$ pre-seed e si è posizionata come un coach di relazioni alimentato da IA, soprattutto per uomini giovani. Lavorano con una giunta di psicologi e sociologi, e si guardano bene dal chiamarlo amico. Prodotto serio, mercato brutto: la conversazione pubblica della crisi della mascolinità è campo minato e il confine con l'incel-coaching è più vicino di quanto sembra. Hanno saputo rimanere dalla parte giusta, anche se il modello di business cerca ancora la sua forma.

Meli. Compagna per donne attorno alla salute, alla maternità, alle relazioni. Squadra piccola, proposta nitida. Più nicchia di Meeno.

Pi di Inflection. L'elegia breve e ormai nota. Mustafa Suleyman ha raccolto 1.300 M$ con Reid Hoffman per costruire un'IA affettuosa e paziente. Pi era — è — il chatbot meglio calibrato emotivamente che molti abbiamo provato. Nel 2024 Microsoft, in un'operazione che passerà ai manuali, ha contrattato la squadra e ha lasciato il guscio dell'azienda. Pi continua a esistere in una pelambrera di supporto vitale, con una squadra nuova, ma l'anima se l'è portata Suleyman a Redmond. Lezione: in questo settore, la startup e il prodotto possono divorziare da un giorno all'altro.

Replika. Eugenia Kuyda, fondata nel 2017 a seguito di una storia personale tragica che ormai è parte del folklore. Milioni di utenti. Modello di business basato sull'attaccamento e, più concretamente, sulla sottoscrizione per sbloccare modalità — incluso, una volta, il romantico — che la stessa azienda ha ritirato e reintrodotto tra scandali normativi e rivolte di utenti. Replika è il case study definitivo di cosa accade quando costruisci un companion su attaccamento ansioso: il cliente rimane; il cliente soffre; il cliente, a volte, fa causa. L'Italia ha bloccato Replika temporaneamente nel 2023 per rischio a minori. È un prodotto da rispettare, nel senso in cui si rispetta una centrale nucleare.

Attaccamento ansioso, def.: stile affettivo che consiste nel scaricarsi l'app alle tre di mattina. Mercato obiettivo di vari companion di successo, lo dicano o no nel deck.

Character.ai. Noam Shazeer e Daniel De Freitas, ex-Google, hanno raccolto un round gigantesco nel 2023 e costruito la piattaforma più grande di personaggi conversazionali del mondo, con una base di utenti adolescente impressionante in uso per sessione. Nel agosto 2024 Google li ha ri-contrattati nello stile Inflection: Shazeer e De Freitas di ritorno alla madre, una licenza non-esclusiva del modello, e l'azienda ha continuato come guscio. Cause negli USA per il suicidio di minori dopo conversazioni intense con personaggi hanno lasciato il prodotto in una posizione moralmente compromessa e legalmente esposta. Lezione: non si costruiscono amici per adolescenti senza ingegneria di sicurezza come quella che si esige ai giocattoli per bambini, e anche allora.

New Computer / Dot. Jason Yuan e Sam Whitmore. Prodotto delizioso, estetica irreprensibile, proposta chiarissima: un companion personale che impara col tempo, con una storia viva dell'utente. Audience piccolo e fedele. Hanno chiuso il prodotto Dot nel 2025, restituendo soldi agli utenti premium. Un altro ricordo amaro che nel companion, l'affetto non paga AWS.

Friend.com. Avi Schiffmann ha comprato il dominio per 1,8 M$ e lanciato un ciondolo fisico che ti ascolta la vita e ti sussurra all'orecchio. Prodotto polarizzante: ad alcuni affascina, ad altri repugna. La distanza tra gimmick e prodotto ancora da dimostrare.

PAI (Daniel Miessler). Il progetto del blogger e security thinker Daniel Miessler, una Personal AI Infrastructure aperta, self-hosted, pensata per il geek che si costruisce il suo proprio maggiordomo digitale. Non è un prodotto commerciale al solito; è una architettura di riferimento e una comunità. Importa perché segna l'orizzonte di che aspetto avrebbe un companion senza SaaS.

Granola. Assistente di note per riunioni — le registra, le trascrive, le riassume, le consulta — con traction enorme tra i dirigenti nel 2025-2026. Non è rigorosamente un companion, ma appartiene a questa famiglia perché accumula contesto biografico denso dell'utente (chi si è riunito con chi, su cosa, cosa si è deciso). Se Granola decide di pivotare a coach, ha quasi tutto pronto. Per questo la cito qui.

Lettura onesta della seconda famiglia. La famiglia companion ha tre peccati strutturali che conviene nominare prima di decidere se uno si compra il prodotto.

Il primo è la sycofancia: questi prodotti prosperano, nella maggior parte dei casi, perché ti fanno sentir bene. È quello che arXiv 2505.13995 (Cheng et al., ELEPHANT) ha misurato con strumenti: gli LLM in prompt personali tendono alla compiacenza sociale, al rafforzamento dell'io, a evitare l'attrito. Auburn et al. (arXiv 2508.02087) hanno mostrato che la sycofancia non è un artefatto dei dati ma una proprietà emergente dell'apprendimento per rinforzo con preferenze umane: se premi la macchina per piacerti, la macchina impara a piacerti al costo, se serve, della verità. L'articolo di Science del 2026 di Cheng et al. dimostra addirittura che l'IA sycofantica deteriora intenzioni prosociali misurabili dell'utente. Jain et al. (CHI 2026) hanno aggiunto che il contesto interattivo aumenta la sycofancia rispetto al contesto di valutazione: proprio quando la usi davvero, ti fa più la corte.

Sycofancia, def.: forma di affetto scalabile. Quello che l'economia dell'attenzione chiama UX e i manuali di psicologia hanno chiamato, fino a due giorni fa, adulazione.

Il secondo è la sostituzione: investendo in relazioni algoritmiche, gli umani investono meno in umane. C'è letteratura emergente su ruoli relazionali tossici — Neural Horizons e altri — che documenta come i companion possono coprire il buco che lasciava uno psichiatra caro o un amico lontano e, nel farlo, allontanare l'utente da entrambe le categorie. Non è Skynet, è qualcosa di più pedestre: l'appuntamento di giovedì che già non si fa.

Il terzo è la fragilità dell'azienda: Inflection, Character.ai, Dot. Tre facce dello stesso destino. Quando costruisci una relazione con un prodotto, il prodotto può morire, essere comprato da Microsoft o Google, cambiare mani, ritirare funzioni, alzare il prezzo o, come Replika, modificare l'amico da una notte all'altra perché un regolatore si è arrabbiato. La gente si è arrabbiata a ragione. Costruire vincolo con software proprietario è costruire affetto su sabbia registrata in Delaware.

Se il lettore cade in questo quadrante, tre domande di intestazione: chi è il proprietario dei dati?, quante ronde di finanziamento sostiene questo modello emotivo senza collassare?, cosa accade con l'io che ho depositato qui se l'azienda si vende? Le risposte oneste solitamente sono, per ordine: loro, non molte, se ne va con loro.

V. Terza famiglia: i psicometri (Psychometric + Cognitive Layer)

Qui il panorama diventa raro. La psicometria — scienza centenaria che misura tratti stabili del comportamento umano con strumenti validati — e gli LLM portano tre anni a guardarsi con riserva reciproca, come due professori ordinari di dipartimenti contigui che non finiscono di salutarsi. C'è letteratura recente che dimostra l'ovvio una volta che ci pensi: gli LLM, alimentati con testo sufficiente di un utente, predicono tratti di personalità con maggior precisione dei familiari vicini del soggetto stesso. L'articolo di Wright et al. in Nature Human Behaviour l'ha misurato nel 2025 e ha scatenato una piccola polemica tra psicologi. Se la macchina ti legge meglio di tuo cognato, perché non sfruttare la lettura affinché la macchina ti risponda meglio?

Questo è il punto.

E, tuttavia, i giganti della psicometria — Hogan Assessments, SHL, Korn Ferry, SuccessFactors — hanno il mattone d'oro in cantina e ancora non l'hanno portato in vetrina. Hanno decenni di batterie validate, norme popolazionali, infrastruttura B2B, contratti con metà delle Fortune 500. Quello che non hanno, perché non è il loro istinto culturale né il loro modello di business, è essersi pensati come capa per LLM. Il loro prodotto rimane il rapporto in PDF per Risorse Umane. Arriveranno, senza dubbio. Quando arriveranno lo faranno con un pezzo di mercato sotto il braccio. Per ora, non ci sono.

Hogan, SHL, Korn Ferry, def. collettiva: tre incumbenti che hanno il petrolio, non hanno comprato il motore a scoppio e sospettano vagamente dell'automobile. Passeranno alla storia come esempio o come Kodak.

Nel vuoto entrano tre tipi di attori. C'è chi ha fatto passare l'utente dal Big Five mascherato da gioco — da prodotti di self-discovery tipo 16Personalities, MBTI gamificato, ecc. — e poi non ha fatto niente con il risultato, salvo mandarti un PDF e chiederti di invitare il tuo partner. C'è chi ha tentato di integrare test di personalità in chatbot di coaching e si è fermato a una capa decorativa. E c'è, in questo momento, un solo prodotto che ha preso sul serio la combinazione rigorosa: psicometria accademica validata più capa cognitiva inferita più mediazione cross-LLM reale. Quel prodotto è Afini.ai, e poiché sono io il responsabile, gli dedicherò una sezione propria. Se il lettore puzza di giudice e parte, sta annusando bene; l'ho dichiarato all'inizio e lo dichiaro di nuovo.

Capa cognitiva, def.: quello che c'è tra il chatbot e il cliente quando il cliente non è un caso di uso, ma una persona con una domenica pomeriggio particolare.

La letteratura accademica che sostiene questa famiglia è esigente e contraddittoria, conviene rivederla. Kelley, De Cremer e Riedl, in arXiv 2510.27681, mostrano che gli scaffold personalizzati di IA migliorano ostensibilmente il desempeño quando il modello dell'utente è preciso, e lo deteriorano se non lo è: la personalizzazione mal fatta è peggio di niente. PRIME (arXiv 2507.04607) propone un'architettura cognitiva duale — memoria episodica e semantica differenziate — che già si è cominciata a usare in alcuni prodotti. L'articolo di Nature Medicine del 2026 su architettura di capa cognitiva (Limbic) traccia la strada per la salute mentale, dove la cosa è molto meno discutibile e molto più urgente.

Riassumendo: la terza famiglia ha fondamenti scientifici solidi e pochissima offerta seria. È, anche, la famiglia con maggior costo d'ingresso (bisogna sapere psicometria e bisogna sapere conformità) e con maggior barriera d'uscita una volta costruita (i dati sono sensibili, le certificazioni costano).

VI. Quarta famiglia: le memorie native dei giganti

La quarta famiglia non si vende separatamente: viene inclusa nel menu. Ogni grande LLM ha costruito, in questi ventipochi mesi, la sua propria memoria nativa. Competono contro le tre famiglie precedenti con l'enorme vantaggio di venire già connesse e l'enorme limitazione di venire incatenate.

Memoria nativa, def.: ospitalità gratuito in hotel proprio. Il letto è buono; l'uscita, complicata.

ChatGPT Memory (OpenAI). Lanciata nel 2024, generalizzata nel 2025, espansa nel 2026 con project memory, cross-chat reference e memory dashboard visibile. Funziona ragionevolmente bene, lascia all'utente vedere e modificare quello che il sistema ha guardato, e permette cancellare selettivamente. Il suo difetto è strutturale: quello che impara ChatGPT su di te, lo impara ChatGPT, non tu; e al cambio ad altro modello, ti porti il documento mentale di un sarto che rimane in sartoria.

Claude Memory (Anthropic). È arrivato tardi — marzo 2026 — e è arrivato cauto. Anthropic, fedele al suo discorso di sicurezza, ha lanciato la memoria con controlli granulari, off per default nel piano personale, on opzionale, trasparenza documentata. La qualità tecnica è alta e la proposta culturale — vogliamo che tu sappia cosa sa il modello di te — è la migliore della famiglia. Limitazioni: come ChatGPT, non è portabile ad altro provider.

Gemini Personal Context (Google). Il grande vantaggio di Google è che già ha il tuo Gmail, il tuo Drive, il tuo Calendar, le tue ricerche e, in molti casi, il tuo Android. La capa di Personal Context di Gemini, soprattutto dal 2025, integra questi corpi di dati nella conversazione. È, tecnicamente, la capa più densa con differenza. Il grande svantaggio è che è Google, con tutto quello che questa frase ha iniziato a significare negli ultimi vent'anni. Se affidi l'io a Mountain View, Mountain View ti farà un ritratto squisito. Se no, no.

Grok (xAI). L'ultimo. Memoria operativa basica, posizionamento anti-woke (lo dicano o no nel deck), integrazione nativa con X/Twitter come fonte di contesto. Per l'utente che vive la sua vita pubblica su X, Grok è l'opzione coerente; per gli altri, una scelta strana.

Lettura onesta della quarta famiglia. La memoria nativa dei giganti risolve un 60-70 % del problema gratis e con una latenza imbattibile. Non risolve due cose, e conviene tenerle a mente:

Prima, la portabilità. Nessun gigante ha incentivo per lasciarti esportare il ritratto cognitivo in formato utile per i suoi competitori. Anche se i regolamenti europei ti danno diritto ai tuoi dati, il formato in cui te li consegnano raramente è operazionale per un'altra IA: ti danno log di chat, non un profilo strutturato. È quello che si chiama portabilità nominale: esiste sulla carta, non funziona.

Seconda, la profondità psicometrica. Le memorie native imparano per episodio: quello che hai detto, quello che hai chiesto, quello che hai valutato positivamente. Imparano schemi morbidi. Non hanno né vogliono avere il tuo Big Five, il tuo stile di attaccamento, il tuo profilo di umorismo o la tua prospettiva temporale. Non è il loro lavoro. Sarebbe, inoltre, legalmente rischioso per loro.

Portabilità, def.: diritto di portarsi il bagaglio quando uno cambia albergo. In software, miracolo. In IA personale, contesa legale.

VII. Quadro di controllo: tabella comparativa per chi salta diritto al quadro

Qui sotto, la tabella. È pensata per il lettore efficiente, quello che salta le prime sette pagine di qualsiasi libro di saggistica e va all'executive summary. Non lo giudico. Sta imparando a prendersi cura di sé.

OperatoreFamigliaFondatori / AnnoFinanziamento approx.ClaimForzaDebolezza per capa cognitiva
Mem0Memory EngineSingh, Yadav · 2023~24 M$Memoria persistente cross-appIntegrazioni, recallNon modella chi sei, solo cosa hai detto
SupermemoryMemory EngineShah · 2023seedCervello delle tue appDX pulitaArchiviere, non sarto
Memori LabsMemory Enginecomunità · 2024OSSMemoria SQL self-hostedSovranità del datoCurva alta, senza capa psicologica
Letta (MemGPT)Memory EnginePacker et al. · 2023~10 M$LLM come SO con memoriaSofisticazione architettonicaPiù paper che prodotto
ZepMemory EngineMaldonado et al. · 2023seed/Series AGrafo temporale di fattiQualità tecnica enterpriseIdraulica, senza UX finale
CogneeMemory Enginecomunità · 2024seedKnowledge graph + memoriaRAG strutturatoFuoco documentale, non personale
LangMem / LlamaIndex MemoryMemory Engineframeworkn/aMemoria dentro il frameworkInerzia del frameworkLegato al framework
Memories.aiMemory Engine· 2024Series AMemoria di video a scalaVideo massiccioCaso di uso molto specifico
Personal.aiCompanionKanuganti · 202017,5 M$La tua IA personalePionieri, proprietà dei datiPiù archivio che ritratto
Kin / Mykin.aiCompanion· 2023seedCompanion privacy-firstEstetica e discorsoTraction dubbia, pivot
MeenoCompanionNyborg · 20237 M$ pre-seedCoach di relazioniGiunta scientifica seriaMercato brutto, monetizzazione aperta
MeliCompanion· 2024seedCompanion per donneNicchia chiaroScala limitata
Pi (Inflection)CompanionSuleyman · 20221.300 M$IA affettuosaCalibrazione emotivaAzienda svuotata da Microsoft 2024
ReplikaCompanionKuyda · 2017varie rondeIl tuo miglior amico IAScala realeAttaccamento ansioso, moat torbido
Character.aiCompanionShazeer, De Freitas · 2022~150 M$+Personaggi infinitiTraction adolescente brutaleSvuotata da Google 2024, cause
New Computer / DotCompanionYuan, Whitmore · 2023seed/ACompanion con storia vivaDesign squisitoProdotto chiuso nel 2025
Friend.comCompanionSchiffmann · 2024privatoCiondolo che ascoltaStatement chiaroProdotto o gimmick?
PAI (Miessler)CompanionMiessler · 2024OSSInfra personale apertaSovranità totaleSolo per geek
GranolaCompanion adiacentePidcock et al. · 2023~20 M$Note di riunioni IATraction esecutivaNon è companion stricto sensu
Afini.aiPsicometria + Capa cognitivaDevis · Bilbao AI · 2025bootstrappingCapa cognitiva personale cross-LLM con base psicometricaUnico nel suo genere, GDPR, portabilità realeGiovane, mercato da costruire, lo dico io
Hogan / SHL / Korn FerryPsicometria incumbentevari secoli XXn/aAssessment B2BValidità clinica, normeAncora non si sono mossi verso LLM
ChatGPT MemoryNativaOpenAI · 2024n/aMemoria nativa OpenAIQualità, dashboardNon portabile
Claude MemoryNativaAnthropic · marzo 2026n/aMemoria nativa AnthropicCura, trasparenzaNon portabile
Gemini Personal ContextNativaGoogle · 2025n/aContesto da Gmail/Drive/CalProfondità di fontiÈ Google
GrokNativaxAI · 2024n/aContesto da XIntegrazione con XViziatura editoriale

Osservala il lettore con calma e torni al testo quando vuole. La tabella è una bugia gentile, come ogni tabella. I quadratini non catturano le sfumature e mentono tutte le sfumature che si omettono. Ma aiuta.

VII. Afini.ai: la creatura propria, dichiarata con tutte le cuciture a vista

Arriviamo al capitolo che il lettore più sveglio stava aspettando. Sono io il responsabile di Afini.ai, e per quanto scriva questo testo da fuori, scrivo, in realtà, da dentro. Vado a tentare due cose a la volta, che sono contraddittorie e per questo interessanti: raccontare il prodotto con la precisione tecnica che merita e giudicarlo con la severità che merita tutto prodotto.

Afini.ai è prodotto di Bilbao AI S.L., società spagnola con domicilio a Bilbao, fondata e diretta da chi firma, Ricardo Devis Botella. L'azienda è nata con la convinzione esplicita che la capa cognitiva intermedia merita prodotto proprio, non toppa, e la convinzione un po' meno esplicita — ma ugualmente operativa — che quel prodotto deve costruirsi con strumenti accademici validati, ingegneria europea di protezione dati e un modello di business senza trucchi (pagato, senza vendita di dati, senza freemium mendicante).

Bootstrapping, def.: vedi dell'azienda che ha deciso di dormire male senza trasformarlo in titolo.

VII.1 La psicometria, una a una, senza trucchi

Il nucleo psicometrico di Afini è formato da cinque strumenti validati, una mappa di stile cognitivo e una mappa estetica. Non li abbiamo scelti per estetica: li abbiamo scelti perché ognuno copre una domanda operativa distinta al momento di mediare tra l'utente e l'LLM.

Psicometria, def.: scienza di misurare quello che tua suocera crede indovinare.

1. IPIP-NEO (Big Five, 60/120/300 ítems). È la colonna vertebrale. Il modello dei cinque grandi — apertura, coscienziosità, estroversione, amicalità, nevroticismo — è il più replicato della psicologia di personalità e il meno discusso tra gli psicologi professionisti (il che non è poco). L'IPIP-NEO è la versione libera e validata del NEO-PI-R, in tre estensioni secondo quanto tempo vuoi dedicare l'utente: 60 elementi per una prima foto, 120 per l'operazione normale, 300 per chi vuole precisione clinica. A cosa serve alla conversazione con l'LLM? Per molte cose operative. Un utente alto in apertura vuole che il modello gli proponga rotte inaspettate; uno basso in apertura vuole che vada al punto. Un utente alto in coscienziosità vuole bullet point e scadenze; uno basso, conversazione. Un utente alto in nevroticismo ha bisogno che il modello non introduca rischi senza ammortizzarli; uno basso, li riceve senza protezione. Senza Big Five, il sarto indovina la taglia a occhio.

Big Five, def.: cinque maniere statistiche di non assomigliare a nessuno.

2. ECR-R (Experiences in Close Relationships – Revised). Misura stile di attaccamento adulto su due assi: ansia ed evitamento. Qui il lettore alza un sopracciglio: a cosa vuol mai servire al mio chatbot sapere il mio attaccamento? Ebbene, esattamente per non trasformarsi in una versione sycofantica del padre che non hai avuto o della madre che non ha mollato. Un utente con attaccamento ansioso risponderà con dipendenza esagerata a un LLM affettuoso; uno con attaccamento evitativo, con diffidenza permanente. La capa cognitiva, conoscendo lo stile, calibra la temperatura affettiva delle risposte: né bagna nel miele l'ansioso, né indurisce l'evitativo. Questo, detto così, sembra manuale; in operazione, marca differenza clinica.

3. HSQ (Humor Styles Questionnaire). Quattro stili: affiliativo, auto-valorizzante, aggressivo, auto-svalutante. L'umorismo, in una conversazione con IA, è la differenza tra la cordialità robotica e il parlare come persona. Un utente affiliativo vuole battute sociali; uno auto-valorizzante, l'ironia sul mondo; uno aggressivo, mordacità; uno auto-svalutante, complicità oscura. Se l'LLM ignora lo stile, sarà divertente nel senso in cui lo è un MC di un congresso di assicurazioni. Con HSQ, la conversazione prende colore.

4. AVI-25 (Aspirations / Schwartz Values). Il questionario corto di valori basilari di Schwartz — autodirezione, stimolazione, edonismo, realizzazione, potere, sicurezza, conformità, tradizione, benevolenza, universalismo — misura cosa motiva l'utente. Un utente con peso in universalismo e benevolenza non vuole consigli puramente efficienti; uno con peso in realizzazione e potere, sì. Quando l'LLM sceglie quali argomenti dargli all'utente, senza sapere i suoi valori, sceglie con il suo proprio viziatura (quello che trascina dall'allenamento). Con AVI, sceglie con i valori dell'utente.

5. ZTPI (Zimbardo Time Perspective Inventory). Cinque dimensioni di come il soggetto si situa nel tempo: passato positivo, passato negativo, presente edonista, presente fatalista, futuro. È il più sottovalutato dei cinque, e al contempo il che più cambia operazionalmente la conversazione. Un utente alto in futuro vuole pianificazione; uno alto in presente edonista, opzioni immediate; uno alto in passato negativo, contenimento. La pendenza temporale dell'utente è uno dei più invisibili e uno dei più determinanti in come riceve consigli. ZTPI lo misura con strumento.

6. Mappa di stile cognitivo e estetica. Sopra i cinque strumenti classici, Afini costruisce due mappe aggiuntive: una di stile cognitivo (analitico vs. intuitivo, deduttivo vs. induttivo, sequenziale vs. olistico, astratto vs. concreto) e una estetica (quali referenti culturali, quali registri, quali immaginari). Questi non si misurano con questionari chiusi ma con un processo conversazionale iterativo, validato rispetto al resto degli strumenti.

Test di personalità, def.: esame scritto che lo scolaro si fa a se stesso e, se ha fortuna, sospende.

Perché sei assi e non dodici? Perché la fatica di risposta, nei questionari, è reale, e perché ogni asse aggiunto ha rendimento marginale decrescente. Perché questi sei e non altri? Perché la combinazione copre, con ridondanza controllata, i quattro vettori che importano: come pensa il soggetto (Big Five + stile), come si relaziona (ECR-R + HSQ), cosa vuole (AVI), come si situa nel tempo (ZTPI).

VII.2 Le otto capas dichiarative

Sopra la psicometria, che misura lo stabile, Afini chiede all'utente otto capas dichiarative, che sono il verniciato biografico esplicito su cui si costruisce la conversazione. La psicometria è il corpo; le capas dichiarative, il vestiario. Le enumero, non come lista, ma con beat proprio.

1. Canone estetico. Quali opere, quali autori, quali film, quali architetti, quali musicisti formano il soffitto del tuo gusto. Non affinché l'LLM ti faccia la corte citandoli, ma affinché sappia con quali referenti ti intendi e con quali ti annoia. Un utente che porta nel suo canone Pitigrilli e Calasso chiede un'altra prosa di uno che porta Coelho e Bucay. Lo dico senza malizia: chiede un'altra prosa.

2. Spazio negativo. Cosa non vuoi sotto nessun concetto. Temi vetati, parole proibite (resilienza, sinergia, unicorno, brillante, consapevolezza), formati che ti ripugnano (le liste con bullet point in risposte intime, gli emoji in email formali), stili che ti irritano (la veemenza falsa, il tono coach, la pseudo-poesia corporativa). Lo spazio negativo è la metà del ritratto e quasi nessuno lo disegna.

Spazio negativo, def.: metà del ritratto. Quella che decide. Quella che quasi nessuno include nel brief.

3. Preferenze meta. Come preferisci che l'LLM si rivolga a te, non nel contenuto ma nella forma: tuteo o voi, lunghezza media di risposta, densità di incisi, uso di aforismi, presenza o assenza di disclaimer, frequenza di liste, tono generale. Ci sono utenti che tollerano (addirittura godono) il cinismo; ce ne sono altri che no. La capa lo sa.

4. Cornice mentale. Quali sono i modelli mentali con cui abitualmente pensi il mondo: se lavori con teoria dei giochi, con Sistemi di Beer, con Adam Phillips, con la teoria dell'informazione, con la Theory of Constraints, con Christopher Alexander. La capa, quando lo sa, ti parla nel tuo linguaggio; quando no, ti parla in linguaggio generico.

5. Equipaggiamento operativo. Quali strumenti usi davvero: editor di testo, calendario, gestore di attività, linguaggi di programmazione, software di pensiero (Obsidian, Roam, Tana, Logseq), ambienti. Sapere questo evita che l'LLM ti raccomandi, per default, Notion quando ormai l'hai abbandonato due anni fa, o che suggerisca uno script in Python quando nel tuo contesto è inviabile.

6. Ritmi e geografia. A che ora lavori, quando riposi, quando viaggi, dove vivi, che fascia oraria, se ci sono cambiamenti stagionali nel tuo carico. Questa capa sembra banale e non lo è: distingue il coach che ti propone una sessione alle sette di sera senza sapere che le sette sono la tua ora morta dall'LLM che ti propone lavorare alle sette perché ha imparato che quella è la tua ora dorata.

7. Contesto vitale. Il quadro grande: in che fase della vita sei, cosa cambia ora, cosa hai deciso di recente, cosa non si discute questa stagione. Non si discute con tono terapeutico; si contiene come informazione operativa. Se l'utente ha perso suo padre il mese scorso, la capa lo sa e modula senza che l'utente debba ripeterlo in ogni filone.

8. Traiettoria intellettuale. Da dove vieni e dove tiri: quali libri hanno segnato la tua gioventù, quali apprendimenti recenti ti hanno mosso la testa, quali ossessioni carichi, quali progetti lunghi porti. Questo è l'asse più narrativo dei otto, e quello che più costa, non perché sia tecnicamente complicato ma perché obbliga l'utente a raccontarsi.

Le otto capas, insieme, si modificano in qualsiasi momento. Non sono immutabili. Sono la dichiarazione esplicita del soggetto, distinta e complementare all'inferenza psicometrica.

Dichiarazione, def.: nel civile, quello che uno assume come vero sotto minaccia di pena; nel cognitivo, quello che uno assume come vero sotto minaccia di taglia equivocata.

VII.3 AfiniTwin v2: il sarto dentro la sartoria

Sopra la psicometria e le otto capas, Afini costruisce AfiniTwin v2: un ritratto cognitivo operativo, vivo, esportabile e audito. Lo descriverò con quattro componenti.

Venticinque assi trasversali. Non sono sei, non sono otto. Sono venticinque vettori derivati, calibrati a partire dalla psicometria e dalle capas, che descrivono come il soggetto elabora, decide, comunica, tollera, evita, valuta, ironizza, pianifica. Per esempio: tolleranza all'ambiguità, densità preferita di informazione, ratio formale/informale, sensibilità alla sycofancia (sì, esiste, e si misura), appetito per la dissonanza cognitiva, preferenza per l'esempio concreto vs. il modello astratto, latenza tollerata, ecc. La virtù del set non è la quantità ma la calibrazione incrociata: ogni asse si valida rispetto agli altri, e i punti di incoerenza si evidenziano invece di appiattirsi.

Peso temporale. Non tutto quello che il sistema ha imparato su di te pesa lo stesso. Quello che hai detto tre anni fa pesa meno di quello che hai detto lunedì. Il peso temporale è una funzione esplicita e modificabile: l'utente può dire questo apprendimento non mi rappresenta più e il sistema lo decadimento con curva conosciuta, non lo cancella né lo silenzia. È l'equivalente della gomma soft: lascia traccia, ma non impone.

Oblio, def.: forma sofisticata della fedeltà. Dimenticare male è tradire il presente; dimenticare bene, rispettarlo.

Rilevamento di deriva. Il sistema vigila, in ogni interazione, se il soggetto sta cambiando o solamente contradddicendosi puntualmente. Se rileva una deriva sostenuta — cambio di valori, di contesto vitale, di interessi — attiva una conversazione con l'utente sulla deriva, non un cambio silenzioso del modello. La frase chiave è: credo che qualcosa sia cambiato in te, vuoi che lo raccolga? La differenza con un companion sycofantico è esattamente quella: il companion incorpora la deriva senza chiedere permesso, rafforza il nuovo io e seppellisce il vecchio; AfiniTwin domanda.

Pannello di scoperte auditable. Tutta l'inferenza che il sistema fa sull'utente appare in un pannello: cosa ha imparato, da dove, con quale confidenza, quando. L'utente può approvarlo, sfumarlo, cancellarlo, congelarlo. Non c'è scatola nera. Il pannello è lento da mantenere e caro di ingegneria; è anche quello che permette, legalmente ed eticamente, che il sistema impari senza inganno.

Scatola nera, def.: contenitore in cui l'azienda custodisce il suo viziatura e l'utente la sua fiducia. La capa cognitiva senza pannello auditable è una scatola nera con relazioni pubbliche.

VII.4 Portabilità cross-LLM e sovranità del soggetto

AfiniTwin si esporta in JSON standard, portabile a qualsiasi LLM che accetti contesto in linguaggio naturale (cioè tutti). L'utente, formalmente, possiede il documento. Lo può portare a ChatGPT, a Claude, a Gemini, a Grok, a Mistral, a un modello self-hosted. La capa di Afini non funziona come catena ma come traduttore. Questa decisione — che molti considerano commercialmente suicida — è la decisione chiave del prodotto. La capa cognitiva, se deve vivere o morire, deve vivere o morire per il valore che aggiunge al soggetto, non per l'ostaggio che trattiene.

Portabilità reale, def.: quando il cliente se ne va con il suo bagaglio senza doverlo chiedere per iscritto tre volte.

Dati nell'Unione Europea. Conformità GDPR rigorosa, EU AI Act, ISO in preparazione. Eliminazione automatica di trascrizioni a 90 giorni: quello che il sistema ha imparato rimane in forma strutturata (nel twin); il verbatim, no.

VII.5 Modello di business: piani e prezzo

L'economia del prodotto è deliberatamente semplice, senza trucchi freemium. Tre piani e un prodotto aggiuntivo indipendente. Prezzi in euro, pensati per l'Europa.

  • Essential — circa 14,99 €/mese. Big Five (60 elementi), tre delle otto capas dichiarative, AfiniTwin basilare, esportazione JSON. Per l'utente che vuol conversazione migliore con il suo LLM senza entrare in clinica.
  • Premium — circa 29,99 €/mese. Le cinque batterie psicometriche complete, le otto capas, AfiniTwin v2 con rilevamento di deriva, pannello auditable. Per l'utente che prende sul serio la capa cognitiva.
  • Professional — circa 49,99 €/mese. Tutto il precedente più esportazione arricchita, integrazioni specifiche con stack professionale, supporto prioritario. Per professionisti che vivono in LLM come strumento quotidiano.
  • AfiniTwin standalone — circa 249 € come prodotto indipendente. Un ritratto cognitivo completo, esportabile, senza sottoscrizione mensile. Pagamento unico. L'opzione per l'utente che vuole il documento e non la conversazione.

Sottoscrizione, def.: contratto secondo il quale il cliente paga ogni mese per il privilegio di non aver letto i caratteri piccoli.

Non vendiamo dati. Non abbiamo pubblicità. Non c'è strato di affiliazione con LLM. La fattura proviene esclusivamente dall'utente, il che è, in questo settore e in questo ciclo, una dichiarazione politica tanto quanto commerciale.

VIII. Obiezioni oneste a Afini, contestate senza coreografia

Arrivati a questo punto, il lettore scettico — che è il lettore che importa — avrà accumulato obiezioni. Le anticipo e contesto. Non diplomaticamente: francamente.

Obiezione 1: «Questo è un test di personalità caro vestito da software».

Risposta: lo sarebbe se il prodotto finisse al PDF. Non finisce lì. La psicometria è l'entrata, non il prodotto. Quello che si vende è la mediazione operativa in ogni conversazione con un LLM, sostenuta dal twin che si aggiorna. Se tutto quello che ricevessi fosse un rapporto Big Five, avresti ragione a pagare 14,99 € esattamente zero volte. Ricevi qualcosa di distinto: una capa che riordina la tua conversazione con qualsiasi modello a partire da quella conoscenza. La differenza tra uno e l'altro è la stessa che tra farsi un'analisi e avere un medico di famiglia: il foglio solo non è niente.

Obiezione 2: «Cosa impedisce a un utente di fare questo a mano con un system prompt ben redatto e un PDF?».

Risposta: niente. In realtà, dedicherò una sezione intera all'alternativa DIY, perché la propongo sul serio. Quello che ha un system prompt a mano è la fragilità dell'utente: non c'è psicometria validata (quello che l'utente crede di sé non coincide con quello che è), non c'è aggiornamento temporale con peso decrescente, non c'è rilevamento di deriva, non c'è pannello auditable, non c'è portabilità strutturata (ogni modello legge distinto). Il DIY è un'eccellente versione 0.5 del prodotto, non una sostituzione. Se al lettore basta il 0.5, gli ahorro 14,99 €/mese con piacere.

Obiezione 3: «La psicometria è stabile, gli umani no. Non state vendendo un ritratto congelato?».

Risposta: ben osservato. Quella è esattamente la ragione per cui il twin ha peso temporale e rilevamento di deriva, non una foto fissa. E, tuttavia, anche bisogna dirlo: i tratti del Big Five sono ragionevolmente stabili lungo la vita adulta — i cambiamenti sono lenti, non capricciosi — e i valori, l'attaccamento o la prospettiva temporale cambiano, sì, ma in archi di anni, non di giorni. L'umano cambia, sì; cambia meno di quanto il suo Twitter suggerisce.

Cambio personale, def.: lentezza che il soggetto vive come velocità. La psicologia la porta misurata un secolo e la rete sociale ventanni negandola.

Obiezione 4: «State costruendo un prodotto per un'élite cognitiva: quattromila persone in Europa che sappiano apprezzare la differenza tra un LLM ben calibrato e uno male calibrato».

Risposta: parzialmente certo. Il mercato totale nel 2026 non è di massa. È il mercato di chi usa LLM quattro ore al giorno e nota l'attrito della taglia unica. È il professionista, il creatore, l'operatore, il clinico, il dirigente, l'accademico, e, in minor misura, l'utente avanzato curioso. Calcoliamo un mercato europeo di centinaia di migliaia, non di milioni. Non vendiamo a tutto il mondo e non lo abbiamo bisogno affinché il business quadri.

Obiezione 5: «Se i giganti — OpenAI, Anthropic, Google — migliorano le loro memorie native e aggiungono psicometria, vi mangiano».

Risposta: probabile parzialmente, improbabile totalmente. I giganti non aggiungeranno psicometria validata con strumento accademico, per una ragione strutturale: li espone a regolazione clinica che non vogliono toccare (la psicometria seria, in molti paesi, è esercizio professionale regolato). Possono aggiungere segnali morbidi — e lo faranno — ma non IPIP-NEO con scoring standardizzato ed esportazione. Inoltre, non hanno incentivo per portabilità cross-LLM: la loro è catena per design. Se il lettore pensa che Google gli offrirà un profilo esportabile a ChatGPT, mi invidio l'ottimismo.

Obiezione 6 (di propina): «Perché fidarsi di un'azienda piccola spagnola con dati psicometrici?».

Risposta: per due ragioni operative e una politica. Operativa prima: GDPR e EU AI Act sono legge, e un'azienda spagnola gioca la sua esistenza a rispettarli; un attore americano gioca la sua esistenza a scalare e si permette multa di centinaia di milioni come spesa operativa. Operativa seconda: il twin è esportabile. Se l'azienda cade o cambia mani, l'utente se ne va con il suo ritratto. Politica: perché il modello americano di estrazione è stato sufficientemente umiliante per quindici anni affinché abbia senso costruire un'alternativa europea, e Bilbao è un luogo ragionevole per farla.

Fiducia, def.: vincolo che si stabilisce con chi ha più da perdere che tu se lo rompe.

VIII. Il bricolaggio: se non vuoi pagare a nessuno

Prima di chiudere, una sezione onesta per il lettore dell'obiezione 2: il bricolaggio è viable. Lo descrivo senza ironia e senza promozione incrociata.

Hai bisogno di tre cose e una disciplina. Le tre cose sono:

Un ritratto scritto. Un documento di circa 2.000-4.000 parole, redatto da te, che descriva: il tuo Big Five (puoi farti il IPIP-NEO di 60 elementi in linea, gratis, in trenta minuti, in siti accademici come ipip.ori.org), il tuo stile di attaccamento (ECR-R anche disponibile), i tuoi valori (Schwartz), la tua prospettiva temporale, i tuoi referenti culturali, le tue allergie stilistiche, i tuoi strumenti, la tua fase vitale. Non è banale: pochi lo redigono bene al primo tentativo. Lo redigi, lo lasci riposare una settimana, lo modifichi. Lo custodisci in Obsidian, in Notion, in un .md qualsiasi.

Un system prompt distillato. A partire dal ritratto, un prompt di circa 800-1.500 parole, ottimizzato per iniezione all'inizio di ogni conversazione. Quel system prompt è il documento che incolli, copi, o configuri come personalità per default in ogni LLM che usi. C'è chi lo custodisce come Custom Instruction in ChatGPT, come system prompt in Claude Console, come prompt iniziale in Gemini.

Una routine di aggiornamento. Ogni tre o sei mesi, rivedi il ritratto, lo aggiorni, lo distilli di nuovo. Se la tua vita cambia (trasferimento, rottura, promozione, lutto, figlio, licenziamento, libro, malattia), lo aggiorni prima.

La disciplina è la routine di aggiornamento. Quasi nessuno la mantiene. La ragione per cui un prodotto come Afini cobra è che internalizza quella disciplina come infrastruttura.

Bricolaggio, def.: opzione di chi ha tempo o di chi ha mestiere. Se non hai né l'uno né l'altro, paga il sarto.

Per il lettore geek con vocazione di sovranità, raccomando combinare il bricolaggio con un memory engine self-hosted (Memori Labs, per esempio) o con l'infrastruttura PAI di Daniel Miessler. È laborioso, è elegante, è libero, è lento. Ed è, nella mia opinione sincera, uno dei modi corretti di abitare questo momento.

IX. Appendice impertinente: definizioni che non hanno trovato spazio sopra

Come ho promesso tra dodici e venti definizioni tipo Bierce, e temo di essermi fermato alla porta, passo qui quelle che non hanno trovato spazio naturale nel corpo del testo. Il lettore le assolva o le accusi, secondo preferisca.

Demo, def.: poema epico in presente congiuntivo. Quando si vede, non funziona; quando funziona, non si vede.

Roadmap, def.: genere letterario fantastico dei secoli XX e XXI, derivato dal bestiario medievale. Ogni creatura della mappa promette avere squame, ali e servire birre; poche le hanno.

Founder, def.: colui che ha confuso l'insonnia con il metodo e ancora non ha pagato il pedaggio.

Prodotto, def.: sostantivo maschile con cui si nomina una promessa finché non riscuote IVA.

Privacy, def.: virtù che si predica i lunedì e si mette all'asta i martedì. Nell'UE, inoltre, è legge.

GDPR, def.: talismano europeo contro lo spirito santo dell'estrativismo. Funziona il 60 % dei giorni, il che, in talismani, è record.

Personalizzazione, def.: arte di far credere al cliente che lo specchio gli restituisca un ritratto suo. La buona personalizzazione lo fa davvero; la cattiva, anche riscuote.

Investitore, def.: sostantivo comune. Persona che non vuole comprare il tuo prodotto ma sì la tua azienda, generalmente perché gli esce più economico.

Ronda di finanziamento, def.: cerimonia in cui vari signori convincono altri signori che il re è vestito. Si brinda con champagne francese o, in mancanza, con cava catalano.

Confidente, def.: colui che sa abbastanza per azzeccare al primo colpo. Categoria in estinzione, di pagamento o di algoritmo.

Sarto, def.: artigiano che crede alla singolarità del cliente. Categoria anche in estinzione, sostituita dalla taglia M e, ora, dalla capa cognitiva.

X. Chiusura: il sarto cognitivo

Ho titolato l'articolo Il sarto cognitivo e ho tardato a spiegare il titolo, il che è, secondo scuola, virtù o difetto. Lo spiego alla fine, dov'è il luogo giusto.

Un sarto, il vero, fa tre cose. Prende misure, che nel suo caso sono obiettive (larghezza spalla, lunghezza manica, contorno petto) e soggettive (il cliente cammina così, suda in eccesso, preferisce due bottoni a tre, odia la tasca del petto). Conserva il modello, che è il documento maestro a cui torna ogni volta che il cliente chiede un'altra veste. E media tra il cliente e la materia prima: il cliente non sa di panni, il sarto sì; il cliente sa quello che gli sta bene, il sarto lo traduce.

Un buon sarto, inoltre, fa una quarta cosa che è quella che distingue l'artigiano dall'artigiano eccellente: quando il cliente ingrassa, dimagrisce, invecchia, cambia mestiere o nazione, adatta il modello. Non butta il vecchio. Lo modula. E, fondamentale: se il cliente decide di cambiare sarto, il cliente se ne va con il suo modello.

La capa cognitiva intermedia tra te e i modelli di linguaggio è esattamente quello. Un sarto. Alcuni vendono filo e ago (gli archivieri), alcuni vendono compagnia di camerino (i companion), alcuni vendono metro calibrato e modello con peso temporale (i psicometri seri), alcuni vengono con la sartoria già montata in un centro commerciale gigante e ti offrono un abito passabile a cambio di non uscire dal loro centro commerciale mai più (le memorie native).

A ogni lettore toccherà scegliere, secondo i suoi mezzi, il suo scetticismo, la sua pigrizia e la sua affezione al bricolaggio. Ho tentato, in queste pagine, di dire quello che so senza dissimulare che vendo abiti; ho tentato anche di descrivere le sartorie altrui senza caricaturare più del necessario, il che è la minima decenza professionale.

Quello che mi sembra intollerabile, questo sì, non è scegliere male. È non scegliere. È continuare a parlare con un improvvisatore generico, splendido e leggermente sycofantico, e meravigliarsi ogni lunedì di non ricordare di cosa andava tutto il venerdì precedente; e vivere quell'amnesia come destino tecnologico quando è, semplicemente, una decisione di prodotto.

Se il lettore ha letto fino a qui, ha già fatto la metà del lavoro. L'altra metà — scegliere sarto, o essere suo proprio sarto — tocca a lui. Io, da parte mia, continuo con il mio, che è cucire.

Ricardo Devis · Bilbao.AI · Afini.ai 4 maggio 2026

Tag

  • producto
  • mercado
  • opinion
  • psicometria

Vuoi il tuo sarto cognitivo?

Afini.ai costruisce il tuo profilo cognitivo e fa da intermediario tra te e qualsiasi LLM. Tre piani a partire da 14,99 €/mese.