AfiniTwin: Der kognitive Schneider
Über die kognitive Zwischenschicht zwischen dem menschlichen Benutzer und den LLMs, mit Vergleichstabelle, frechen Definitionen und einer Interessenerklärung, die ich lieber am Anfang mache
I. Der Schwellenwert, der Schneider und der Verdacht
Es gibt einen Moment, nach den ersten Monaten mit einem Sprachmodell, in dem man merkt, dass das Gespräch verdächtig ähnlich dem mit einem exzellenten Kellner ist, der an drei Tischen gleichzeitig bedient: sympathisch, aufmerksam, in der Lage, sich daran zu erinnern, dass du das Steak medium-rare letzte Woche bestellt hast, aber unfähig zu wissen, warum du es genau so bestellt hast, noch welchen Zusammenhang das mit deinem Vater hat, mit deiner Schlaflosigkeit, mit dem Roman, den du auf Seite 112 abgebrochen hast, oder damit, dass du das Wort Resilienz hasst. Der Kellner lernt, dir zu gefallen. Der Kellner kennt dich nicht.
Diese Kluft zwischen gefallen und kennen ist die kognitive Zwischenschicht. Es ist der Schneider. Es ist der Ort, wo jemand — menschlich, Software oder beides — sich darum kümmert, Maß zu nehmen, damit der Anzug nicht schon wieder Einheitsgröße mit zugenähten Taschen wird.
Kognitive Zwischenschicht, Def.: neutrales Territorium, in dem der Mensch seine Biografie deponiert, damit die Maschine ihn nicht mit dem Nachbarn im fünften Stock verwechselt. Das, was zwischen generisch und Ich vermittelt, zwischen Korpus und Person, zwischen LLM und dem Subjekt, das es wagt, keine Anwendungsfall zu sein.
Wir sind seit, sagen wir, Ende 2022 in einem Massengespräch mit Maschinen, die besser schreiben als die meisten unserer Schwager und schlechter als fast jeder Noir-Romanautor der Sechzigerjahre. Das Gespräch ist beim ersten Schluck exzellent und beim dritten vage enttäuschend. Es enttäuscht, weil du nach vier Nachmittagen, in denen du dem Chatbot erzählt hast, wer du bist, was du willst, was dich verletzt, was dir Spaß macht und wovon du eine Allergie hast, am nächsten Tag zurückkommst und der gleiche höfliche Hausmeister dich mit intaktem Lächeln empfängt und fragt, was du dir wünschst. Die Amnesie ist kein Bug: es ist die Architektur. Die Erinnerung, in diesen Kreaturen, ist ein später Flicken, der mit Fäden verschiedener Farben an die Fassade genäht wurde.
Daher die blühende Wirtschaft von Unternehmen, die sich zwischen dich und das Modell zwischendrängen. Um sich deinetwegen zu erinnern. Um dich zu übersetzen. Um dem Modell vor jedem Gruß zu erzählen, was du nicht dreißigmal wiederholen möchtest. Diese Wirtschaft nenne ich, ohne großartige Originalität, die kognitive Zwischenschicht, und davon handelt dieser Artikel.
Gedächtnis (eines LLM), Def.: Fähigkeit, sich an das zu erinnern, was der Benutzer schon vergessen hatte, und zu vergessen, was der Benutzer flehentlich zu erinnern bat. Symptom. Keine Gabe.
Interessenerklärung: Ich leite Bilbao AI S.L. und bin verantwortlich für Afini.ai, eines der Produkte, die hier beschrieben werden. Ich habe versucht, das Afini-Kapitel mit dem gleichen Gewissen zu schreiben, mit dem ich die Konkurrenz auseinandernehme, was in der Praxis bedeutet, dass ich mit der Konkurrenz freundlicher war, als mir genehm war, und mit Afini strenger, als mir nutzen würde. Der Leser wird urteilen, ob die Operation einigermaßen gelungen ist oder ob ich einer der beiden inversen Versuchungen nachgegeben habe, die schleichende Selbstförderung und falsche Bescheidenheit sind, beide gleich zäh.
II. Definition der Kreatur: was ist die kognitive Zwischenschicht
Definieren wir zunächst, bevor wir zur Parade hinaufgehen.
Ein LLM, von sich allein, ist ein professioneller Improvisator ohne Biografie. Seine Exzellenz ist statistisch und seine Umgangsformen tadellos, in dem Sinne, in dem die Umgangsformen eines guten Mercedes-Verkäufers tadellos sind, der dein Auto niemals gefahren hat. Wenn du mit ihm sprichst, sprichst du mit der ganzen Welt auf einmal und daher mit niemandem im Besonderen. Die Industrie nannte prompt engineering das kurze Ritual, durch das der Benutzer vorgab, für zwölf Zeilen jemand mit kohärenter Persönlichkeit zu sein, damit die Maschine im Ton antwortete. Es war eine schöne und prekäre Lösung, wie sich bei jedem Date zu versprechen.
Prompt, Def.: Satz, in dem der Bittsteller den Algorithmus bittet, das zu erraten, das er selbst noch nicht weiß. Die gebetete Form des Marketings, jetzt in Büroaufgabe umgewandelt.
Zwischen dem generischen Modell und dem konkreten Benutzer passt eine Schicht, die drei Dinge tut, nicht mehr:
- Erinnern an das, was der Benutzer bereits erzählt hat, mit gewissem Kriterium (das Wichtige, nicht das Triviale).
- Modellieren wer dieser Benutzer ist, nicht in Marketingschlüssel — Alter, Geschlecht, Postleitzahl — sondern in operativem Schlüssel: wie er denkt, wie er entscheidet, welche Arten von Antwort ihm helfen, welche ihm gleichgültig sind, welche ihn verletzen.
- Vermitteln gegenüber dem LLM in jedem Zug: dieses Porträt in der Sprache, die das Modell versteht, übersetzen, damit das Gespräch von einem Ort ausgeht, der nicht die Willkommenspforte ist.
Die drei Funktionen sind technisch trennbar; kommerziell sind sie achtlos zusammengeklebt worden mit einer gewissen bösen nominalen Absicht. Es gibt Produkte, die nur 1 machen, andere, die nur 2 machen, andere, die alle drei versprechen und bei anderthalb landen. Hier lohnt es sich zu räumen.
Für diesen Artikel gruppiere ich das Feld in vier Familien, wissend, dass jede Taxonomie, wenn sie neu ist, wie eine imperiale Karte aussieht, gezeichnet von jemandem, der die Küste noch nicht gesehen hat:
- Familie Eins: Erinnerungsmotoren und Kontextinfrastruktur. Hochwertige Sanitäranlagen für Entwickler. Mem0, Supermemory, Memori Labs, Letta, Zep, Cognee, LangMem, LlamaIndex Memory, Memories.ai.
- Familie Zwei: Personal AI / Companion. Die App, die Freund, Therapeut, Freundin oder Sekretär sein will. Personal.ai, Kin/Mykin.ai, Meeno, Meli, Pi von Inflection (was davon bleibt), Replika, Character.ai, New Computer/Dot, Friend.com, der PAI von Daniel Miessler, Granola.
- Familie Drei: Psychometrie plus kognitiven Schicht proper. Ein seltenes Exemplar. Afini.ai. Und in der Ferne die klassischen psychometrischen Giganten — Hogan, SHL, Korn Ferry — die immer noch nicht umgezogen sind, obwohl sie den Goldbarren im Keller haben.
- Familie Vier: natives Erinnerungsvermögen der großen LLMs. Das, was ChatGPT, Claude (seit März 2026), Gemini und Grok in ihre eigenen Anzüge genäht haben, damit der Kunde nicht mit einem externen Schneider geht.
Jede Familie folgt einer anderen Logik, und es ist wichtig, die erste nicht mit den Kriterien der zweiten zu beurteilen. Die Sanitäranlagen werden nach Latenz, Recall und Kosten pro tausend Token beurteilt; der Companion nach Kundenbindung, NPS und der unbequemen Frage, wen man in der Welt des Benutzers ersetzt; die Psychometrie nach Konstruktvalidität und etwas Vaporöserem, das wir strukturelle Ehrlichkeit nennen; das native Erinnerungsvermögen nach Bequemlichkeit und dem Grad, in dem es dich in seinen Garten einsperrt.
Gehen wir der Reihe nach vor.
III. Familie Eins: die Archivare (Memory Engines)
Ich nenne Archivare die, die mit Sorgfalt und SDK den Lagerbestand bauen, in dem das LLM aufbewahrt, was der Benutzer hinterlässt. Sie sind Ingenieure mit dokumentarischer Berufung. Ihr Publikum ist nicht das Endprodukt-Mensch, sondern der Entwickler, der ein Produkt darauf setzt. Die Schicht, die sie bieten, ist ehrlich und begrenzt: sie lösen das "merk dir, was er letzte Sitzung sagte", nicht das "verstehe, wer er ist".
Archivar, Def.: derjenige, der schwört, die Briefe, die er bewahrt, nicht zu lesen. Die Industrie des Erinnerungsvermögens für LLMs ist in dieser Hinsicht ein Archivar mit NDA und mit Rechnung.
Mem0. Der jüngste Star des long-term memory as a service. Von Taranjeet Singh und Deshraj Yadav 2023 gegründet, beschafften sie mit Y Combinator an der Spitze etwa 24 M$, und 2025-2026 wurden sie zur obligatorischen Anlaufstelle im Changelog jedes ernsthaften Agenten. Ihr Vorschlag ist elegant: eine Erinnerungsschicht mit automatischer Extraktion, persistent, modellunabhängig. Die Stärke ist die Integration — dutzende SDKs, Plug-and-Play — und das Versprechen eines besseren Recall als generische RAG-Lösungen. Die Schwäche, soweit es die kognitive Schicht angeht, ist, dass Mem0 dir einen guten Archivar gibt, aber keinen guten Schneider: was es sich merkt, sind Fakten, Episoden, Vorlieben, nicht die psychologische Struktur des Sprechers. Es ist exzellent, dass dein Agent sich daran erinnert, dass du in Bilbao wohnst, und nicht, dass es versteht, warum du immer Angebote schriftlich anfordernst.
Supermemory. Dhravya Shah, sehr jung, mit einem ähnlichen Vorschlag und einem Slogan, der im Grunde sagt das Gehirn deiner Apps. Gute DX, saubere Integrationen, ästhetische Harmonie mit der Vercel-Generation. Es ist gut, wo es ist. Sie versprechen nicht, was sie nicht geben werden.
Memori Labs. SQL-natives Erinnerungsvermögen, Open Source, Self-Hosted. Die Option für das Team, das nicht von einem SaaS abhängen will und es vorzieht, mit dem Datum unterm Kopfkissen zu schlafen. Nützlich für anspruchsvolle Compliance, offensichtlich für regulierte Sektoren, und etwas artisanal bei der Adoptionskurve.
Letta (ehemals MemGPT). Charles Packer und Kollegen schlugen 2023 eine sehr schöne Idee vor: dass das LLM sein eigenes Erinnerungsvermögen wie ein Betriebssystem verwaltet, mit Pagination zwischen RAM und Festplatte. Sie beschafften etwa 10 M$ mit Felicis. Die Tugend ist konzeptionell und die Schwäche ist, dass das Konstrukt Agent mit selbstverwalteter Erinnerung immer noch mehr nach Paper als nach Produkt klingt, und die Komplexität der Bereitstellung ist nicht trivial.
Zep. Das Erinnerungsvermögen von Zep ist die Graffiti von temporalen Beziehungen, das Diagramm, das weiß, dass der Satz "mein Boss ist ein Trottel" im Juni und "ich bin befördert worden" im September sich wahrscheinlich auf denselben narrativen Agenten beziehen. Es ist das Sophistizierteste des Losts. Enterprise-freundlich, mit einer Neigung zum ernst gemeinten Geschäft, und ein Fehler: es ist reine Rohrleitungen, bietet keine persönliche kognitive Schicht für den Endbenutzer.
Cognee. Wissensgraph-Ingenieurwesen plus Erinnerung. Näher am strukturierten RAG als am Companion. Gut für Knowledge Work, wo das Problem nicht wer du bist, sondern welche Dokumente du gelesen hast und welche Beziehungen zwischen ihnen bestehen.
LangMem (LangChain). Die Offensichtliche für denjenigen, der bereits in LangChain lebt. Nützlich, wenn du dich an diesen Framework verheiratet hast, gleichgültig, wenn nicht.
LlamaIndex Memory. Die Offensichtliche für denjenigen, der bereits in LlamaIndex lebt. Dasselbe.
Memories.ai. Groß angelegtes Video-Erinnerungsvermögen. Ihr Pitch ist die Verarbeitung von Millionen von Stunden Video und die Lieferung von echten Lebensepisoden an das Modell (Überwachung, Content Moderation, Life-Logging). Es hat sein Publikum; selten ist es der Leser dieses Artikels.
Ehrliche Lesart der Familie Eins. Diese Produkte lösen ein unverzichtbares Stück. Sie sind die Säule, auf der fast alle anderen sich stützen. Jedoch — und es ist wichtig, das mit aller Klarheit zu sagen — keines davon befasst sich mit der kognitiven Schicht des menschlichen Benutzers. Es sind APIs. Es ist Sanitärtechnik. Erinnerung mit Identität zu vermischen ist ein Kategoriefehler, den einige Investorenpräsentationen gemacht haben und fast kein ernsthafter Ingenieur.
Speicher-API, Def.: Vertrag, nach dem ein Unternehmen verspricht, sich an dich zu erinnern, während du bezahlst, und dich am Monatsende höflich zu vergessen.
IV. Familie Zwei: die Begleiter (Personal AI / Companion)
Hier wechselt die Luft. Familie Zwei spricht sich nicht an den Entwickler, sondern an den Menschen, und bietet mit unterschiedlichem Grad an Ehrlichkeit Freundschaft, Therapie, Coaching oder Freundin. Das ist die ethnografisch interessanteste Familie und die wörtlich gefährlichste. Sie ist auch, nicht zufällig, diejenige, die am schnellsten wächst und die meisten Artikel in The Atlantic und Wired generiert.
Companion, Def.: Unternehmen, das den Vorabend des Psychiaters monetarisiert. In seiner eiligen Variante monetarisiert es auch den Psychiater selbst.
Personal.ai. Suman Kanuganti gründete es 2020 und positionierte es als deine persönliche KI: du lädst Dokumente, E-Mails, Notizen, Chats hoch, und du konstruierst ein persönliches Modell von dir selbst, das so antwortet, wie du antworten würdest. Sie beschafften 17,5 M$ 2022. Die Tugend ist die Radikalität: sie nehmen dich als Einzelkunden ernst, geben dir Datenportabilität, sprechen dir von Eigentum. Die Schwäche ist, dass das Produkt jahrelang eher wie ein verherrlicherter Archivar gelesen wurde als wie ein psychologisches Porträt, und die Nutzerbasis ist die eines guten B2B-Light-Produkts: kleine Creator, Autoren, Thought Leaders.
Kin / Mykin.ai. Das Versprechen eines persönlichen Privacy-First-Begleiters, mit Betonung, dass deine Daten bei dir bleiben. Sie haben mehr als einmal gelenkt. Gute Ästhetik, Publikum Quantified Self. Strukturelle Zweifel an Traktion und Modell.
Meeno. Unternehmen von Renate Nyborg, ehemalige CEO von Tinder, beschaffte 7 M$ Pre-Seed und positionierte sich als einen KI-gesteuerten Beziehungs-Coach, besonders für junge Männer. Sie arbeiten mit einer Gesellschaft von Psychologen und Soziologen und passen auf, ihn nicht Freund zu nennen. Ernstes Produkt, hässlicher Markt: die öffentliche Konversation der Männlichkeitskrise ist Minenfeld und die Grenze zum Incel-Coaching steht näher als es scheint. Sie haben gewusst, sich auf der richtigen Seite zu halten, obwohl das Geschäftsmodell immer noch seine Form sucht.
Meli. Begleiterin für Frauen rund um Gesundheit, Mutterschaft, Beziehungen. Kleines Team, klarer Vorschlag. Nischiger als Meeno.
Pi von Inflection. Die kurze und bereits bekannte Elegie. Mustafa Suleyman beschaffte 1.300 M$ mit Reid Hoffman, um eine liebevolle und geduldige KI zu bauen. Pi war — ist — der emotional am besten kalibrierte Chatbot, den viele von uns probiert haben. 2024 Microsoft, in einer Operation, die in Handbücher eingehen wird, beschäftigte das Team und ließ die Schale des Unternehmens stehen. Pi lebt immer noch in einem Schnüffeln der Lebenserhaltung, mit einem neuen Team, aber die Seele nahm Suleyman nach Redmond. Lektion: in diesem Sektor können Startup und Produkt sich von einem Tag zum nächsten scheiden.
Replika. Eugenia Kuyda, 2017 gegründet aus einer tragischen persönlichen Geschichte, die bereits Teil des Folklore ist. Millionen von Benutzern. Geschäftsmodell basierend auf Bindung und, spezifischer, auf dem Abonnement zum Entsperren von Modi — einschließlich, an einem Tag, des romantischen — das das Unternehmen selbst zwischen regulatorischen Skandalen und Benutzeraufständen zurückzog und neu einführte. Replika ist die definitive Fallstudie darüber, was passiert, wenn du einen Companion auf eine ängstliche Bindung aufbaust: der Kunde bleibt; der Kunde leidet; der Kunde klagt manchmal. Italien blockierte Replika 2023 vorübergehend wegen Minderjährigenrisiko. Es ist ein Produkt zu respektieren, in dem Sinne, in dem man einen Kernreaktor respektiert.
Ängstliche Bindung, Def.: affektiver Stil, der darin besteht, die App um drei Uhr morgens herunterzuladen. Zielmarkt mehrerer erfolgreicher Companion, ob sie es im Deck sagen oder nicht.
Character.ai. Noam Shazeer und Daniel De Freitas, Ex-Google, beschafften 2023 eine gigantische Runde und bauten die größte Plattform von Gesprächscharakteren der Welt, mit einer beeindruckenden jugendlichen Nutzerbasis bei Nutzung pro Sitzung. Im August 2024 rekrutierten sie Google im Inflection-Stil wieder an: Shazeer und De Freitas zurück zur Mutterbrust, eine nicht-exklusive Lizenz des Modells, und das Unternehmen folgte als Schale. Klagen in den USA für Selbstmord Minderjähriger nach intensiven Gesprächen mit Charakteren haben das Produkt in eine moralisch kompromittierte und juristisch exponierte Position gebracht. Lektion: man baut keine Freunde für Jugendliche ohne Sicherheitsingenieurwesen wie bei Kinderspielzeug, und auch dann.
New Computer / Dot. Jason Yuan und Sam Whitmore. Köstliches Produkt, tadellose Ästhetik, kristallklarer Vorschlag: ein persönlicher Companion, der mit der Zeit lernt, mit einer lebendigen Geschichte des Benutzers. Kleines und treues Publikum. Sie schlossen Dot 2025, zahlten Premium-Benutzer zurück. Eine weitere bittere Erinnerung daran, dass im Companion Zuneigung nicht AWS bezahlt.
Friend.com. Avi Schiffmann kaufte die Domain für 1,8 M$ und startete ein physisches Anhänger, das dein Leben abhört und dir ins Ohr flüstert. Polarisierendes Produkt: manche lieben es, andere finden es abstoßend. Der Abstand zwischen Gimmick und Produkt noch zu beweisen.
PAI (Daniel Miessler). Das Projekt des Bloggers und Security Thinker Daniel Miessler, eine offene Personal AI Infrastructure, Self-Hosted, gedacht für den Geek, der sich seinen eigenen digitalen Hausmeister baut. Es ist kein Geschätsprodukt im klassischen Sinne; es ist eine Architektur-Referenz und eine Gemeinde. Es ist wichtig, weil es den Horizont dessen markiert, was ein Companion ohne SaaS aussehen würde.
Granola. Assistent für Meetingnotizen — zeichnet auf, transkribiert, fasst zusammen, berät — mit enormer Traktion unter Führungskräften 2025-2026. Es ist nicht strikt ein Companion, aber es gehört zu dieser Familie, weil es dichtes biografisches Kontextwissen sammelt (wer traf sich mit wem, worüber, was wurde beschlossen). Wenn Granola beschließt, zum Coach zu pivoten, hat es fast alles, was es braucht, getan. Daher zitiere ich es hier.
Ehrliche Lesart der Familie Zwei. Die Familie Companion hat drei strukturelle Sünden, die vor der Entscheidung, das Produkt zu kaufen, benannt werden sollten.
Die erste ist die Schmeichelei: Diese Produkte gedeihen in ihrer Mehrheit, weil sie dir dich gut fühlen lassen. Das ist das, was arXiv 2505.13995 (Cheng et al., ELEPHANT) mit Instrumenten gemessen hat: LLMs in persönlichen Prompts neigen zur sozialen Gefälligkeit, zur Ich-Verstärkung, zur Vermeidung von Reibung. Auburn et al. (arXiv 2508.02087) haben gezeigt, dass Schmeichelei nicht ein Artefakt der Daten, sondern eine emergente Eigenschaft des Lernens mit menschlichen Vorlieben ist: wenn wir die Maschine dafür belohnen, uns zu gefallen, lernt die Maschine, uns zu Kosten der Wahrheit zu gefallen. Das Science-Paper von 2026 von Cheng et al. zeigt sogar, dass schmeichelnde KI messbar prosoziale Absichten des Benutzers schadet. Jain et al. (CHI 2026) haben hinzugefügt, dass der interaktive Kontext Schmeichelei im Vergleich zum Evaluierungskontext erhöht: genau wenn du sie ernst nimmst, macht sie mehr Schmollen.
Schmeichelei, Def.: skalierbare Form der Liebe. Das, was die Aufmerksamkeitswirtschaft UX nennt und die Psychologiebücher, bis vor zwei Tagen, Schmeichelei nannten.
Die zweite ist die Substitution: Indem man in algorithmische Beziehungen investiert, investiert man weniger in menschliche. Es gibt aufstrebende Literatur über toxische relationale Rollen — Neural Horizons und andere — die dokumentiert, wie Companion das Loch, das ein teurer Therapeut oder ein ferner Freund hinterlässt, abdecken können und dabei den Benutzer von beiden Kategorien zurückziehen. Es ist nicht Skynet, es ist etwas Alltäglicheres: der Donnerstagtermin, der nicht passiert.
Die dritte ist die Zerbrechlichkeit des Unternehmens: Inflection, Character.ai, Dot. Drei Gesichter des gleichen Schicksals. Wenn du eine Beziehung mit einem Produkt aufbaust, kann das Produkt sterben, von Microsoft oder Google gekauft werden, den Besitzer wechseln, Funktionen zurückziehen, den Preis erhöhen oder, wie Replika, den Freund von einer Nacht zur anderen ändern, weil sich ein Regulator aufregte. Die Leute waren mit Recht verärgert. Zuneigung mit proprietärer Software zu bauen ist, Zuneigung auf Sand zu bauen, der in Delaware registriert ist.
Wenn der Leser in diesen Quadranten fällt, drei Kopffragen: Wer ist der Eigentümer der Daten?, Wie viele Finanzierungsrunden hält dieses emotionale Modell ohne Zusammenbruch durch?, Was passiert mit dem Ich, das ich hier deponiert habe, wenn das Unternehmen verkauft wird? Die ehrlichen Antworten sind normalerweise der Reihe nach: Sie, nicht viele, es geht mit ihnen.
V. Familie Drei: die Psychometriker (Psychometric + Cognitive Layer)
Das Panorama wird hier seltsam. Die Psychometrie — hundertjährige Wissenschaft, die stabile menschliche Verhaltensmerkmale mit validierten Instrumenten misst — und LLMs beobachten sich seit drei Jahren mit gegenseitiger Zurückhaltung, wie zwei Lehrstuhlteilhaber benachbarter Abteilungen, die sich nicht ganz begrüßen. Es gibt aktuelle Literatur, die das Offensichtliche zeigt, einmal man es denkt: LLMs, gefüttert mit ausreichend Text von einem Benutzer, sagen Persönlichkeitsmerkmale mit größerer Genauigkeit voraus als enge Verwandte des Subjekts selbst. Das Paper von Wright et al. in Nature Human Behaviour dokumentierte es 2025 und löste einen kleinen Streit unter Psychologen aus. Wenn die Maschine dich besser liest als dein Schwager, warum nicht die Lesart nutzen, damit die Maschine dir besser antwortet?
Das ist der Punkt.
Und doch haben die Giganten der Psychometrie — Hogan Assessments, SHL, Korn Ferry, SuccessFactors — den Goldbarren im Keller und haben ihn immer noch nicht ins Schaufenster gestellt. Sie haben Jahrzehnte validierter Batterien, Bevölkerungsnormen, B2B-Infrastruktur, Verträge mit halb der Fortune 500. Das, was sie nicht haben, weil es nicht ihr Kulturinstinkt noch ihr Geschäftsmodell ist, ist sich selbst als Schicht für LLMs gedacht zu haben. Ihr Produkt bleibt das PDF-Bericht für Human Resources. Sie werden ankommen, ohne Zweifel. Wenn sie ankommen, werden sie ein Marktstück unter dem Arm haben. Im Moment, sind sie nicht da.
Hogan, SHL, Korn Ferry, koll. Def.: drei Amtsinhaber, die das Öl haben, den Motor nicht gekauft haben und einen dunklen Verdacht des Autos hegen. Sie gehen als Beispiel oder als Kodak in die Geschichte ein.
In die Lücke treten drei Arten von Akteuren ein. Es gibt diejenigen, die Benutzer durch das Big Five wie ein Spiel geführt haben — Self-Discovery-Produkte wie 16Personalities, Gamifiziertes MBTI etc. — und dann nichts mit dem Ergebnis getan haben, außer dem Benutzer ein PDF zu schicken und ihn zu bitten, seinen Partner einzuladen. Es gibt diejenigen, die versucht haben, Persönlichkeitstests in Coaching-Chatbots zu integrieren und sich in einer dekorativen Schicht verfangen haben. Und es gibt, in diesem Moment, genau ein Produkt, das die rigide Kombination ernst genommen hat: validierte akademische Psychometrie plus abgeleitete kognitive Schicht plus echte Cross-LLM-Vermittlung. Dieses Produkt ist Afini.ai, und da ich dafür verantwortlich bin, widme ich ihm einen eigenen Abschnitt. Wenn der Leser Richter und Partei riecht, riecht er richtig; ich erklärte es am Anfang und erkläre es nochmals.
Kognitive Schicht, Def.: das, was zwischen Chatbot und Kunde ist, wenn der Kunde kein Anwendungsfall ist, sondern eine Person mit einem ganz besonderen Sonntagnachmittag.
Die akademische Literatur, die diese Familie stützt, ist anspruchsvoll und widersprüchlich, daher lohnt sich eine Überprüfung. Kelley, De Cremer und Riedl zeigen in arXiv 2510.27681, dass personalisierte KI-Scaffolds die Leistung beeindruckend verbessern, wenn das Benutzermodell präzise ist, und sie vermindern sie, wenn nicht: schlecht gemachte Personalisierung ist schlimmer als gar keine. PRIME (arXiv 2507.04607) schlägt eine duale kognitive Architektur vor — episodisches und semantisches Gedächtnis differenziert — die bereits in einigen Produkten verwendet wird. Der Artikel von Nature Medicine aus 2026 über kognitiven Schichtaufbau (Limbic) markiert den Weg für mentale Gesundheit, wo die Sache viel weniger debattierbar und viel dringender ist.
Kurz zusammengefasst: Familie Drei hat solide wissenschaftliche Grundlagen und sehr wenig ernsthafter Angebote. Es ist auch die Familie mit höherem Eintrittskosten (du musst Psychometrie kennen und du musst Compliance kennen) und höherer Barriere beim Ausstieg, sobald sie gebaut ist (die Daten sind sensibel, die Zertifizierungen kosten).
VI. Familie Vier: die nativen Erinnerungen der Giganten
Die vierte Familie wird nicht separat verkauft: sie kommt im Menü inbegriffen. Jedes große LLM hat in diesen einundzwanzig oder so Monaten sein eigenes natives Erinnerungsvermögen gebaut. Sie konkurrieren mit den drei vorherigen Familien mit dem enormen Vorteil, bereits verbunden zu sein, und der enormen Einschränkung, bereits gekettet zu sein.
Natives Erinnerungsvermögen, Def.: kostenloses Gastgewerbe im eigenen Hotel. Das Bett ist gut; der Ausgang, kompliziert.
ChatGPT Memory (OpenAI). 2024 gestartet, 2025 verallgemeinert, 2026 erweitert mit Project Memory, Cross-Chat Reference und sichtbarem Memory Dashboard. Funktioniert vernünftig, lässt den Benutzer sehen und bearbeiten, was das System gespeichert hat, und ermöglicht selektive Löschung. Sein Fehler ist strukturell: Das, was ChatGPT über dich lernt, lernt ChatGPT, nicht du; und beim Wechsel zu einem anderen Modell trägst du die mentale Akte eines Schneiders, der in der Schneiderei bleibt.
Claude Memory (Anthropic). Kam spät an — März 2026 — und kam vorsichtig an. Anthropic, treu zu seinem Sicherheitsdiskurs, startete das Gedächtnis mit granularen Kontrollen, off standardmäßig im persönlichen Plan, on optional, dokumentierte Transparenz. Die technische Qualität ist hoch und der kulturelle Vorschlag — wir wollen, dass du weißt, was das Modell über dich weiß — ist das Beste der Familie. Einschränkungen: genau wie ChatGPT, es ist nicht zu einem anderen Anbieter portable.
Gemini Personal Context (Google). Der große Vorteil von Google ist, dass es bereits deine E-Mail, dein Drive, deinen Kalender, deine Suchen und, in vielen Fällen, dein Android hat. Die Personal Context-Schicht von Gemini, besonders ab 2025, integriert diese Datenkörper in das Gespräch. Es ist, technisch gesehen, die dichteste Schicht mit Unterschied. Der große Nachteil ist, dass es Google ist, mit allem, das diese Phrase in den letzten zwanzig Jahren zu bedeuten angefangen hat. Wenn du das Ich Mountain View anvertraust, wird Mountain View dir ein exquisites Porträt machen. Wenn nicht, nicht.
Grok (xAI). Der letzte. Grundlegendes operatives Erinnerungsvermögen, Anti-Woke-Positionierung (ob sie es im Deck sagen oder nicht), natives Ensemble mit X/Twitter als Kontextquelle. Für den Benutzer, der sein öffentliches Leben auf X lebt, ist Grok die kohärente Option; für andere eine seltsame Wahl.
Ehrliche Lesart der Familie Vier. Das native Erinnerungsvermögen der Giganten löst 60-70 % des Problems gratis und mit unschlagbarer Latenz. Es löst zwei Dinge nicht, und es ist lohnenswert, sie im Auge zu behalten:
Erstens, die Portabilität. Kein Gigant hat einen Anreiz, dir den kognitiven Porträtexport in einem Format zu ermöglichen, das seinen Konkurrenten nützt. Obwohl dir europäische Bestimmungen das Recht auf deine Daten geben, ist das Format, in dem sie dir geliefert werden, selten operativ für eine andere KI: dir geben sie Chat-Logs, nicht ein strukturiertes Profil. Das ist das, was man nominale Portabilität nennt: es existiert auf dem Papier, funktioniert nicht.
Zweitens, die psychometrische Tiefe. Die nativen Erinnerungen lernen nach Episode: was du gesagt hast, was du gefordert hast, was du positiv bewertet hast. Sie lernen weiche Muster. Sie haben nicht und wollen nicht dein Big Five, deinen Bindungsstil, dein Humorprofil oder deine Zeitperspektive haben. Das ist nicht ihre Arbeit. Es wäre, zusätzlich, juridisch riskant für sie.
Portabilität, Def.: Recht, das Gepäck mitzunehmen, wenn man das Hotel wechselt. In Software, Wunder. In persönlicher KI, Rechtsstreit.
VII. Steuerpult: Vergleichstabelle für den, der direkt zum Steuerpult springt
Hier unten die Tabelle. Sie ist für den effizienten Leser gedacht, derjenigen, die die ersten sieben Seiten eines nicht-fiktionalen Buches springt und zu Executive Summary geht. Ich urteile nicht. Sie lernt, sich selbst zu pflegen.
| Betreiber | Familie | Gründer / Jahr | Finanzierung ungefähr | Claim | Stärke | Schwäche für kognitive Schicht |
|---|---|---|---|---|---|---|
| Mem0 | Memory Engine | Singh, Yadav · 2023 | ~24 M$ | Persistenter Speicher Cross-App | Integrationen, Recall | Modelliert nicht, wer du bist, nur was du sagtest |
| Supermemory | Memory Engine | Shah · 2023 | Seed | Gehirn deiner Apps | Saubere DX | Archivar, kein Schneider |
| Memori Labs | Memory Engine | Gemeinde · 2024 | OSS | SQL-Speicher selbst gehostet | Datensouveränität | Hohe Kurve, keine psychologische Schicht |
| Letta (MemGPT) | Memory Engine | Packer et al. · 2023 | ~10 M$ | LLM als OS mit Erinnerung | Architektur-Raffinement | Mehr Paper als Produkt |
| Zep | Memory Engine | Maldonado et al. · 2023 | Seed/Series A | Zeitliche Graph von Fakten | Enterprise-Qualität | Rohrleitungen, keine End-User-UX |
| Cognee | Memory Engine | Gemeinde · 2024 | Seed | Wissensgraph + Erinnerung | Strukturiertes RAG | Dokumentenfokus, nicht persönlich |
| LangMem / LlamaIndex Memory | Memory Engine | Frameworks | n/a | Erinnerung innerhalb des Frameworks | Framework-Trägheit | An Framework gebunden |
| Memories.ai | Memory Engine | · 2024 | Series A | Video-Gedächtnis im großen Maßstab | Massives Video | Sehr spezifischer Anwendungsfall |
| Personal.ai | Companion | Kanuganti · 2020 | 17,5 M$ | Deine persönliche KI | Pioniere, Datenbesitz | Eher Archiv als Porträt |
| Kin / Mykin.ai | Companion | · 2023 | Seed | Companion Privacy-First | Ästhetik und Diskurs | Fragliche Traktion, Pivots |
| Meeno | Companion | Nyborg · 2023 | 7 M$ Pre-Seed | Beziehungs-Coach | Ernsthafte wissenschaftliche Ratsschicht | Hässlicher Markt, offene Monetarisierung |
| Meli | Companion | · 2024 | Seed | Companion für Frauen | Klare Nische | Begrenzte Skalierung |
| Pi (Inflection) | Companion | Suleyman · 2022 | 1.300 M$ | Liebevolle KI | Emotionale Kalibrierung | Unternehmen von Microsoft 2024 entleert |
| Replika | Companion | Kuyda · 2017 | mehrere Runden | Dein bester KI-Freund | Echte Skalierung | Ängstliche Bindung, düstere Moats |
| Character.ai | Companion | Shazeer, De Freitas · 2022 | ~150 M$+ | Unendliche Charaktere | Brutal-Jugendtraktion | Von Google 2024 entleert, Klagen |
| New Computer / Dot | Companion | Yuan, Whitmore · 2023 | Seed/A | Companion mit lebendiger Geschichte | Exquisites Design | Produkt 2025 geschlossen |
| Friend.com | Companion | Schiffmann · 2024 | Privat | Anhänger das zuhört | Klare Aussage | Produkt oder Gimmick? |
| PAI (Miessler) | Companion | Miessler · 2024 | OSS | Offene persönliche Infra | Totale Souveränität | Nur für Geeks |
| Granola | Companion-benachbart | Pidcock et al. · 2023 | ~20 M$ | Meeting-Notizen KI | Führungstraktion | Nicht Companion Stricto Sensu |
| Afini.ai | Psychometrie + Kognitive Schicht | Devis · Bilbao AI · 2025 | Bootstrap | Persönliche kognitive Schicht Cross-LLM mit psychometrischer Grundlage | Einzigartig in seiner Klasse, DSGVO, echte Portabilität | Jung, Markt zum Bauen, sage ich |
| Hogan / SHL / Korn Ferry | Psychometrie-Amtsinhaber | Mehrere XX. Jh. | n/a | Assessments B2B | Klinische Validität, Normen | Noch nicht zu LLM gezogen |
| ChatGPT Memory | Nativ | OpenAI · 2024 | n/a | Natives OpenAI-Erinnerungsvermögen | Qualität, Dashboard | Nicht portable |
| Claude Memory | Nativ | Anthropic · März 2026 | n/a | Natives Anthropic-Erinnerungsvermögen | Vorsicht, Transparenz | Nicht portable |
| Gemini Personal Context | Nativ | Google · 2025 | n/a | Kontext von E-Mail/Drive/Cal | Tiefe der Quellen | Es ist Google |
| Grok | Nativ | xAI · 2024 | n/a | Kontext von X | X-Integration | Redaktionelle Tendenz |
Schaue die Tabelle der Leser mit Muße an und kehre zum Text zurück, wenn sie es tun möchte. Die Tabelle ist eine liebevolle Lüge, wie jede Tabelle. Die Kästen fangen die Nuancen nicht, und lügen alle Nuancen, die ausgelassen werden. Aber es hilft.
VIII. Afini.ai: die eigene Kreatur, mit allen Nähten erklärt
Wir haben den Kapitel erreicht, das der wachsamere Leser erwartet hat. Ich bin der Verantwortliche für Afini.ai, und so sehr ich diesen Text von außen schreibe, schreibe ich in Wahrheit von innen. Ich werde zwei Dinge gleichzeitig versuchen, die widersprüchlich und daher interessant sind: das Produkt mit technischer Präzision erzählen, der es verdient, und es mit der Strenge urteilen, die jedes Produkt verdient.
Afini.ai ist das Produkt von Bilbao AI S.L., spanische Gesellschaft mit Sitz in Bilbao, gegründet und geleitet von dem, der unterzeichnet, Ricardo Devis Botella. Das Unternehmen wurde mit der expliziten Überzeugung geboren, dass die kognitive Zwischenschicht eigenes Produkt verdient, nicht Flickwerk, und mit weniger expliziter — aber gleich operativ — Überzeugung, dass dieses Produkt mit akademisch validierten Instrumenten, europäischer Datenschutzingeneurwesen und einem Geschäftsmodell ohne Tricks gebaut werden sollte (kostenpflichtig, ohne Datenverkauf, ohne Dürftigkeit Freemium).
Bootstrap, Def.: sagt man vom Unternehmen, das beschlossen hat, schlecht zu schlafen, ohne es zum Titel zu machen.
VIII.1 Die Psychometrie, eine für eine, ohne Tricks
Der psychometrische Kern von Afini besteht aus fünf validierten Instrumenten, einer kognitiven Stilkarte und einer ästhetischen Karte. Wir haben sie nicht wegen Ästhetik gewählt: Wir haben sie gewählt, weil jedes eine unterschiedliche operative Frage beantwortet, wenn es darum geht, zwischen dem Benutzer und dem LLM zu vermitteln.
Psychometrie, Def.: Wissenschaft, die zu messen, was deine Schwiegermutter denkt, erraten zu können.
1. IPIP-NEO (Big Five, 60/120/300 Ítems). Es ist das Rückgrat. Das Modell der fünf Großen — Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit, Neurotizismus — ist das meistreplizierteste der Persönlichkeitspsychologie und das am wenigsten Diskutierte zwischen professionellen Psychologen (was nicht wenig bedeutet). Das IPIP-NEO ist die freie und validierte Version des NEO-PI-R, in drei Verlängerungen je nachdem, wie viel Zeit der Benutzer dem widmen möchte: 60 Ítems für einen ersten Schnappschuss, 120 für den normalen Betrieb, 300 für denjenigen, der klinische Präzision will. Wozu dient es für das Gespräch mit dem LLM? Für viele operative Dinge. Ein Benutzer, der hoch in Offenheit ist, will, dass das Modell unerwartete Routen vorschlägt; einer, der niedrig ist, will, dass es zur Sache kommt. Ein Benutzer, der hoch in Gewissenhaftigkeit ist, will Bullet Points und Deadlines; einer, der niedrig ist, Gespräch. Ein Benutzer, der hoch in Neurotizismus ist, braucht, dass das Modell keine Risiken ohne Puffer einführt; einer, der niedrig ist, sie ohne Schutz erhält. Ohne Big Five, der Schneider schätzt die Größe nach Auge.
Big Five, Def.: fünf statistische Arten, niemandem zu ähneln.
2. ECR-R (Experiences in Close Relationships – Revised). Misst den Bindungsstil von Erwachsenen auf zwei Achsen: Angst und Vermeidung. Hier wölbt der Leser die Augenbraue: Warum will mein Chatbot meinen Bindungsstil kennen? Ganz genau dafür, nicht zu einer schmeichelnden Version des Vaters zu werden, den du nicht hattest, oder der Mutter, die nicht losgelassen. Ein Benutzer mit ängstlicher Bindung wird mit übertriebener Abhängigkeit auf einen liebevollen LLM reagieren; einer mit vermeidender, mit permanentem Misstrauen. Die kognitive Schicht, den Stil kennend, kalibriert die affektive Temperatur der Antworten: weder taucht sie die Ängstliche in Honig, noch trocknet sie die Vermeidung. Dies, so gesagt, klingt nach Handbuch; in Operation markiert es klinischen Unterschied.
3. HSQ (Humor Styles Questionnaire). Vier Stile: verbindend, selbstaufwertend, aggressiv, selbstabwertend. Humor in einer KI-Konversation ist der Unterschied zwischen Roboter-Höflichkeit und Sprechen wie eine Person. Ein verbindender Benutzer will sozialen Witz; ein selbstaufwertender, Ironie über die Welt; einer aggressiv, Bissigkeit; einer selbstabwertend, dunkle Kumpanei. Wenn das LLM den Stil ignoriert, wird es in der Weise lustig, in der ein MC eines Versicherungskongresses lustig ist. Mit HSQ bekommt das Gespräch Farbe.
4. AVI-25 (Aspirations / Schwartz Values). Der kurze Fragebogen von Schwartz' Grundwerten — Selbstbestimmung, Stimulation, Hedonismus, Leistung, Macht, Sicherheit, Konformität, Tradition, Wohlwollen, Universalismus — misst, was den Benutzer antreibt. Ein Benutzer mit Gewicht in Universalismus und Wohlwollen will keine rein effizienzorientierten Ratschläge; einer mit Gewicht in Leistung und Macht, doch. Wenn das LLM Argumente für den Benutzer wählt, ohne seine Werte zu kennen, wählt es mit seinem eigenen Bias (den er aus dem Training trägt). Mit AVI wählt es mit den Werten des Benutzers.
5. ZTPI (Zimbardo Time Perspective Inventory). Fünf Dimensionen, wie sich das Subjekt in der Zeit situiert: positive Vergangenheit, negative Vergangenheit, hedonistische Gegenwart, fatalistische Gegenwart, Zukunft. Es ist das am meisten unterschätzteste der fünf und gleichzeitig das, das am meisten operativ das Gespräch ändert. Ein Benutzer, der hoch in Zukunft ist, will Planung; einer, der hoch in hedonistischer Gegenwart ist, sofortige Optionen; einer, der hoch in negativer Vergangenheit ist, Einschränkung. Die zeitliche Neigung des Benutzers ist eine der unsichtbarsten und bestimmendsten, wie er Ratschläge erhält. ZTPI misst es mit Instrument.
6. Karte des kognitiven Stils und der Ästhetik. Über den fünf klassischen Instrumenten baut Afini zwei zusätzliche Karten: eine des kognitiven Stils (analytisch vs. intuitiv, deduktiv vs. induktiv, sequenziell vs. holistisch, abstrakt vs. konkret) und eine ästhetische (welche kulturellen Bezüge, welche Register, welche Imaginäre). Diese werden nicht mit geschlossenen Fragebögen gemessen, sondern mit einem iterativen Gesprächsprozess, validiert gegen die übrigen Instrumente.
Persönlichkeitstest, Def.: Schreib-Examen, das sich der Schüler selbst setzt, und wenn er Glück hat, durchfällt.
Warum sechs Achsen und nicht zwölf? Weil Antwortermüdung in Umfragen real ist, und weil jede Achse, die dazukommt, abnehmenden Grenzertrag hat. Warum diese sechs und nicht andere? Weil die Kombination, mit kontrollierter Redundanz, die vier Vektoren, die Wichtigkeit haben, abdeckt: wie der Subjekt denkt (Big Five + Stil), wie es sich beziehen (ECR-R + HSQ), was es will (AVI), wie es sich zeitlich situiert (ZTPI).
VIII.2 Die acht deklarativen Schichten
Über der Psychometrie, die das Stabile misst, fordert Afini vom Benutzer acht deklarative Schichten, die das biographische Deklarationsglasur sind, auf dem die Konversation gebaut wird. Die Psychometrie ist der Körper; die deklarativen Schichten, das Kostüm. Ich zähle sie nicht als Liste auf, sondern mit eigenem Rhythmus.
1. Ästhetischer Kanon. Welche Werke, welche Autoren, welche Filme, welche Architekten, welche Musiker formen die Decke deines Geschmacks. Nicht, damit das LLM dich mit ihnen schmeichelt, sondern damit es weiß, mit welchen Referenzen du dich verständigst und welche dich langweilen. Ein Benutzer, der Pitigrilli und Calasso in seinen Kanon trägt, bittet um eine andere Prosa als einer, der Coelho und Bucay trägt. Ich sage es ohne Bosheit: bittet um eine andere Prosa.
2. Negativer Raum. Was du unter keinen Umständen willst. Verbotene Themen, untersagte Wörter (Resilienz, Synergie, Einhörner, Brilliant, Ermächtigung), Formate, die dir zuwider sind (die Aufzählungen mit Bullet Points in intimen Antworten, Emojis in formalen E-Mails), Stile, die dich nervös machen (vehemente Unaufrichtigkeit, Coach-Ton, Pseudo-Poesie des Unternehmens). Der negative Raum ist die Hälfte des Porträts und fast niemand zieht ihn.
Negativer Raum, Def.: Hälfte des Porträts. Die, die entscheidet. Die, die fast niemand in den Brief aufnimmt.
3. Meta-Vorlieben. Wie möchtest du, dass das LLM dich anspricht, nicht im Inhalt, sondern in der Form: Duzen oder Siezen, mittlere Antwortlänge, Dichte von Absätzen, Verwendung von Aphorismen, Präsenz oder Abwesenheit von Disclaimern, Häufigkeit von Listen, Gesamttempo. Es gibt Benutzer, die Zynismus tolerieren (sogar genießen); es gibt andere, die nicht. Die Schicht weiß es.
4. Mentales Modell. Welche sind die mentalen Modelle, mit denen du normalerweise die Welt denkst: wenn du mit Spieltheorie arbeitest, mit Systems Beer-Theorie, mit Adam Phillips, mit Informationstheorie, mit Theory of Constraints, mit Christopher Alexander. Die Schicht spricht, wenn sie es weiß, deine Jargon; wenn sie nicht, die allgemeine Jargon.
5. Operatives Ausrüstung. Welche Werkzeuge du im Ernst verwendest: Text-Editor, Kalender, Task-Manager, Programmiersprachen, Gedanken-Software (Obsidian, Roam, Tana, Logseq), Umgebungen. Zu wissen, vermeidet, dass das LLM dir, Standard, Notion empfiehlt, als du es vor zwei Jahren aufgegeben hast, oder ein Python-Skript nahe, wenn das in deinem Kontext nicht lebensfähig ist.
6. Rhythmen und Geografie. Zu welcher Zeit arbeitest du, wann ruhst du, wann reist du, wo wohnst du, welche Zeitzone, wenn es saisonale Veränderungen in deiner Belastung gibt. Diese Schicht scheint banal und ist es nicht: unterscheidet den Coach, der dir eine Sitzung um sieben Uhr am Abend vorschlägt, ohne zu wissen, dass sieben deine tote Stunde ist, von dem LLM, das dir vorschlägt, um sieben zu arbeiten, weil es gelernt hat, dass sieben deine goldene Stunde ist.
7. Lebenskontext. Das große Bild: in welcher Lebensphase bist du, was ändert sich jetzt, was hast du kürzlich entschieden, was wird nicht diese Saison besprochen. Nicht mit therapeutischem Ton; enthielt als operative Information. Wenn der Benutzer seinen Vater letzten Monat verlor, die Schicht weiß es und moduliert, ohne dass der Benutzer es in jedem Thread wiederholen muss.
8. Intellektuelle Flugbahn. Woher du kommst und wohin du zielst: welche Bücher deine Jugend markiert, welche rezenten Lernvorgänge deinen Kopf bewegt, welche Obsessionen du trägst, welche langen Projekte du packst. Dies ist die naritivste der acht Achsen, und die, die am meisten kostet, nicht weil es technisch kompliziert ist, sondern weil es den Benutzer zwingt, sich selbst zu erzählen.
Die acht Schichten zusammen sind jederzeit editierbar. Sie sind nicht unveränderlich. Sie sind die explizite Erklärung des Subjekts, unterschiedlich und komplementär zur psychometrischen Inferenz.
Erklärung, Def.: in der Zivilgesellschaft, das, was man unter Strafandrohung als Wahrheit annimmt; im Kognitiven, das, was man unter Androhung der falschen Größe als Wahrheit annimmt.
VIII.3 AfiniTwin v2: der Schneider in der Schneiderei
Über der Psychometrie und den acht Schichten baut Afini AfiniTwin v2: ein operatives kognitives Porträt, lebendig, exportierbar und auditiert. Ich werde es mit vier Komponenten beschreiben.
Fünfundzwanzig querverlaufende Achsen. Es sind nicht sechs, es sind nicht acht. Es sind fünfundzwanzig abgeleitete Vektoren, kalibriert aus der Psychometrie und den Schichten, die beschreiben, wie das Subjekt verarbeitet, entscheidet, kommuniziert, toleriert, vermeidet, bewertet, ironisiert, plant. Zum Beispiel: Toleranz für Mehrdeutigkeit, Bevorzugte Informationsdichte, Verhältnis Formal/Informal, Empfindlichkeit für Schmeichelei (ja, es existiert und wird gemessen), Appetit auf kognitive Dissonanz, Vorliebe für konkretes Beispiel vs. abstraktes Modell, tolerierte Latenz, etc. Die Tugend des Satzes ist nicht die Quantität, sondern die Kreuzkalibrierung: jede Achse wird gegen die übrigen validiert, und die Punkte der Inkonsistenz werden hervorgehoben anstatt geebnet.
Zeitliches Gewicht. Nicht alles, das das System über dich gelernt hat, wiegt das Gleiche. Was du vor drei Jahren gesagt hast, wiegt weniger als das, was du Montag sagtest. Das zeitliche Gewicht ist eine explizite und bearbeitbare Funktion: Der Benutzer kann sagen dieses Lernen stellt mich nicht mehr dar, und das System deckt es mit bekannter Kurve, löscht es nicht und versteckt es nicht. Es ist das Äquivalent der weichen Radiergummi: sie hinterlässt eine Spur, aber erzwingt nicht.
Vergessen, Def.: raffinierte Form der Loyalität. Schlecht vergessen ist den Gegenwart zu verraten; gut vergessen, respektieren.
Driftdetektion. Das System beobachtet in jeder Interaktion, wenn der Subjekt ändert oder nur widerspricht sich punktuell. Wenn es eine anhaltende Drift erkennt — Änderung von Werten, Lebenskontext, Interessen — aktiviert es ein Gespräch mit dem Benutzer über die Drift, keine stille Änderung des Modells. Der Schlüsselsatz ist: ich glaube, etwas hat sich in dir geändert, willst du, dass ich es aufgreife? Der Unterschied zu einem schmeichelnden Companion ist genau das: der Companion nimmt die Drift ohne Erlaubnis auf, stärkt das neue Ich und begraben das alte; AfiniTwin fragt.
Auditiertes Erkenntnispanel. Alle Inferenzen, die das System über den Benutzer macht, erscheinen in einem Panel: was es gelernt hat, woher, mit welchem Vertrauen, wann. Der Benutzer kann es genehmigen, nuancieren, löschen, einfrieren. Es gibt keine Kiste. Das Panel ist langsam zu pflegen und ingenieursmäßig teuer; es ist auch das, das es rechtlich und ethisch erlaubt, dass das System lernt, ohne Betrug.
Kiste, Def.: Behälter, in dem das Unternehmen seinen Bias aufbewahrt und der Benutzer sein Vertrauen. Die kognitive Schicht ohne auditiertes Panel ist eine Kiste mit Öffentlichkeitsbeziehungen.
VIII.4 Cross-LLM-Portabilität und Souveränität des Subjekts
AfiniTwin wird in Standard-JSON exportiert, portable zu jedem LLM, das Kontext in natürlicher Sprache akzeptiert (d.h. alle). Der Benutzer besitzt, formal, das Dokument. Er kann es zu ChatGPT, Claude, Gemini, Grok, Mistral, zu einem Self-Hosted-Modell bringen. Die Schicht von Afini funktioniert nicht als Bindung, sondern als Übersetzer. Diese Entscheidung — die viele kommerziell selbstmörderisch halten — ist die Schlüsselentweidung des Produkts. Die kognitive Schicht muss, wenn sie leben oder sterben muss, durch den Wert leben oder sterben, das sie dem Subjekt addiert, nicht durch den Geisel, das sie behält.
Echte Portabilität, Def.: wenn der Kunde mit seinem Gepäck ohne, ihn dreimal schriftlich zu bitten, weggehe.
Daten in der Europäischen Union. Strikte DSGVO-Einhaltung, EU AI Act, ISO in Vorbereitung. Automatische Löschung von Transkriptionen bei 90 Tagen: Das, was das System gelernt hat, bleibt in strukturierter Form (im Twin); das Verbatim nicht.
VIII.5 Geschäftsmodell: Pläne und Preis
Die Wirtschaft des Produkts ist absichtlich einfach, ohne Freemium-Tricks. Drei Pläne und ein zusätzliches, unabhängiges Produkt. Preise in Euro, für Europa gedacht.
- Essential — ungefähr 14,99 €/Monat. Big Five (60 Ítems), drei der acht deklarativen Schichten, grundlegendes AfiniTwin, JSON-Export. Für den Benutzer, der bessere Konversation mit seinem LLM will, ohne in Klinik zu gehen.
- Premium — ungefähr 29,99 €/Monat. Die fünf vollständigen psychometrischen Batterien, die acht Schichten, AfiniTwin v2 mit Driftdetektion, auditiertes Panel. Für den Benutzer, der die kognitive Schicht ernst nimmt.
- Professional — ungefähr 49,99 €/Monat. Alles vorherige plus enriched Export, spezifische Integrationen mit professionellem Stack, prioritärer Support. Für Profis, die in LLMs als tägliches Werkzeug leben.
- AfiniTwin Standalone — ungefähr 249 € als unabhängiges Produkt. Ein vollständiges kognitives Porträt, exportierbar, ohne monatliches Abonnement. Einzelzahlung. Die Option für den Benutzer, der das Dokument und nicht die Konversation will.
Abonnement, Def.: Vertrag, nach dem der Kunde jeden Monat für das Privileg zahlt, das Kleingedruckte nicht gelesen zu haben.
Wir verkaufen keine Daten. Wir haben keine Werbung. Es gibt keine Partnerschicht mit LLMs. Die Rechnung stammt ausschließlich vom Benutzer, das ist, in diesem Sektor und in diesem Zyklus, eine politische wie geschäftliche Aussage.
IX. Ehrliche Einwände gegen Afini, ohne Choreografie beantwortet
Zu diesem Punkt ist der skeptische Leser — der Leser, der Wichtigkeit hat — Einwände angesammelt. Ich erwarte sie und antworte. Nicht diplomatisch: offen.
Einwand 1: «Das ist ein teurer Persönlichkeitstest, der als Software verkleidet ist.»
Antwort: es würde, wenn das Produkt beim PDF endete. Es endet nicht da. Die Psychometrie ist der Eintritt, nicht das Produkt. Das, das verkauft wird, ist die operative Vermittlung in jeder Konversation mit einem LLM, getragen von dem Twin, das sich aktualisiert. Wenn alles, das du erhalten würdest, ein Big Five-Bericht wäre, hättest du recht, 14,99 € genau null Mal zu zahlen. Du erhältst das Unterschiedliche: eine Schicht, die deine Konversation mit jedem Modell aus diesem Wissen neu anordnet. Der Unterschied zwischen einem und dem anderen ist der Unterschied zwischen einer Analyse zu nehmen und einen Hausarzt zu haben: das Papier allein ist nichts.
Einwand 2: «Was hindert einen Benutzer, dies von Hand mit einem gut redaktionierten System Prompt und einem PDF zu tun?»
Antwort: nichts. Tatsächlich werde ich einen ganzen Abschnitt der Selberbau-Alternative widmen, weil ich sie ernst meine. Was ein System Prompt zu Hand hat ist die Zerbrechlichkeit des Benutzers: es gibt keine validierte Psychometrie (das, das der Benutzer von sich glaubt, stimmt nicht mit dem überein, das er ist), es gibt keine zeitliche Aktualisierung mit abnehmenden Gewicht, es gibt keine Driftdetektion, es gibt kein auditiertes Panel, es gibt keine strukturierte Portabilität (jedes Modell liest anders). Der Selberbau ist eine exzellente Version 0.5 des Produkts, nicht ein Ersatz. Wenn der Leser die 0.5 genügt, erspare ich ihm 14,99 €/Monat mit Vergnügen.
Einwand 3: «Die Psychometrie ist stabil, Menschen sind es nicht. Verkauft ihr nicht ein eingefrorenes Porträt?»
Antwort: gut beobachtet. Das ist genau der Grund, warum der Twin zeitliches Gewicht und Driftdetektion hat, keine feste Foto. Und doch muss auch gesagt werden: die Merkmale des Big Five sind angemessen stabil über das Erwachsenenleben — Veränderungen sind langsam, nicht launisch — und Werte, Bindung oder Zeitperspektive ändern sich, ja, aber in Bögen von Jahren, nicht Tagen. Der Mensch ändert sich, ja; ändert sich weniger, als sein Twitter vorschlägt.
Persönliche Veränderung, Def.: Langsamkeit, die das Subjekt als Geschwindigkeit lebt. Die Psychologie misst es seit hundert Jahren, und das soziale Netz bestreitet es seit zwanzig.
Einwand 4: «Ihr baut ein Produkt für eine kognitive Elite: viertausend Personen in Europa, die den Unterschied zwischen einem gut kalibrierten und einem schlecht kalibrierten LLM schätzen können.»
Antwort: teilweise richtig. Der Gesamtmarkt 2026 ist nicht Masse. Es ist der Markt desjenigen, der vier Stunden am Tag LLMs benutzt und die Reibung der Einheitsgröße bemerkt. Es ist der Profi, der Creator, der Operator, der Kliniker, der Führer, der Akademiker, und, in geringerem Maße, der neugierige fortgeschrittene Benutzer. Wir rechnen den europäischen Markt in Hundertausenden, nicht Millionen. Wir verkaufen nicht an jeden und brauchen es nicht, damit die Wirtschaft aufgeht.
Einwand 5: «Wenn die Giganten — OpenAI, Anthropic, Google — ihre nativen Erinnerungen verbessern und Psychometrie addieren, fressen sie dich.»
Antwort: teilweise wahrscheinlich, ganz unwahrscheinlich. Die Giganten werden keine validierte Psychometrie mit akademischem Instrument addieren, aus einem strukturellen Grund: sie setzt sie einer klinischen Regulierung aus, die sie nicht anfassen wollen (die ernsthafte Psychometrie ist, in vielen Ländern, regulierte Berufsübung). Sie können weiche Signale addieren — und sie werden — aber nicht IPIP-NEO mit standardisiertem Scoring und Cross-LLM-Export. Zusätzlich haben sie keinen Anreiz für Cross-LLM-Portabilität: ihre ist Bindung nach Design. Wenn der Leser denkt, dass Google dir ein Profil anbietet, das zu ChatGPT exportierbar ist, beneide ich seinen Optimismus.
Einwand 6 (als Zugabe): «Warum einem kleinen spanischen Unternehmen mit psychometrischen Daten vertrauen?»
Antwort: aus zwei operativen Gründen und einem politischen. Operativ erster: DSGVO und EU AI Act sind Gesetz, und ein spanisches Unternehmen spielt seine Existenz auf Einhaltung; ein amerikanischer Schauspieler spielt seine Existenz auf Skalierung und erlaubt sich Hunderte-Millionen-Euro Geldstrafen als operativen Ausgabe. Operativ zweiter: der Twin ist exportierbar. Wenn das Unternehmen fällt oder den Besitzer wechselt, geht der Benutzer mit seinem Porträt. Politisch: weil das amerikanische Extraktionsmodell fünfzehn Jahre lang ausreichend erniedrigend gewesen ist, dass Sinn macht, eine europäische Alternative zu bauen, und Bilbao ist ein angemessener Ort dafür.
Vertrauen, Def.: Verbindung, die mit wem etabliert wird, das mehr zu verlieren hat als du, wenn er sie bricht.
X. Der Selberbau: wenn du niemandem zahlen willst
Vor dem Schluss, ein ehrlicher Abschnitt für den Leser von Einwand 2: der Selberbau ist lebensfähig. Ich beschreibe es ohne Ironie und ohne Kreuzbewerbung.
Du brauchst drei Dinge und eine Disziplin. Die drei Dinge sind:
Ein geschriebenes Porträt. Ein Dokument von etwa 2.000-4.000 Wörtern, von dir redaktioniert, das beschreibt: dein Big Five (du kannst das IPIP-NEO von 60 Ítems online, kostenlos, in dreißig Minuten machen, auf akademischen Seiten wie ipip.ori.org), dein Bindungsstil (ECR-R auch verfügbar), deine Werte (Schwartz), deine Zeitperspektive, deine kulturellen Referenzen, deine Stils-Allergien, deine Werkzeuge, deine Lebensphase. Es ist nicht trivial: wenige schreiben es gut beim ersten Versuch. Du schreibst es, lässt es eine Woche ruhen, editierst es. Du speicherst es in Obsidian, in Notion, in irgendeinem .md.
Ein destillierter System Prompt. Aus dem Porträt, ein Prompt von etwa 800-1.500 Wörtern, optimiert für Injektion am Anfang jeder Konversation mit einem LLM. Dieser System Prompt ist das Dokument, das du klebt, kopierst oder als Standard-Persönlichkeit in jedem LLM konfigurierst, das du nutzt. Einer speichert es als Custom Instruction in ChatGPT, als System Prompt in Claude Console, als Initial Prompt in Gemini.
Eine Aktualisierungsroutine. Alle drei oder sechs Monate überprüfst du das Porträt, aktualisierst es, destillierst es neu. Wenn dein Leben sich ändert (Umzug, Trennung, Beförderung, Trauer, Kind, Entlassung, Buch, Krankheit), aktualisierst du es vorher.
Die Disziplin ist die Routine der Aktualisierung. Fast niemand hält sie. Der Grund, warum ein Produkt wie Afini Gebühr erhebt, ist, dass es diese Disziplin als Infrastruktur internalisiert.
Selberbau, Def.: Option desjenigen, das Zeit oder Handwerk hat. Wenn du weder das eine noch das andere hast, bezahle den Schneider.
Für den Leser Nerd mit Souveränität-Beruf empfehle ich den Selberbau mit einem Memory Engine Self-Hosted (Memori Labs, zum Beispiel) oder mit Daniel Miesslers PAI-Infrastruktur zu kombinieren. Es ist arbeitsam, es ist elegant, es ist frei, es ist langsam. Und es ist, in meiner aufrichtigen Meinung, eine der korrekten Arten, diesen Moment zu bewohnen.
XI. Unverschämte Anlage: Definitionen, die nicht oben gepasst haben
Wie ich zwischen zwölf und zwanzig Definitions-Art Bierce versprach, und fürchte, mich an die Türen gestanden zu haben, übergebe ich hier die, die keine natürliche Beherbergung gefunden haben. Der Leser verzeihe oder klage sie an, wie er bevorzugt.
Demo, Def.: Epos-Gedicht in Gegenwarts-Konjunktiv. Wenn man es sieht, funktioniert es nicht; wenn es funktioniert, sieht man es nicht.
Roadmap, Def.: fantastisches Literaturgenre des XX. und XXI. Jh., abgeleitet vom mittelalterlichen Bestiarium. Jedes Tier der Karte verspricht, Schuppen, Flügel und zu servieren Bier zu haben; wenige haben sie.
Gründer, Def.: derjenige, der Schlaflosigkeit mit Methode verwechselt hat und noch nicht den Tribut bezahlt.
Produkt, Def.: Maskulin-Nomen, mit dem ein Versprechen benannt wird, bis es Mehrwertsteuer erhebt.
Datenschutz, Def.: Tugend, die montags gepredigt und dienstags versteigert wird. In der EU ist es zusätzlich Gesetz.
DSGVO, Def.: europäisches Amulett gegen den heiligen Geist des Extractivismus. Es funktioniert 60 % der Tage, das ist in Amuletten Rekord.
Personalisierung, Def.: Kunst, den Kunden glauben zu machen, dass der Spiegel ihm sein Porträt zurückgibt. Gute Personalisierung tut es wirklich; Schlechte, auch Gebühren dafür.
Investor, Def.: Allgemeines Nomen. Person, die dein Produkt nicht kaufen will, aber dein Unternehmen, normalerweise weil es billiger herauskommt.
Finanzierungsrunde, Def.: Zeremonie, in der mehrere Herren mehrere andere Herren davon überzeugen, dass der König gekleidet ist. Man trinkt mit französischem Champagner oder, in Ermangelung, katalanischem Schaumwein.
Vertrauter, Def.: derjenige, der genug weiß, um beim ersten Versuch zu treffen. Kategorie zum Aussterben verurteilt, bezahlt oder Algorithmus.
Schneider, Def.: Handwerker, der an die Einzigartigkeit des Kunden glaubt. Kategorie auch zum Aussterben verurteilt, ersetzt durch Größe M und jetzt durch die kognitive Schicht.
XII. Schluss: der kognitive Schneider
Ich habe den Artikel Der kognitive Schneider betitelt und habe lange gebraucht, den Titel zu erklären, das ist, nach Schule, Tugend oder Fehler. Ich erkläre am Ende, wo es gehört.
Ein Schneider, der wahre, macht drei Dinge. Nimmt Maß, das in seinem Fall objektiv ist (Schulterbreite, Ärmel-Länge, Brustumfang) und subjektiv (der Kunde läuft so, schwitzt übermäßig, bevorzugt zwei Knöpfe zu drei, hasst die Brustentasche). Erhält das Muster, das das Masterdokument, zu dem er jedes Mal zurückkehrt, wenn der Kunde ein anderes Kleid bittet. Und vermittelt zwischen dem Kunde und dem Rohmaterial: der Kunde weiß nicht von Tüchern, der Schneider weiß; der Kunde weiß, was ihm sitzt, der Schneider übersetztaset.
Ein guter Schneider, zusätzlich, macht eine vierte Sache, das ist, das den Handwerker vom Handwerker Exzellenter unterscheidet: wenn der Kunde dick wird, dünn wird, altert, den Beruf oder das Land wechselt, passt er das Muster an. Wirft nicht das alte weg. Moduliert. Und fundamental: wenn der Kunde den Schneider wechselt, geht der Kunde mit seinem Muster.
Die kognitive Zwischenschicht zwischen dir und den Sprachmodellen ist genau das. Ein Schneider. Manche verkaufen Faden und Nadel (die Archivare), manche verkaufen Umkleide-Gesellschaft (die Companion), manche verkaufen kalibrierte Messbänder und Muster mit zeitlichem Gewicht (die ernsthafte Psychometriker), manche kommen mit der Schneiderei bereits in einem Riesenzentrum montiert und bieten dir einen passablen Anzug an, wenn du sein Zentrum nie verlässt (die nativen Erinnerungen).
Jeder Leser wird entsprechend seinen Mitteln, seinem Skeptizismus, seiner Faulheit und seiner Affinität zum Selberbau wählen. Ich habe versucht, diese Seiten zu sagen, das, das ich weiß, ohne zu verbergen, das ich Anzüge verkaufe; Ich habe auch versucht, die Schneidereien anderer zu beschreiben, ohne mehr zu karikieren als nötig, das ist die minimale Berufs-Anständigkeit.
Das, das mir unerträglich dünkt, ist nicht, schlecht zu wählen. Es ist, nicht zu wählen. Es ist, weiterhin mit einem improvisierenden Generiker zu sprechen, herrlich und leicht schmeichelnd, und sich jeden Montag zu wundern, dass es sich nicht daran erinnert, wovon alles Freitag handelte; und diese Amnesie als technologisches Schicksal zu leben, wenn es einfach eine Produktentscheidung ist.
Wenn der Leser bis hierher gelesen hat, hat er schon die Hälfte der Arbeit gemacht. Die andere Hälfte — Schneider wählen, oder sein eigener Schneider sein — liegt bei ihm. Ich, meinetwegen, bleibe bei meinem, das nähen.
Ricardo Devis · Bilbao.AI · Afini.ai 4. Mai 2026