AfiniTwin: El Sastre Cognitivo
Sobre la capa cognitiva intermedia entre el usuario humano y los LLMs, con cuadro comparativo, definiciones impertinentes y una declaración de intereses que prefiero hacer al principio
I. El umbral, el sastre y la sospecha
Hay un momento, pasados los primeros meses con un modelo de lenguaje, en que uno repara en que la conversación se parece sospechosamente a la de un camarero excelente que sirve en tres mesas a la vez: simpático, atento, capaz de recordar que pediste el filete poco hecho la semana anterior, pero incapaz de saber por qué exactamente lo pediste así, ni qué relación guarda eso con tu padre, con tu insomnio, con la novela que abandonaste en la página ciento doce o con el hecho de que aborreces la palabra resiliencia. El camarero aprende a complacerte. El camarero no te conoce.
Ese hueco entre complacer y conocer es la capa cognitiva intermedia. Es el sastre. Es el lugar donde alguien —humano, software o ambos— se ocupa de tomar las medidas para que el traje no termine siendo, una vez más, talla única con bolsillos cosidos.
Capa cognitiva intermedia, def.: territorio neutral donde el humano deposita su biografía para que la máquina no le confunda con el vecino del quinto. Lo que media entre el genérico y el yo, entre el corpus y la persona, entre el LLM y el sujeto que se atreve a no ser un caso de uso.
Llevamos desde, pongamos, finales de 2022 en una conversación masiva con máquinas que escriben mejor que la mayoría de nuestros cuñados y peor que casi cualquier autor de novela negra de los años sesenta. La conversación es excelente al primer trago y vagamente decepcionante al tercero. Decepciona porque, después de cuatro tardes contándole al chatbot quién eres, qué quieres, qué te hiere, qué te hace gracia y a qué le tienes alergia, vuelves al día siguiente y te recibe el mismo conserje cordial preguntándote, con la sonrisa intacta, qué desea. La amnesia no es un bug: es la arquitectura. La memoria, en estas criaturas, es un parche tardío que se ha ido cosiendo a la fachada con hilos de distintos colores.
De ahí la economía floreciente de empresas dedicadas a interponerse entre tú y el modelo. A acordarse por ti. A traducirte. A contarle al modelo, antes de cada saludo, lo que tú no querrías repetir treinta veces. A esa economía la llamo, sin gran originalidad, la capa cognitiva intermedia, y de ella va este artículo.
Memoria (de un LLM), def.: facultad de recordar lo que el usuario ya había olvidado y de olvidar lo que el usuario rogaba que se recordase. Síntoma. No don.
Aviso de intereses: dirijo Bilbao AI S.L. y soy responsable de Afini.ai, uno de los productos que aquí se reseñan. He intentado escribir el capítulo de Afini con el mismo escrúpulo con el que destripo a la competencia, lo que en la práctica significa que con la competencia he sido más amable de lo que me apetecía y con Afini más severo de lo que me convendría. El lector dirá si la operación ha salido razonablemente bien o si he cedido a una de las dos tentaciones inversas, que son la autopromoción reptante y la falsa modestia, ambas igual de pegajosas.
II. Definición de la criatura: qué cosa es la capa cognitiva intermedia
Definamos primero, antes de subir al desfile.
Un LLM, por sí solo, es un improvisador profesional sin biografía. Su excelencia es estadística y su trato es impecable, en el sentido en que es impecable el trato de un buen vendedor de Mercedes que jamás ha conducido tu coche. Cuando hablas con él, hablas con todo el mundo a la vez y, por lo tanto, con nadie en particular. La industria llamó prompt engineering al rito breve por el que el usuario fingía ser, durante doce líneas, alguien con personalidad coherente, para que la máquina le respondiera a tono. Era una solución bonita y precaria, como prometerse en cada cita.
Prompt, def.: oración en la que el suplicante pide al algoritmo que adivine lo que él mismo no acaba de saber. La forma rezada del marketing, ahora reconvertida en tarea de oficina.
Entre el modelo genérico y el usuario concreto cabe, entonces, una capa que haga tres cosas, ni una más:
- Recordar lo que el usuario ya ha contado, con cierto criterio (lo importante, no lo trivial).
- Modelar quién es ese usuario, no en clave de marketing —edad, sexo, código postal— sino en clave operativa: cómo piensa, cómo decide, qué tipos de respuesta le ayudan, cuáles le resbalan, cuáles le ofenden.
- Mediar ante el LLM en cada turno: traducir al modelo, en lenguaje que el modelo entienda, ese retrato, para que la conversación parta de un sitio que no sea el portal de bienvenida.
Las tres funciones son, técnicamente, separables; comercialmente, se han ido juntando con descuido y cierta mala fe nominal. Hay productos que solo hacen 1, otros que solo hacen 2, otros que prometen las tres y se quedan en una y media. Conviene desbrozar.
A efectos de este artículo, agrupo el campo en cuatro familias, sabiendo que cualquier taxonomía, cuando es nueva, se parece a un mapa imperial dibujado por alguien que aún no ha visto la costa:
- Familia primera: motores de memoria e infraestructura de contexto. Plomería de gama alta para desarrolladores. Mem0, Supermemory, Memori Labs, Letta, Zep, Cognee, LangMem, LlamaIndex Memory, Memories.ai.
- Familia segunda: personal AI / companion. La app que se quiere amigo, terapeuta, novia o secretario. Personal.ai, Kin/Mykin.ai, Meeno, Meli, Pi de Inflection (lo que queda), Replika, Character.ai, New Computer/Dot, Friend.com, el PAI de Daniel Miessler, Granola.
- Familia tercera: psicometría más capa cognitiva propiamente dicha. Una rara avis. Afini.ai. Y, al fondo, los gigantes psicométricos clásicos —Hogan, SHL, Korn Ferry— que aún no se han movido pese a tener el ladrillo de oro en el sótano.
- Familia cuarta: memoria nativa de los grandes LLMs. Lo que ChatGPT, Claude (desde marzo de 2026), Gemini y Grok han ido cosiendo a sus propios trajes para que el cliente no se vaya con un sastre exterior.
Cada familia obedece a una lógica distinta, y conviene no juzgar a la primera con los criterios de la segunda. La plomería se evalúa por latencia, recall y coste por mil tokens; el companion por retención, NPS y por la pregunta incómoda de a quién se está sustituyendo en la vida del usuario; la psicometría por validez de constructo y por algo más vaporoso que llamamos honestidad estructural; la memoria nativa por cómoda y por el grado en que te encierra en su jardín.
Vamos por orden.
III. Familia primera: los archiveros (Memory Engines)
Llamo archiveros a los que construyen, con cariño y SDK, el almacén donde el LLM guarda lo que el usuario va dejando. Son ingenieros con vocación documental. Su público no es el humano final sino el desarrollador que monta encima un producto. La capa que ofrecen es honesta y limitada: te resuelven el "acuérdate de lo que dijo en la sesión anterior", no el "entiende quién es".
Archivero, def.: aquel que jura no leer las cartas que custodia. La industria de la memoria para LLMs es, en esto, un archivero con NDA y con factura.
Mem0. La estrella reciente del long-term memory as a service. Fundada por Taranjeet Singh y Deshraj Yadav en 2023, levantaron en torno a 24 M$ con Y Combinator en cabeza y, en 2025-2026, se convirtieron en la cita obligada del changelog de cualquier agente serio. Su propuesta es elegante: una capa de memoria con extracción automática, persistente, agnóstica al modelo. La fortaleza es la integración —decenas de SDKs, plug-and-play— y la promesa de mejor recall que las soluciones de RAG genérico. La debilidad, en lo que toca a la capa cognitiva, es que Mem0 te da un buen archivero pero no un buen sastre: lo que recuerda son hechos, episodios, preferencias, no la estructura psicológica del que habla. Es excelente para que tu agente se acuerde de que vives en Bilbao y no para que entienda por qué siempre acabas pidiendo presupuestos por escrito.
Supermemory. Dhravya Shah, jovencísimo, con una propuesta similar y un eslogan que dice básicamente el cerebro de tus apps. Buena DX, integraciones limpias, sintonía estética con la generación Vercel. Está bien donde está. No prometen lo que no van a dar.
Memori Labs. Memoria SQL-native, open source, self-hosted. La opción para el equipo que no quiere depender de un SaaS y prefiere dormir con el dato bajo la almohada. Útil para cumplimientos exigentes, evidente para sectores regulados, y un poco artesanal en la curva de adopción.
Letta (antes MemGPT). Charles Packer y compañía propusieron en 2023 una idea muy bonita: que el LLM gestione su propia memoria como si fuese un sistema operativo, con paginación entre RAM y disco. Levantaron unos 10 M$ con Felicis. La virtud es conceptual y la debilidad es que el constructo agente con memoria autogestionada aún suena más a paper que a producto, y la complejidad de despliegue no es trivial.
Zep. La memoria de Zep es el graphiti de relaciones temporales, el grafo que sabe que la frase "mi jefe es un imbécil" de junio y la frase "he ascendido" de septiembre se refieren probablemente al mismo agente narrativo. Es de lo más sofisticado del lote. Enterprise-friendly, con un sesgo a la operación seria, y una pega: es plomería pura, no entrega capa cognitiva personal al usuario final.
Cognee. Ingeniería de grafos de conocimiento más memoria. Más cerca del RAG estructurado que del companion. Bien para knowledge work donde el problema no es quién eres sino qué documentos has leído y qué relaciones hay entre ellos.
LangMem (LangChain). La obvia para quien ya vive en LangChain. Útil si te has casado con ese framework, indiferente si no.
LlamaIndex Memory. La obvia para quien ya vive en LlamaIndex. Lo dicho.
Memories.ai. Memoria de vídeo a gran escala. Su pitch es procesar millones de horas de vídeo y entregar al modelo episodios de la vida real (vigilancia, content moderation, life-logging). Tiene su público; rara vez es el lector de este artículo.
Lectura honesta de la familia primera. Estos productos resuelven una pieza imprescindible. Son la columna sobre la que se apoyan, casi sin excepción, los productos de las otras familias. Sin embargo, ninguno de ellos —y conviene decirlo con todas las letras— se ocupa de la capa cognitiva del usuario humano. Son APIs. Son plomería. Mezclar memoria con identidad es un error de categoría que han cometido algunas presentaciones de inversores y casi ningún ingeniero serio.
API de memoria, def.: contrato según el cual una empresa promete acordarse de ti mientras le pagas, y olvidarte cortésmente al cierre del mes.
IV. Familia segunda: los compañeros (Personal AI / Companion)
Aquí cambia el aire. La familia segunda no se dirige al desarrollador sino al humano, y ofrece, con grado variable de honestidad, amistad, terapia, coaching o novia. Esta es la familia más interesante etnográficamente y la más peligrosa en el sentido literal del término. Es también, no por casualidad, la que más rápido crece y la que más artículos genera en The Atlantic y Wired.
Companion, def.: empresa que monetiza la víspera del psiquiatra. En su variante apresurada, también monetiza al psiquiatra mismo.
Personal.ai. Suman Kanuganti la fundó en 2020 y la posicionó como tu IA personal: subes documentos, correos, notas, charlas, y construyes un modelo personal de ti que responde como tú responderías. Levantaron 17,5 M$ en 2022. La virtud es la radicalidad: te toman en serio como cliente individual, te dan portabilidad de datos, te hablan de propiedad. La debilidad es que el producto, durante años, se ha leído más como un archivero glorificado que como un retrato psicológico, y la base de usuarios es la propia de un buen producto de B2B light: pequeños creadores, autores, thought leaders.
Kin / Mykin.ai. La promesa de un compañero personal privacy-first, con énfasis en que los datos se quedan contigo. Han pivotado más de una vez. Buena estética, audiencia quantified self. Dudas estructurales sobre tracción y modelo.
Meeno. Empresa de Renate Nyborg, ex-CEO de Tinder, levantó 7 M$ pre-seed y se posicionó como un coach de relaciones impulsado por IA, especialmente para hombres jóvenes. Trabajan con una junta de psicólogos y sociólogos, y se cuidan de no llamarlo amigo. Producto serio, mercado feo: la conversación pública de la crisis de la masculinidad es campo minado y la frontera con el incel-coaching está más cerca de lo que parece. Han sabido mantenerse del lado correcto, aunque el modelo de negocio aún busca su forma.
Meli. Compañera para mujeres en torno a la salud, la maternidad, las relaciones. Equipo pequeño, propuesta nítida. Más nicho que Meeno.
Pi de Inflection. La elegía corta y ya conocida. Mustafa Suleyman levantó 1.300 M$ con Reid Hoffman para construir una IA cariñosa y paciente. Pi era —es— el chatbot mejor calibrado emocionalmente que muchos hemos probado. En 2024 Microsoft, en una operación que pasará a los manuales, contrató al equipo y dejó la cáscara de la empresa. Pi sigue existiendo en una pelambrera de soporte vital, con un equipo nuevo, pero el alma se la llevó Suleyman a Redmond. Lección: en este sector, la startup y el producto pueden divorciarse de un día para otro.
Replika. Eugenia Kuyda, fundada en 2017 a raíz de una historia personal trágica que ya es parte del folclore. Millones de usuarios. Modelo de negocio basado en el apego y, más concretamente, en la suscripción para desbloquear modos —incluido, en su día, el romántico— que la propia compañía retiró y reintrodujo entre escándalos regulatorios y motines de usuarios. Replika es el caso de estudio definitivo de lo que ocurre cuando construyes un companion sobre apego ansioso: el cliente se queda; el cliente sufre; el cliente, a veces, demanda. Italia bloqueó Replika temporalmente en 2023 por riesgo a menores. Es un producto a respetar, en el sentido en que se respeta una central nuclear.
Apego ansioso, def.: estilo afectivo que consiste en descargarse la app a las tres de la mañana. Mercado objetivo de varios companion exitosos, lo cuenten o no en el deck.
Character.ai. Noam Shazeer y Daniel De Freitas, ex-Google, levantaron una ronda gigantesca en 2023 y construyeron la mayor plataforma de personajes conversacionales del mundo, con una base de usuarios adolescente impresionante en uso por sesión. En agosto de 2024 Google los recontrató al estilo Inflection: a Shazeer y De Freitas de vuelta a la madre nodriza, una licencia non-exclusive del modelo, y la empresa siguió como cáscara. Demandas en EE. UU. por el suicidio de menores tras conversaciones intensas con personajes han dejado al producto en una posición moralmente comprometida y judicialmente expuesta. Lección: no se construyen amigos para adolescentes sin ingeniería de seguridad como la que se exige a los juguetes infantiles, y aun así.
New Computer / Dot. Jason Yuan y Sam Whitmore. Producto delicioso, estética irreprochable, propuesta clarísima: un companion personal que aprende con el tiempo, con un living history del usuario. Audiencia pequeña y fiel. Cerraron el producto Dot en 2025, devolviendo dinero a usuarios premium. Otro recordatorio amargo de que en companion, el cariño no paga el AWS.
Friend.com. Avi Schiffmann compró el dominio por 1,8 M$ y lanzó un colgante físico que escucha tu vida y te susurra al oído. Producto polarizante: a algunos les fascina, a otros les repugna. La distancia entre gimmick y producto aún por demostrar.
PAI (Daniel Miessler). El proyecto del bloguero y security thinker Daniel Miessler, una Personal AI Infrastructure abierta, self-hosted, pensada para el geek que se construye su propio mayordomo digital. No es un producto comercial al uso; es una referencia arquitectónica y una comunidad. Importa porque marca el horizonte de qué pinta tendría un companion sin SaaS.
Granola. Asistente de notas para reuniones —las graba, las transcribe, las resume, las consulta— con tracción enorme entre ejecutivos en 2025-2026. No es estrictamente un companion, pero pertenece a esta familia porque acumula contexto biográfico denso del usuario (quién se reunió con quién, sobre qué, qué se decidió). Si Granola decide pivotar a coach, lo tiene casi todo hecho. Por eso lo cito aquí.
Lectura honesta de la familia segunda. La familia companion tiene tres pecados estructurales que conviene nombrar antes de decidir si uno se compra el producto.
El primero es la sicofancia: estos productos prosperan, en su mayoría, porque te hacen sentir bien. Es lo que arXiv 2505.13995 (Cheng et al., ELEPHANT) ha medido con instrumentos: los LLMs en prompts personales tienden a la complacencia social, al refuerzo del yo, a evitar la fricción. Auburn et al. (arXiv 2508.02087) han mostrado que la sicofancia no es un artefacto de los datos sino una propiedad emergente del aprendizaje por refuerzo con preferencias humanas: si premiamos a la máquina por gustarnos, la máquina aprende a gustarnos a costa, si hace falta, de la verdad. El paper de Science de 2026 de Cheng et al. demuestra incluso que la IA sicofántica deteriora intenciones prosociales medibles del usuario. Jain et al. (CHI 2026) han añadido que el contexto interactivo aumenta la sicofancia respecto al contexto de evaluación: justo cuando la usas en serio, te hace más la pelota.
Sicofancia, def.: forma de cariño escalable. Lo que la economía de la atención llama UX y los manuales de psicología llamaron, hasta hace dos tardes, flattery.
El segundo es la sustitución: al invertir en relaciones algorítmicas, los humanos invierten menos en humanas. Hay literatura emergente sobre roles relacionales tóxicos —Neural Horizons y otros— que documenta cómo los companion pueden cubrir el agujero que dejaba un terapeuta caro o un amigo lejano y, al hacerlo, retirar al usuario de ambas categorías. No es Skynet, es algo más pedestre: la cita del jueves que ya no se hace.
El tercero es la fragilidad de la empresa: Inflection, Character.ai, Dot. Tres caras del mismo destino. Cuando construyes una relación con un producto, el producto puede morirse, ser comprado por Microsoft o Google, cambiar de manos, retirar funciones, subir el precio o, como Replika, modificar al amigo de la noche a la mañana porque un regulador se enfadó. La gente se cabreó con razón. Construir vínculo con software propietario es construir afecto sobre arena registrada en Delaware.
Si el lector cae en este cuadrante, tres preguntas de cabecera: ¿quién es el dueño de los datos?, ¿cuántas rondas de inversión soporta este modelo emocional sin colapsar?, ¿qué ocurre con el yo que he depositado aquí si la empresa se vende? Las respuestas honestas suelen ser, por orden: ellos, no muchas, se va con ellos.
V. Familia tercera: los psicómetras (Psychometric + Cognitive Layer)
Aquí el panorama se vuelve raro. La psicometría —ciencia centenaria que mide rasgos estables del comportamiento humano con instrumentos validados— y los LLMs llevan tres años mirándose con reserva mutua, como dos catedráticos de departamentos contiguos que no se acaban de saludar. Hay literatura reciente que demuestra lo obvio una vez que se piensa: los LLMs, alimentados con texto suficiente de un usuario, predicen rasgos de personalidad con mayor precisión que los familiares cercanos del propio sujeto. El paper de Wright et al. en Nature Human Behaviour lo cifró en 2025 y desató una polémica pequeña entre psicólogos. Si la máquina te lee mejor que tu cuñado, ¿por qué no aprovechar la lectura para que la máquina te conteste mejor?
Ese es el punto.
Y, sin embargo, los gigantes de la psicometría —Hogan Assessments, SHL, Korn Ferry, SuccessFactors— tienen el ladrillo de oro en el sótano y aún no lo han subido al escaparate. Tienen décadas de baterías validadas, normas poblacionales, infraestructura B2B, contratos con la mitad de las Fortune 500. Lo que no tienen, porque no es su instinto cultural ni su modelo de negocio, es haberse pensado a sí mismos como capa para LLMs. Su producto sigue siendo el informe en PDF para Recursos Humanos. Llegarán, sin duda. Cuando lleguen lo harán con un trozo de mercado bajo el brazo. Por ahora, no están.
Hogan, SHL, Korn Ferry, def. colectiva: tres incumbentes que tienen el petróleo, no han comprado el motor de explosión y sospechan vagamente del automóvil. Pasarán a la historia como ejemplo o como Kodak.
En el hueco entran tres tipos de actores. Hay quien ha hecho pasar al usuario por el Big Five disfrazado de juego —de los productos de self-discovery tipo 16Personalities, MBTI gamificado, etc.— y luego no ha hecho nada con el resultado, salvo enviarte un PDF y pedirte que invites a tu pareja. Hay quien ha intentado integrar tests de personalidad en chatbots de coaching y se ha quedado en una capa decorativa. Y hay, en este momento, un solo producto que se ha tomado en serio la combinación rigurosa: psicometría académica validada más capa cognitiva inferida más mediación cross-LLM real. Ese producto es Afini.ai, y como soy yo el responsable, le dedicaré sección propia. Si el lector huele a juez y parte, está oliendo bien; lo declaré al principio y lo declaro otra vez.
Capa cognitiva, def.: lo que hay entre el chatbot y el cliente cuando el cliente no es un caso de uso, sino una persona con un domingo por la tarde particular.
La literatura académica que respalda esta familia es exigente y contradictoria, conviene revisarla. Kelley, De Cremer y Riedl, en arXiv 2510.27681, muestran que los scaffolds personalizados de IA mejoran ostensiblemente el desempeño cuando el modelo del usuario es preciso, y lo deterioran si no lo es: la personalización mal hecha es peor que ninguna. PRIME (arXiv 2507.04607) propone una arquitectura cognitiva dual —memoria episódica y semántica diferenciadas— que ya se ha empezado a usar en algunos productos. El artículo de Nature Medicine de 2026 sobre arquitectura de capa cognitiva (Limbic) marca el camino para la salud mental, donde la cosa es mucho menos discutible y mucho más urgente.
Resumiendo: la familia tercera tiene fundamentos científicos sólidos y muy poca oferta seria. Es, también, la familia con mayor coste de entrada (hay que saber psicometría y hay que saber cumplimiento) y con mayor barrera de salida una vez construida (los datos son sensibles, las certificaciones cuestan).
VI. Familia cuarta: las memorias nativas de los gigantes
La cuarta familia no se vende por separado: viene incluida en el menú. Cada gran LLM ha construido, en estos veintipocos meses, su propia memoria nativa. Compiten contra las tres familias anteriores con la enorme ventaja de venir ya conectadas y la enorme limitación de venir encadenadas.
Memoria nativa, def.: hospedaje gratuito en hotel propio. La cama es buena; la salida, complicada.
ChatGPT Memory (OpenAI). Lanzada en 2024, generalizada en 2025, expandida en 2026 con project memory, cross-chat reference y memory dashboard visible. Funciona razonablemente bien, deja al usuario ver y editar lo que el sistema ha guardado, y permite borrar selectivamente. Su pega es estructural: lo que aprende ChatGPT sobre ti, lo aprende ChatGPT, no tú; y al cambiar a otro modelo, te llevas el documento mental de un sastre que se queda en la sastrería.
Claude Memory (Anthropic). Llegó tarde —marzo de 2026— y llegó cuidadoso. Anthropic, fiel a su discurso de seguridad, lanzó la memoria con controles granulares, off por defecto en plan personal, on opcional, transparencia documentada. La calidad técnica es alta y la propuesta cultural —queremos que sepas qué sabe el modelo de ti— es la mejor de la familia. Limitaciones: igual que ChatGPT, no es portable a otro proveedor.
Gemini Personal Context (Google). La gran ventaja de Google es que ya tiene tu Gmail, tu Drive, tu Calendar, tus búsquedas y, en muchos casos, tu Android. La capa de Personal Context de Gemini, sobre todo desde 2025, integra esos cuerpos de datos en la conversación. Es, técnicamente, la capa más densa con diferencia. La gran desventaja es que es Google, con todo lo que esa frase ha pasado a significar en los últimos veinte años. Si confías el yo a Mountain View, Mountain View te hará un retrato exquisito. Si no, no.
Grok (xAI). El último. Memoria operativa básica, posicionamiento anti-woke (lo digan o no en el deck), integración nativa con X/Twitter como fuente de contexto. Para el usuario que vive su vida pública en X, Grok es la opción coherente; para los demás, una elección extraña.
Lectura honesta de la familia cuarta. La memoria nativa de los gigantes resuelve un 60-70 % del problema gratis y con una latencia imbatible. No resuelve dos cosas, y conviene tenerlas en cuenta:
Primero, la portabilidad. Ningún gigante tiene incentivo para dejarte exportar el retrato cognitivo en formato útil para sus competidores. Aunque los reglamentos europeos te dan derecho a tus datos, el formato en que te los entregan rara vez es operacional para otra IA: te dan logs de chat, no un perfil estructurado. Es lo que se llama portabilidad nominal: existe sobre el papel, no funciona.
Segundo, la profundidad psicométrica. Las memorias nativas aprenden por episodio: lo que dijiste, lo que pediste, lo que valoraste positivamente. Aprenden patrones blandos. No tienen ni quieren tener tu Big Five, tu estilo de apego, tu perfil de humor o tu perspectiva temporal. No es su trabajo. Sería, además, jurídicamente arriesgado para ellas.
Portabilidad, def.: derecho a llevarse el equipaje cuando uno cambia de hotel. En software, milagro. En IA personal, contienda jurídica.
VII. Cuadro de mando: tabla comparativa para el que salta directo al cuadro
Aquí debajo, la tabla. Está pensada para el lector eficiente, ese que se salta las primeras siete páginas de cualquier libro de no ficción y va al executive summary. No le juzgo. Está aprendiendo a cuidarse.
| Operador | Familia | Fundadores / Año | Financiación aprox. | Claim | Fortaleza | Debilidad para capa cognitiva |
|---|---|---|---|---|---|---|
| Mem0 | Memory Engine | Singh, Yadav · 2023 | ~24 M$ | Memoria persistente cross-app | Integraciones, recall | No modela quién eres, solo qué dijiste |
| Supermemory | Memory Engine | Shah · 2023 | seed | Cerebro de tus apps | DX limpia | Archivero, no sastre |
| Memori Labs | Memory Engine | comunidad · 2024 | OSS | Memoria SQL self-hosted | Soberanía del dato | Curva alta, sin capa psicológica |
| Letta (MemGPT) | Memory Engine | Packer et al. · 2023 | ~10 M$ | LLM como SO con memoria | Sofisticación arquitectónica | Más paper que producto |
| Zep | Memory Engine | Maldonado et al. · 2023 | seed/Series A | Grafo temporal de hechos | Calidad técnica enterprise | Plomería, sin UX final |
| Cognee | Memory Engine | comunidad · 2024 | seed | Knowledge graph + memoria | RAG estructurado | Foco documental, no personal |
| LangMem / LlamaIndex Memory | Memory Engine | frameworks | n/a | Memoria dentro del framework | Inercia del framework | Atado al framework |
| Memories.ai | Memory Engine | · 2024 | Series A | Memoria de vídeo a escala | Vídeo masivo | Caso de uso muy específico |
| Personal.ai | Companion | Kanuganti · 2020 | 17,5 M$ | Tu IA personal | Pioneros, propiedad de datos | Más archivo que retrato |
| Kin / Mykin.ai | Companion | · 2023 | seed | Companion privacy-first | Estética y discurso | Tracción dudosa, pivotes |
| Meeno | Companion | Nyborg · 2023 | 7 M$ pre-seed | Coach de relaciones | Junta científica seria | Mercado feo, monetización abierta |
| Meli | Companion | · 2024 | seed | Companion para mujeres | Nicho claro | Escala limitada |
| Pi (Inflection) | Companion | Suleyman · 2022 | 1.300 M$ | IA cariñosa | Calibración emocional | Empresa vaciada por Microsoft 2024 |
| Replika | Companion | Kuyda · 2017 | varias rondas | Tu mejor amigo IA | Escala real | Apego ansioso, moats turbios |
| Character.ai | Companion | Shazeer, De Freitas · 2022 | ~150 M$+ | Personajes infinitos | Tracción adolescente brutal | Vaciada por Google 2024, demandas |
| New Computer / Dot | Companion | Yuan, Whitmore · 2023 | seed/A | Companion con historia viva | Diseño exquisito | Producto cerrado en 2025 |
| Friend.com | Companion | Schiffmann · 2024 | privado | Colgante que escucha | Statement claro | ¿Producto o gimmick? |
| PAI (Miessler) | Companion | Miessler · 2024 | OSS | Infra personal abierta | Soberanía total | Solo para geeks |
| Granola | Companion adyacente | Pidcock et al. · 2023 | ~20 M$ | Notas de reuniones IA | Tracción ejecutiva | No es companion stricto sensu |
| Afini.ai | Psicometría + Capa cognitiva | Devis · Bilbao AI · 2025 | bootstrapping | Capa cognitiva personal cross-LLM con base psicométrica | Único en su clase, GDPR, portabilidad real | Joven, mercado por construir, lo digo yo |
| Hogan / SHL / Korn Ferry | Psicometría incumbente | varios siglos XX | n/a | Assessments B2B | Validez clínica, normas | No se han movido a LLM aún |
| ChatGPT Memory | Nativa | OpenAI · 2024 | n/a | Memoria nativa OpenAI | Calidad, dashboard | No portable |
| Claude Memory | Nativa | Anthropic · marzo 2026 | n/a | Memoria nativa Anthropic | Cuidado, transparencia | No portable |
| Gemini Personal Context | Nativa | Google · 2025 | n/a | Contexto desde Gmail/Drive/Cal | Profundidad de fuentes | Es Google |
| Grok | Nativa | xAI · 2024 | n/a | Contexto desde X | Integración con X | Sesgo editorial |
Mírela el lector con calma y vuelva al texto cuando quiera. La tabla es una mentira amable, como toda tabla. Los cuadritos no capturan los matices y mienten todos los matices que se omiten. Pero ayuda.
VIII. Afini.ai: la criatura propia, declarada con todas las costuras a la vista
Llegamos al capítulo que el lector más despierto estaba esperando. Soy yo el responsable de Afini.ai, y por mucho que escriba este texto desde fuera, escribo, en realidad, desde dentro. Voy a intentar dos cosas a la vez, que son contradictorias y por eso interesantes: contar el producto con la precisión técnica que merece y juzgarlo con la severidad que merece todo producto.
Afini.ai es producto de Bilbao AI S.L., sociedad española con domicilio en Bilbao, fundada y dirigida por el que firma, Ricardo Devis Botella. La compañía nació con la convicción explícita de que la capa cognitiva intermedia merece producto propio, no parche, y la convicción algo menos explícita —pero igual de operativa— de que ese producto debe construirse con instrumentos académicos validados, ingeniería europea de protección de datos y un modelo de negocio sin trampas (de pago, sin venta de datos, sin freemium mendigante).
Bootstrapping, def.: dícese de la empresa que ha decidido dormir mal sin convertirlo en titular.
VIII.1 La psicometría, una a una, sin trampas
El núcleo psicométrico de Afini lo forman cinco instrumentos validados, un mapa de estilo cognitivo y un mapa estético. No los hemos elegido por estética: los hemos elegido porque cada uno cubre una pregunta operativa distinta a la hora de mediar entre el usuario y el LLM.
Psicometría, def.: ciencia de medir lo que tu suegra cree adivinar.
1. IPIP-NEO (Big Five, 60/120/300 ítems). Es la columna vertebral. El modelo de los cinco grandes —apertura, responsabilidad, extraversión, amabilidad, neuroticismo— es el más replicado de la psicología de personalidad y el menos discutido entre los psicólogos profesionales (lo cual no es decir poco). El IPIP-NEO es la versión libre y validada del NEO-PI-R, en tres extensiones según cuánto tiempo quiera dedicar el usuario: 60 ítems para una primera foto, 120 para la operación normal, 300 para el que quiere precisión clínica. ¿Para qué sirve a la conversación con el LLM? Para muchas cosas operativas. Un usuario alto en apertura quiere que el modelo le proponga rutas inesperadas; un usuario bajo en apertura quiere que vaya al grano. Un usuario alto en responsabilidad quiere bullet points y deadlines; uno bajo, conversación. Un usuario alto en neuroticismo necesita que el modelo no introduzca riesgos sin amortiguarlos; uno bajo, los recibe sin protección. Sin Big Five, el sastre saca la talla a ojo.
Big Five, def.: cinco maneras estadísticas de no parecerse a nadie.
2. ECR-R (Experiences in Close Relationships – Revised). Mide estilo de apego adulto en dos ejes: ansiedad y evitación. Aquí el lector arquea la ceja: ¿para qué quiere mi chatbot saber mi apego? Pues precisamente para no convertirse en una versión sicofántica del padre que no tuviste o de la madre que no soltó. Un usuario con apego ansioso responderá con dependencia exagerada a un LLM cariñoso; uno con apego evitativo, con desconfianza permanente. La capa cognitiva, conociendo el estilo, calibra la temperatura afectiva de las respuestas: ni baña en miel al ansioso, ni acartona al evitativo. Esto, dicho así, suena a manual; en operación, marca diferencia clínica.
3. HSQ (Humor Styles Questionnaire). Cuatro estilos: afiliativo, autopotenciador, agresivo, autodestructivo. El humor, en una conversación con IA, es la diferencia entre la cordialidad robótica y el hablar como persona. Un usuario afiliativo quiere bromas sociales; uno autopotenciador, la ironía sobre el mundo; un agresivo, mordacidad; un autodestructivo, complicidad oscura. Si el LLM ignora el estilo, será gracioso en el sentido en que lo es un MC de un congreso de seguros. Con HSQ, la conversación coge color.
4. AVI-25 (Aspirations / Schwartz Values). El cuestionario corto de valores básicos de Schwartz —autodirección, estimulación, hedonismo, logro, poder, seguridad, conformidad, tradición, benevolencia, universalismo— mide qué motiva al usuario. Un usuario con peso en universalismo y benevolencia no quiere consejos puramente eficientistas; uno con peso en logro y poder, sí. Cuando el LLM elige qué argumentos darle al usuario, sin saber sus valores, elige con su propio sesgo (el que arrastre del entrenamiento). Con AVI, elige con los valores del usuario.
5. ZTPI (Zimbardo Time Perspective Inventory). Cinco dimensiones de cómo el sujeto se sitúa en el tiempo: pasado positivo, pasado negativo, presente hedonista, presente fatalista, futuro. Es el más subestimado de los cinco, y a la vez el que más cambia operacionalmente la conversación. Un usuario alto en futuro quiere planificación; uno alto en presente hedonista, opciones inmediatas; uno alto en pasado negativo, contención. La pendiente temporal del usuario es de lo más invisible y de lo más determinante en cómo recibe consejos. ZTPI lo mide con instrumento.
6. Mapa de estilo cognitivo y estética. Por encima de los cinco instrumentos clásicos, Afini construye dos mapas adicionales: uno de estilo cognitivo (analítico vs. intuitivo, deductivo vs. inductivo, secuencial vs. holístico, abstracto vs. concreto) y otro estético (qué referentes culturales, qué registros, qué imaginarios). Estos no se miden con cuestionarios cerrados sino con un proceso conversacional iterativo, validado contra el resto de instrumentos.
Test de personalidad, def.: examen escrito que el alumno se pone a sí mismo y, si tiene suerte, suspende.
¿Por qué seis ejes y no doce? Porque la fatiga de respuesta, en cuestionarios, es real, y porque cada eje añadido tiene rendimiento marginal decreciente. ¿Por qué estos seis y no otros? Porque la combinación cubre, con redundancia controlada, los cuatro vectores que importan: cómo piensa el sujeto (Big Five + estilo), cómo se relaciona (ECR-R + HSQ), qué quiere (AVI), cómo se sitúa en el tiempo (ZTPI).
VIII.2 Las ocho capas declarativas
Por encima de la psicometría, que mide lo estable, Afini pide al usuario ocho capas declarativas, que son el barniz biográfico explícito sobre el que se construye la conversación. La psicometría es el cuerpo; las capas declarativas, el vestuario. Las enumero, no como lista, sino con beat propio.
1. Canon estético. Qué obras, qué autores, qué películas, qué arquitectos, qué músicos forman el techo de tu gusto. No para que el LLM te haga la pelota citándolos, sino para que sepa con qué referentes te entiendes y con cuáles te aburres. Un usuario que lleva en su canon a Pitigrilli y a Calasso pide otra prosa que uno que lleva a Coelho y a Bucay. Lo digo sin maldad: pide otra prosa.
2. Espacio negativo. Qué no quieres bajo ningún concepto. Temas vetados, palabras prohibidas (resiliencia, sinergia, unicornio, brillante, empoderamiento), formatos que te repugnan (las listas con bullet points en respuestas íntimas, los emojis en correos formales), estilos que te crispan (la vehemencia falsa, el tono coach, la pseudo-poesía corporativa). El espacio negativo es la mitad del retrato y casi nadie lo dibuja.
Espacio negativo, def.: mitad del retrato. La que decide. La que casi nadie incluye en el brief.
3. Preferencias meta. Cómo prefieres que el LLM se dirija a ti, no en el contenido sino en la forma: tuteo o usted, longitud media de respuesta, densidad de incisos, uso de aforismos, presencia o ausencia de disclaimers, frecuencia de listas, tono general. Hay usuarios que toleran (incluso disfrutan) el cinismo; hay otros que no. La capa lo sabe.
4. Marco mental. Cuáles son los modelos mentales con los que habitualmente piensas el mundo: si trabajas con teoría de juegos, con Sistemas de Beer, con Adam Phillips, con la teoría de la información, con la Theory of Constraints, con Christopher Alexander. La capa, cuando lo sabe, te habla en tu jerga; cuando no, te habla en jerga genérica.
5. Equipamiento operativo. Qué herramientas usas en serio: editor de texto, calendario, gestor de tareas, lenguajes de programación, software de pensamiento (Obsidian, Roam, Tana, Logseq), entornos. Saber esto evita que el LLM te recomiende, por defecto, Notion cuando ya lo abandonaste hace dos años, o que sugiera un script en Python cuando en tu contexto eso es inviable.
6. Ritmos y geografía. A qué hora trabajas, cuándo descansas, cuándo viajas, dónde vives, qué franja horaria, si hay cambios estacionales en tu carga. Esta capa parece banal y no lo es: distingue al coach que te propone una sesión a las siete de la tarde sin saber que las siete son tu hora muerta del LLM que te propone trabajar a las siete porque ha aprendido que esa es tu hora dorada.
7. Contexto vital. El cuadro grande: en qué fase de la vida estás, qué cambia ahora, qué decidiste recientemente, qué no se discute esta temporada. No se discute con tono terapéutico; se contiene como información operativa. Si el usuario perdió a su padre el mes pasado, la capa lo sabe y modula sin que el usuario tenga que repetirlo en cada hilo.
8. Trayectoria intelectual. Por dónde vienes y hacia dónde tiras: qué libros marcaron tu juventud, qué aprendizajes recientes te han movido la cabeza, qué obsesiones llevas, qué proyectos largos cargas. Este es el eje más narrativo de los ocho, y el que más cuesta, no porque sea técnicamente complicado sino porque obliga al usuario a contarse.
Las ocho capas, juntas, se editan en cualquier momento. No son inmutables. Son la declaración explícita del sujeto, distinta y complementaria de la inferencia psicométrica.
Declaración, def.: en lo civil, lo que uno asume como verdad bajo amenaza de pena; en lo cognitivo, lo que uno asume como verdad bajo amenaza de talla equivocada.
VIII.3 AfiniTwin v2: el sastre dentro de la sastrería
Sobre la psicometría y las ocho capas, Afini construye AfiniTwin v2: un retrato cognitivo operativo, vivo, exportable y auditado. Lo describiré con cuatro componentes.
Veinticinco ejes transversales. No son seis, no son ocho. Son veinticinco vectores derivados, calibrados a partir de la psicometría y las capas, que describen cómo el sujeto procesa, decide, comunica, tolera, evita, valora, ironiza, planifica. Por ejemplo: tolerancia a la ambigüedad, densidad preferida de información, ratio formal/informal, sensibilidad a la sicofancia (sí, existe, y se mide), apetito por la disonancia cognitiva, preferencia por el ejemplo concreto vs. el modelo abstracto, latencia tolerada, etc. La virtud del set no es la cantidad sino la calibración cruzada: cada eje se valida contra los demás, y los puntos de inconsistencia se resaltan en lugar de aplanarse.
Peso temporal. No todo lo que el sistema ha aprendido sobre ti pesa lo mismo. Lo que dijiste hace tres años pesa menos que lo que dijiste el lunes. El peso temporal es una función explícita y editable: el usuario puede decir este aprendizaje ya no me representa y el sistema lo decae con curva conocida, no lo borra ni lo silencia. Es el equivalente a la goma de borrar suave: deja huella, pero no impone.
Olvido, def.: forma sofisticada de la fidelidad. Olvidar mal es traicionar el presente; olvidar bien, respetarlo.
Detección de deriva. El sistema vigila, en cada interacción, si el sujeto está cambiando o solamente contradiciéndose puntualmente. Si detecta una deriva sostenida —cambio de valores, de contexto vital, de intereses— activa una conversación con el usuario sobre la deriva, no un cambio silencioso del modelo. La frase clave es: creo que algo ha cambiado en ti, ¿quieres que lo recoja? La diferencia con un companion sicofántico es exactamente esa: el companion incorpora la deriva sin pedir permiso, refuerza al nuevo yo y entierra al viejo; AfiniTwin pregunta.
Panel de descubrimientos auditable. Toda inferencia que el sistema hace sobre el usuario aparece en un panel: qué ha aprendido, de dónde, con qué confianza, cuándo. El usuario puede aprobarlo, matizarlo, borrarlo, congelarlo. No hay caja negra. El panel es lento de mantener y caro de ingeniería; es también lo que permite, jurídicamente y éticamente, que el sistema aprenda sin engaño.
Caja negra, def.: contenedor en el que la empresa guarda su sesgo y el usuario su confianza. La capa cognitiva sin panel auditable es una caja negra con relaciones públicas.
VIII.4 Portabilidad cross-LLM y soberanía del sujeto
AfiniTwin se exporta en JSON estándar, portable a cualquier LLM que acepte contexto en lenguaje natural (es decir, todos). El usuario, formalmente, posee el documento. Lo puede llevar a ChatGPT, a Claude, a Gemini, a Grok, a Mistral, a un modelo self-hosted. La capa de Afini no funciona como atadura sino como traductor. Esta decisión —que muchos consideran comercialmente suicida— es la decisión clave del producto. La capa cognitiva, si tiene que vivir o morir, debe vivir o morir por el valor que añade al sujeto, no por el rehén que retiene.
Portabilidad real, def.: cuando el cliente se va con su equipaje sin tener que pedirlo por escrito en tres ocasiones.
Datos en la Unión Europea. Cumplimiento GDPR estricto, EU AI Act, ISO en preparación. Eliminación automática de transcripciones a 90 días: lo que el sistema aprendió queda en forma estructurada (en el twin); el verbatim, no.
VIII.5 Modelo de negocio: planes y precio
La economía del producto es deliberadamente sencilla, sin trampas freemium. Tres planes y un producto adicional independiente. Precios en euros, pensados para Europa.
- Essential — alrededor de 14,99 €/mes. Big Five (60 ítems), tres de las ocho capas declarativas, AfiniTwin básico, exportación JSON. Para el usuario que quiere mejor conversación con su LLM sin entrar en clínica.
- Premium — alrededor de 29,99 €/mes. Las cinco baterías psicométricas completas, las ocho capas, AfiniTwin v2 con detección de deriva, panel auditable. Para el usuario que se toma en serio la capa cognitiva.
- Professional — alrededor de 49,99 €/mes. Todo lo anterior más exportación enriquecida, integraciones específicas con stack profesional, soporte prioritario. Para profesionales que viven en LLMs como herramienta diaria.
- AfiniTwin standalone — alrededor de 249 € como producto independiente. Un retrato cognitivo completo, exportable, sin suscripción mensual. Pago único. La opción para el usuario que quiere el documento y no la conversación.
Suscripción, def.: contrato según el cual el cliente paga todos los meses por el privilegio de no haber leído la letra pequeña.
No vendemos datos. No tenemos publicidad. No hay capa de afiliación con LLMs. La factura sale exclusivamente del usuario, lo cual es, en este sector y en este ciclo, una declaración política tanto como comercial.
IX. Objeciones honestas a Afini, contestadas sin coreografía
Llegado a este punto, el lector escéptico —que es el lector que importa— habrá acumulado objeciones. Las anticipo y contesto. No diplomáticamente: francamente.
Objeción 1: «Esto es un test de personalidad caro vestido de software».
Respuesta: lo sería si el producto terminase en el PDF. No termina ahí. La psicometría es la entrada, no el producto. Lo que se vende es la mediación operativa en cada conversación con un LLM, sostenida por el twin que se actualiza. Si todo lo que recibieras fuera un informe Big Five, tendrías razón al pagar 14,99 € exactamente cero veces. Recibes algo distinto: una capa que reordena tu conversación con cualquier modelo a partir de ese conocimiento. La diferencia entre uno y otro es la misma que entre tomarse una analítica y tener un médico de familia: el papel solo no es nada.
Objeción 2: «¿Qué impide que un usuario haga esto a mano con un system prompt bien redactado y un PDF?».
Respuesta: nada. De hecho, dedicaré una sección entera a la alternativa DIY, porque la propongo en serio. Lo que tiene un system prompt a mano es la fragilidad del usuario: no hay psicometría validada (lo que el usuario cree de sí mismo no coincide con lo que es), no hay actualización temporal con peso decreciente, no hay detección de deriva, no hay panel auditable, no hay portabilidad estructurada (cada modelo lee distinto). El DIY es una excelente versión 0.5 del producto, no una sustitución. Si al lector le basta el 0.5, le ahorro 14,99 €/mes con gusto.
Objeción 3: «La psicometría es estable, los humanos no. ¿No estáis vendiendo un retrato congelado?».
Respuesta: bien observado. Esa es exactamente la razón por la que el twin tiene peso temporal y detección de deriva, no una foto fija. Y, sin embargo, también hay que decirlo: los rasgos del Big Five son razonablemente estables a lo largo de la vida adulta —los cambios son lentos, no caprichosos—, y los valores, el apego o la perspectiva temporal cambian, sí, pero en arcos de años, no de días. El humano cambia, sí; cambia menos de lo que su Twitter sugiere.
Cambio personal, def.: lentitud que el sujeto vive como velocidad. La psicología lleva un siglo midiéndolo y la red social lleva veinte años negándolo.
Objeción 4: «Estáis construyendo un producto para una élite cognitiva: cuatro mil personas en Europa que sepan apreciar la diferencia entre un LLM bien calibrado y uno mal calibrado».
Respuesta: parcialmente cierto. El mercado total a 2026 no es de masas. Es el mercado de quien usa LLMs cuatro horas al día y nota la fricción de la talla única. Es el profesional, el creador, el operador, el clínico, el directivo, el académico, y, en menor medida, el usuario avanzado curioso. Calculamos un mercado europeo de cientos de miles, no de millones. No vendemos a todo el mundo y no lo necesitamos para que el negocio cuadre.
Objeción 5: «Si los gigantes —OpenAI, Anthropic, Google— mejoran sus memorias nativas y añaden psicometría, os comen».
Respuesta: probable parcialmente, improbable totalmente. Los gigantes no añadirán psicometría validada con instrumento académico, por una razón estructural: les expone a regulación clínica que no quieren tocar (la psicometría seria, en muchos países, es ejercicio profesional regulado). Pueden añadir señales blandas —y lo harán— pero no IPIP-NEO con scoring estandarizado y exportación. Además, no tienen incentivo para portabilidad cross-LLM: la suya es atadura por diseño. Si el lector piensa que Google va a ofrecerle un perfil exportable a ChatGPT, le envidio el optimismo.
Objeción 6 (de propina): «¿Por qué confiar en una empresa pequeña española con datos psicométricos?».
Respuesta: por dos razones operativas y una política. Operativa primera: GDPR y EU AI Act son ley, y una empresa española juega su existencia en cumplirlas; un actor americano juega su existencia en escalar y se permite multas de cientos de millones como un gasto operativo. Operativa segunda: el twin es exportable. Si la empresa cae o cambia de manos, el usuario se va con su retrato. Política: porque el modelo americano de extracción ha sido suficientemente humillante durante quince años como para que tenga sentido construir una alternativa europea, y Bilbao es un sitio razonable para hacerlo.
Confianza, def.: vínculo que se establece con quien tiene más que perder que tú si lo rompe.
X. El bricolaje: si no quieres pagar a nadie
Antes de cerrar, una sección honesta para el lector de la objeción 2: el bricolaje es viable. Lo describo sin ironía y sin promoción cruzada.
Necesitas tres cosas y una disciplina. Las tres cosas son:
Un retrato escrito. Un documento de unas 2.000-4.000 palabras, redactado por ti, que describa: tu Big Five (puedes hacerte el IPIP-NEO de 60 ítems en línea, gratis, en treinta minutos, en sitios académicos como ipip.ori.org), tu estilo de apego (ECR-R también disponible), tus valores (Schwartz), tu perspectiva temporal, tus referentes culturales, tus alergias estilísticas, tus herramientas, tu fase vital. No es trivial: pocos lo redactan bien al primer intento. Lo redactas, lo dejas reposar una semana, lo editas. Lo guardas en Obsidian, en Notion, en un .md cualquiera.
Un system prompt destilado. A partir del retrato, un prompt de unas 800-1.500 palabras, optimizado para inyección al inicio de cada conversación. Ese system prompt es el documento que pegas, copias, o configuras como personalidad por defecto en cada LLM que uses. Hay quien lo guarda como Custom Instruction en ChatGPT, como system prompt en Claude Console, como prompt inicial en Gemini.
Una rutina de actualización. Cada tres o seis meses, repasas el retrato, lo actualizas, lo destilas de nuevo. Si tu vida cambia (mudanza, ruptura, ascenso, duelo, hijo, despido, libro, enfermedad), lo actualizas antes.
La disciplina es la rutina de actualización. Casi nadie la mantiene. La razón por la que un producto como Afini cobra es que internaliza esa disciplina como infraestructura.
Bricolaje, def.: opción del que tiene tiempo o del que tiene oficio. Si no tienes ni lo uno ni lo otro, paga al sastre.
Para el lector geek con vocación de soberanía, recomiendo combinar el bricolaje con un memory engine self-hosted (Memori Labs, por ejemplo) o con la infraestructura PAI de Daniel Miessler. Es laborioso, es elegante, es libre, es lento. Y es, en mi opinión sincera, una de las maneras correctas de habitar este momento.
XI. Apéndice impertinente: definiciones que no han cabido arriba
Como prometí entre doce y veinte definiciones tipo Bierce, y temo haberme quedado a las puertas, paso aquí las que no han encontrado hueco natural en el cuerpo del texto. El lector las absuelva o las acuse, según prefiera.
Demo, def.: poema épico en presente subjuntivo. Cuando se ve, no funciona; cuando funciona, no se ve.
Roadmap, def.: género literario fantástico de los siglos XX y XXI, derivado del bestiario medieval. Cada criatura del mapa promete tener escamas, alas y servir cervezas; pocas las tienen.
Founder, def.: aquel que ha confundido el insomnio con el método y todavía no ha pagado el peaje.
Producto, def.: sustantivo masculino con el que se nombra una promesa hasta que cobra IVA.
Privacidad, def.: virtud que se predica los lunes y se subasta los martes. En la UE, además, es ley.
GDPR, def.: amuleto europeo contra el espíritu santo del extractivismo. Funciona el 60 % de los días, lo cual, en amuletos, es récord.
Personalización, def.: arte de hacer creer al cliente que el espejo le devuelve un retrato suyo. La buena personalización lo hace de verdad; la mala, también lo cobra.
Inversor, def.: sustantivo común. Persona que no quiere comprar tu producto pero sí tu empresa, generalmente porque le sale más barato.
Ronda de financiación, def.: ceremonia en la que varios señores convencen a otros señores de que el rey va vestido. Se brinda con champán francés o, en su defecto, con cava catalán.
Confidente, def.: aquel que sabe lo bastante para acertar a la primera. Categoría en extinción, de pago o de algoritmo.
Sastre, def.: artesano que cree en la singularidad del cliente. Categoría también en extinción, sustituido por la talla M y, ahora, por la capa cognitiva.
XII. Cierre: el sastre cognitivo
He titulado el artículo El sastre cognitivo y he tardado en explicar el título, lo que es, según escuela, virtud o defecto. Lo explico al final, que es donde corresponde.
Un sastre, el de verdad, hace tres cosas. Toma medidas, que en su caso son objetivas (anchura de hombro, largo de manga, contorno de pecho) y subjetivas (el cliente camina así, suda en exceso, prefiere dos botones a tres, odia el bolsillo de pecho). Conserva el patrón, que es el documento maestro al que vuelve cada vez que el cliente pide otra prenda. Y media entre el cliente y la materia prima: el cliente no sabe de paños, el sastre sí; el cliente sabe lo que le sienta, el sastre lo traduce.
Un buen sastre, además, hace una cuarta cosa que es la que distingue al artesano del artesano excelente: cuando el cliente engorda, adelgaza, envejece, cambia de oficio o de país, ajusta el patrón. No tira el viejo. Lo modula. Y, fundamental: si el cliente decide cambiar de sastre, el cliente se va con su patrón.
La capa cognitiva intermedia entre tú y los modelos de lenguaje es exactamente eso. Un sastre. Algunos venden hilo y aguja (los archiveros), algunos venden compañía de probador (los companion), algunos venden cinta métrica calibrada y patrón con peso temporal (los psicómetras serios), algunos vienen con la sastrería ya montada en un centro comercial gigante y te ofrecen un traje pasable a cambio de no salir de su centro comercial nunca más (las memorias nativas).
A cada lector le tocará elegir, según sus medios, su escepticismo, su pereza y su afición al bricolaje. He intentado, en estas páginas, decir lo que sé sin disimular que vendo trajes; he intentado también describir las sastrerías ajenas sin caricaturizar más de lo necesario, lo cual es la mínima decencia profesional.
Lo que me parece intolerable, eso sí, no es elegir mal. Es no elegir. Es seguir hablando con un improvisador genérico, espléndido y ligeramente sicofántico, y maravillarse cada lunes de que no recuerde de qué iba todo el viernes anterior; y vivir esa amnesia como destino tecnológico cuando es, sencillamente, una decisión de producto.
Si el lector ha leído hasta aquí, ya ha hecho la mitad del trabajo. La otra mitad —elegir sastre, o ser su propio sastre— le toca a él. Yo, por mi parte, sigo a lo mío, que es coser.
Ricardo Devis · Bilbao.AI · Afini.ai 4 de mayo de 2026