I Wiki Markdown Stanno Silenziosamente Sostituendo il RAG. Ecco Perché.
Per due anni, la risposta predefinita a “come fornisco la mia conoscenza a un LLM?” era RAG. Costruisci un database vettoriale. Suddividi i documenti in chunk. Incorporali. Esegui la ricerca nearest-neighbor al momento della query. Ricuci i risultati nel prompt.
Funzionava. In un certo senso. Chiunque abbia effettivamente messo in produzione un sistema RAG conosce le modalità di fallimento: chunk che perdono il contesto, embedding che recuperano il passaggio sbagliato, ranking opachi, nessuna provenienza, casi limite strani quando l’utente chiede qualcosa per cui l’indice non era stato ottimizzato.
Nell’aprile 2026, Andrej Karpathy ha pubblicato un workflow che non fa quasi nulla di tutto ciò e funziona meglio per la conoscenza personale. Lo chiama LLM Knowledge Bases. L’architettura è solo una cartella di file markdown, un LLM con accesso al filesystem e un’abitudine. VentureBeat l’ha descritto come “una libreria markdown in evoluzione mantenuta dall’AI” — una descrizione che cattura ciò che è veramente nuovo.
Il pattern post-RAG è arrivato. Questo articolo spiega cos’è, perché funziona e come Save Vault lo rende accessibile senza alcuna configurazione da sviluppatore.
Cosa Stava Cercando di Risolvere il RAG
Il problema originale: gli LLM hanno una finestra di contesto fissa, la tua knowledge base è più grande della finestra, quindi hai bisogno di un modo per recuperare la porzione rilevante per ogni domanda.
Nel 2023, i vettori erano la risposta ovvia. Incorpora tutto, cerca per similarità, inietta i top-k chunk. Si componeva bene con le piccole finestre di contesto di GPT-3.5 e Claude 1. L’intero pattern “startup AI” era “RAG su X.”
Tre cose sono cambiate.
- Le finestre di contesto sono esplose. Claude ha rilasciato quest’anno il contesto da 1M token. Gemini e GPT-5 sono simili. Un milione di token equivale a circa 750.000 parole — abbastanza per contenere interamente in memoria un piccolo wiki.
- Il filesystem MCP è arrivato. Gli LLM possono ora aprire file su disco direttamente. Non hanno bisogno di chunk pre-indicizzati. Possono navigare, leggere e rileggere come un essere umano.
- Gli LLM sono diventati migliori nella lettura. Claude Opus 4 può ingerire centinaia di file in una sessione e ragionare attraverso di essi in modo coerente. Il collo di bottiglia si è spostato dalla “qualità del recupero” a “di cosa ha effettivamente bisogno l’umano.”
Una volta che queste tre cose erano vere, il RAG ha iniziato a sembrare un workaround per limitazioni che non esistono più.
Come Appare il Pattern del Wiki Markdown
La configurazione di Karpathy, semplificata:
- Cartella raw. Ogni pagina web che vuole conservare viene salvata come file
.mdin una directoryraw/. Usa Obsidian Web Clipper per questo. - Passaggio di compilazione. Periodicamente, un agente LLM (Claude Code nel suo caso) legge tutto in
raw/, genera pagine concettuali, scrive riassunti e crea backlink. Questo produce un wiki strutturato sopra il materiale grezzo. - Loop di query. Quando ha una domanda, chiede all’LLM. Questo cerca nel wiki, apre i file rilevanti e risponde usando i contenuti.
- Passaggio di lint. Occasionalmente l’LLM scansiona il wiki alla ricerca di incoerenze, dati mancanti o nuove connessioni da registrare.
Il suo wiki di ricerca attuale ha circa 100 articoli e ~400K parole. Fa domande complesse e riceve risposte con fonti.
Non c’è nessun database vettoriale. Nessun modello di embedding. Nessuna strategia di chunking. Nessun ranking di recupero. Solo file markdown, una struttura di cartelle e un LLM che può leggerli.
Perché Funziona Meglio del RAG (per Questo)
Il pattern wiki ha vantaggi strutturali che il RAG non può eguagliare senza diventare esso stesso un wiki.
La provenienza è gratuita. Ogni risposta cita un file. Puoi aprirlo, leggerlo, modificarlo, eliminarlo. Niente “l’embedding l’ha detto.”
La modifica è banale. Un file markdown è testo. Aprilo in qualsiasi editor. Correggi un errore di battitura. Aggiungi una nota. Elimina una sezione. La query successiva riflette immediatamente il cambiamento. Non c’è nessun passaggio di re-embedding.
La struttura si accumula. Quando l’LLM compila il wiki, costruisce backlink e pagine concettuali. Il wiki diventa migliore più salvi, perché l’LLM ha più contesto per collegare le nuove voci. Un indice vettoriale si limita a crescere.
La portabilità è totale. Una cartella di file .md funziona in Obsidian, VS Code, GitHub, Logseq, vim o cat. Un database vettoriale è una scatola nera che hai bisogno di uno specifico runtime per leggere.
Puoi leggerlo tu stesso. Sembra ovvio, ma è il vantaggio più grande. A volte vorrai sapere cosa c’è nella tua knowledge base. Con il RAG, è una query di reporting. Con markdown, è ls.
Il compromesso onesto: il RAG vince ancora quando hai milioni di documenti, accesso multi-tenant o vincoli di latenza rigidi (pensa ai chatbot di supporto clienti su un corpus di milioni di articoli di aiuto). Per la conoscenza personale — la tua lettura, la tua ricerca, il tuo dominio — il pattern wiki è ora strettamente migliore.
Il Pezzo Mancante: L’Ingestione
Il pattern di Karpathy ha un’assunzione silenziosa: che ottenere markdown pulito nella cartella raw/ sia facile. Per gli sviluppatori che usano già Obsidian Web Clipper, in un certo senso lo è. Per tutti gli altri, questo è il punto in cui il workflow muore.
Web Clipper può avere problemi con pagine con paywall, siti pesanti di JavaScript, contenuti video, thread di X e qualsiasi cosa dinamica. Le persone salvano HTML confuso, si arrendono e concludono che “il wiki non fa per me.”
L’estensione Save esiste specificamente per risolvere questo passaggio. Usa Gemini per estrarre contenuto pulito da pagine arbitrarie, tra cui:
- Articoli dietro paywall a cui hai accesso
- Video YouTube (trascrizione completa + riassunto AI)
- Thread X/Twitter
- Reel Instagram e didascalie TikTok (trascritti)
- Discussioni Reddit
- Documentazione con blocchi di codice intatti
- SPA dinamiche su cui i clipper tradizionali si bloccano
Un clic. Markdown pulito dall’altra parte. Mettilo nella cartella.
L’Altro Pezzo Mancante: La Configurazione MCP
Il pattern di Karpathy presuppone anche che tu possa configurare un server MCP. Per gli utenti di Claude Code questo è un cd di una riga. Per tutti coloro che usano Claude Desktop, significa modificare un file di configurazione JSON e riavviare l’app — e farlo bene, e ricordarsi di rifarlo quando sposti le cartelle.
Save Vault condensa entrambi i pezzi mancanti in un’unica app:
- L’estensione Save alimenta automaticamente markdown pulito in Save Vault
- Save Vault scrive su
~/Documents/Save Vault/organizzato in knowledge base (sottocartelle) - Un server MCP integrato espone
list_knowledge_bases,list_files,read_fileesearcha Claude - Il toggle “Connect to Claude” nella barra dei menu collega il server MCP a Claude Desktop e Claude Code, senza modificare JSON
Il risultato è il pattern Karpathy con i bordi grezzi levigati. Salva una pagina → atterra nel tuo vault → Claude può rispondere a domande al riguardo. Nessun database vettoriale, nessun chunking, nessun embedding.
Come Appare in Pratica
Immagina di fare ricerca su un concorrente.
Giorno 1. Salvi la loro pagina dei prezzi, tre post del blog e un thread di Hacker News sul loro round seed. Cinque file nella tua KB Concorrenti.
Giorno 5. Chiedi a Claude: “Che cambiamenti di prezzo ha apportato questa azienda nell’ultimo anno e come hanno reagito i clienti?” Claude cerca nella tua KB Concorrenti, legge i file rilevanti, cita la pagina dei prezzi, porta in superficie il sentiment del thread HN e risponde — tutto con fonti.
Giorno 30. Hai 40 file tra Concorrenti, Clienti e Ricerca AI. Chiedi a Claude di compilare ogni KB in un wiki. Scrive pagine concettuali, le collega, segnala contraddizioni. Hai ora tre wiki viventi che puoi interrogare come motori di ricerca, ma meglio — perché contengono solo ciò che tu hai curato.
Giorno 90. I tuoi wiki sono più grandi di qualsiasi report di analisti che compreresti, più aggiornati di qualsiasi deck di consulenti, e interamente tuoi. Ogni affermazione è tracciata a un file che hai salvato.
Ecco come si sente davvero una knowledge base personale una volta che la frizione è scomparsa. Il RAG avrebbe dovuto consegnare questo risultato e non l’ha fatto. Il pattern Karpathy lo fa — una volta che i pezzi di ingestione e MCP sono stati collegati per te.
Provalo
- Installa l’estensione Chrome di Save
- Installa Save Vault da savemarkdown.co
- Abilita Connect to Claude nella barra dei menu
- Salva 10 cose che avevi intenzione di leggere
- Apri Claude e fai una domanda che le unisca
Questo è il workflow post-RAG. Sta già sostituendo i database vettoriali per la conoscenza personale. L’unica cosa rimasta è iniziare a costruire il tuo.
Save Vault è gratuito. L’estensione Save è gratuita per 3 salvataggi al mese, $3,99/mese illimitati. savemarkdown.co.