Jak Zbudować Bazę Wiedzy LLM za Pomocą Save
Andrej Karpathy niedawno podzielił się tym, jak używa plików markdown do budowania osobistych baz wiedzy na potrzeby badań AI. Jego podejście jest proste: zbieraj dokumenty źródłowe, konwertuj je na markdown, organizuj w folderze i pozwól LLM pracować z całą kolekcją.
Wynik? AI, która faktycznie wie to, co ty wiesz.
To nie jest technika tylko dla badaczy. Każdy, kto codziennie używa Claude’a, ChatGPT lub dowolnego LLM, może zbudować to samo --- i zajmuje to minuty, nie godziny.
Czym Jest Baza Wiedzy LLM?
To folder na twoim komputerze wypełniony plikami markdown na tematy, które cię interesują. Artykuły, które przeczytałeś. Filmy YouTube, które obejrzałeś. Dokumentacja, do której się odwołujesz. Tweety, które ukształtowały twoje myślenie.
Gdy dajesz LLM dostęp do tego folderu, przestaje być ogólnym asystentem. Staje się twoim asystentem --- takim, który rozumie twoją dziedzinę, twoje źródła i twój kontekst.
Pomyśl o tym jak o drugim mózgu, ale takim, który twoja AI faktycznie może czytać.
Krok 1: Zbieraj Źródła za Pomocą Save
Tu większość ludzi utyka. Ręczne kopiowanie treści webowych, czyszczenie HTML, formatowanie --- to żmudne. Właśnie to rozwiązuje Save.
Save to rozszerzenie Chrome, które konwertuje dowolną stronę internetową na czysty, ustrukturyzowany markdown. Jednym kliknięciem.
Co możesz zapisać:
- Artykuły i posty na blogu
- Filmy YouTube (pełna transkrypcja + podsumowanie)
- Wątki Twitter/X
- Dokumentacja i odniesienia do API
- Dyskusje na Reddit
- Artykuły naukowe
- Posty LinkedIn
- Treści płatne, do których masz dostęp
Każde zapisanie produkuje czysty plik .md --- bez HTML, bez reklam, bez menu nawigacyjnych. Tylko treść, właściwie ustrukturyzowana z nagłówkami, listami i blokami kodu.
Krok 2: Organizuj Swój Folder Wiedzy
Utwórz strukturę folderów, która ma sens dla twojej pracy. Zachowaj prostotę:
moja-wiedza/
marketing/
strategie-dystrybucji.md
analiza-konkurencji.md
frameworki-cenowe.md
produkt/
wyniki-badan-uzytkownikow.md
priorytety-funkcji.md
branza/
trendy-rynkowe-2026.md
karpathy-bazy-wiedzy-llm.md
przeplywy-pracy-agentow-ai.md
Za każdym razem, gdy czytasz coś wartościowego online, zapisuj to za pomocą Save i wrzucaj do odpowiedniego folderu. Z czasem kumuluje się to w kompleksową bazę wiedzy, której żaden ogólny LLM nie może dorównać.
Krok 3: Połącz Bazę Wiedzy z LLM
Tu robi się to potężne. Istnieje kilka sposobów na udostępnienie LLM-owi dostępu do twojego folderu wiedzy:
Opcja 1: Claude Code (Najpotężniejsza)
Jeśli używasz Claude Code, otwórz terminal w folderze wiedzy i uruchom sesję. Claude uzyskuje pełny dostęp do każdego pliku i może przeszukiwać, czytać, krzyżowo odwoływać się i rozumować w całej kolekcji.
cd moja-wiedza
claude
Claude Code może czytać setki plików markdown, znajdować połączenia między nimi, odpowiadać na złożone pytania i nawet utrzymywać pliki indeksowe --- dokładnie jak opisuje Karpathy.
To najpotężniejsza opcja, ponieważ Claude może aktywnie przeglądać twoje pliki, a nie tylko otrzymywać je jako kontekst.
Opcja 2: Projekty Claude.ai
Utwórz Projekt na claude.ai i prześlij pliki markdown do bazy wiedzy projektu. Każda rozmowa w tym projekcie będzie miała dostęp do twoich dokumentów.
- Przeciągaj i upuszczaj pliki bezpośrednio
- Obsługuje 200+ plików na projekt
- Wiedza utrzymuje się w rozmowach
- Działa na każdym urządzeniu z przeglądarką
Najlepsze dla: ludzi, którzy chcą prostej konfiguracji bez używania terminalu.
Opcja 3: Claude Desktop + MCP
Jeśli używasz Claude Desktop, możesz zainstalować serwer MCP systemu plików, aby dać Claude’owi bezpośredni dostęp do folderu na twoim komputerze.
Dodaj to do swojej konfiguracji Claude Desktop:
{
"mcpServers": {
"knowledge-base": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/sciezka/do/moja-wiedza"
]
}
}
}
Claude Desktop może następnie czytać dowolny plik w folderze wiedzy na żądanie --- bez potrzeby przesyłania.
Opcja 4: Kopiuj-Wklej (Najprostsza)
Przy szybkich pytaniach po prostu przeciągnij jeden lub kilka plików markdown do dowolnej rozmowy z Claude lub ChatGPT. Nie wymaga konfiguracji.
Działa dla jednorazowych zapytań, ale nie skaluje się. Dla prawdziwego przepływu pracy bazy wiedzy użyj jednej z powyższych opcji.
Dlaczego Markdown Umożliwia to Działanie
Nie możesz podawać surowego HTML do LLM i oczekiwać dobrych wyników. HTML jest rozdęty nawigacją, reklamami, skryptami i stylami --- szumem, który marnuje tokeny i dezorientuje model.
Markdown to język ojczysty LLM-ów. Były trenowane na milionach plików markdown z GitHub, stron dokumentacji i blogów deweloperskich. Gdy dajesz LLM-owi czysty markdown:
- 10x mniej tokenów w porównaniu z surowym HTML
- Lepsze rozumienie --- model skupia się na treści, nie na parsowaniu
- Właściwa struktura --- nagłówki, listy i bloki kodu są zachowane
- Uniwersalna kompatybilność --- działa z Claude, ChatGPT, Gemini lub dowolnym LLM
Dlatego istnieje Save. Nie tylko kopiuje tekst --- używa AI do wyodrębnienia znaczącej treści i strukturyzuje ją jako czysty markdown, który LLM-y doskonale rozumieją.
Efekt Kumulacyjny
Oto, co się dzieje, gdy budujesz ten nawyk:
Tydzień 1: Masz 10 plików markdown. Claude może odpowiadać na pytania dotyczące tych konkretnych artykułów.
Miesiąc 1: Masz 50+ plików. Claude może krzyżowo odwoływać się do źródeł, znajdować wzorce i dawać ci spostrzeżenia, których nigdy byś samodzielnie nie zauważył.
Miesiąc 3: Masz 200+ plików. Zbudowałeś osobistego asystenta badawczego, który zna twoją branżę, twoich konkurentów, twoje frameworki i twoje myślenie. Każde pytanie, które zadajesz, otrzymuje odpowiedź opartą na twojej wyselekcjonowanej wiedzy, nie ogólnych danych treningowych.
Jak zauważył Karpathy, gdy twoja baza wiedzy jest wystarczająco duża, możesz zadawać złożone pytania, a LLM zbada odpowiedzi w całej kolekcji. Nie potrzeba wymyślnej konfiguracji RAG --- tylko zorganizowane pliki markdown.
Zacznij w 60 Sekund
- Zainstaluj Save ze Chrome Web Store (bezpłatnie)
- Utwórz folder
moja-wiedzana swoim komputerze - Odwiedź artykuł, który ostatnio uznałeś za wartościowy
- Kliknij Save --- plik markdown pobiera się natychmiast
- Przenieś go do folderu wiedzy
- Otwórz folder w Claude Code, prześlij do projektu Claude lub skonfiguruj MCP
Każdy artykuł, który teraz zapiszesz, sprawi, że twoja AI będzie mądrzejsza. To się kumuluje.
Zacznij budować swoją bazę wiedzy LLM już dziś. Zainstaluj Save --- zaczynanie jest bezpłatne.