Co to jest Claude Code i dlaczego warto go znać?
Claude Code to narzędzie konsolowe stworzone przez Anthropic. Zamiast wklepywać komendy Linuxa z pamięci, opisujesz po ludzku, co chcesz zrobić, a Claude Code tłumaczy to na odpowiednie polecenia. Chcesz znaleźć największy plik w systemie? Sprawdzić konfigurację sieci? Napisać skrypt monitorujący zasoby? Po prostu mówisz mu to normalnym zdaniem.
Standardowo Claude Code łączy się z API Anthropic i korzysta z modeli takich jak Claude Opus 4.6 – narzędzie bardzo mocne, szczególnie dla ludzi z IT. Minus jest taki, że za każde zapytanie płacisz. Przy intensywnej pracy koszty potrafią zaskoczyć.
Ale jest sposób, żeby to obejść. Zamiast API Anthropic podpinasz Claude Code pod Ollama – środowisko do uruchamiania modeli AI lokalnie, na Twoim sprzęcie. Dane nie wychodzą z Twojego komputera. Płacisz zero złotych.
Należy również pamiętać, iż nie ma czegoś takiego jak anonimowość, tak samo jak 100% bezpieczeństwo. Możemy minimalizować ryzyka, ale zawsze gdzieś jest jakiś punkt styku, dlatego raczej rozmawiajmy o prywatności, która ma trochę inne oblicze. Jest ona bardziej zapewnieniem wysokiego standardu w zarządzaniu swoją tożsamością, który powala na jak największym ograniczeniu jej zdradzania. Ludzie niestety myślą, że bezpieczeństwo czy anonimowość można osiągnąć w procesie jakiegoś postępowania krok po kroku. Wystarczy działać zgodnie z instrukcją i już jest. To mit.
CYBERGURU NA ŻYWO
Kalendarz darmowych szkoleń
Zapomnij o domysłach z forów internetowych czy niesprawdzonych tutorialach.
Wejdź do świata OSINT-u, poznaj mechanizmy Darknetu i zobacz, jak zniknąć z radarów i chronić swoją tożsamość.
Spotykamy się na żywo, rozwiązujemy realne case’y i rozkładamy zagrożenia na czynniki pierwsze.
Sprawdź nasz harmonogram i dołącz do sesji, która Cię interesuje – czas na Twój ruch w cieniu.
Czego potrzebujesz, żeby to uruchomić?
Zanim zaczniesz instalację, sprawdź swój sprzęt. Kluczowa jest karta graficzna z odpowiednią ilością pamięci VRAM:
|
Model AI |
Rozmiar |
Minimalne wymagania VRAM |
Do czego się nadaje |
|
GPT-OSS 20B |
~14 GB |
16 GB VRAM |
Proste zadania terminalowe, szybkie odpowiedzi |
|
GPT-OSS 120B |
~80 GB |
80 GB VRAM (np. NVIDIA H100) |
Zaawansowane analizy, głębsze rozumowanie |
|
Qwen 3.5 27B |
~17 GB |
24 GB VRAM |
Kodowanie, analiza, dobra równowaga jakość/szybkość |
|
Qwen 3.5 122B-A10B |
wymaga mocnego GPU |
dedykowane GPU serwerowe |
Agentic tasks, tool calling, kompleksowe analizy |
Nie masz potężnej karty? Nie rezygnuj. Model GPT-OSS 20B działa na kartach z 16 GB VRAM, np. na RTX 4060 Ti 16GB. Jeśli masz Maca z Apple Silicon i 32 GB RAM, też dasz radę. Na CPU też technicznie zadziała, ale czasy odpowiedzi będą znacznie dłuższe.
Jak podłączyć lokalny model AI przez Ollama?
Krok 1: Instalacja Ollama
Ollama to środowisko do uruchamiania dużych modeli językowych lokalnie. Instalacja sprowadza się do jednej komendy w terminalu:
curl -fsSL https://ollama.com/install.sh | sh
Na macOS i Windows pobierasz instalator ze strony ollama.com. Po instalacji sprawdzasz wersję:
ollama –version
Potrzebujesz wersji 0.14.0 lub nowszej – dopiero od niej działa kompatybilność z Anthropic API, która jest wymagana do połączenia z Claude Code.
Krok 2: Pobranie modelu
Teraz pobierasz model, który będzie napędzał Twojego Claude Code. Modele GPT-OSS od OpenAI to open-weight’owe wersje wydane na licencji Apache 2.0 – w pełni darmowe, także do zastosowań komercyjnych.
ollama pull gpt-oss:20b
Jeśli masz mocniejszy sprzęt i chcesz przetestować większy model:
ollama pull gpt-oss:120b
Możesz też pobrać model z rodziny Qwen 3.5 od Alibaba Cloud. Seria Qwen 3.5 (wydana w lutym 2026) to jedne z najsilniejszych otwartych modeli na rynku – model 122B-A10B bije GPT-OSS 120B w kilku benchmarkach, aktywując przy tym tylko 10 miliardów parametrów na zapytanie:
ollama pull qwen3.5:27b
Pobranie modelu może chwilę potrwać – pliki ważą kilkanaście gigabajtów.
Krok 3: Instalacja Claude Code
Claude Code instalujesz jedną komendą. Na Linuxie i macOS:
curl -fsSL https://claude.ai/install.sh | bash
Na Windowsie (CMD):
curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
Krok 4: Podłączenie Claude Code do Ollama
Teraz musisz powiedzieć Claude Code, żeby zamiast API Anthropic korzystał z Twojego lokalnego serwera Ollama. Edytujesz plik .bashrc (lub .zshrc na macOS):
nano ~/.bashrc
Na końcu pliku dodajesz trzy zmienne środowiskowe:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=””
export ANTHROPIC_BASE_URL=http://localhost:11434
Jeśli Ollama działa na innej maszynie w sieci (np. na dedykowanym serwerze z mocnym GPU), zamiast localhost podajesz adres IP tamtej maszyny.
Zapisujesz plik i restartujesz terminal, żeby zmienne się załadowały. Potem uruchamiasz Claude Code z wybranym modelem:
claude –model gpt-oss:20b
Od tego momentu możesz pracować w konsoli, wydając polecenia zwykłym językiem. Claude Code przetłumaczy je na odpowiednie komendy i wykona za Ciebie – wszystko lokalnie.
Szybsza metoda (Ollama 0.15+): Nowsze wersje Ollama mają wbudowaną komendę ollama launch claude, która konfiguruje wszystko automatycznie:
ollama launch claude –model gpt-oss:20b
POZNAJ CYBERAKADEMIĘ
Skoro już tu jesteś - rozwiń swoje cyberumiejętności!
Podstawy cyberbezpieczeństwa w przystępnej formie. Dowiedz się, jak chronić siebie i swoich bliskich w internecie – od bezpiecznych haseł, przez rozpoznawanie phishingu, po ochronę prywatności online. Idealny start dla początkujących.
DarkINT to praktyczny kurs wejścia na Darknet od zera. Krok po kroku budujesz bezpieczne środowisko, tworzysz tożsamość operacyjną, konfigurujesz komunikację i uczysz się poruszać po ukrytych społecznościach – bez teorii na sucho, z pełną symulacją na koniec.
Co ten setup potrafi w praktyce? Moje testy
Teoria to jedno. Sprawdziłem, jak te modele radzą sobie z realną robotą. Każdemu z trzech modeli dałem dokładnie te same zadania i porównałem wyniki.
Test 1: Skrypt monitorujący zasoby systemowe
Zadanie: „Napisz skrypt w Pythonie, który na żywo i przystępnie pokazuje zasoby systemowe – dyski, RAM, CPU i połączenia sieciowe.”
GPT-OSS 20B – stworzył działający skrypt, ale najpierw tylko wyświetlił kod, zamiast zapisać go na dysk. Po doprecyzowaniu („stwórz taki plik”) poradził sobie. Nie nadał uprawnień do wykonywania – trzeba było ręcznie dodać chmod +x. Sam skrypt działał poprawnie, odświeżał dane w czasie rzeczywistym.
GPT-OSS 120B – podobna sytuacja. Większy model nie okazał się tu lepszy od mniejszego. Wynik wizualnie był nawet mniej atrakcyjny. To ważna lekcja: większy model nie zawsze oznacza lepsze rezultaty, szczególnie przy prostych zadaniach.
Qwen 3.5 122B – tutaj widać różnicę w inteligencji. Model sam wykrył, że plik już istnieje, zaproponował nadpisanie. Napotkał problem z brakiem biblioteki – samodzielnie próbował ją zainstalować. Kiedy zabrakło uprawnień admina, zdiagnozował problem i podał komendę do ręcznego uruchomienia. Efekt końcowy był wizualnie najciekawszy, choć miał drobny problem z odświeżaniem ekranu, który naprawił po jednej poprawce.
Test 2: Analiza logów SSH (incident response)
To test bliższy realnej pracy w cyberbezpieczeństwie. Pobrałem logi SSH z portalu secnot.com (strona z testowymi logami zagrożeń) i poprosiłem każdy model o analizę.
GPT-OSS 20B – wykonał analizę bardzo szybko, w niecałą minutę. Znalazł ataki brute force, zidentyfikował konta użytkowników, wymienił potencjalne wektory ataku. Analiza poprawna, choć zwięzła.
GPT-OSS 120B – podobny czas, ale analiza szersza. Więcej szczegółów, rekomendacje działań, identyfikacja konkretnych wzorców. Widać różnicę w głębokości rozumowania.
Qwen 3.5 122B – zajęło mu to około 4 minut (vs ~1 minuta GPT-OSS), ale efekt był najlepszy. Raport od razu po polsku. Czytelna struktura: łączna liczba wpisów, dane logowania, nieudane logowania, aktywność skanowania, najbardziej podejrzany host z konkretnym adresem IP, potencjalne kompromitacje, rekomendacje. Wykrył sesje Nmap, wskazał źródła z najwyższą aktywnością.
Co wynika z tych testów?
|
Kryterium |
GPT-OSS 20B |
GPT-OSS 120B |
Qwen 3.5 122B |
|
Szybkość |
Bardzo szybki |
Szybki |
Wolniejszy (~4x) |
|
Wymagania sprzętowe |
16 GB VRAM |
80 GB VRAM |
Dedykowane GPU |
|
Proste zadania |
Dobry |
Porównywalny |
Najlepszy wizualnie |
|
Analiza logów |
Poprawna, zwięzła |
Szersza, z rekomendacjami |
Najgłębsza, najczytelniejsza |
|
Samodzielność |
Wymaga doprecyzowania |
Wymaga doprecyzowania |
Sam rozwiązuje problemy |
Wniosek jest prosty: do szybkich, codziennych zadań w terminalu mniejszy model (GPT-OSS 20B) zupełnie wystarczy. Jeśli potrzebujesz głębszej analizy – np. w incident response – warto sięgnąć po większy model. Ale pamiętaj: im większy model, tym mocniejszy sprzęt i dłuższy czas odpowiedzi.
Gdzie sprawdzić, który model jest najlepszy?
Benchmarki open-source’owych modeli zmieniają się szybko. Dobra strona do porównań to Artificial Analysis, gdzie możesz przefiltrować modele po rozmiarze i zobaczyć, który wypada najlepiej w danej kategorii. Na moment pisania tego artykułu (marzec 2026) Qwen 3.5 dominuje w kategoriach agentycznych i multimodalnych, a GPT-OSS trzyma się mocno w rozumowaniu i tool callingu.
A co jeśli mam Maca? Alternatywa: LM Studio
Nie musisz korzystać z Ollama. Jeśli pracujesz na macOS, alternatywą jest LM Studio. Działa podobnie – uruchamiasz lokalne modele AI i podpinasz je pod Claude Code. Konfiguracja jest analogiczna: zmieniasz base URL w zmiennych środowiskowych na adres LM Studio i gotowe.
Na co uważać?
Kilka rzeczy, o których warto pamiętać zanim zaczniesz:
- Znaj komendy, które AI za Ciebie wykonuje – Claude Code automatyzuje pracę w terminalu, ale Ty powinieneś rozumieć, co robi pod spodem. Jeśli model zaproponuje polecenie, które może coś usunąć lub zmienić w systemie – zanim klikniesz „yes”, przeczytaj, co dokładnie chce zrobić. AI jest narzędziem, nie zastępcą wiedzy.
- Lokalne modele nie dorównują chmurowym – Claude Opus 4.6 przez API Anthropic jest mocniejszy od dowolnego modelu, który odpalasz lokalnie. To normalne – chmurowe modele mają biliony parametrów i potężną infrastrukturę za sobą. Ale do codziennej pracy w terminalu, nauki i eksperymentów, lokalne modele są więcej niż wystarczające.
- Model trzeba doprecyzować – im bardziej szczegółowe polecenie wydasz, tym lepszy będzie wynik. Zamiast „napisz skrypt” powiedz „napisz skrypt w Pythonie, który monitoruje CPU, RAM i dyski, odświeża się co 2 sekundy i wyświetla dane w kolorowej tabeli w terminalu”. Precyzja się opłaca.
O autorze
Od ponad 15 lat pracuję w branży IT, a od 2018 roku zawodowo zajmuję się cyberbezpieczeństwem, analizą incydentów i testami penetracyjnymi.
Na co dzień mam do czynienia z prawdziwymi danymi, realnymi zagrożeniami i sytuacjami, w których błędne założenie kosztuje czas, pieniądze albo bezpieczeństwo. To doświadczenie bardzo mocno ukształtowało mój sposób myślenia – i dokładnie ten sposób myślenia chcę Ci przekazać w Cyberdetektywie.
Ten kurs powstał dlatego, że przez lata widziałem, jak wiele problemów bierze się z braku umiejętności weryfikowania informacji, łączenia faktów i odróżniania danych od domysłów. W pracy z incydentami i bezpieczeństwem bardzo szybko wychodzi na jaw, kto potrafi analizować sytuację, a kto tylko zgaduje – i ta różnica jest kluczowa również poza światem IT w zupełnie prywatnych warunkach.
Cyberdetektyw nie jest kursem teoretycznym ani zbiorem efektownych trików. To próba przeniesienia podejścia znanego z cyberbezpieczeństwa i pentestów do świata OSINT-u. Pokażę Ci nie tylko narzędzia i techniki, ale przede wszystkim tok myślenia, który wykorzystuję w swojej pracy.