Co to jest Claude Code i dlaczego warto go znać?
Claude Code to narzędzie konsolowe stworzone przez Anthropic. Zamiast wklepywać komendy Linuxa z pamięci, opisujesz po ludzku, co chcesz zrobić, a Claude Code tłumaczy to na odpowiednie polecenia. Chcesz znaleźć największy plik w systemie? Sprawdzić konfigurację sieci? Napisać skrypt monitorujący zasoby? Po prostu mówisz mu to normalnym zdaniem.
Standardowo Claude Code łączy się z API Anthropic i korzysta z modeli takich jak Claude Opus 4.6 – narzędzie bardzo mocne, szczególnie dla ludzi z IT. Minus jest taki, że za każde zapytanie płacisz. Przy intensywnej pracy koszty potrafią zaskoczyć.
Ale jest sposób, żeby to obejść. Zamiast API Anthropic podpinasz Claude Code pod Ollama – środowisko do uruchamiania modeli AI lokalnie, na Twoim sprzęcie. Dane nie wychodzą z Twojego komputera. Płacisz zero złotych.
konsultacje
Wzmocnij cyberbezpieczeństwo
swojej firmy już dziś!
Zapisz się na 30-minutową darmową konsultację, aby wstępnie omówić potrzeby związane z cyberbezpieczeństwem w Twojej firmie.
Wspólnie znajdziemy rozwiązanie dopasowane do specyfiki Twojej działalności!
Czego potrzebujesz, żeby to uruchomić?
Zanim zaczniesz instalację, sprawdź swój sprzęt. Kluczowa jest karta graficzna z odpowiednią ilością pamięci VRAM:
|
Model AI |
Rozmiar |
Minimalne wymagania VRAM |
Do czego się nadaje |
|
GPT-OSS 20B |
~14 GB |
16 GB VRAM |
Proste zadania terminalowe, szybkie odpowiedzi |
|
GPT-OSS 120B |
~80 GB |
80 GB VRAM (np. NVIDIA H100) |
Zaawansowane analizy, głębsze rozumowanie |
|
Qwen 3.5 27B |
~17 GB |
24 GB VRAM |
Kodowanie, analiza, dobra równowaga jakość/szybkość |
|
Qwen 3.5 122B-A10B |
wymaga mocnego GPU |
dedykowane GPU serwerowe |
Agentic tasks, tool calling, kompleksowe analizy |
Nie masz potężnej karty? Nie rezygnuj. Model GPT-OSS 20B działa na kartach z 16 GB VRAM, np. na RTX 4060 Ti 16GB. Jeśli masz Maca z Apple Silicon i 32 GB RAM, też dasz radę. Na CPU też technicznie zadziała, ale czasy odpowiedzi będą znacznie dłuższe.
Jak podłączyć lokalny model AI przez Ollama?
Krok 1: Instalacja Ollama
Ollama to środowisko do uruchamiania dużych modeli językowych lokalnie. Instalacja sprowadza się do jednej komendy w terminalu:
curl -fsSL https://ollama.com/install.sh | sh
Na macOS i Windows pobierasz instalator ze strony ollama.com. Po instalacji sprawdzasz wersję:
ollama –version
Potrzebujesz wersji 0.14.0 lub nowszej – dopiero od niej działa kompatybilność z Anthropic API, która jest wymagana do połączenia z Claude Code.
Krok 2: Pobranie modelu
Teraz pobierasz model, który będzie napędzał Twojego Claude Code. Modele GPT-OSS od OpenAI to open-weight’owe wersje wydane na licencji Apache 2.0 – w pełni darmowe, także do zastosowań komercyjnych.
ollama pull gpt-oss:20b
Jeśli masz mocniejszy sprzęt i chcesz przetestować większy model:
ollama pull gpt-oss:120b
Możesz też pobrać model z rodziny Qwen 3.5 od Alibaba Cloud. Seria Qwen 3.5 (wydana w lutym 2026) to jedne z najsilniejszych otwartych modeli na rynku – model 122B-A10B bije GPT-OSS 120B w kilku benchmarkach, aktywując przy tym tylko 10 miliardów parametrów na zapytanie:
ollama pull qwen3.5:27b
Pobranie modelu może chwilę potrwać – pliki ważą kilkanaście gigabajtów.
Krok 3: Instalacja Claude Code
Claude Code instalujesz jedną komendą. Na Linuxie i macOS:
curl -fsSL https://claude.ai/install.sh | bash
Na Windowsie (CMD):
curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
Krok 4: Podłączenie Claude Code do Ollama
Teraz musisz powiedzieć Claude Code, żeby zamiast API Anthropic korzystał z Twojego lokalnego serwera Ollama. Edytujesz plik .bashrc (lub .zshrc na macOS):
nano ~/.bashrc
Na końcu pliku dodajesz trzy zmienne środowiskowe:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=””
export ANTHROPIC_BASE_URL=http://localhost:11434
Jeśli Ollama działa na innej maszynie w sieci (np. na dedykowanym serwerze z mocnym GPU), zamiast localhost podajesz adres IP tamtej maszyny.
Zapisujesz plik i restartujesz terminal, żeby zmienne się załadowały. Potem uruchamiasz Claude Code z wybranym modelem:
claude –model gpt-oss:20b
Od tego momentu możesz pracować w konsoli, wydając polecenia zwykłym językiem. Claude Code przetłumaczy je na odpowiednie komendy i wykona za Ciebie – wszystko lokalnie.
Szybsza metoda (Ollama 0.15+): Nowsze wersje Ollama mają wbudowaną komendę ollama launch claude, która konfiguruje wszystko automatycznie:
ollama launch claude –model gpt-oss:20b
konsultacje z cyberguru
Gotowy na wzmocnienie cyberbezpieczeństwa swojej firmy?
Zarezerwuj darmową 30-minutową konsultację, aby omówić potrzeby Twojej firmy w zakresie ochrony danych i cyberbezpieczeństwa. Wspólnie zidentyfikujemy zagrożenia i znajdziemy najlepsze rozwiązania dopasowane do Twojego biznesu.
Porozmawiajmy! Kliknij w poniższy przycisk i umów się na bezpłatną konsultację.
Co ten setup potrafi w praktyce? Moje testy
Teoria to jedno. Sprawdziłem, jak te modele radzą sobie z realną robotą. Każdemu z trzech modeli dałem dokładnie te same zadania i porównałem wyniki.
Test 1: Skrypt monitorujący zasoby systemowe
Zadanie: „Napisz skrypt w Pythonie, który na żywo i przystępnie pokazuje zasoby systemowe – dyski, RAM, CPU i połączenia sieciowe.”
GPT-OSS 20B – stworzył działający skrypt, ale najpierw tylko wyświetlił kod, zamiast zapisać go na dysk. Po doprecyzowaniu („stwórz taki plik”) poradził sobie. Nie nadał uprawnień do wykonywania – trzeba było ręcznie dodać chmod +x. Sam skrypt działał poprawnie, odświeżał dane w czasie rzeczywistym.
GPT-OSS 120B – podobna sytuacja. Większy model nie okazał się tu lepszy od mniejszego. Wynik wizualnie był nawet mniej atrakcyjny. To ważna lekcja: większy model nie zawsze oznacza lepsze rezultaty, szczególnie przy prostych zadaniach.
Qwen 3.5 122B – tutaj widać różnicę w inteligencji. Model sam wykrył, że plik już istnieje, zaproponował nadpisanie. Napotkał problem z brakiem biblioteki – samodzielnie próbował ją zainstalować. Kiedy zabrakło uprawnień admina, zdiagnozował problem i podał komendę do ręcznego uruchomienia. Efekt końcowy był wizualnie najciekawszy, choć miał drobny problem z odświeżaniem ekranu, który naprawił po jednej poprawce.
Test 2: Analiza logów SSH (incident response)
To test bliższy realnej pracy w cyberbezpieczeństwie. Pobrałem logi SSH z portalu secnot.com (strona z testowymi logami zagrożeń) i poprosiłem każdy model o analizę.
GPT-OSS 20B – wykonał analizę bardzo szybko, w niecałą minutę. Znalazł ataki brute force, zidentyfikował konta użytkowników, wymienił potencjalne wektory ataku. Analiza poprawna, choć zwięzła.
GPT-OSS 120B – podobny czas, ale analiza szersza. Więcej szczegółów, rekomendacje działań, identyfikacja konkretnych wzorców. Widać różnicę w głębokości rozumowania.
Qwen 3.5 122B – zajęło mu to około 4 minut (vs ~1 minuta GPT-OSS), ale efekt był najlepszy. Raport od razu po polsku. Czytelna struktura: łączna liczba wpisów, dane logowania, nieudane logowania, aktywność skanowania, najbardziej podejrzany host z konkretnym adresem IP, potencjalne kompromitacje, rekomendacje. Wykrył sesje Nmap, wskazał źródła z najwyższą aktywnością.
Co wynika z tych testów?
|
Kryterium |
GPT-OSS 20B |
GPT-OSS 120B |
Qwen 3.5 122B |
|
Szybkość |
Bardzo szybki |
Szybki |
Wolniejszy (~4x) |
|
Wymagania sprzętowe |
16 GB VRAM |
80 GB VRAM |
Dedykowane GPU |
|
Proste zadania |
Dobry |
Porównywalny |
Najlepszy wizualnie |
|
Analiza logów |
Poprawna, zwięzła |
Szersza, z rekomendacjami |
Najgłębsza, najczytelniejsza |
|
Samodzielność |
Wymaga doprecyzowania |
Wymaga doprecyzowania |
Sam rozwiązuje problemy |
Wniosek jest prosty: do szybkich, codziennych zadań w terminalu mniejszy model (GPT-OSS 20B) zupełnie wystarczy. Jeśli potrzebujesz głębszej analizy – np. w incident response – warto sięgnąć po większy model. Ale pamiętaj: im większy model, tym mocniejszy sprzęt i dłuższy czas odpowiedzi.
Gdzie sprawdzić, który model jest najlepszy?
Benchmarki open-source’owych modeli zmieniają się szybko. Dobra strona do porównań to Artificial Analysis, gdzie możesz przefiltrować modele po rozmiarze i zobaczyć, który wypada najlepiej w danej kategorii. Na moment pisania tego artykułu (marzec 2026) Qwen 3.5 dominuje w kategoriach agentycznych i multimodalnych, a GPT-OSS trzyma się mocno w rozumowaniu i tool callingu.
A co jeśli mam Maca? Alternatywa: LM Studio
Nie musisz korzystać z Ollama. Jeśli pracujesz na macOS, alternatywą jest LM Studio. Działa podobnie – uruchamiasz lokalne modele AI i podpinasz je pod Claude Code. Konfiguracja jest analogiczna: zmieniasz base URL w zmiennych środowiskowych na adres LM Studio i gotowe.
Na co uważać?
Kilka rzeczy, o których warto pamiętać zanim zaczniesz:
- Znaj komendy, które AI za Ciebie wykonuje – Claude Code automatyzuje pracę w terminalu, ale Ty powinieneś rozumieć, co robi pod spodem. Jeśli model zaproponuje polecenie, które może coś usunąć lub zmienić w systemie – zanim klikniesz „yes”, przeczytaj, co dokładnie chce zrobić. AI jest narzędziem, nie zastępcą wiedzy.
- Lokalne modele nie dorównują chmurowym – Claude Opus 4.6 przez API Anthropic jest mocniejszy od dowolnego modelu, który odpalasz lokalnie. To normalne – chmurowe modele mają biliony parametrów i potężną infrastrukturę za sobą. Ale do codziennej pracy w terminalu, nauki i eksperymentów, lokalne modele są więcej niż wystarczające.
- Model trzeba doprecyzować – im bardziej szczegółowe polecenie wydasz, tym lepszy będzie wynik. Zamiast „napisz skrypt” powiedz „napisz skrypt w Pythonie, który monitoruje CPU, RAM i dyski, odświeża się co 2 sekundy i wyświetla dane w kolorowej tabeli w terminalu”. Precyzja się opłaca.
współpraca
Szukasz stałej, kompleksowej obsługi bezpieczeństwa IT Twojej firmy?
Współpracuj ze mną w modelu CISO as a Service
Zostanę zewnętrznym szefem cyberbezpieczeństwa Twojej firmy
CISO as a Service od Cyberguru to:
- działania dot. cyberbezpieczeństwa dostosowane do specyfiki Twojej branży i skali działalności
- strategiczne podejście do bezpieczeństwa IT obejmujące zarządzanie ryzykiem i wdrażanie polityk
- wsparcie operacyjne: od monitorowania bezpieczeństwa IT, przez reagowanie na incydenty, aż po audyty i testy penetracyjne
- stałe podnoszenie świadomości dot. cyberbezpieczeństwa u Twoich pracowników poprzez cykliczne szkolenia
- korzystanie z wiedzy specjalisty, który jest na bieżąco z najnowszymi trendami w branży cyberbezpieczeństwa
- zapewnienie zgodności z lokalnymi i międzynarodowymi przepisami dot. ochrony danych i bezpieczeństwa informacji
- regularne raportowanie o obecnej sytuacji bezpieczeństwa IT w Twojej firmie i zalecanych krokach
- redukcja kosztów związanych z zatrudnieniem pełnoetatowego CISO, szczególnie dla mniejszych firm
O autorze
Od ponad 15 lat pracuję w branży IT, a od 2018 roku zawodowo zajmuję się cyberbezpieczeństwem, analizą incydentów i testami penetracyjnymi.
Na co dzień mam do czynienia z prawdziwymi danymi, realnymi zagrożeniami i sytuacjami, w których błędne założenie kosztuje czas, pieniądze albo bezpieczeństwo. To doświadczenie bardzo mocno ukształtowało mój sposób myślenia – i dokładnie ten sposób myślenia chcę Ci przekazać w Cyberdetektywie.
Ten kurs powstał dlatego, że przez lata widziałem, jak wiele problemów bierze się z braku umiejętności weryfikowania informacji, łączenia faktów i odróżniania danych od domysłów. W pracy z incydentami i bezpieczeństwem bardzo szybko wychodzi na jaw, kto potrafi analizować sytuację, a kto tylko zgaduje – i ta różnica jest kluczowa również poza światem IT w zupełnie prywatnych warunkach.
Cyberdetektyw nie jest kursem teoretycznym ani zbiorem efektownych trików. To próba przeniesienia podejścia znanego z cyberbezpieczeństwa i pentestów do świata OSINT-u. Pokażę Ci nie tylko narzędzia i techniki, ale przede wszystkim tok myślenia, który wykorzystuję w swojej pracy.