Claude Code za darmo – jak podłączyć lokalne modele AI przez Ollama

Claude Code to narzędzie terminalowe od Anthropic, które pozwala wydawać polecenia w konsoli zwykłym ludzkim językiem. Problem? Standardowo wymaga płatnej subskrypcji i połączenia z chmurą. Każde zapytanie to tokeny, a tokeny to pieniądze. Od stycznia 2026 roku jest jednak inaczej. Ollama w wersji 0.14.0 wprowadziła kompatybilność z Anthropic Messages API. To oznacza jedno: możesz uruchomić Claude Code na swoim komputerze, podpiąć go pod darmowy model open-source i pracować bez wysyłania danych gdziekolwiek. Zero kosztów, pełna prywatność.

Co to jest Claude Code i dlaczego warto go znać?

Claude Code to narzędzie konsolowe stworzone przez Anthropic. Zamiast wklepywać komendy Linuxa z pamięci, opisujesz po ludzku, co chcesz zrobić, a Claude Code tłumaczy to na odpowiednie polecenia. Chcesz znaleźć największy plik w systemie? Sprawdzić konfigurację sieci? Napisać skrypt monitorujący zasoby? Po prostu mówisz mu to normalnym zdaniem.

Standardowo Claude Code łączy się z API Anthropic i korzysta z modeli takich jak Claude Opus 4.6 – narzędzie bardzo mocne, szczególnie dla ludzi z IT. Minus jest taki, że za każde zapytanie płacisz. Przy intensywnej pracy koszty potrafią zaskoczyć.

Ale jest sposób, żeby to obejść. Zamiast API Anthropic podpinasz Claude Code pod Ollama – środowisko do uruchamiania modeli AI lokalnie, na Twoim sprzęcie. Dane nie wychodzą z Twojego komputera. Płacisz zero złotych.

konsultacje

Wzmocnij cyberbezpieczeństwo
swojej firmy już dziś!

Zapisz się na 30-minutową darmową konsultację, aby wstępnie omówić potrzeby związane z cyberbezpieczeństwem w Twojej firmie.
Wspólnie znajdziemy rozwiązanie dopasowane do specyfiki Twojej działalności!

Czego potrzebujesz, żeby to uruchomić?

Zanim zaczniesz instalację, sprawdź swój sprzęt. Kluczowa jest karta graficzna z odpowiednią ilością pamięci VRAM:

Model AI

Rozmiar

Minimalne wymagania VRAM

Do czego się nadaje

GPT-OSS 20B

~14 GB

16 GB VRAM

Proste zadania terminalowe, szybkie odpowiedzi

GPT-OSS 120B

~80 GB

80 GB VRAM (np. NVIDIA H100)

Zaawansowane analizy, głębsze rozumowanie

Qwen 3.5 27B

~17 GB

24 GB VRAM

Kodowanie, analiza, dobra równowaga jakość/szybkość

Qwen 3.5 122B-A10B

wymaga mocnego GPU

dedykowane GPU serwerowe

Agentic tasks, tool calling, kompleksowe analizy

Nie masz potężnej karty? Nie rezygnuj. Model GPT-OSS 20B działa na kartach z 16 GB VRAM, np. na RTX 4060 Ti 16GB. Jeśli masz Maca z Apple Silicon i 32 GB RAM, też dasz radę. Na CPU też technicznie zadziała, ale czasy odpowiedzi będą znacznie dłuższe.

Jak podłączyć lokalny model AI przez Ollama?

Krok 1: Instalacja Ollama

Ollama to środowisko do uruchamiania dużych modeli językowych lokalnie. Instalacja sprowadza się do jednej komendy w terminalu:

curl -fsSL https://ollama.com/install.sh | sh

Na macOS i Windows pobierasz instalator ze strony ollama.com. Po instalacji sprawdzasz wersję:

ollama –version

Potrzebujesz wersji 0.14.0 lub nowszej – dopiero od niej działa kompatybilność z Anthropic API, która jest wymagana do połączenia z Claude Code.

Krok 2: Pobranie modelu

Teraz pobierasz model, który będzie napędzał Twojego Claude Code. Modele GPT-OSS od OpenAI to open-weight’owe wersje wydane na licencji Apache 2.0 – w pełni darmowe, także do zastosowań komercyjnych.

ollama pull gpt-oss:20b

Jeśli masz mocniejszy sprzęt i chcesz przetestować większy model:

ollama pull gpt-oss:120b

Możesz też pobrać model z rodziny Qwen 3.5 od Alibaba Cloud. Seria Qwen 3.5 (wydana w lutym 2026) to jedne z najsilniejszych otwartych modeli na rynku – model 122B-A10B bije GPT-OSS 120B w kilku benchmarkach, aktywując przy tym tylko 10 miliardów parametrów na zapytanie:

ollama pull qwen3.5:27b

Pobranie modelu może chwilę potrwać – pliki ważą kilkanaście gigabajtów.

Krok 3: Instalacja Claude Code

Claude Code instalujesz jedną komendą. Na Linuxie i macOS:

curl -fsSL https://claude.ai/install.sh | bash

Na Windowsie (CMD):

curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd

Krok 4: Podłączenie Claude Code do Ollama

Teraz musisz powiedzieć Claude Code, żeby zamiast API Anthropic korzystał z Twojego lokalnego serwera Ollama. Edytujesz plik .bashrc (lub .zshrc na macOS):

nano ~/.bashrc

Na końcu pliku dodajesz trzy zmienne środowiskowe:

export ANTHROPIC_AUTH_TOKEN=ollama

export ANTHROPIC_API_KEY=””

export ANTHROPIC_BASE_URL=http://localhost:11434

Jeśli Ollama działa na innej maszynie w sieci (np. na dedykowanym serwerze z mocnym GPU), zamiast localhost podajesz adres IP tamtej maszyny.

Zapisujesz plik i restartujesz terminal, żeby zmienne się załadowały. Potem uruchamiasz Claude Code z wybranym modelem:

claude –model gpt-oss:20b

Od tego momentu możesz pracować w konsoli, wydając polecenia zwykłym językiem. Claude Code przetłumaczy je na odpowiednie komendy i wykona za Ciebie – wszystko lokalnie.

Szybsza metoda (Ollama 0.15+): Nowsze wersje Ollama mają wbudowaną komendę ollama launch claude, która konfiguruje wszystko automatycznie:

ollama launch claude –model gpt-oss:20b

konsultacje z cyberguru

Gotowy na wzmocnienie cyberbezpieczeństwa swojej firmy?

Zarezerwuj darmową 30-minutową konsultację, aby omówić potrzeby Twojej firmy w zakresie ochrony danych i cyberbezpieczeństwa. Wspólnie zidentyfikujemy zagrożenia i znajdziemy najlepsze rozwiązania dopasowane do Twojego biznesu.

Porozmawiajmy! Kliknij w poniższy przycisk i umów się na bezpłatną konsultację.

Co ten setup potrafi w praktyce? Moje testy

Teoria to jedno. Sprawdziłem, jak te modele radzą sobie z realną robotą. Każdemu z trzech modeli dałem dokładnie te same zadania i porównałem wyniki.

Test 1: Skrypt monitorujący zasoby systemowe

Zadanie: „Napisz skrypt w Pythonie, który na żywo i przystępnie pokazuje zasoby systemowe – dyski, RAM, CPU i połączenia sieciowe.”

GPT-OSS 20B – stworzył działający skrypt, ale najpierw tylko wyświetlił kod, zamiast zapisać go na dysk. Po doprecyzowaniu („stwórz taki plik”) poradził sobie. Nie nadał uprawnień do wykonywania – trzeba było ręcznie dodać chmod +x. Sam skrypt działał poprawnie, odświeżał dane w czasie rzeczywistym.

GPT-OSS 120B – podobna sytuacja. Większy model nie okazał się tu lepszy od mniejszego. Wynik wizualnie był nawet mniej atrakcyjny. To ważna lekcja: większy model nie zawsze oznacza lepsze rezultaty, szczególnie przy prostych zadaniach.

Qwen 3.5 122B – tutaj widać różnicę w inteligencji. Model sam wykrył, że plik już istnieje, zaproponował nadpisanie. Napotkał problem z brakiem biblioteki – samodzielnie próbował ją zainstalować. Kiedy zabrakło uprawnień admina, zdiagnozował problem i podał komendę do ręcznego uruchomienia. Efekt końcowy był wizualnie najciekawszy, choć miał drobny problem z odświeżaniem ekranu, który naprawił po jednej poprawce.

Test 2: Analiza logów SSH (incident response)

To test bliższy realnej pracy w cyberbezpieczeństwie. Pobrałem logi SSH z portalu secnot.com (strona z testowymi logami zagrożeń) i poprosiłem każdy model o analizę.

GPT-OSS 20B – wykonał analizę bardzo szybko, w niecałą minutę. Znalazł ataki brute force, zidentyfikował konta użytkowników, wymienił potencjalne wektory ataku. Analiza poprawna, choć zwięzła.

GPT-OSS 120B – podobny czas, ale analiza szersza. Więcej szczegółów, rekomendacje działań, identyfikacja konkretnych wzorców. Widać różnicę w głębokości rozumowania.

Qwen 3.5 122B – zajęło mu to około 4 minut (vs ~1 minuta GPT-OSS), ale efekt był najlepszy. Raport od razu po polsku. Czytelna struktura: łączna liczba wpisów, dane logowania, nieudane logowania, aktywność skanowania, najbardziej podejrzany host z konkretnym adresem IP, potencjalne kompromitacje, rekomendacje. Wykrył sesje Nmap, wskazał źródła z najwyższą aktywnością.

Co wynika z tych testów?

Kryterium

GPT-OSS 20B

GPT-OSS 120B

Qwen 3.5 122B

Szybkość

Bardzo szybki

Szybki

Wolniejszy (~4x)

Wymagania sprzętowe

16 GB VRAM

80 GB VRAM

Dedykowane GPU

Proste zadania

Dobry

Porównywalny

Najlepszy wizualnie

Analiza logów

Poprawna, zwięzła

Szersza, z rekomendacjami

Najgłębsza, najczytelniejsza

Samodzielność

Wymaga doprecyzowania

Wymaga doprecyzowania

Sam rozwiązuje problemy

Wniosek jest prosty: do szybkich, codziennych zadań w terminalu mniejszy model (GPT-OSS 20B) zupełnie wystarczy. Jeśli potrzebujesz głębszej analizy – np. w incident response – warto sięgnąć po większy model. Ale pamiętaj: im większy model, tym mocniejszy sprzęt i dłuższy czas odpowiedzi.

Gdzie sprawdzić, który model jest najlepszy?

Benchmarki open-source’owych modeli zmieniają się szybko. Dobra strona do porównań to Artificial Analysis, gdzie możesz przefiltrować modele po rozmiarze i zobaczyć, który wypada najlepiej w danej kategorii. Na moment pisania tego artykułu (marzec 2026) Qwen 3.5 dominuje w kategoriach agentycznych i multimodalnych, a GPT-OSS trzyma się mocno w rozumowaniu i tool callingu.

A co jeśli mam Maca? Alternatywa: LM Studio

Nie musisz korzystać z Ollama. Jeśli pracujesz na macOS, alternatywą jest LM Studio. Działa podobnie – uruchamiasz lokalne modele AI i podpinasz je pod Claude Code. Konfiguracja jest analogiczna: zmieniasz base URL w zmiennych środowiskowych na adres LM Studio i gotowe.

Na co uważać?

Kilka rzeczy, o których warto pamiętać zanim zaczniesz:

  • Znaj komendy, które AI za Ciebie wykonuje – Claude Code automatyzuje pracę w terminalu, ale Ty powinieneś rozumieć, co robi pod spodem. Jeśli model zaproponuje polecenie, które może coś usunąć lub zmienić w systemie – zanim klikniesz „yes”, przeczytaj, co dokładnie chce zrobić. AI jest narzędziem, nie zastępcą wiedzy.
  • Lokalne modele nie dorównują chmurowym – Claude Opus 4.6 przez API Anthropic jest mocniejszy od dowolnego modelu, który odpalasz lokalnie. To normalne – chmurowe modele mają biliony parametrów i potężną infrastrukturę za sobą. Ale do codziennej pracy w terminalu, nauki i eksperymentów, lokalne modele są więcej niż wystarczające.
  • Model trzeba doprecyzować – im bardziej szczegółowe polecenie wydasz, tym lepszy będzie wynik. Zamiast „napisz skrypt” powiedz „napisz skrypt w Pythonie, który monitoruje CPU, RAM i dyski, odświeża się co 2 sekundy i wyświetla dane w kolorowej tabeli w terminalu”. Precyzja się opłaca.

współpraca

Szukasz stałej, kompleksowej obsługi bezpieczeństwa IT Twojej firmy?

Współpracuj ze mną w modelu CISO as a Service
Zostanę zewnętrznym szefem cyberbezpieczeństwa Twojej firmy

CISO as a Service od Cyberguru to:

O autorze

Od ponad 15 lat pracuję w branży IT, a od 2018 roku zawodowo zajmuję się cyberbezpieczeństwem, analizą incydentów i testami penetracyjnymi.

Na co dzień mam do czynienia z prawdziwymi danymi, realnymi zagrożeniami i sytuacjami, w których błędne założenie kosztuje czas, pieniądze albo bezpieczeństwo. To doświadczenie bardzo mocno ukształtowało mój sposób myślenia – i dokładnie ten sposób myślenia chcę Ci przekazać w Cyberdetektywie.

Ten kurs powstał dlatego, że przez lata widziałem, jak wiele problemów bierze się z braku umiejętności weryfikowania informacji, łączenia faktów i odróżniania danych od domysłów. W pracy z incydentami i bezpieczeństwem bardzo szybko wychodzi na jaw, kto potrafi analizować sytuację, a kto tylko zgaduje – i ta różnica jest kluczowa również poza światem IT w zupełnie prywatnych warunkach.

Cyberdetektyw nie jest kursem teoretycznym ani zbiorem efektownych trików. To próba przeniesienia podejścia znanego z cyberbezpieczeństwa i pentestów do świata OSINT-u. Pokażę Ci nie tylko narzędzia i techniki, ale przede wszystkim tok myślenia, który wykorzystuję w swojej pracy.