Claude Code za darmo – jak podłączyć lokalne modele AI przez Ollama

Claude Code to narzędzie terminalowe od Anthropic, które pozwala wydawać polecenia w konsoli zwykłym ludzkim językiem. Problem? Standardowo wymaga płatnej subskrypcji i połączenia z chmurą. Każde zapytanie to tokeny, a tokeny to pieniądze. Od stycznia 2026 roku jest jednak inaczej. Ollama w wersji 0.14.0 wprowadziła kompatybilność z Anthropic Messages API. To oznacza jedno: możesz uruchomić Claude Code na swoim komputerze, podpiąć go pod darmowy model open-source i pracować bez wysyłania danych gdziekolwiek. Zero kosztów, pełna prywatność.

Co to jest Claude Code i dlaczego warto go znać?

Claude Code to narzędzie konsolowe stworzone przez Anthropic. Zamiast wklepywać komendy Linuxa z pamięci, opisujesz po ludzku, co chcesz zrobić, a Claude Code tłumaczy to na odpowiednie polecenia. Chcesz znaleźć największy plik w systemie? Sprawdzić konfigurację sieci? Napisać skrypt monitorujący zasoby? Po prostu mówisz mu to normalnym zdaniem.

Standardowo Claude Code łączy się z API Anthropic i korzysta z modeli takich jak Claude Opus 4.6 – narzędzie bardzo mocne, szczególnie dla ludzi z IT. Minus jest taki, że za każde zapytanie płacisz. Przy intensywnej pracy koszty potrafią zaskoczyć.

Ale jest sposób, żeby to obejść. Zamiast API Anthropic podpinasz Claude Code pod Ollama – środowisko do uruchamiania modeli AI lokalnie, na Twoim sprzęcie. Dane nie wychodzą z Twojego komputera. Płacisz zero złotych.

Należy również pamiętać, iż nie ma czegoś takiego jak anonimowość, tak samo jak 100% bezpieczeństwo. Możemy minimalizować ryzyka, ale zawsze gdzieś jest jakiś punkt styku, dlatego raczej rozmawiajmy o prywatności, która ma trochę inne oblicze. Jest ona bardziej zapewnieniem wysokiego standardu w zarządzaniu swoją tożsamością, który powala na jak największym ograniczeniu jej zdradzania. Ludzie niestety myślą, że bezpieczeństwo czy anonimowość można osiągnąć w procesie jakiegoś postępowania krok po kroku. Wystarczy działać zgodnie z instrukcją i już jest. To mit.

CYBERGURU NA ŻYWO

Kalendarz darmowych szkoleń

Zapomnij o domysłach z forów internetowych czy niesprawdzonych tutorialach.

Wejdź do świata OSINT-u, poznaj mechanizmy Darknetu i zobacz, jak zniknąć z radarów i chronić swoją tożsamość.
Spotykamy się na żywo, rozwiązujemy realne case’y i rozkładamy zagrożenia na czynniki pierwsze.

Sprawdź nasz harmonogram i dołącz do sesji, która Cię interesuje – czas na Twój ruch w cieniu.

Czego potrzebujesz, żeby to uruchomić?

Zanim zaczniesz instalację, sprawdź swój sprzęt. Kluczowa jest karta graficzna z odpowiednią ilością pamięci VRAM:

Model AI

Rozmiar

Minimalne wymagania VRAM

Do czego się nadaje

GPT-OSS 20B

~14 GB

16 GB VRAM

Proste zadania terminalowe, szybkie odpowiedzi

GPT-OSS 120B

~80 GB

80 GB VRAM (np. NVIDIA H100)

Zaawansowane analizy, głębsze rozumowanie

Qwen 3.5 27B

~17 GB

24 GB VRAM

Kodowanie, analiza, dobra równowaga jakość/szybkość

Qwen 3.5 122B-A10B

wymaga mocnego GPU

dedykowane GPU serwerowe

Agentic tasks, tool calling, kompleksowe analizy

Nie masz potężnej karty? Nie rezygnuj. Model GPT-OSS 20B działa na kartach z 16 GB VRAM, np. na RTX 4060 Ti 16GB. Jeśli masz Maca z Apple Silicon i 32 GB RAM, też dasz radę. Na CPU też technicznie zadziała, ale czasy odpowiedzi będą znacznie dłuższe.

Jak podłączyć lokalny model AI przez Ollama?

Krok 1: Instalacja Ollama

Ollama to środowisko do uruchamiania dużych modeli językowych lokalnie. Instalacja sprowadza się do jednej komendy w terminalu:

curl -fsSL https://ollama.com/install.sh | sh

Na macOS i Windows pobierasz instalator ze strony ollama.com. Po instalacji sprawdzasz wersję:

ollama –version

Potrzebujesz wersji 0.14.0 lub nowszej – dopiero od niej działa kompatybilność z Anthropic API, która jest wymagana do połączenia z Claude Code.

Krok 2: Pobranie modelu

Teraz pobierasz model, który będzie napędzał Twojego Claude Code. Modele GPT-OSS od OpenAI to open-weight’owe wersje wydane na licencji Apache 2.0 – w pełni darmowe, także do zastosowań komercyjnych.

ollama pull gpt-oss:20b

Jeśli masz mocniejszy sprzęt i chcesz przetestować większy model:

ollama pull gpt-oss:120b

Możesz też pobrać model z rodziny Qwen 3.5 od Alibaba Cloud. Seria Qwen 3.5 (wydana w lutym 2026) to jedne z najsilniejszych otwartych modeli na rynku – model 122B-A10B bije GPT-OSS 120B w kilku benchmarkach, aktywując przy tym tylko 10 miliardów parametrów na zapytanie:

ollama pull qwen3.5:27b

Pobranie modelu może chwilę potrwać – pliki ważą kilkanaście gigabajtów.

Krok 3: Instalacja Claude Code

Claude Code instalujesz jedną komendą. Na Linuxie i macOS:

curl -fsSL https://claude.ai/install.sh | bash

Na Windowsie (CMD):

curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd

Krok 4: Podłączenie Claude Code do Ollama

Teraz musisz powiedzieć Claude Code, żeby zamiast API Anthropic korzystał z Twojego lokalnego serwera Ollama. Edytujesz plik .bashrc (lub .zshrc na macOS):

nano ~/.bashrc

Na końcu pliku dodajesz trzy zmienne środowiskowe:

export ANTHROPIC_AUTH_TOKEN=ollama

export ANTHROPIC_API_KEY=””

export ANTHROPIC_BASE_URL=http://localhost:11434

Jeśli Ollama działa na innej maszynie w sieci (np. na dedykowanym serwerze z mocnym GPU), zamiast localhost podajesz adres IP tamtej maszyny.

Zapisujesz plik i restartujesz terminal, żeby zmienne się załadowały. Potem uruchamiasz Claude Code z wybranym modelem:

claude –model gpt-oss:20b

Od tego momentu możesz pracować w konsoli, wydając polecenia zwykłym językiem. Claude Code przetłumaczy je na odpowiednie komendy i wykona za Ciebie – wszystko lokalnie.

Szybsza metoda (Ollama 0.15+): Nowsze wersje Ollama mają wbudowaną komendę ollama launch claude, która konfiguruje wszystko automatycznie:

ollama launch claude –model gpt-oss:20b

POZNAJ CYBERAKADEMIĘ

Skoro już tu jesteś - rozwiń swoje cyberumiejętności!

Dołącz do ponad 5000 kursantów, którzy zaczynali dokładnie tak jak Ty – od artykułu na blogu.
Wybierz kurs dopasowany do Twojego poziomu i zacznij ćwiczyć pod okiem praktyka.

Podstawy cyberbezpieczeństwa w przystępnej formie. Dowiedz się, jak chronić siebie i swoich bliskich w internecie – od bezpiecznych haseł, przez rozpoznawanie phishingu, po ochronę prywatności online. Idealny start dla początkujących.

DarkINT to praktyczny kurs wejścia na Darknet od zera. Krok po kroku budujesz bezpieczne środowisko, tworzysz tożsamość operacyjną, konfigurujesz komunikację i uczysz się poruszać po ukrytych społecznościach – bez teorii na sucho, z pełną symulacją na koniec.

Co ten setup potrafi w praktyce? Moje testy

Teoria to jedno. Sprawdziłem, jak te modele radzą sobie z realną robotą. Każdemu z trzech modeli dałem dokładnie te same zadania i porównałem wyniki.

Test 1: Skrypt monitorujący zasoby systemowe

Zadanie: „Napisz skrypt w Pythonie, który na żywo i przystępnie pokazuje zasoby systemowe – dyski, RAM, CPU i połączenia sieciowe.”

GPT-OSS 20B – stworzył działający skrypt, ale najpierw tylko wyświetlił kod, zamiast zapisać go na dysk. Po doprecyzowaniu („stwórz taki plik”) poradził sobie. Nie nadał uprawnień do wykonywania – trzeba było ręcznie dodać chmod +x. Sam skrypt działał poprawnie, odświeżał dane w czasie rzeczywistym.

GPT-OSS 120B – podobna sytuacja. Większy model nie okazał się tu lepszy od mniejszego. Wynik wizualnie był nawet mniej atrakcyjny. To ważna lekcja: większy model nie zawsze oznacza lepsze rezultaty, szczególnie przy prostych zadaniach.

Qwen 3.5 122B – tutaj widać różnicę w inteligencji. Model sam wykrył, że plik już istnieje, zaproponował nadpisanie. Napotkał problem z brakiem biblioteki – samodzielnie próbował ją zainstalować. Kiedy zabrakło uprawnień admina, zdiagnozował problem i podał komendę do ręcznego uruchomienia. Efekt końcowy był wizualnie najciekawszy, choć miał drobny problem z odświeżaniem ekranu, który naprawił po jednej poprawce.

Test 2: Analiza logów SSH (incident response)

To test bliższy realnej pracy w cyberbezpieczeństwie. Pobrałem logi SSH z portalu secnot.com (strona z testowymi logami zagrożeń) i poprosiłem każdy model o analizę.

GPT-OSS 20B – wykonał analizę bardzo szybko, w niecałą minutę. Znalazł ataki brute force, zidentyfikował konta użytkowników, wymienił potencjalne wektory ataku. Analiza poprawna, choć zwięzła.

GPT-OSS 120B – podobny czas, ale analiza szersza. Więcej szczegółów, rekomendacje działań, identyfikacja konkretnych wzorców. Widać różnicę w głębokości rozumowania.

Qwen 3.5 122B – zajęło mu to około 4 minut (vs ~1 minuta GPT-OSS), ale efekt był najlepszy. Raport od razu po polsku. Czytelna struktura: łączna liczba wpisów, dane logowania, nieudane logowania, aktywność skanowania, najbardziej podejrzany host z konkretnym adresem IP, potencjalne kompromitacje, rekomendacje. Wykrył sesje Nmap, wskazał źródła z najwyższą aktywnością.

Co wynika z tych testów?

Kryterium

GPT-OSS 20B

GPT-OSS 120B

Qwen 3.5 122B

Szybkość

Bardzo szybki

Szybki

Wolniejszy (~4x)

Wymagania sprzętowe

16 GB VRAM

80 GB VRAM

Dedykowane GPU

Proste zadania

Dobry

Porównywalny

Najlepszy wizualnie

Analiza logów

Poprawna, zwięzła

Szersza, z rekomendacjami

Najgłębsza, najczytelniejsza

Samodzielność

Wymaga doprecyzowania

Wymaga doprecyzowania

Sam rozwiązuje problemy

Wniosek jest prosty: do szybkich, codziennych zadań w terminalu mniejszy model (GPT-OSS 20B) zupełnie wystarczy. Jeśli potrzebujesz głębszej analizy – np. w incident response – warto sięgnąć po większy model. Ale pamiętaj: im większy model, tym mocniejszy sprzęt i dłuższy czas odpowiedzi.

Gdzie sprawdzić, który model jest najlepszy?

Benchmarki open-source’owych modeli zmieniają się szybko. Dobra strona do porównań to Artificial Analysis, gdzie możesz przefiltrować modele po rozmiarze i zobaczyć, który wypada najlepiej w danej kategorii. Na moment pisania tego artykułu (marzec 2026) Qwen 3.5 dominuje w kategoriach agentycznych i multimodalnych, a GPT-OSS trzyma się mocno w rozumowaniu i tool callingu.

A co jeśli mam Maca? Alternatywa: LM Studio

Nie musisz korzystać z Ollama. Jeśli pracujesz na macOS, alternatywą jest LM Studio. Działa podobnie – uruchamiasz lokalne modele AI i podpinasz je pod Claude Code. Konfiguracja jest analogiczna: zmieniasz base URL w zmiennych środowiskowych na adres LM Studio i gotowe.

Na co uważać?

Kilka rzeczy, o których warto pamiętać zanim zaczniesz:

  • Znaj komendy, które AI za Ciebie wykonuje – Claude Code automatyzuje pracę w terminalu, ale Ty powinieneś rozumieć, co robi pod spodem. Jeśli model zaproponuje polecenie, które może coś usunąć lub zmienić w systemie – zanim klikniesz „yes”, przeczytaj, co dokładnie chce zrobić. AI jest narzędziem, nie zastępcą wiedzy.
  • Lokalne modele nie dorównują chmurowym – Claude Opus 4.6 przez API Anthropic jest mocniejszy od dowolnego modelu, który odpalasz lokalnie. To normalne – chmurowe modele mają biliony parametrów i potężną infrastrukturę za sobą. Ale do codziennej pracy w terminalu, nauki i eksperymentów, lokalne modele są więcej niż wystarczające.
  • Model trzeba doprecyzować – im bardziej szczegółowe polecenie wydasz, tym lepszy będzie wynik. Zamiast „napisz skrypt” powiedz „napisz skrypt w Pythonie, który monitoruje CPU, RAM i dyski, odświeża się co 2 sekundy i wyświetla dane w kolorowej tabeli w terminalu”. Precyzja się opłaca.

O autorze

Od ponad 15 lat pracuję w branży IT, a od 2018 roku zawodowo zajmuję się cyberbezpieczeństwem, analizą incydentów i testami penetracyjnymi.

Na co dzień mam do czynienia z prawdziwymi danymi, realnymi zagrożeniami i sytuacjami, w których błędne założenie kosztuje czas, pieniądze albo bezpieczeństwo. To doświadczenie bardzo mocno ukształtowało mój sposób myślenia – i dokładnie ten sposób myślenia chcę Ci przekazać w Cyberdetektywie.

Ten kurs powstał dlatego, że przez lata widziałem, jak wiele problemów bierze się z braku umiejętności weryfikowania informacji, łączenia faktów i odróżniania danych od domysłów. W pracy z incydentami i bezpieczeństwem bardzo szybko wychodzi na jaw, kto potrafi analizować sytuację, a kto tylko zgaduje – i ta różnica jest kluczowa również poza światem IT w zupełnie prywatnych warunkach.

Cyberdetektyw nie jest kursem teoretycznym ani zbiorem efektownych trików. To próba przeniesienia podejścia znanego z cyberbezpieczeństwa i pentestów do świata OSINT-u. Pokażę Ci nie tylko narzędzia i techniki, ale przede wszystkim tok myślenia, który wykorzystuję w swojej pracy.