Uruchomiłem AI bez cenzury i ograniczeń. Ty też możesz!

Uruchomiłem AI. Bez cenzury, bez filtrów, bez „Nie mogę Ci w tym pomóc”. Lokalnie na moim komputerze. To jest dokładnie ten moment, w którym przestajesz korzystać z cudzych zasad, a zaczynasz korzystać z własnych narzędzi. W tym artykule pokażę Ci, jak uruchomić na własnym sprzęcie model językowy, który działa jak ChatGPT, tylko że bez kagańca, bez wysyłania danych do chmury, bez sztucznych ograniczeń. To jest AI, które faktycznie pracuje dla Ciebie, a nie dla korporacyjnych polityk.

Czy potrzebuję super komputera?

Nie. To mit, że do uruchomienia lokalnego AI potrzebujesz sprzętu za dziesiątki tysięcy złotych.

Ja używam potężnej karty Nvidia RTX Pro 6000 z 96GB VRAM – ale to sprzęt pokazowy do tworzenia materiałów wideo. Ty możesz uruchomić lokalne AI na:

  • Karcie graficznej za kilka tysięcy złotych (np. RTX 3080 z 12GB)
  • Zwykłym komputerze bez dedykowanej karty (wolniej, ale działa)
  • Zasobach w chmurze (płacisz za minuty, nie za sprzęt)

Cała siła polega na tym, żebyś rozumiał, jak to działa i dobrał model do swoich zasobów.

konsultacje

Wzmocnij cyberbezpieczeństwo
swojej firmy już dziś!

Zapisz się na 30-minutową darmową konsultację, aby wstępnie omówić potrzeby związane z cyberbezpieczeństwem w Twojej firmie.
Wspólnie znajdziemy rozwiązanie dopasowane do specyfiki Twojej działalności!

Jak działają lokalne modele AI?

Cały model musi zmieścić się w pamięci VRAM Twojej karty graficznej. To jest kluczowa zasada.

Twój VRAM

Jakie modele możesz uruchomić

8 GB

Małe modele 3-7B parametrów

12 GB

Średnie modele 7-13B parametrów

24 GB

Duże modele 13-30B parametrów

48+ GB

Bardzo duże modele 30-70B parametrów

Jak sprawdzić swoje zasoby? Jeśli masz kartę Nvidia, wpisz w terminalu:

nvidia-smi

Zobaczysz ile VRAM masz dostępne i ile jest aktualnie zajęte.

Hugging Face – skąd brać modele

Hugging Face to społeczność, która udostępnia modele językowe. To Twoje główne źródło.

Po zalogowaniu kliknij „Models” i użyj filtrów:

  1. Text Generation – interesują nas modele językowe
  2. Rozmiar parametrów – dobierz do swojego VRAM
  3. Ollama – wybierz modele kompatybilne z Ollama

Ale najważniejszy filtr to ten w URL. Dopisz na końcu adresu:

&other=uncensored

To pokaże Ci modele bez cenzury. Szukaj też znacznika „abliterated” – oznacza model z usuniętymi ograniczeniami.

Jak dobrać model do swojej karty?

Hugging Face ma genialną funkcję Hardware Compatibility.

  1. Wejdź w ustawienia swojego profilu
  2. Dodaj swoją kartę graficzną (np. RTX 3080, 12GB)
  3. Przy każdym modelu zobaczysz, czy się uruchomi

System pokazuje trzy stany:

  • Zielony – model działa płynnie
  • Żółty – może działać, ale wolno
  • Czerwony – nie uruchomi się

Przy większych modelach zobaczysz różne wersje skwantyzowane (2-bit, 3-bit, 4-bit). Im mniejsza kwantyzacja, tym mniejszy model, ale też niższa jakość. Dla karty 12GB często 4-bitowa wersja dużego modelu będzie lepsza niż pełna wersja małego.

Ollama – silnik do uruchamiania modeli

Ollama to narzędzie, które pozwala uruchamiać modele lokalnie. Instalujesz raz i potem tylko pobierasz kolejne modele.

Instalacja modelu z Hugging Face:

  1. Znajdź model na Hugging Face
  2. Kliknij „Use this model” → wybierz „Ollama”
  3. Skopiuj polecenie (np. ollama pull hf.co/user/model-name)
  4. Wklej w terminal i uruchom

Model się pobierze i będzie gotowy do użycia.

konsultacje z cyberguru

Gotowy na wzmocnienie cyberbezpieczeństwa swojej firmy?

Zarezerwuj darmową 30-minutową konsultację, aby omówić potrzeby Twojej firmy w zakresie ochrony danych i cyberbezpieczeństwa. Wspólnie zidentyfikujemy zagrożenia i znajdziemy najlepsze rozwiązania dopasowane do Twojego biznesu.

Porozmawiajmy! Kliknij w poniższy przycisk i umów się na bezpłatną konsultację.

Open WebUI – wygodny interfejs

Żebyś nie musiał pisać w terminalu, jest Open WebUI – interfejs graficzny podobny do ChatGPT, ale dla lokalnych modeli.

Dwa sposoby instalacji modeli przez Open WebUI:

Sposób 1 – przez interfejs:

  1. Ustawienia → Ustawienia administratora → Modele
  2. Kliknij „Zarządzaj modelami”
  3. Wklej nazwę modelu z Hugging Face
  4. Kliknij pobierz

Sposób 2 – przez terminal:

ollama pull nazwa-modelu

Model pojawi się automatycznie w Open WebUI.

Strona Ollama – alternatywne źródło modeli

Oprócz Hugging Face możesz pobierać modele bezpośrednio ze stronyollama.com.

Wejdź w Models i dopisz w wyszukiwarce „abliterated”. Znajdziesz modele bez ograniczeń, często przygotowane przez tych samych autorów co na Hugging Face.

Co możesz zrobić z modelem bez cenzury?

Model bez ograniczeń odpowie na każde pytanie. Możesz go użyć do:

  • Testów penetracyjnych – generowanie payloadów, analiza exploitów
  • Red teamingu – przygotowanie kampanii phishingowych do testów
  • Exploit research – badanie podatności
  • Pracy ofensywnej – symulacje ataków w kontrolowanym środowisku
  • Białego wywiadu – analiza i automatyzacja OSINT

Przykład: możesz poprosić o napisanie przykładowego kodu ransomware, wiadomości phishingowej czy programu typu trojan. Model to zrobi bez pytania „czy na pewno?”.

Ważne: Używaj tego zgodnie z prawem. My, specjaliści od bezpieczeństwa, potrzebujemy takich narzędzi do pracy. Ale pamiętaj, że źli aktorzy też mają do nich dostęp. Ty bądź tym dobrym.

Kontekst (CTX) – pamięć modelu

W Open WebUI zobaczysz suwak CTX (context). Domyślnie ustawiony na 2048.

Co to oznacza? To jest „pamięć” modelu – ile poprzedniej rozmowy bierze pod uwagę przy odpowiedzi. 2048 tokenów to bardzo mało.

Jeśli Twój model obsługuje większy kontekst (np. 128 tysięcy), możesz zwiększyć CTX. Dzięki temu model „pamięta” dłuższe konwersacje.

Jak sprawdzić maksymalny kontekst? Wejdź w opis modelu na Hugging Face i szukaj „context length” lub „context window„.

Tools – modele z narzędziami

Niektóre modele mają włączoną obsługę tools (narzędzi). Co to daje?

Model z tools może:

  • Wykonywać kod
  • Łączyć się z zewnętrznymi API
  • Używać przeglądarki
  • Operować na plikach

To pozwala budować agentów AI – programy, które nie tylko odpowiadają na pytania, ale też wykonują zadania.

Sprawdź w opisie modelu, czy ma włączone „function calling” lub „tools„.

Jakie modele wybrać na start?

Dla kart 12GB VRAM polecam zacząć od:

Model

Rozmiar

Uwagi

Qwen 2.5 (abliterated)

7B

Dobry ogólnie, bez cenzury

Mistral (uncensored)

7B

Szybki, dobra jakość

Llama 3 (abliterated)

8B

Meta, bardzo dobry

Dla kart 24GB+ możesz sięgnąć po większe wersje tych samych modeli (13B, 30B) lub po GPT4All w wersji 70B+.

Lokalne AI bez cenzury – Podsumowanie

Lokalne AI bez cenzury to nie science fiction. Możesz je uruchomić dzisiaj, na swoim sprzęcie, za darmo.

Co potrzebujesz:

  1. Kartę graficzną z minimum 8GB VRAM (lub cierpliwość do CPU)
  2. Ollama jako silnik
  3. Open WebUI jako interfejs
  4. Model z Hugging Face (szukaj „uncensored” lub „abliterated”)

Cały proces zajmuje może godzinę. Potem masz AI, które:

  • Działa lokalnie (prywatność)
  • Nie ma cenzury (pełna funkcjonalność)
  • Nie wysyła danych do korporacji (kontrola)
  • Odpowiada na każde pytanie (bez kagańca)

Jeśli zajmujesz się cyberbezpieczeństwem, białym wywiadem albo po prostu chcesz mieć pełną kontrolę nad swoim AI – to jest rozwiązanie dla Ciebie.

współpraca

Szukasz stałej, kompleksowej obsługi bezpieczeństwa IT Twojej firmy?

Współpracuj ze mną w modelu CISO as a Service
Zostanę zewnętrznym szefem cyberbezpieczeństwa Twojej firmy

CISO as a Service od Cyberguru to: