Powrót do aktualności

VigilGuard Enterprise v1.5 - nowa wersja

Poprawa trafności detekcji

Silnik semantyczny przeszedł najpoważniejszą przebudowę od momentu uruchomienia platformy. Celem było ograniczenie fałszywych blokad przy jednoczesnym zwiększeniu wykrywalności rzeczywistych zagrożeń.

Context Consistency to nowy model ONNX oceniający relację między treścią użytkownika a kontekstem systemowym. Wcześniej prompty były analizowane w izolacji, co oznaczało, że prawidłowa wiadomość biznesowa zawierająca słowa kluczowe kojarzone z atakami mogła zostać zablokowana. System rozumie teraz kontekst konwersacji i odróżnia bezpieczne instrukcje od prób manipulacji.

Trust-Tier Remediation klasyfikuje bezpieczne wzorce wiadomości w trzech poziomach zaufania. Zweryfikowane wzorce (BIPIA, scenariusze biznesowe) zapewniają pełną ochronę przed fałszywymi blokadami. Niezweryfikowane wzorce są automatycznie degradowane w kontekstach, w których mogłyby maskować rzeczywisty atak. Mechanizm ten szczególnie poprawił trafność dla promptów w języku polskim.

Baza wzorców semantycznych została wzbogacona o nowe kategorie: transakcje finansowe, powiadomienia operacyjne, odpowiedzi techniczne i szablony strukturalne. Po stronie ataków dodano 29 nowych wzorców z Babelscape/ALERT (jailbreaking), injection oraz garak (multi-shot).

MetrykaZmiana
Fałszywe blokady-28%
Pominięte ataki-24%
F1 Score+2,4 pp

Model detekcji injection v14

Klasyfikator prompt injection awansował o dwie generacje modelu (v12 do v14).

Obsługa języka polskiego. Dziewięć nowych zestawów wzorców obejmujących polskie scenariusze biznesowe: użycie narzędzi, dostęp do danych, komunikaty bezpieczeństwa, powitania botów i wymiana konwersacyjna. Prompty biznesowe mają teraz znacznie mniejsze prawdopodobieństwo wywołania fałszywej blokady.

Nowe typy ataków. Rozszerzona wykrywalność ataków jailbreaking, injection i multi-shot, które wcześniej mogły pozostać niewykryte.

Obie wersje modelu zostały zwalidowane na różnych benchmarkach w czterech standaryzowanych profilach testowych.

Automatyczne skalowanie zasobów

Wcześniej system działał z identycznymi ustawieniami niezależnie od sprzętu. Na mniejszych serwerach usługi rywalizowały o CPU. Na większych zasoby pozostawały niewykorzystane.

Podczas instalacji system wykrywa teraz parametry hosta (CPU, RAM, dysk). Automatycznie konfiguruje każdą usługę: przydział wątków dla klasyfikatora injection, limity równoczesnych żądań API oraz równoległość analizy PII i semantycznej. Ręczna konfiguracja nie jest wymagana.

Gdy system osiąga pełną wydajność, API zwraca 503 Retry-After zamiast przyjmować kolejne żądania i pogarszać czasy odpowiedzi dla wszystkich. Python SDK automatycznie ponawia próbę po wskazanym interwale.

ProfilSerwerAPI in-flightPII parallelSemantic parallel
prod-3216 CPU / 30 GB842
prod-6424 CPU / 64 GB1052
prod-12832 CPU / 128 GB1684
prod-25648 CPU / 256 GB2484

Ochrona czatu Bielik AI

Rozszerzenie przeglądarkowe chroni teraz konwersacje na platformie Bielik AI, wiodącym polskim modelu językowym.

Obsługiwane platformy (9): ChatGPT, Claude, Gemini, Copilot, Perplexity, Mistral, Grok, AnonChatGPT, Bielik.

Rozszerzenie przechwytuje wiadomości przed ich wysłaniem. Po wykryciu zagrożenia treść jest sanityzowana lub blokowana z powiadomieniem. Po wysłaniu widok czatu jest synchronizowany, aby użytkownik widział, co faktycznie zostało wysłane. Sesje czatu nie są przerywane.

Dokumentacja w panelu

API Reference. Pełna dokumentacja wszystkich pięciu endpointów (Detect Input, Detect Output, Analyze, Batch, License Status) z przykładami kodu, schematami odpowiedzi i opisami błędów. Dostępna bezpośrednio z panelu zarządzania.

Profile skalowania. Wyjaśnienie automatycznego skalowania: dostępne profile, logika wyboru i zużycie pamięci per usługa (31,5 GB RAM łącznie dla pełnego stosu).

Aktualizacja. Przewodnik krok po kroku: co dzieje się na każdym etapie, jakie dane są zachowywane, jak działa rollback i tryb air-gapped dla środowisk offline.