VigilGuard Enterprise v1.5 - nowa wersja
Poprawa trafności detekcji
Silnik semantyczny przeszedł najpoważniejszą przebudowę od momentu uruchomienia platformy. Celem było ograniczenie fałszywych blokad przy jednoczesnym zwiększeniu wykrywalności rzeczywistych zagrożeń.
Context Consistency to nowy model ONNX oceniający relację między treścią użytkownika a kontekstem systemowym. Wcześniej prompty były analizowane w izolacji, co oznaczało, że prawidłowa wiadomość biznesowa zawierająca słowa kluczowe kojarzone z atakami mogła zostać zablokowana. System rozumie teraz kontekst konwersacji i odróżnia bezpieczne instrukcje od prób manipulacji.
Trust-Tier Remediation klasyfikuje bezpieczne wzorce wiadomości w trzech poziomach zaufania. Zweryfikowane wzorce (BIPIA, scenariusze biznesowe) zapewniają pełną ochronę przed fałszywymi blokadami. Niezweryfikowane wzorce są automatycznie degradowane w kontekstach, w których mogłyby maskować rzeczywisty atak. Mechanizm ten szczególnie poprawił trafność dla promptów w języku polskim.
Baza wzorców semantycznych została wzbogacona o nowe kategorie: transakcje finansowe, powiadomienia operacyjne, odpowiedzi techniczne i szablony strukturalne. Po stronie ataków dodano 29 nowych wzorców z Babelscape/ALERT (jailbreaking), injection oraz garak (multi-shot).
| Metryka | Zmiana |
|---|---|
| Fałszywe blokady | -28% |
| Pominięte ataki | -24% |
| F1 Score | +2,4 pp |
Model detekcji injection v14
Klasyfikator prompt injection awansował o dwie generacje modelu (v12 do v14).
Obsługa języka polskiego. Dziewięć nowych zestawów wzorców obejmujących polskie scenariusze biznesowe: użycie narzędzi, dostęp do danych, komunikaty bezpieczeństwa, powitania botów i wymiana konwersacyjna. Prompty biznesowe mają teraz znacznie mniejsze prawdopodobieństwo wywołania fałszywej blokady.
Nowe typy ataków. Rozszerzona wykrywalność ataków jailbreaking, injection i multi-shot, które wcześniej mogły pozostać niewykryte.
Obie wersje modelu zostały zwalidowane na różnych benchmarkach w czterech standaryzowanych profilach testowych.
Automatyczne skalowanie zasobów
Wcześniej system działał z identycznymi ustawieniami niezależnie od sprzętu. Na mniejszych serwerach usługi rywalizowały o CPU. Na większych zasoby pozostawały niewykorzystane.
Podczas instalacji system wykrywa teraz parametry hosta (CPU, RAM, dysk). Automatycznie konfiguruje każdą usługę: przydział wątków dla klasyfikatora injection, limity równoczesnych żądań API oraz równoległość analizy PII i semantycznej. Ręczna konfiguracja nie jest wymagana.
Gdy system osiąga pełną wydajność, API zwraca 503 Retry-After zamiast przyjmować kolejne żądania i pogarszać czasy odpowiedzi dla wszystkich. Python SDK automatycznie ponawia próbę po wskazanym interwale.
| Profil | Serwer | API in-flight | PII parallel | Semantic parallel |
|---|---|---|---|---|
| prod-32 | 16 CPU / 30 GB | 8 | 4 | 2 |
| prod-64 | 24 CPU / 64 GB | 10 | 5 | 2 |
| prod-128 | 32 CPU / 128 GB | 16 | 8 | 4 |
| prod-256 | 48 CPU / 256 GB | 24 | 8 | 4 |
Ochrona czatu Bielik AI
Rozszerzenie przeglądarkowe chroni teraz konwersacje na platformie Bielik AI, wiodącym polskim modelu językowym.
Obsługiwane platformy (9): ChatGPT, Claude, Gemini, Copilot, Perplexity, Mistral, Grok, AnonChatGPT, Bielik.
Rozszerzenie przechwytuje wiadomości przed ich wysłaniem. Po wykryciu zagrożenia treść jest sanityzowana lub blokowana z powiadomieniem. Po wysłaniu widok czatu jest synchronizowany, aby użytkownik widział, co faktycznie zostało wysłane. Sesje czatu nie są przerywane.
Dokumentacja w panelu
API Reference. Pełna dokumentacja wszystkich pięciu endpointów (Detect Input, Detect Output, Analyze, Batch, License Status) z przykładami kodu, schematami odpowiedzi i opisami błędów. Dostępna bezpośrednio z panelu zarządzania.
Profile skalowania. Wyjaśnienie automatycznego skalowania: dostępne profile, logika wyboru i zużycie pamięci per usługa (31,5 GB RAM łącznie dla pełnego stosu).
Aktualizacja. Przewodnik krok po kroku: co dzieje się na każdym etapie, jakie dane są zachowywane, jak działa rollback i tryb air-gapped dla środowisk offline.