🤖 EU 2024/1689 — kara do 35 mln EUR

AI Act Compliance Kit
dla firm używających AI

Rozporządzenie AI Act zaczęło obowiązywać. Każdy system AI w twojej firmie wymaga klasyfikacji ryzyka, dokumentacji i nadzoru ludzkiego. Zrób to bez prawnika.

AI Act już obowiązuje — także ciebie

Rozporządzenie EU 2024/1689 dotyczy każdej firmy używającej systemów AI — od chatbota na stronie, przez ChatGPT w workflow, po systemy HR scoringujące CV. Klasyfikacja ryzyka, dokumentacja, nadzór ludzki, transparency.

Systemy wysokiego ryzyka wymagają oceny zgodności i wpisu do bazy UE. Systemy zakazane (manipulacja, social scoring, rozpoznawanie emocji w pracy) — kara do 35 mln EUR lub 7% obrotu.

4
poziomy ryzyka AI
35M €
max kara
2027
pełne stosowanie
aiact.saaslab.pl — Rejestr systemów AI
📋 Systemy AI
🎯 Klasyfikacja
📄 Dokumentacja
🔍 Audit log
📢 Klauzule
+ Dodaj system AI 4 systemy • 2 wymagają uwagi
System AIRyzykoStatus
🤖 ChatGPT w obsłudze klienta LIMITED ✓ Zgodny
📊 Scoring CV / HR HIGH RISK ⚠ Brak dokumentacji
💳 Fraud detection AI HIGH RISK ⚠ Ocena zgodności
🛒 Personalizacja e-commerce MINIMAL ✓ Zgodny

Cztery poziomy ryzyka AI

AI Act klasyfikuje każdy system AI na jednym z czterech poziomów

ZAKAZANE Niedopuszczalne ryzyko

Manipulacja podświadoma, social scoring, rozpoznawanie emocji w pracy/szkole, biometryczna identyfikacja w czasie rzeczywistym. Całkowicie zakazane od 2 lutego 2025.

HIGH Wysokie ryzyko

HR (rekrutacja, ewaluacja), edukacja (egzaminy), kredyt scoring, infrastruktura krytyczna, sąd. Wymaga oceny zgodności, dokumentacji, wpisu do bazy UE.

LIMITED Ograniczone ryzyko

Chatboty, systemy generujące treści, deepfake. Obowiązek transparency — użytkownik musi wiedzieć, że rozmawia z AI.

MINIMAL Minimalne ryzyko

Filtry spam, AI w grach, OCR faktur, optymalizacja procesów. Brak obowiązków, ale dobra praktyka — dokumentacja i monitoring.

Co dostajesz?

Komplet narzędzi do compliance AI Act w jednej platformie

📋

Rejestr systemów AI

Inwentaryzacja każdego systemu AI w firmie: cel, dane treningowe, dostawca, użytkownicy. Single source of truth dla audytu.

🎯

Klasyfikacja ryzyka

Kreator klasyfikacji oparty o zał. III rozporządzenia. Automatyczne sugestie poziomu ryzyka i wymaganych działań.

📄

Dokumentacja techniczna

Szablony zgodne z art. 11 AI Act: opis systemu, ocena ryzyka, dane treningowe, walidacja, monitoring po wdrożeniu.

👀

Nadzór ludzki (HITL)

Polityka human-in-the-loop, role i odpowiedzialności, procedury przejmowania kontroli przez człowieka, logi decyzji.

🔍

Audit log decyzji AI

Każda decyzja AI logowana z kontekstem. Wymóg art. 12 dla high-risk: minimum 6 miesięcy retencji, możliwość ujawnienia.

📢

Transparency dla użytkowników

Generator klauzul informacyjnych: chatbot, deepfake, treści generowane. Obowiązek z art. 50 — bez tego ryzyko mandatu.

Dla kogo?

AI Act dotyczy każdej firmy używającej AI — także narzędzi zewnętrznych jak ChatGPT

💼

Działy HR

Screening CV, scoring kandydatów, ocena pracowników — high-risk z definicji. Obowiązek pełnej dokumentacji i nadzoru.

🏦

Finanse i kredyt scoring

Oceny zdolności kredytowej, fraud detection, AML — high-risk. Wymóg oceny zgodności i wpisu do bazy UE.

🛒

E-commerce, SaaS, agencje

Chatboty, generatory treści, personalizacja — limited risk z obowiązkiem transparency. Rejestr + dokumentacja.

Cennik

14 dni bezpłatnego okresu próbnego — bez karty kredytowej

Enterprise

699 zł
/ miesiąc
  • Wszystko z Compliance
  • Wielu oddziałów / grupa
  • API + integracja z systemami AI
  • Ocena zgodności high-risk
  • Konsultacje z prawnikiem AI Act
  • SLA 99.5%
Kontakt

Zobacz, jak działa

Wpisz systemy AI, których używasz (ChatGPT, Copilot, narzędzia własne) — kreator powie ci na jakim poziomie ryzyka są i co musisz wdrożyć. Bez karty kredytowej.

Zobacz ofertę