Sii Polska

SII UKRAINE

SII SWEDEN

  • Szkolenia
  • Kariera
Dołącz do nas Kontakt
Wstecz

Sii Polska

SII UKRAINE

SII SWEDEN

Wstecz

Cybersecurity & AI

Język Polski

  • Liczebność grupy 8-15 uczestników
  • Czas trwania 2 dni

Dlaczego warto

  • Wiodące treści branżowe: Nasz program odzwierciedla najnowsze zagrożenia, frameworki i najlepsze praktyki z lat 2024-2025. Będziesz uczyć się na rzeczywistych studiach przypadków i współczesnych scenariuszach ataków.
  • Gotowe do wdrożenia ramy operacyjne: Poznasz ustrukturyzowane podejścia — MITRE ATLAS, OWASP, STRIDE, NIST — które możesz wdrożyć w swojej organizacji natychmiast po powrocie ze szkolenia.
  • Przewaga konkurencyjna: Ponieważ bezpieczeństwo AI staje się kluczowym tematem na poziomie zarządów, specjaliści z tą wiedzą mogą liczyć na wyższe wynagrodzenia i większe możliwości rozwoju zawodowego.

Czego się nauczysz

Po ukończeniu tego intensywnego programu szkoleniowego będziesz potrafił:

  • Identyfikować i mitygować podatności specyficzne dla systemów sztucznej inteligencji (AI) i uczenia maszynowego (ML).
  • Wdrażać praktyki bezpiecznego wytwarzania AI w całej organizacji.
  • Przeprowadzać profesjonalne testy penetracyjne nakierowane na aplikacje AI.
  • Budować skuteczne plany reagowania na incydenty, zaprojektowane specjalnie pod kątem bezpieczeństwa AI.
  • Stosować ramy zgodności (compliance) i struktury ładu (governance) w projektach AI.
  • Oceniać i redukować ryzyka w łańcuchu dostaw podczas rozwoju rozwiązań AI.
  • Wykrywać i reagować na ataki typu „adversarial” w czasie rzeczywistym.

Dla kogo

„Cybersecurity & AI” to intensywne szkolenie praktyczne z laboratoriami „hands-on”. Jest ono przeznaczone dla poziomów średniozaawansowanego (Intermediate) i zaawansowanego (Advanced) dla:

  • Specjalistów ds. cyberbezpieczeństwa,
  • Analityków IT,
  • Administratorów systemów,
  • Architektów bezpieczeństwa.

.

Zakres szkolenia

Dzień 1: Fundamenty bezpieczeństwa AI i praktyczne zagrożenia

Moduł 1: Wprowadzenie do bezpieczeństwa AI Opanuj podstawy zabezpieczania systemów sztucznej inteligencji w realiach lat 2024-2025. Ten moduł buduje fundamenty pod zrozumienie, dlaczego tradycyjne podejścia do cyberbezpieczeństwa są niewystarczające w ochronie AI.

  • Definicja i znaczenie bezpieczeństwa AI w dzisiejszym krajobrazie zagrożeń.
  • Architektura systemów AI: Duże Modele Językowe (LLM), potoki ML (pipelines), punkty końcowe API.
  • Kluczowe różnice między konwencjonalnym cyberbezpieczeństwem a bezpieczeństwem AI.
  • Przegląd krajobrazu zagrożeń: framework MITRE ATLAS.
  • Laboratorium praktyczne.

Moduł 2: OWASP Top 10 dla aplikacji LLM Poznaj dziesięć najbardziej krytycznych ryzyk bezpieczeństwa dotyczących dużych modeli językowych i aplikacji AI. Podatności te stanowią realne, możliwe do wykorzystania słabości, w które aktywnie celują napastnicy.

  • LLM01: Prompt Injection (wstrzykiwanie poleceń) – teoria i praktyczna eksploatacja.
  • LLM02: Niewłaściwa obsługa wyjścia (Insecure Output Handling).
  • LLM03: Zatruwanie danych treningowych (Training Data Poisoning).
  • LLM04: Odmowa usługi modelu (Model Denial of Service).
  • LLM05: Podatności łańcucha dostaw.
  • Laboratorium praktyczne.

Moduł 3: Adversarial Machine Learning Zrozum, w jaki sposób modele uczenia maszynowego mogą być oszukiwane, uszkadzane i kompromitowane. Moduł ten bada wyrafinowane wektory ataków wymierzone w same podstawy systemów AI.

  • Typy ataków „adversarial”: unikanie (evasion), zatruwanie (poisoning) i ekstrakcja modelu.
  • Ataki typu Model Inversion i Membership Inference.
  • Ataki typu „backdoor” w modelach uczenia maszynowego.
  • Mechanizmy obronne i strategie wykrywania.
  • Laboratorium praktyczne.

Moduł 4: Testy penetracyjne wspomagane przez AI Dowiedz się, jak sztuczna inteligencja przyspiesza i zwiększa możliwości testów penetracyjnych. Poznaj narzędzia i metodologie, których używają nowocześni red teamerzy, aby szybciej i skuteczniej identyfikować podatności.

  • Narzędzia AI w procesach testów penetracyjnych.
  • Automatyzacja białego wywiadu (OSINT) za pomocą uczenia maszynowego.
  • Procesy testowe oparte na architekturze RAG (Retrieval-Augmented Generation).
  • Automatyzacja wykrywania i eksploatacji podatności.
  • Laboratorium praktyczne.

Dzień 2: Obrona i wdrażanie bezpiecznych rozwiązań AI

Moduł 5: Modelowanie zagrożeń dla systemów AI Proaktywnie identyfikuj i mityguj zagrożenia, zanim staną się one przyczyną naruszeń. Moduł uczy ustrukturyzowanego podejścia do rozumienia ryzyk unikalnych dla architektur AI.

  • Metodologia STRIDE w zastosowaniu do systemów AI.
  • Specyficzne dla AI biblioteki zagrożeń i frameworki.
  • Ocena i priorytetyzacja ryzyk przy użyciu narzędzi branżowych.
  • Budowanie skutecznych modeli zagrożeń dla chatbotów i aplikacji LLM.
  • Laboratorium praktyczne.

Moduł 6: Bezpieczeństwo łańcucha dostaw AI Ataki na łańcuch dostaw w ekosystemach AI to jedne z najszybciej rosnących zagrożeń. Naucz się zabezpieczać każdy element potoku rozwoju i wdrażania AI.

  • Ataki na łańcuch dostaw w ekosystemie AI.
  • Frameworki bezpieczeństwa SLSA i SCVS.
  • Generowanie SBOM (Software Bill of Materials) i sygnatury modeli.
  • Weryfikacja zależności w projektach uczenia maszynowego.
  • Zabezpieczanie konteneryzowanych aplikacji AI.
  • Laboratorium praktyczne.

Moduł 7: Monitorowanie i detekcja Wykrywaj zagrożenia w czasie rzeczywistym dzięki monitorowaniu bezpieczeństwa opartego na AI. Naucz się integrować inteligencję w całej swojej infrastrukturze.

  • Detekcja i reagowanie na zagrożenia z wykorzystaniem AI.
  • Analityka behawioralna w wykrywaniu anomalii.
  • Integracja SIEM z narzędziami i platformami AI.
  • Monitorowanie zachowania i wydajności modeli w czasie rzeczywistym.
  • Laboratorium praktyczne.

Moduł 8: Zgodność i ład (Compliance & Governance) Poruszaj się w złożonym krajobrazie regulacyjnym dotyczącym sztucznej inteligencji. Upewnij się, że Twoje systemy AI są zgodne z najnowszymi standardami prawnymi i branżowymi.

  • Akt o sztucznej inteligencji (EU AI Act): wymogi i implikacje.
  • Framework NIST AI Risk Management.
  • Struktury ładu dla odpowiedzialnej sztucznej inteligencji.
  • Dokumentowanie i audytowanie kontroli bezpieczeństwa AI.
  • Laboratorium praktyczne: Przeprowadzanie audytów zgodności systemów AI.

Moduł 9: Reagowanie na incydenty w AI Gdy dojdzie do incydentu, liczy się szybkość i precyzja. Ten moduł przygotuje Cię do skutecznego reagowania na specyficzne zdarzenia naruszające bezpieczeństwo AI.

  • Specyficzne dla AI scenariusze reagowania (playbooks).
  • Procedury odzyskiwania po skompromitowaniu modelu.
  • Analiza śledcza (forensics) skompromitowanych systemów AI.
  • Protokoły komunikacji i eskalacji.
  • Scenariusz praktyczny: Symulacja reagowania na incydent w czasie rzeczywistym.

Masz pytania dotyczące tego szkolenia?

Ewelina Rutkowska-Chruściel Business Development Manager
Skontaktuj się ze mną
Interesuje Cię szkolenie?
Skontaktuj się z nami, aby uzyskać więcej informacji

Skontaktuj się z Ekspertem

Twój plik

Załączony plik:
  • file_icon Created with Sketch.

Dopuszczalne pliki: doc, docx, pdf. (maks. 5MB)
Prześlij plik w formacie DOC, DOCX lub PDF
Maksymalny rozmiar przesłanego pliku to 5 MB
Plik jest pusty
Załącznik nie został dodany

W dowolnym momencie możesz wycofać zgodę na przetwarzanie danych osobowych, ale nie wpłynie to na zgodność z prawem wszelkich przypadków przetwarzania danych, które miały miejsce przed wycofaniem zgody. Szczegółowe informacje na temat przetwarzania danych osobowych znajdują się w Polityce Prywatności .

Ewelina Rutkowska-Chruściel

Business Development Manager

Twoja wiadomość została wysłana

Zapoznamy się z treścią Twojej wiadomości i skontaktujemy się z Tobą tak szybko, jak będzie to możliwe

Przepraszamy, coś poszło nie tak i Twoja wiadomość nie została dostarczona

Odśwież stronę i spróbuj ponownie. Skontaktuj się z nami, jeśli problem się powtórzy

Przepraszamy, ale wybrany plik wygląda na uszkodzony i nie możemy go przetworzyć.

Spróbuj przesłać inną kopię lub nową wersję pliku. Skontaktuj się z nami, jeśli problem wystąpi ponownie.

Przetwarzanie…

ITIL®, PRINCE2® są zarejestrowanymi znakami handlowymi należącymi do firmy AXELOS Limited i używanymi za jej zgodą. Wszelkie prawa zastrzeżone. AgilePM® jest zastrzeżonym znakiem towarowym Agile Business Consortium Limited. Wszelkie prawa zastrzeżone. Kursy AgilePM® są oferowane przez Sii, spółkę stowarzyszoną z Eraneos Iberia S.L.U., akredytowaną organizację szkoleniową The APM Group Ltd. Lean IT® Association jest zastrzeżonym znakiem towarowym Lean IT Association LLC. Wszelkie prawa zastrzeżone. SIAM™ jest zastrzeżonym znakiem towarowym EXIN Holding B.V. Wszystkie ceny podane na stronie to ceny netto. Należy doliczyć podatek VAT 23%.

Napisz do nas Znajdź szkolenie

Änderungen im Gange

Wir aktualisieren unsere deutsche Website. Wenn Sie die Sprache wechseln, wird Ihnen die vorherige Version angezeigt.

This content is available only in one language version.
You will be redirected to home page.

Are you sure you want to leave this page?

Einige Inhalte sind nicht in deutscher Sprache verfügbar.
Sie werden auf die deutsche Homepage weitergeleitet.

Möchten Sie fortsetzen?

Einige Inhalte sind nicht in deutscher Sprache verfügbar.
Sie werden zur englischen Version der ausgewählten Seite weitergeleitet.

Möchten Sie fortfahren?