Sii Polska

SII UKRAINE

SII SWEDEN

  • Szkolenia
  • Kariera
Dołącz do nas Kontakt
Wstecz

Sii Polska

SII UKRAINE

SII SWEDEN

Wstecz

27.01.2026

Shadow AI w bankowości – nowe ryzyko operacyjne czy strategiczna nieoznaczoność?

27.01.2026

Shadow AI w bankowości – nowe ryzyko operacyjne czy strategiczna nieoznaczoność?

– Czy Ty musisz udawać wariatkę?
– Mogę udawać normalną, ale mi się nie chce.

Życie rodzinne

Gdy wracam myślami do czasów maturalnych, przypominam sobie, z jakim potępieniem podchodzono wtedy do poradników zawierających streszczenia lektur. Niektórzy uczniowie (sam nie byłem święty) ratowali się taką formą, próbując zakamuflować „niewiedzę”, bo materiału było zwyczajnie za dużo, a odgórnie narzuconego czasu – za mało. Patrząc dziś na zapaść czytelnictwa, myślę sobie: dobry Boże, daj nam dzisiaj choć takich czytelników.

Podobne podejście dotyczyło komiksów. Mówiono, że czytają je ludzie bez wyobraźni, potrzebujący gotowych obrazów, aby ujrzeć narysowany świat, zamiast zobaczyć go w głowie, jak robią to czytelnicy książek. Ostatnio jednak – ku pokrzepieniu mojego serca – podczas spotkania autorskiego Krzysztof Zanussi stwierdził, że kino jest sztuką słowa, a nie obrazu. I że nie należy go spowinowacać z malarstwem. Jeśli tak, to komiks również może być sztuką słowa – a jeden z moich dziecięcych demonów wreszcie znikł.

Możecie się zastanawiać, czemu o tym piszę. A jednak, im głębiej wchodzę w temat Shadow AI w sektorze bankowym, tym bardziej widzę, że to wszystko się ze sobą łączy. Bo czy tego chcemy, czy nie, sztuczna inteligencja staje się w bankowości coraz powszechniejsza. Modele scoringowe, wykrywanie oszustw, analityka danych, automatyzacja obsługi klienta – to już codzienność.

Jednak obok oficjalnych systemów rośnie inne zjawisko, o którym nie mówi się może rzadko, ale zdecydowanie niechętnie: Shadow AI.

Czym jest Shadow AI w bankowości?

Shadow AI w bankowości to zjawisko, w którym pracownicy korzystają z narzędzi sztucznej inteligencji poza oficjalnymi procedurami i kontrolą instytucji. Ułatwiają sobie pracę – tak jak my kiedyś streszczeniami. W sumie żadne novum ani sensacja – mało kto dzisiaj nie używa AI. Tyle tylko, że stawka jest dużo wyższa – czytając streszczenia wyrządzałem „krzywdę” jedynie sobie, a obawiam się, że w tym drugim przypadku może być zgoła inaczej.

Mówi się, że cel uświęca środki. Problem tylko, że ów cel może być osiągnięty dużym kosztem. Bank często formalnie nie nadzoruje tych systemów, a one same wpływają na procesy decyzyjne, analitykę czy operacje bankowe.

Przykładów można wymieniać wiele, począwszy od ChatGPT, Claude czy innych LLM-ów do automatyzacji zadań, generowania raportów, propozycji dla klientów itp. Budowa własnych makr, skryptów czy samych modeli AI w Excelu, Pythonie oraz na platformach cloudowych, które przetwarzają dane wrażliwe. Nieoficjalne przypuszcza się, że istnieją rekomendacje, których nikt nie audytuje, nie zatwierdza i które nie muszą być zgodne z politykami banku.

Dlaczego to problem?

Myślę, że jest wielu powodów, z którymi nie tyle spotkałem się osobiście, ile słyszałem na korytarzach instytucji finansowych. Przedstawię je w kilku punktach:

  • Ryzyko compliance: działania poza kontrolą mogą łamać przepisy RODO, DORA, AML, AI Act czy wewnętrzne regulacje banku.
  • Ryzyko bezpieczeństwa: dane wrażliwe mogą „uciekać” do nieautoryzowanych systemów chmurowych lub modeli AI. Myślę, że to jest coś, co najbardziej spędza sen z powiek działom bezpieczeństwa w banku.
  • Ryzyko operacyjne: decyzje oparte na nieaudytowanych algorytmach mogą prowadzić do błędnych rekomendacji czy strat finansowych. Odsyłam Was do mojego artykułu (Google Cloud AI w walce o fotel chmurowego lidera bankowości) i słynnej pętli Hofstadtera-Möbiusa.
  • Brak nadzoru nad modelem: brak możliwości weryfikacji działania AI, jego jakości i źródeł danych, z których korzysta.

I tu wracamy do początku mojego felietonu, czyli do ułatwień. Technologia daje narzędzia. Człowiek korzysta. Ale na styku innowacji, problemów regulacyjnych i braku nadzoru powstaje przestrzeń, w której Shadow AI rośnie jak na drożdżach.

Można by tutaj postawić kropkę i zamknąć artykuł, ale w tytule poruszam bardziej poważny aspekt dotyczący celowej niejednoznaczności.

Celowa niejednoznaczność

Celowa niejednoznaczność (ang. intentional ambiquity) to zamierzone użycie nieprecyzyjnego, wieloznacznego lub otwartego sformułowania, które nie jest błędem ani niedopatrzeniem, ponieważ autor wie, że zapis jest niejasny i – co gorsza – w pełni świadomie akceptuje i projektuje tę niejasność.

Jaki jest tego cel? Robi się to, aby zachować elastyczność interpretacyjną lub zminimalizować ryzyko. Nie chodzi o chaos czy brak kompetencji, lecz w pełni zamierzoną i kontrolowaną nieprecyzyjność. Pewne zapisy czy klauzule mogłyby zostać sformułowana z zamierzoną niejednoznacznością, aby umożliwić elastyczne stosowanie w przyszłości.

Wyobraźmy sobie więc, że organizacja świadomie toleruje lub wykorzystuje brak przejrzystości w działaniu systemów AI. A czemu miałaby to robić? Choćby po to, aby nie ponosić odpowiedzialności, rozmyć decyzje i utrudnić audyt. A może nawet przenieść winę na technologię? W sektorze finansowym Shadow AI szczególnie sprzyja takiemu zjawisku. Problem też w tym, że celowa niejednoznaczność często tworzy środowisko, w którym Shadow AI może się pojawić i utrwalić.

Dlaczego to wszystko ma znaczenie?

W praktyce oznacza to, że celowa niejednoznaczność nie jest neutralna – tworzy warunki sprzyjające rozwojowi Shadow AI i potencjalnie zwiększa ryzyko operacyjne oraz regulacyjne w organizacji.

Ryzyka i niebezpieczeństwa, które opisałem powyżej, dotykają głównie obszar samego security i stają się ogromnym zagrożeniem szczególnie w instytucjach finansowych. A dlaczego akurat tam? Myślę, że nie trzeba tego literalnie przedstawiać.

Banki, które wdrożą jasne procedury, edukację pracowników oraz monitoring użycia AI, będą mogły korzystać z nowych technologii w sposób bezpieczny i zgodny z regulacjami.

Te, które tego nie zrobią, będą mieć w organizacji „szarą strefę AI”, wspieraną dodatkowo przez celową niejednoznaczność, w której odpowiedzialność za decyzje finansowe zostaje rozmyta pomiędzy człowiekiem, technologią i „nieoficjalnym” systemem sztucznej inteligencji.

Istnieją jednak firmy, które potrafią wspierać, reagować i przeciwdziałać powyższym zagrożeniom – znam takie, o trzyliterowych nazwach zaczynających się od spółgłoski, które mają na to remedium.

oferty biznesowe

Rola felietonisty

Na koniec chciałbym doprecyzować jedną rzecz, aby mój tekst został właściwie zrozumiany – nie zamierzałem niczego insynuować. Wspomniałem jakiś czas temu przy okazji jednego z artykułów, że trochę „bawię się” w felietonistę, który na początku swojej drogi zna właściwie tylko dwa słowa. Dwa słowa, które stają się motorem napędowym: „nie wiem”.

Nie próbuję uprawiać publicystyki w pełnym tego słowa znaczeniu, bo moja wewnętrzna pokora bardzo prędko mnie studzi. Jako felietonista raczej „podkradam” zasłyszane informacje i przelewam na papier, próbując opisać je przystępnym językiem. Staram się upowszechniać to, co zasłyszałem lub zauważyłem.  

To, o czym piszę, nie jest zjawiskiem zrodzonym w mojej głowie. To wynik rozmów z wieloma osobami i próba sklejeniem faktów w jedną całość. Taka jest właśnie te praca, którą uprawiam od niepamiętnych czasów. Nie zawsze dotyczyła sektora finansowego, ale bez względu na tematykę zasada poszukiwania prawdy jest zawsze taka sama. Rodzące się tematy, wyzwania, problemy, fakty, które opisujemy, powtarzają się w ten sam sposób i nic nie możemy na to poradzić. Nie możemy nimi sterować, nie możemy ich zatrzymać czy zwolnić. My tylko reagujemy i, w pewnym sensie, ostrzegamy przed zaobserwowanym zdarzeniem.

Czasem czuję, że mam coraz mniej narzędzi, by nie tyle wszystko zrozumieć, ile sprawdzić, a potem sprawnie opisać. Stawiam się więc raczej w roli osoby, która nie musi wygrać jakiegoś wyścigu, tylko spróbować unieść ten czy inny problem. Nie ma w tym żadnego patosu z mojej strony ani żadnej martyrologii, jest jedynie (tak sądzę) dojrzałość egzystencjalna wobec otaczającej mnie rzeczywistości. Co nam pozostaje? Pozostaje przyłączyć się do tego świata i odpowiednio reagować. No i czasem być tą tytułową „wariatką”, która nie chce udawać, że wszystko jest w porządku.

5/5
Ocena
5/5
Avatar

O autorze

Artur Walendzik

Ponad 15 lat doświadczenia zawodowego w wielu różnych dziedzinach technologii dało mu pełny przegląd technologicznej części projektów, a także perspektywy biznesowej. Zdobył również wiedzę potrzebną do zostania architektem klasy enterprise. Dzięki zdolności efektywnego uczenia się i umiejętnościom miękkim stale poszerza swoje horyzonty w różnych obszarach technologii. Jako architekt, kierownik obu zespołów przedsprzedażowych (Converged Communication and Customer Experiences), a także Business Line Manager odpowiedzialny za CX. Nie boi się wymagającej roli, ani wielu ról wymienionych powyżej oraz ciężkiej pracy. Zainteresowania zawodowe: Customer Experience, Biometria, Sztuczna inteligencja, Inteligencja kognitywna, Robotic Process Automation, Transformacja Cyfrowa. Zainteresowania prywatne: literatura i powieści dygresyjne, bebop i rock progresywny, kolekcjonowanie płyt winylowych, historyczne oraz aktualne wydarzenia polityczne i społeczne, podróże.

Wszystkie artykuły autora

Zostaw komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Może Cię również zainteresować

Dołącz do nas

Sprawdź oferty pracy

Pokaż wyniki
Dołącz do nas Kontakt

This content is available only in one language version.
You will be redirected to home page.

Are you sure you want to leave this page?