ue pl

Zarządzanie systemami AI w bankowości – budowanie zaufania i minimalizacja ryzyka

9 - 17 minut czytania

Sztuczna inteligencja otwiera przed bankami nowe możliwości, takie jak automatyzacja procesów, wsparcie analizy ryzyka, personalizacja usług czy skuteczne wykrywanie oszustw, ale niesie też zagrożenia związane z błędnymi decyzjami algorytmów i ryzykiem dla cyberbezpieczeństwa. Wraz z wejściem w życie regulacji takich jak unijna ustawa AI Act, instytucje finansowe muszą zatem skutecznie zarządzać systemami AI, zapewniając ich transparentność i niezawodność, aby budować zaufanie klientów i regulatorów.

W niniejszym artykule omówimy znaczenie AI governance, czyli kompleksowego podejścia do nadzoru nad systemami AI, obejmującego regulacje, etyczne zasady działania oraz mechanizmy kontroli ryzyka. Spróbujemy również odpowiedzieć na pytania, jak zarządzanie systemami AI wpływa na budowanie zaufania oraz jakie ryzyka związane z zastosowaniem AI należy monitorować w sektorze bankowym.

Podstawy zaufania do systemów AI

Powszechność zastosowania oraz szybki rozwój systemów sztucznej inteligencji spotykają się z obawami ze strony osób, wobec których takie narzędzia są używane. Dlatego ważne jest zapewnienie, że dane przetwarzane przez systemy AI są odpowiednio zabezpieczone, a procesy – przejrzyste i zrozumiałe.

Zgodnie z opublikowanymi przez Komisję Europejską Wytycznymi w zakresie etyki dotyczącymi godnej zaufania sztucznej inteligencji, fundamentalnymi elementami budującymi zaufanie do systemów sztucznej inteligencji są cztery zasady etyczne:

  • Poszanowanie autonomii człowieka. Systemy sztucznej inteligencji nie mogą oszukiwać i kontrolować ludzi ani nimi manipulować, a interakcje z takimi systemami muszą zapewnić człowiekowi pełną zdolność samostanowienia i uczestniczenia w procesie demokratycznym, pozostawiając mu rzeczywiste możliwości wyboru. Systemy AI powinny również wzmacniać zdolności poznawcze, społeczne i kulturowe człowieka w toku takich interakcji oraz wspierać ludzi w środowisku pracy.
  • Zapobieganie szkodom. Systemy sztucznej inteligencji nie powinny wywierać niekorzystnego wpływu na ludzi, zapewniając ochronę ich godności oraz integralności psychicznej i fizycznej. W tym punkcie mieści się także wymóg zapewnienia niezawodności systemów pod względem technicznym, jak również wykluczenia podatności na wykorzystanie ich w celach szkodliwych zarówno wobec ludzi, jak i środowiska naturalnego. Ta zasada zwraca uwagę również na potencjalne sytuacje, w których zastosowanie AI może doprowadzać do asymetrii władzy lub informacji lub taką asymetrię pogłębiać, np. w relacji przedsiębiorstw i konsumentów.
  • Sprawiedliwość. Systemy sztucznej inteligencji muszą być opracowywane i wykorzystywane w sposób sprawiedliwy zarówno w wymiarze materialnym, jak i proceduralnym, gdzie należy zapewnić sprawiedliwy podział korzyści i kosztów oraz dążyć do wzmacniania sprawiedliwości społecznej. Stosowanie systemów AI powinno przebiegać w sposób godzący konkurencyjne interesy. Wszelkie procesy decyzyjne obsługiwane przez AI muszą być wytłumaczalne i dawać możliwość ich kwestionowania przez osoby im podlegające, przy czym należy zadbać o możliwość zidentyfikowania podmiotu odpowiedzialnego za te decyzje. W tym punkcie podkreślono również, że korzystanie z systemów sztucznej inteligencji nigdy nie powinno skutkować oszustwem ani ograniczeniem wyboru wobec użytkowników końcowych.
  • Możliwość wyjaśnienia. Systemy sztucznej inteligencji muszą udostępniać jasne i przejrzyste informacje na temat ich celów i funkcjonowania, zaś efekty ich działań muszą być możliwie wyjaśnialne osobom, na które podjęte przez system decyzje mają wpływ.

W tym samym dokumencie wyróżniono siedem kluczowych czynników koniecznych do osiągnięcia godnej zaufania sztucznej inteligencji, które wymagają systematycznej oceny przez cały cykl życia danego systemu AI:

  • Przewodnia i nadzorcza rola człowieka. Zadaniem systemów AI powinno być wspieranie ludzi w podejmowaniu świadomych decyzji bez ograniczania ich wyborów, a autonomia użytkownika musi odgrywać rolę przewodnią w działaniu systemu. Dlatego jeszcze przed wdrożeniem danego systemu należy przeprowadzić analizę jego wpływu na podstawowe prawa człowieka – zarówno pozytywnego, jak i negatywnego, w tym poprzez wykorzystanie procesów podświadomych, jak manipulacja czy warunkowanie, które mogłyby zagrażać autonomii jednostki. Ludzie powinni mieć przy tym dostęp do narzędzi i wiedzy umożliwiających zrozumienie działania danego systemu, jak również mieć możliwość oceny czy zakwestionowania decyzji podejmowanych przez system. Ponadto im mniejsza możliwość kontroli ludzkiej nad systemem, tym bardziej rygorystyczne muszą być testy i procedury zarządzania tym systemem.
  • Techniczna solidność i bezpieczeństwo. Systemy AI powinny charakteryzować się niezawodnością w celu minimalizowania ewentualnych błędów i szkód, zarówno zamierzonych, jak i nieprzewidzianych. Tym samym ich zadaniem jest dbałość o bezpieczeństwo psychiczne i fizyczne korzystających z nich osób. Ponadto systemy AI muszą być odpowiednio zabezpieczone pod kątem zagrożeń technologicznych oraz wyposażone w mechanizmy reagowania na awarie i sytuacje kryzysowe. Działanie systemu powinno również cechować się dokładnością decyzji i odtwarzalnością wyników.
  • Ochrona prywatności i zarządzanie danymi. Kluczowe jest zapewnienie jakości, integralności i zgodności danych z obszarem zastosowania systemów AI. Dane muszą być przy tym zabezpieczone zarówno na etapie ich pozyskiwania, jak i późniejszego przetwarzania. Należy również zapewnić jakość zbiorów danych, które muszą być wolne od uprzedzeń społecznych, błędów i nieścisłości, a także zadbać o wyeliminowanie błędów w zbiorach danych przed rozpoczęciem treningu modeli AI. Dodatkowo wszystkie organizacje przetwarzające dane osobowe powinny wdrożyć protokoły regulujące dostęp do gromadzonych i przetwarzanych danych osobowych.
  • Przejrzystość. Pod tym pojęciem kryje się transparentność danych, systemu i modeli biznesowych. Procesy gromadzenia i przetwarzania danych, stosowane algorytmy i podejmowane przez systemy AI decyzje powinny być dokumentowane w sposób zapewniający ich identyfikowalność, która z kolei wspiera wytłumaczalność procesów technicznych. Co istotne, systemy AI muszą być rozpoznawalne jako takie, a użytkownik ma prawo do informacji o tym, że wchodzi w interakcję z systemem sztucznej inteligencji.
  • Różnorodność, niedyskryminacja i sprawiedliwość. Godna zaufania sztuczna inteligencja musi uwzględniać włączenie społeczne, różnorodność oraz zasady sprawiedliwości na każdym etapie swojego cyklu życia, zapewniając równy dostęp i równe traktowanie wszystkich użytkowników. Systemy muszą w tym celu unikać wykorzystywania niesprawiedliwie stronniczych danych. Powinny być także projektowane z myślą o dostępności i różnorodności, umożliwiając wszystkim użytkownikom, w tym osobom niepełnosprawnym, równy dostęp do technologii poprzez uwzględnienie zasad „projektowania dla wszystkich”.
  • Dobrostan społeczny i środowiskowy. Systemy AI powinny uwzględniać interesy społeczeństwa, środowiska i istot zdolnych do odczuwania, wspierać zrównoważony rozwój oraz wpływać na ogół w sposób przynoszący korzyści obecnym i przyszłym pokoleniom. Choć systemy AI mogą przyczyniać się zarówno do poprawy kondycji społeczeństwa, mogą również oddziaływać negatywnie na zdrowie psychiczne i fizyczne ludzi i w związku z tym należy uważnie monitorować ich wpływ.
  • Odpowiedzialność. Ten wymóg wiąże się z wprowadzeniem mechanizmów kontroli, minimalizowania i zgłaszania negatywnych skutków oraz dochodzenia roszczeń zarówno przed wdrożeniem, jak i po wdrożeniu systemów AI. Powszechnie dostępne muszą być informacje dotyczące modeli biznesowych i własności intelektualnej w zakresie zastosowania systemów AI.

Możliwości i ryzyko związane z wykorzystaniem sztucznej inteligencji

Z wykorzystaniem sztucznej inteligencji w sektorze bankowym wiąże się wiele nowych możliwości. Rozwiązania oparte na AI pozwalają podnieść efektywność wykonywanych zadań i świadczonych usług poprzez obniżenie czasu potrzebnego na ich realizację. Złożone zadania mogą być wykonywane w sposób skuteczny i systematyczny nawet przy zastosowaniu nieustrukturyzowanych danych, co w przypadku realizacji bez wsparcia AI mogłoby wiązać się z czasochłonnymi, narażonymi na ryzyko błędów procedurami. Umiejętne i efektywne wykorzystanie AI w usługach i procesach bankowych sprzyja tym samym optymalizacji kosztów operacyjnych.

Jednocześnie należy mieć jednak świadomość istnienia niebezpieczeństw związanych z zastosowaniem nowych technologii. Poniższą klasyfikację potencjalnych zagrożeń oparto na dokumencie podsumowującym prace grupy roboczej ds. AI Forum Technologii Bankowych z kwietnia 2025 oraz na źródłowej publikacji IBM.

Istniejące dotychczas ryzyka tradycyjne

Pod pojęciem ryzyk tradycyjnych rozumiemy zagrożenia, które występują zarówno przy wykorzystaniu tradycyjnych metod modelowania, jak i generatywnej sztucznej inteligencji. Wśród nich znalazły się:

  • ograniczenia dotyczące wykorzystania danych, gdzie regulacje prawne mogą zabraniać wykorzystania pewnych danych na potrzeby technologii AI, co może ograniczać możliwości szkolenia modelu, prowadząc do generowania niereprezentatywnych rezultatów,
  • włączenie danych osobowych wrażliwych oraz danych osobowych umożliwiających identyfikację w zakres danych wykorzystywanych do szkolenia modelu, co może skutkować niepożądanym ich ujawnieniem,
  • reidentyfikacja oznaczająca sytuację, w której identyfikacja osób może być możliwa nawet po usunięciu danych osobowych wrażliwych oraz umożliwiających identyfikację ze zbioru danych wykorzystywanych do szkolenia modelu,
  • ryzyko celowego zatruwania danych,
  • stronniczość decyzji, gdzie pewna grupa może być faworyzowana w wyniku decyzji modelu AI z powodu wykorzystania stronniczych danych lub w wyniku stronniczego szkolenia modelu,
  • brak przejrzystości systemu, w tym niewystarczająca dokumentacja, która utrudnia zrozumienie wpływu wyników generowanych przez model na funkcjonalność systemu czy aplikacji.

Ryzyka zwiększone przez AI

Ryzyka zwiększone oznaczają zagrożenia zintensyfikowane przez generatywną sztuczną inteligencję, które mogą występować również w przypadku tradycyjnych metod modelowania. Wśród nich znajdziemy:

  • brak przejrzystości na temat danych wykorzystanych do szkolenia modelu, co może skutkować trudnościami w ocenie reprezentatywności tych danych,
  • brak ustandaryzowanych metod weryfikacji pochodzenia danych, który może prowadzić do niepożądanych rezultatów działania modelu z uwagi na ryzyko wykorzystania danych zgromadzonych w sposób nieetyczny lub danych zmanipulowanych czy sfałszowanych,
  • ograniczenia pozyskiwania i wykorzystywania danych wynikające z regulacji, których wynikiem może być niedostateczna dostępność danych potrzebnych do trenowania modelu i generowania reprezentatywnych wyników,
  • tendencyjność danych wykorzystywanych do szkolenia modelu (w postaci danych opartych na uprzedzeniach mających podłoże historyczne lub społeczne), która może prowadzić do generowania rezultatów dyskryminujących osoby lub grupy osób,
  • niewłaściwe gromadzenie i przygotowywanie danych na potrzeby szkolenia modelu, jak wykorzystywanie sprzecznych lub błędnych informacji,
  • ryzyko ataków unikowych polegających na wywołaniu nieprawidłowych wyników działania modelu poprzez zniekształcenie wysyłanych do niego danych wejściowych,
  • zbyt niska wydajność modelu nieadekwatna do zadania, do wykonania którego został zaprojektowany – w rezultacie może wystąpić negatywny wpływ na użytkowników końcowych lub na systemy opierające swoje działanie na wynikach generowanych przez model,
  • niezgodne z jego przeznaczeniem wykorzystanie modelu, które może skutkować jego nieoczekiwanymi i niepożądanymi zachowaniami,
  • nadmierne lub niepełne zaufanie wobec rezultatów generowanych przez model,
  • wyciek danych chronionych,
  • trudności w wyjaśnieniu decyzji dotyczących wyników generowanych przez model,
  • ryzyko rozmycia odpowiedzialności za dany model AI w sytuacji, gdy ustalenie podmiotu odpowiedzialnego jest utrudnione ze względu na brak adekwatnej dokumentacji i procesów zarządzania systemami AI,
  • wpływ AI na miejsca pracy, środowisko i działalność człowieka w zakresie podejmowania niezależnych decyzji, jak również ryzyko wyzysku pracowników trenujących modele AI.

Nowe ryzyka

Pojawiające się obszary nowego ryzyka związane są typowo z technologią generatywnej sztucznej inteligencji. Pośród nich znajdziemy:

  • ataki polegające na tzw. wstrzykiwaniu podpowiedzi (prompt injection), gdzie użytkownik manipuluje strukturą, instrukcjami lub informacjami zawartymi w poleceniu, którego zrealizowanie przez model ma doprowadzić do wygenerowania wyników na korzyść osoby dokonującej ataku,
  • zawarcie danych osobowych i informacji poufnych w poleceniach, które może skutkować zawarciem ich w wynikach generowanych przez model, a w efekcie ich dalszym przechowywaniem i wykorzystywaniem do takich celów, jak ponowne szkolenie modelu, jeżeli te dane nie zostaną skutecznie usunięte z bazy,
  • generowanie treści, której są podobne lub identyczne z istniejącymi pracami chronionymi prawem autorskim lub objętymi umową licencyjną typu open source,
  • celowe wykorzystanie modeli generatywnej sztucznej inteligencji do imitowania osób bez ich zgody poprzez generowanie deepfake’ów w formie nagrań dźwiękowych, nagrań wideo czy obrazów, co może skutkować rozpowszechnianiem dezinformacji na temat tej osoby,
  • nieujawnienie, że dane treści zostały wygenerowane przez AI, o czym osoby wchodzące z nimi w interakcję muszą być bezwzględnie jasno informowane,
  • ryzyko celowego wykorzystania modelu do generowania toksycznych treści (jak treści obraźliwe),
  • ryzyko celowego wykorzystania modelu z zamiarem skrzywdzenia innych osób,
  • rozprzestrzenianie dezinformacji, co może negatywnie wpływać na zdolność ludzi do podejmowania świadomych decyzji,
  • stronniczość wyników skutkująca niesprawiedliwym przedstawianiem osób lub grup, co może wzmacniać istniejące uprzedzenia i zachowania dyskryminacyjne,
  • niejasność regulacji dotyczących praw własności intelektualnej wobec treści generowanych przez AI,
  • homogenizacja kultury i myśli wynikająca z nieproporcjonalnego reprezentowania określonych kultur większościowych w generowanych wynikach, co może mieć negatywny wpływ na różnorodność kulturową,
  • negatywny wpływ na edukację spowodowany łatwością plagiatowania istniejących prac lub pominięcia procesu uczenia się przez uczniów.

Bezpieczeństwo systemów AI opartych na LLM i unikalne dla niego ryzyka

W tym miejscu warto również zacytować najnowszy przegląd możliwych zagrożeń typowych dla systemów AI opartych o duże modele językowe (LLM) przygotowany przez OWASP (Open Worldwide Application Security Project), globalną organizację non-profit, której celem jest poprawa bezpieczeństwa aplikacji internetowych poprzez zapewnianie bezpłatnych, ogólnodostępnych zasobów. W raporcie wyszczególniono:

  1. Prompt injection – ryzyko związane z wprowadzeniem danych wejściowych (prompt), które mogą spowodować niekontrolowaną zmianę działania modelu LLM prowadzącą do efektów niezamierzonych przez twórcę, takich jak obejście zabezpieczeń czy wykonywanie nieautoryzowanych działań.
  2. Sensitive information disclosure – ryzyko ujawnienia przez LLM informacji poufnych lub wrażliwych.
  3. Supply chain – ryzyko wykorzystania podatności zewnętrznych komponentów, bibliotek lub danych na manipulację.
  4. Data and model poisoning – zatrucie danych polegające na celowym wprowadzeniu złośliwych lub stronniczych danych w celu wywarcia wpływu na działanie modelu w toku jego szkolenia.
  5. Improper output handling – nieprawidłowa walidacja i pominięcie procesu oczyszczenia danych wyjściowych LLM przed ich udostępnieniem użytkownikowi lub integracją z innymi systemami.
  6. Excessive agency – zbyt szeroki zakres uprawnień LLM do wykonywania zadań w odpowiedzi na polecenie, co może skutkować nieautoryzowanymi operacjami.
  7. System prompt leakage – ryzyko związane z ujawnieniem poleceń systemowych zawierających dane chronione danego podmiotu lub wrażliwe informacje na temat architektury systemu.
  8. Vector and embedding weakness – ryzyko związane z podatnością na manipulację w mechanizmach wektorowych i osadzeniach stosowanych w RAG (retrieval-augmented generation).
  9. Misinformation – ryzyko generowania przez LLM informacji fałszywych, które sprawiają wrażenie wiarygodnych.
  10. Unbounded consumption – nieefektywne wykorzystanie zasobów obliczeniowych skutkujące zwiększonymi kosztami lub potencjalnymi przerwami w funkcjonowaniu systemu.

AI governance: zarządzanie systemami AI w sektorze bankowym

Pojęcie AI governance odnosi się do zestawu procesów i narzędzi mających na celu zapewnienie odpowiedzialnego i skutecznego nadzoru nad sztuczną inteligencją – w szczególności w kontekście pojawiających się regulacji, takich jak unijna ustawa AI Act. Mechanizmy te wykorzystują kompetencje różnych zespołów w organizacji: działów prawnych, compliance, IT, data science oraz przedstawicieli biznesowych. Współpraca tych specjalistów ma na celu dopasowanie projektowanych i wdrażanych rozwiązań AI do potrzeb organizacji, minimalizację ryzyka oraz maksymalne wykorzystanie potencjału technologii sztucznej inteligencji.

Współpraca interesariuszy biznesowych i technicznych w zakresie AI governance obejmuje:

  • zarządzanie całym cyklem życia systemów AI polegające na dokumentowaniu, monitorowaniu i zarządzaniu działaniem tych rozwiązań,
  • zarządzanie ryzykiem polegające na identyfikowaniu zagrożeń i ich przeciwdziałaniu, jak również zarządzaniu wszystkimi rodzajami ryzyka związanego z wykorzystaniem systemów AI,
  • zapewnienie zgodności z regulacjami polegające na weryfikowaniu zgodności procesów z przepisami obowiązującego prawa, zasadami etyki i rekomendowanymi dobrymi praktykami, jak również ustalonymi przez organizację procesami wewnętrznymi.

Zakres obowiązków zespołu ds. AI governance w bankowości

Zapewnienie skutecznych procesów zarządzania systemami AI w sektorze bankowym wymaga współpracy interdyscyplinarnej z pogranicza prawa, technologii, biznesu i zarządzania ryzykiem w celu ustanowienia i egzekwowania ogólnofirmowych polityk dotyczących procesów zarządzania danymi, ryzykiem, cyklem życia modeli oraz etyką wykorzystania technologii sztucznej inteligencji. Dlatego organizacje powinny powołać odpowiednie zespoły ds. AI governance o szerokim zakresie kompetencji. Zgodnie z rekomendacją grupy roboczej ds. AI Forum Technologii Bankowych z kwietnia 2025, w skład przykładowego zespołu powinni wejść:

  • AI Officer: osoba koordynująca prace dotyczące wdrażania technologii AI w organizacji, która jest odpowiedzialna za zapewnienie zgodności z odpowiednimi regulacjami, wdrażanie zasad AI governance oraz promocję etycznego korzystania ze sztucznej inteligencji.
  • AIOps Engineer: osoba zapewniająca wsparcie techniczne w zakresie zgodności operacyjnej, odpowiedzialna za utrzymanie systemu AI, monitorowanie wydajności modeli, wykrywanie nieprawidłowości oraz reagowanie na związane z nimi problemy.
  • Data Scientist/AI Engineer: osoba techniczna, której odpowiedzialność obejmuje zbudowanie systemu AI, jak również zapewnienie jego skuteczności i wyjaśnialności oraz kontrolowanie jego jakości. To funkcja odpowiedzialna również za przygotowywanie danych, prowadzenie testów oraz zapewnienie gotowości projektu AI na środowiska projektowe.
  • Data Steward: osoba odpowiedzialna za dane wykorzystywane przez system AI w zakresie ich jakości, spójności, poprawności i zgodności z regulacjami prawnymi oraz wewnętrzną polityką organizacji.
  • Architect: osoba odpowiedzialna za projektowanie i nadzorowanie architektury systemu AI. Jej zadaniem jest zapewnienie skalowalności i bezpieczeństwa systemu oraz wspieranie jego integracji z istniejącą infrastrukturą IT.
  • Product Owner: osoba wyznaczająca zakres funkcjonalny systemu AI poprzez określenie wymagań biznesowych, począwszy od zakresu wykorzystywanych danych po oczekiwane wyniki działania systemu.
  • Risk and Compliance Manager: osoba odpowiedzialna za zapewnienie zgodności z obowiązującymi przepisami prawnymi, zasadami etyki i wewnętrzną polityką organizacji.
  • Security Expert: osoba odpowiedzialna za identyfikację zagrożeń w zakresie bezpieczeństwa systemu AI oraz ich minimalizowanie. Jej rola obejmuje działania z zakresu ochrony informacji oraz cyberbezpieczeństwa.

Zabezpieczenia systemów AI

Bariery ochronne AI (AI guardrails) to zestaw technicznych, operacyjnych i etycznych mechanizmów zapobiegawczych, które mają na celu zapewnienie, że systemy sztucznej inteligencji działają zgodnie z wartościami, przepisami i celami organizacji, minimalizując ryzyko generowania szkodliwych lub nieprawdziwych treści. Ich zadaniem jest nie tylko eliminacja błędów, ale także ochrona prywatności użytkowników, zapobieganie dyskryminacji oraz zagwarantowanie zgodności z obowiązującymi regulacjami prawnymi. Te dynamiczne systemy monitorują, analizują i korygują działanie AI poprzez klasyfikację treści, wykrywanie danych osobowych, sprawdzanie faktów i analizowanie semantyki, w razie potrzeby umożliwiając interwencję człowieka. Dzięki temu sztuczna inteligencja może rozwijać się w kontrolowany sposób, bez ryzyka niepożądanych skutków.

W oparciu o klasyfikację proponowaną przez McKinsey, możemy wyróżnić następujące typy barier:

  • bariery związane z zachowaniem stosowności to mechanizmy zapewniające, że systemy sztucznej inteligencji nie generują szkodliwych, stronniczych ani dyskryminujących treści, chroniąc prawo do prywatności, zapobiegając nadużyciom oraz wspierając zasady sprawiedliwości i ludzkiej godności,
  • bariery zgodności regulacyjnej to mechanizmy zapewniające, że systemy AI działają zgodnie z obowiązującymi przepisami prawa i regulacjami branżowymi (np. RODO), chroniąc prywatność danych i spełniając normy bezpieczeństwa,
  • bariery zapobiegające halucynacjom mają na celu przeciwdziałanie generowaniu przez AI treści zawierających błędne lub wprowadzające w błąd informacje, zapewniając ich zgodność z faktami,
  • bariery zgodności wizerunkowej gwarantują, że treści generowane przez AI są zgodne z oczekiwaniami użytkownika i nie odbiegają od zamierzonego celu, pomagając np. w utrzymaniu spójności marki,
  • bariery walidacyjne to zabezpieczenia techniczne zapobiegające niezamierzonym lub szkodliwym działaniom AI, obejmujące monitorowanie procesu w celu wykrycia anomalii i błędów oraz ewentualne przekazywanie wyników do oceny przez człowieka.

Bariery ochronne działają etapowo – najpierw następuje skanowanie wygenerowanych treści pod kątem błędów i niezgodności. W przypadku wystąpienia problemu, system podejmuje następnie próbę korekty treści. Po tym następuje kolejne sprawdzenie, a cały proces powtarza się do momentu, aż wszystkie wykryte nieprawidłowości zostaną skorygowane. System podejmuje również decyzję: czy wygenerowaną treść można zatwierdzić, czy powinno się ją odrzucić, czy należy ją przekazać do weryfikacji człowiekowi. Dlatego oprócz barier ochronnych AI organizacja powinna wdrożyć również inne systemy i procedury kontroli rozwiązań opartych o sztuczną inteligencję i nie polegać wyłącznie na systemie zautomatyzowanym.

Przykładem zastosowania barier ochronnych AI w sektorze bankowym mogą być boty obsługujące klientów wyposażone w odpowiednie zabezpieczenia regulacyjne, które mają zapewnić zgodność ich działań z przepisami obowiązującego prawa oraz zapobiegać nieetycznym praktykom sprzedażowym.

Przykłady dobrych praktyk w zakresie AI governance w bankowości

Skuteczne zarządzanie AI w sektorze bankowym wymaga jasno określonych zasad, które zapewniają zgodność z regulacjami, transparentność modeli oraz kontrolę ryzyka. Poniżej przedstawiamy kluczowe dobre praktyki, które pomagają instytucjom finansowym wdrażać sztuczną inteligencję w sposób bezpieczny, etyczny i efektywny.

  1. Stworzenie ram ładu AI. W tym kroku mieści się powołanie wielodyscyplinarnego zespołu nadzorującego rozwój AI w organizacji (w zakresie compliance, ryzyka, prawa, etyki, data science), a następnie określenie zasad dotyczących pozyskiwania danych i zgód, rozwoju modeli, testowania bezstronności i tworzenia dokumentacji.
  2. Prowadzenie inwentaryzacji modeli i klasyfikacji ryzyka. Należy na bieżąco dokumentować takie szczegóły, jak funkcja stosowanego modelu, jego właściciel, wykorzystywane dane i przypisywane mu poziomy ryzyka. Do przypisanej kategorii należy również adekwatnie dostosowywać środki kontroli.
  3. Zapewnienie wyjaśnialności modeli. W miarę możliwości warto korzystać z modeli łatwych do interpretacji. Ważne jest także zapewnienie zrozumiałości wyników również dla interesariuszy nietechnicznych.
  4. Bieżące monitorowanie modeli. Należy obserwować spadki wydajności, zmiany danych wejściowych i narastające uprzedzenia, a w toku działań naprawczych wdrażać alerty, dashboardy i cykliczne procesy trenowania oraz audytów.
  5. Traktowanie modeli jak oprogramowania. Wszelkie aktualizacje i ponowne szkolenia modeli powinny być dokumentowane, a zmiany testowane w środowisku stagingowym przed wdrożeniem na produkcję.
  6. Ograniczenie danych i środowisk operacyjnych. W celu ograniczenia niepożądanych efektów należy kontrolować jakość danych treningowych i środowisk działania modeli.
  7. Wdrożenie nadzoru etycznego. Jeszcze przed wdrożeniem należy przeprowadzić analizę wpływu społecznego i etycznego AI, stosując wewnętrzne benchmarki sprawiedliwości i trafności modeli.
  8. Edukowanie zespołów. Należy zapewnić dostępność szkoleń z obowiązujących regulacji dla zespołów technicznych oraz z podstaw AI dla zespołów compliance i zespołów prawnych. Procedury zarządzania AI należy aktualizować co najmniej raz do roku.

Budowanie zaufania poprzez odpowiedzialne zarządzanie AI w bankach

Zarządzanie systemami AI w bankowości opiera się nie tylko na poprawnym wdrażaniu nowych technologii, ale przede wszystkim na zapewnieniu zgodności z regulacjami, transparentności i bezpieczeństwa. Kluczowe staje się budowanie zaufania poprzez odpowiedzialne wdrażanie i nadzorowanie systemów AI w celu maksymalizowania korzyści przy jednoczesnej minimalizacji potencjalnych zagrożeń. Dlatego wdrażanie postanowień AI Act wymaga interdyscyplinarnego podejścia, które uwzględniać będzie dynamiczne zmiany prawne oraz konieczność stałego monitorowania ryzyk i ich skutecznej mitygacji.


Chcesz się dowiedzieć więcej?

Skontaktuj się z nami

Fundusze_Europejskie.png

K9Office
Consdata S.A.
ul. Krysiewicza 9/14
61-825 Poznań
Polska

Tel.:+48 61 41 51 000

NIP: 7822261960
Regon: 634422180

Pozostań w kontakcie

Copyrights © 2025 CONSDATA. Wykonanie: solmedia.pl

To może Cię zainteresować

Sektor bankowy w erze sztucznej inteligencji: czym jest AI Act i dlaczego jest kluczowy dla branży finansowej?

Sztuczna inteligencja (AI) odgrywa coraz bardziej istotną rolę w życiu ludzi i funkcjonowaniu organizacji, wpływając zarówno na codzienne czynności, jak i operacje biznesowe. Wykorzystanie systemów AI może przynosić korzyści –... czytaj więcej

10-06-2025 | Zespół Consdata

Ultranowoczesne banki w Polsce i ich wpływ na światowy rynek bankowości

Trendy

Jeszcze 30 lat temu polski sektor bankowy był zacofany. Dziś jest wg. Deloitte jednym z najbardziej dojrzałych cyfrowo. A wszystko dzięki komunizmowi. czytaj więcej

6-08-2019 | Zespół Consdata

Generator Konta Biznes w Credit Agricole Bank Polska

Otwarcie konta firmowego to jeden z podstawowych kroków dla przedsiębiorców rozpoczynających działalność i okazja dla banku, aby wywrzeć pozytywne pierwsze wrażenie, które będzie fundamentem dalszej relacji z klientem biznesowym. Współczesna bankowość... czytaj więcej

21-01-2025 | Zespół Consdata

UWAGA! Ten serwis używa cookies i podobnych technologii. Brak zmiany ustawienia przeglądarki oznacza zgodę na to.

Zrozumiałem