...

Za zasłoną algorytmu

Za zasłoną algorytmu:
Jak prawo i technologia radzą sobie z odpowiedzialnością za AI

Sztuczna inteligencja (AI) coraz śmielej wkracza w nasze życie zawodowe i społeczne, od zaawansowanych chatbotów, takich jak ChatGPT, po systemy upraszczające procesy biznesowe i podejmujące autonomiczne decyzje . Wraz z ogromnym potencjałem pojawiają się jednak znaczące zagrożenia, takie jak algorytmiczne uprzedzenia, naruszenia prywatności czy brak przejrzystości, które mogą podważać zaufanie do technologii i wdrażających ją organizacji . Wzrost liczby sporów związanych z AI wydaje się nieunikniony, co rodzi fundamentalne pytanie: kto ponosi odpowiedzialność, gdy sztuczna inteligencja popełni błąd?  Kluczem do odpowiedzi jest budowanie „zaufania” (ang. trustworthiness), które norma ISO/IEC TR 24028 definiuje jako zdolność systemu do weryfikowalnego spełniania oczekiwań interesariuszy .

ISO 24001, AI, ISO TR 24028

Czarna skrzynka i wyzwania prawne

Jednym z największych wyzwań w kontekście odpowiedzialności za AI jest jej tzw. natura „czarnej skrzynki” . Wiele zaawansowanych modeli, jak sieci neuronowe, działa w sposób trudny do zinterpretowania dla człowieka, co norma ISO określa mianem „nieprzejrzystości” (ang. opaqueness) . Ta cecha znacząco utrudnia ustalenie przyczyny błędu – czy wynika on z wady projektowej, za którą odpowiada deweloper, czy z niewłaściwego użycia przez użytkownika końcowego . W odpowiedzi na te wyzwania Unia Europejska zaktualizowała swoją Dyrektywę o Odpowiedzialności za Produkt (PLD), włączając w jej zakres oprogramowanie i systemy AI . Nowe przepisy mają ułatwić konsumentom dochodzenie roszczeń poprzez wprowadzenie „wzruszalnego domniemania związku przyczynowego”. Oznacza to, że jeśli produkt (w tym system AI) przyczynił się do szkody i prawdopodobnie był wadliwy, ciężar dowodu zostaje przeniesiony na producenta, który musi obalić to domniemanie . 

AI, ISO 42001

Ramy dla zaufania i odpowiedzialności

Presja prawna idzie w parze z potrzebą wdrażania solidnych ram technicznych i organizacyjnych. Norma ISO/IEC TR 24028 stanowi przewodnik po budowaniu godnych zaufania systemów AI, podkreślając, że zaufanie opiera się na wymiernych cechach, takich jak niezawodność, bezpieczeństwo, prywatność, rozliczalność i przejrzystość . Dokument ten zaleca stosowanie kompleksowego zarządzania ryzykiem na każdym etapie cyklu życia systemu AI – od projektowania po wycofanie z użytku . Proces ten obejmuje identyfikację wszystkich interesariuszy (deweloperów, użytkowników, a nawet całego społeczeństwa), ocenę potencjalnych zagrożeń oraz wdrożenie odpowiednich środków kontroli . Niezgodność z obowiązkowymi wymogami bezpieczeństwa, stanowiącymi fundament zaufania, wprost przekłada się na zwiększone ryzyko odpowiedzialności cywilnej w świetle nowej dyrektywy PLD .

Jak firmy mogą minimalizować ryzyko?

Organizacje mogą podjąć proaktywne kroki, aby zarządzać ryzykiem i łagodzić potencjalne skutki awarii systemów AI. Eksperci wskazują na trzy główne obszary działania: zabezpieczenia umowne, zarządzanie odpowiedzialnością wobec klientów oraz wdrażanie wewnętrznych systemów kontroli 1. Norma ISO konkretyzuje, na czym mogą polegać te systemy, wskazując na takie środki zaradcze jak :

  • Przejrzystość i wyjaśnialność – Zapewnienie wglądu w działanie algorytmów, użyte dane i procesy decyzyjne, co jest bezpośrednią odpowiedzią na problem „czarnej skrzynki” .
  • Solidne testy i audyty – Systematyczne weryfikowanie jakości danych, dokładności modeli oraz ich niezawodności w różnych warunkach .
  • Walka z uprzedzeniami (bias) – Aktywne wykrywanie i łagodzenie stronniczości w danych treningowych i modelach, aby zapobiegać dyskryminacji .

Środki bezpieczeństwa – Ochrona systemów przed cyberzagrożeniami, takimi jak zatruwanie danych (ang. data poisoning) czy ataki adwersarialne, które manipulują

AI, ISO 42001

Podsumowanie.
Przyszłość odpowiedzialności za AI

Na razie systemy sztucznej inteligencji traktowane są jako narzędzia, a odpowiedzialność za ich działanie spoczywa na ludziach i organizacjach, które je tworzą i wdrażają . Jednak krajobraz prawny dynamicznie się zmienia, a nowe przepisy, takie jak zaktualizowana dyrektywa PLD (mająca obowiązywać od 2026 roku), będą kształtować przyszłe orzecznictwo. Dla firm droga naprzód wiedzie przez połączenie zgodności z regulacjami oraz dobrowolnego przyjmowania standardów i najlepszych praktyk w zakresie budowania godnej zaufania technologii. Ostatecznym celem jest wspieranie innowacji przy jednoczesnym zapewnieniu, że systemy AI są bezpieczne, niezawodne i rozliczalne, co leży w interesie zarówno biznesu, jak i całego społeczeństwa.

Zapraszamy do współpracy
Zespół Centre of Excellence & QSCert

Bibliografia:

  1. ISO/IEC TR 24028:2020 Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence – https://www.iso.org/standard/77608.html
  2. Financier Worldwide – May 2025, https://www.financierworldwide.com/may-2025-issue : Risks and responsibilities: exploring AI liabilities – by Richard Summerfield

o.

Przewijanie do góry