Za zasłoną algorytmu:
Jak prawo i technologia radzą sobie z odpowiedzialnością za AI
Sztuczna inteligencja (AI) coraz śmielej wkracza w nasze życie zawodowe i społeczne, od zaawansowanych chatbotów, takich jak ChatGPT, po systemy upraszczające procesy biznesowe i podejmujące autonomiczne decyzje . Wraz z ogromnym potencjałem pojawiają się jednak znaczące zagrożenia, takie jak algorytmiczne uprzedzenia, naruszenia prywatności czy brak przejrzystości, które mogą podważać zaufanie do technologii i wdrażających ją organizacji . Wzrost liczby sporów związanych z AI wydaje się nieunikniony, co rodzi fundamentalne pytanie: kto ponosi odpowiedzialność, gdy sztuczna inteligencja popełni błąd? Kluczem do odpowiedzi jest budowanie „zaufania” (ang. trustworthiness), które norma ISO/IEC TR 24028 definiuje jako zdolność systemu do weryfikowalnego spełniania oczekiwań interesariuszy .
Czarna skrzynka i wyzwania prawne
Jednym z największych wyzwań w kontekście odpowiedzialności za AI jest jej tzw. natura „czarnej skrzynki” . Wiele zaawansowanych modeli, jak sieci neuronowe, działa w sposób trudny do zinterpretowania dla człowieka, co norma ISO określa mianem „nieprzejrzystości” (ang. opaqueness) . Ta cecha znacząco utrudnia ustalenie przyczyny błędu – czy wynika on z wady projektowej, za którą odpowiada deweloper, czy z niewłaściwego użycia przez użytkownika końcowego . W odpowiedzi na te wyzwania Unia Europejska zaktualizowała swoją Dyrektywę o Odpowiedzialności za Produkt (PLD), włączając w jej zakres oprogramowanie i systemy AI . Nowe przepisy mają ułatwić konsumentom dochodzenie roszczeń poprzez wprowadzenie „wzruszalnego domniemania związku przyczynowego”. Oznacza to, że jeśli produkt (w tym system AI) przyczynił się do szkody i prawdopodobnie był wadliwy, ciężar dowodu zostaje przeniesiony na producenta, który musi obalić to domniemanie .
Ramy dla zaufania i odpowiedzialności
Presja prawna idzie w parze z potrzebą wdrażania solidnych ram technicznych i organizacyjnych. Norma ISO/IEC TR 24028 stanowi przewodnik po budowaniu godnych zaufania systemów AI, podkreślając, że zaufanie opiera się na wymiernych cechach, takich jak niezawodność, bezpieczeństwo, prywatność, rozliczalność i przejrzystość . Dokument ten zaleca stosowanie kompleksowego zarządzania ryzykiem na każdym etapie cyklu życia systemu AI – od projektowania po wycofanie z użytku . Proces ten obejmuje identyfikację wszystkich interesariuszy (deweloperów, użytkowników, a nawet całego społeczeństwa), ocenę potencjalnych zagrożeń oraz wdrożenie odpowiednich środków kontroli . Niezgodność z obowiązkowymi wymogami bezpieczeństwa, stanowiącymi fundament zaufania, wprost przekłada się na zwiększone ryzyko odpowiedzialności cywilnej w świetle nowej dyrektywy PLD .
Jak firmy mogą minimalizować ryzyko?
Organizacje mogą podjąć proaktywne kroki, aby zarządzać ryzykiem i łagodzić potencjalne skutki awarii systemów AI. Eksperci wskazują na trzy główne obszary działania: zabezpieczenia umowne, zarządzanie odpowiedzialnością wobec klientów oraz wdrażanie wewnętrznych systemów kontroli 1. Norma ISO konkretyzuje, na czym mogą polegać te systemy, wskazując na takie środki zaradcze jak :
- Przejrzystość i wyjaśnialność – Zapewnienie wglądu w działanie algorytmów, użyte dane i procesy decyzyjne, co jest bezpośrednią odpowiedzią na problem „czarnej skrzynki” .
- Solidne testy i audyty – Systematyczne weryfikowanie jakości danych, dokładności modeli oraz ich niezawodności w różnych warunkach .
- Walka z uprzedzeniami (bias) – Aktywne wykrywanie i łagodzenie stronniczości w danych treningowych i modelach, aby zapobiegać dyskryminacji .
Środki bezpieczeństwa – Ochrona systemów przed cyberzagrożeniami, takimi jak zatruwanie danych (ang. data poisoning) czy ataki adwersarialne, które manipulują
Podsumowanie.
Przyszłość odpowiedzialności za AI
Na razie systemy sztucznej inteligencji traktowane są jako narzędzia, a odpowiedzialność za ich działanie spoczywa na ludziach i organizacjach, które je tworzą i wdrażają . Jednak krajobraz prawny dynamicznie się zmienia, a nowe przepisy, takie jak zaktualizowana dyrektywa PLD (mająca obowiązywać od 2026 roku), będą kształtować przyszłe orzecznictwo. Dla firm droga naprzód wiedzie przez połączenie zgodności z regulacjami oraz dobrowolnego przyjmowania standardów i najlepszych praktyk w zakresie budowania godnej zaufania technologii. Ostatecznym celem jest wspieranie innowacji przy jednoczesnym zapewnieniu, że systemy AI są bezpieczne, niezawodne i rozliczalne, co leży w interesie zarówno biznesu, jak i całego społeczeństwa.
Zapraszamy do współpracy
Zespół Centre of Excellence & QSCert
Bibliografia:
- ISO/IEC TR 24028:2020 Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence – https://www.iso.org/standard/77608.html
- Financier Worldwide – May 2025, https://www.financierworldwide.com/may-2025-issue : Risks and responsibilities: exploring AI liabilities – by Richard Summerfield
o.