Dodatkowe kontrolki ISO/IEC 27001 dla generatywnej AI i nowych technologii
Coraz więcej organizacji pracuje w modelu „AI‑first”, korzysta z kont Pro w narzędziach takich jak ChatGPT, Claude, Gemini czy Perplexity, wdraża IoT, blockchain, edge computing i kontenery. Tymczasem Annex A ISO/IEC 27001 nie zawiera „kontrolki na ChatGPT” ani „kontrolki na blockchain”. W tym artykule pokazuję, jak – zgodnie z duchem normy – projektować dodatkowe kontrolki bezpieczeństwa dla nowych technologii, tak aby SZBI był elastyczny, nowoczesny i dobrze wyglądał na audycie, bez przebudowy całego systemu od zera.
Na tym, polega dojrzałość Twojego SZBI
Dlaczego w ISO/IEC 27001 potrzebujemy dodatkowych kontrolek?
ISO/IEC 27001 jest normą intencjonalnie technicznie neutralną – ma przetrwać kolejne fale technologii, od klasycznych serwerów po generatywną AI i 5G. Kluczową rolę odgrywa tu klauzula 6.1, która nakazuje najpierw zrozumieć kontekst, potrzeby interesariuszy, a potem zidentyfikować ryzyka i zaplanować działania, w tym kontrolki bezpieczeństwa.
W punkcie 6.1.3 norma wymaga, aby organizacja: wybrała opcje postępowania z ryzykiem, określiła wszystkie niezbędne kontrolki, porównała je z Annex A i udokumentowała to w Deklaracji Stosowania (SoA). Co istotne, w Nocie 3 wprost stwierdzono, że lista kontrolek w Annex A nie jest wyczerpująca – organizacja może i powinna dodawać własne środki, jeśli wymaga tego ryzyko związane z jej technologią, procesami i modelem biznesowym.
Przy generatywnej AI, IoT, blockchain czy DevSecOps często nie chodzi o to, że Annex A jest „zły”, ale o to, że jest zbyt ogólny. Dodatkowe kontrolki stają się wtedy pomostem między ogólną strukturą normy a konkretną technologią, z którą pracuje organizacja.
Generatywna AI (ChatGPT, Claude, Gemini, Perplexity) – od ryzyka do kontrolek
Jakie ryzyka niesie generatywna AI w organizacji?
Z perspektywy ISO/IEC 27001 generatywna AI (LLM, GenAI) wprowadza szereg specyficznych zagrożeń: wycieki danych w promptach, możliwość rekonstrukcji fragmentów poufnych informacji, halucynacje i bias w odpowiedziach, brak pełnej przejrzystości co do lokalizacji przetwarzania czy trudności w audytowalności działań użytkowników.
Jeżeli organizacja korzysta z subskrypcji Pro (ChatGPT, Claude, Gemini, Perplexity), to z punktu widzenia SZBI są to normalne zasoby objęte zakresem systemu, tak jak inne aplikacje w chmurze. Różnica polega na tym, że model „rozumie” i „tworzy” treść – więc ryzyko nadużyć i błędnych decyzji na podstawie odpowiedzi AI jest dużo większe niż w klasycznym SaaS. To uzasadnia doprojektowanie dodatkowych kontrolek.
Propozycja: osobna gałąź A.9 – Emerging Technology Controls (Generative AI)
Dobrym podejściem jest stworzenie w strukturze organizacyjnej listy kontrolek osobnej sekcji, np. A.9 Emerging Technology Controls, gdzie pierwszym podzbiorem są kontrolki dla generatywnej AI. Przykładowo:
A.9.1 – Polityka korzystania z generatywnej sztucznej inteligencji
Organizacja definiuje, zatwierdza i komunikuje politykę korzystania z generatywnej AI (w tym ChatGPT, Claude, Gemini, Perplexity), określając dopuszczalne i niedopuszczalne zastosowania, wymagania weryfikacji wyników AI oraz odpowiedzialności użytkowników i właścicieli procesów. Polityka jest spójna z innymi politykami SZBI i przeglądana co najmniej raz do roku lub po istotnej zmianie technologii.
A.9.2 – Ograniczanie danych wejściowych do systemów generatywnej AI
Organizacja określa, jakie informacje mogą być wprowadzane do narzędzi GenAI, powiązując to z klasyfikacją informacji. W szczególności zabrania się wprowadzania niezaszyfrowanych danych osobowych, danych szczególnych, informacji objętych tajemnicą przedsiębiorstwa i NDA, chyba że spełnione są dodatkowe warunki bezpieczeństwa. W razie potrzeby stosuje się pseudonimizację lub anonimizację danych w promptach.
A.9.3 – Zarządzanie dostępem do usług generatywnej AI
Organizacja wdraża zasady nadawania, przeglądu i wycofywania dostępu do kont Pro w narzędziach AI, definiując role (użytkownik, zaawansowany użytkownik, administrator), wykorzystując integrację z systemem tożsamości (SSO/SCIM) oraz wprowadzając regularny przegląd uprawnień. Proces ten jest zintegrowany z ogólną polityką zarządzania tożsamością i dostępem.
A.9.4 – Logowanie i monitoring użycia generatywnej AI
Organizacja zapewnia rejestrowanie aktywności użytkowników w narzędziach AI (kto, kiedy, z jakiego konta, w jakim celu), przechowywanie logów przez zdefiniowany okres oraz ich integrację z systemami monitoringu bezpieczeństwa. Nietypowe lub niezgodne z polityką użycie (np. próby wprowadzania danych wrażliwych) jest analizowane, a w razie potrzeby traktowane jako incydent bezpieczeństwa.
A.9.5 – Bezpieczeństwo w relacjach z dostawcami generatywnej AI
Organizacja definiuje wymagania wobec dostawców GenAI, obejmujące lokalizację przetwarzania danych, wykorzystanie danych klienta do trenowania modeli, certyfikacje bezpieczeństwa (np. ISO/IEC 27001), mechanizmy zgłaszania incydentów oraz retencję danych. Te wymagania są zapisywane w umowach lub regulaminach i okresowo weryfikowane.
A.9.6 – Weryfikacja wyników generatywnej AI przed użyciem operacyjnym
Organizacja określa, w jakich procesach wyniki generatywnej AI muszą być obligatoryjnie weryfikowane przed użyciem, szczególnie gdy dotyczą decyzji o istotnych skutkach (prawnych, finansowych, HR, bezpieczeństwa). W tych obszarach wprowadza się zasadę human‑in‑the‑loop, a odpowiedzialność za decyzję pozostaje po stronie człowieka, co jest odpowiednio dokumentowane.
Inne technologie, które „domagają się” dodatkowych kontrolek
Generatywna AI to dopiero początek. W wielu organizacjach równie dużym wyzwaniem dla SZBI są inne obszary: blockchain, IoT/OT, edge computing, 5G oraz DevSecOps z kontenerami.
Blockchain i Distributed Ledger Technology (DLT)
Blockchain (publiczny, prywatny, konsorcyjny) wymaga szczególnego podejścia do kluczy kryptograficznych, smart kontraktów i łańcucha dostaw. Przykładowe dodatkowe kontrolki:
proces zarządzania kluczami kryptograficznymi (generowanie, przechowywanie, rotacja, odzyskiwanie),
wymagania dotyczące przeglądu bezpieczeństwa smart kontraktów (code review, testy bezpieczeństwa przed wdrożeniem),
zasady dostępu do danych w łańcuchu (szczególnie w rozwiązaniach prywatnych),
kryteria wyboru i oceny dostawców platform blockchain (operatorzy węzłów, usługi „Blockchain as a Service”).
Można je zgrupować np. w podsekcji A.9.B – Blockchain and DLT Controls.
IoT i OT – systemy „poza klasycznym IT”
Środowiska IoT (czujniki, urządzenia, inteligentne budynki) oraz OT (linie produkcyjne, SCADA) bywają słabo pokryte przez ogólne zapisy Annex A, szczególnie w obszarze cyklu życia urządzeń i segmentacji sieci. Dodatkowe kontrolki mogą obejmować:
zarządzanie cyklem życia urządzeń (rejestr, konfiguracja, aktualizacje, wycofanie),
wymogi segmentacji sieci (wydzielone VLAN/zone dla IoT/OT, minimalizacja ruchu między strefami),
zasady hardeningu urządzeń (wyłączanie zbędnych usług, protokołów, portów),
centralne gromadzenie logów i zdarzeń z urządzeń IoT/OT i ich korelację z logami IT,
wymagania bezpieczeństwa i wsparcia aktualizacji w umowach z dostawcami.
Taką grupę można oznaczyć jako A.9.I – IoT/OT Security Controls.
Edge computing i rozproszone przetwarzanie
Edge computing, lokalne mikrowęzły i rozproszone przetwarzanie przenoszą dane i logikę bliżej użytkownika, co oznacza nowe ryzyka fizyczne i logiczne. Dodatkowe kontrolki mogą obejmować:
minimalne wymagania fizycznego zabezpieczenia lokalizacji edge (szafy, pomieszczenia, dostęp),
szyfrowanie danych at‑rest i in‑transit dopasowane do ograniczeń urządzeń,
automatyczne egzekwowanie polityk bezpieczeństwa i konfiguracji na wszystkich węzłach,
agregację logów z wielu lokalizacji i centralną analizę w SIEM/SOC,
zastosowanie zasad Zero Trust i mikrosegmentacji w architekturze rozproszonej.
To może trafić do podsekcji A.9.E – Edge Computing Security.
5G i sieci prywatne
Nowe architektury sieciowe (5G, sieci prywatne, network slicing) wymagają kontrolek, które rozszerzą ogólne środki z Annex A dotyczące sieci. Organizacje często definiują:
kontrolki dla bezpieczeństwa network slicing (izolacja między wirtualnymi sieciami),
zasady konfiguracji i aktualizacji elementów sieci 5G,
wymagania wobec operatora/dostawcy sieci (logowanie, incydenty, retencja),
mechanizmy uwierzytelniania i autoryzacji urządzeń w sieci prywatnej.
Można to zebrać np. jako A.10.1 – 5G and Private Network Security.
DevSecOps, kontenery i orkiestracja
DevSecOps oraz konteneryzacja (Docker, Kubernetes) zmieniają sposób tworzenia i wdrażania systemów – i wymagają bardziej szczegółowych kontrolek niż ogólne wymagania dot. bezpieczeństwa w cyklu życia systemu. Przykładowo:
skanowanie obrazów kontenerów pod kątem podatności w pipeline CI/CD,
standardy hardeningu klastrów Kubernetes i systemowy przegląd konfiguracji,
zaufane rejestry obrazów (dozwolone źródła, podpisywanie obrazów),
monitoring bezpieczeństwa kontenerów w runtime, reagowanie na anomalie,
zabezpieczenie pipeline’ów CI/CD przed nieautoryzowanymi zmianami (kontrola dostępu, separacja obowiązków).
Takie środki można zgromadzić pod nagłówkiem A.10.2 – Container and DevSecOps Security Controls.
Certyfikacja ISO 27001 – Dołącz do nas. Jesteśmy otwarci na nowe technologie. Każdy audytor tak jest przygotowany do swojej roli aby wspierać klienta w budowaniu kultury bezpieczeństwa, by traktował swój system jak narzędzie.
Jak to wszystko poukładać w systemie – struktura A.9 i A.10
Aby uniknąć chaosu, warto zaprojektować spójną strukturę, np.:
A.9 – Emerging Technology Controls
– A.9.1 Polityka korzystania z generatywnej AI
– A.9.2 Ograniczanie danych wejściowych do systemów GenAI
– A.9.3 Zarządzanie dostępem do usług GenAI
– A.9.4 Logowanie i monitoring użycia GenAI
– A.9.5 Bezpieczeństwo w relacjach z dostawcami GenAI
– A.9.6 Weryfikacja wyników GenAI
– A.9.B1–B… Kontrolki Blockchain/DLT
– A.9.I1–I… Kontrolki IoT/OT
– A.9.E1–E… Kontrolki Edge ComputingA.10 – Advanced Infrastructure Controls
– A.10.1 5G and Private Network Security
– A.10.2 Container and DevSecOps Security
Każda kontrolka powinna mieć: opis celu, zakres, odpowiedzialności, powiązane procedury/standardy techniczne oraz zasady monitorowania. W Deklaracji Stosowania wszystkie te kontrolki otrzymują swój numer, status, uzasadnienie oraz powiązanie z ryzykami z analizy ryzyka
Jak udokumentować i „sprzedać” dodatkowe kontrolki na audycie
Z punktu widzenia audytora najważniejsze jest, żeby dodatkowe kontrolki:
wynikały logicznie z aktualnej analizy ryzyka,
były spójne z istniejącymi wymaganiami Annex A (a nie całkowicie „obok”),
miały właścicieli, zasady wdrożenia i mierniki skuteczności,
pozostawiały dowody działania (logi, raporty, przeglądy, decyzje komitetu).
W Deklaracji Stosowania warto dodać notatkę, że kontrolki A.9–A.10 stanowią rozszerzenie katalogu Annex A, zaprojektowane w odpowiedzi na konkretne technologie wykorzystywane przez organizację (GenAI, IoT, blockchain, 5G, DevSecOps). To bardzo czytelny sygnał, że SZBI nie jest jednorazowym projektem, ale systemem, który rośnie wraz z biznesem.
W kontekście NIS2 i DORA dodatkowe kontrolki przestają być tylko „dobrą praktyką”, a często stają się wymaganiem regulacyjnym lub kontraktowym. Dyrektywa NIS2, odpowiednie ustawy krajowe ją wdrażające oraz rozporządzenie DORA nakładają na organizacje obowiązek wykazania, że zarządzają ryzykiem ICT w sposób adekwatny, udokumentowany i mierzalny – także wtedy, gdy w grę wchodzą generatywna AI, IoT czy złożone łańcuchy dostaw. Coraz częściej to właśnie regulator, bank, ubezpieczyciel albo kluczowy klient wprost oczekuje, że w naszym SZBI pojawią się konkretne, dodatkowe kontrolki (np. dla AI, usług chmurowych, dostawców krytycznych), które uzupełniają ISO/IEC 27001 tak, aby razem spełnić wymogi NIS2/DORA i zapisów umowy.
Podsumowanie
Przewaga organizacji, które wyprzedzają normę, tak można podsumować w jednym zdaniu takie podejście.
Norma ISO/IEC 27001 celowo zostawia przestrzeń na dodatkowe kontrolki – to zaproszenie dla organizacji, by wyprzedzały zmiany technologiczne, zamiast na nie tylko reagować. Tworząc dedykowaną gałąź kontrolek dla AI, blockchain, IoT, Edge czy DevSecOps:
zwiększasz realną dojrzałość bezpieczeństwa informacji,
wzmacniasz argumentację na audytach i przed interesariuszami,
przygotowujesz grunt pod przyszłe normy (np. ISO/IEC 42001) bez rewolucji w systemie.
W efekcie Twój SZBI przestaje być zbiorem statycznych wymagań, a staje się rzeczywistym narzędziem zarządzania ryzykiem w środowisku, w którym technologia zmienia się szybciej niż kolejne wydania standardów.
FAQ: ISO/IEC 27001 - dodatkowe kontrolki (zabezpieczenia)
Czym są „dodatkowe kontrolki” w ISO/IEC 27001?
To kontrolki bezpieczeństwa zaprojektowane przez organizację ponad to, co znajduje się w Annex A ISO/IEC 27001. Powstają na podstawie analizy ryzyka i są formalnie ujęte w Deklaracji Stosowania jako własne środki bezpieczeństwa, uzupełniające listę referencyjną z Załącznika A.
Czy ISO/IEC 27001 pozwala dodawać własne kontrolki bezpieczeństwa?
Tak. Klauzula 6.1.3 wymaga, aby organizacja zidentyfikowała wszystkie niezbędne kontrolki, a następnie porównała je z Annex A. Norma wprost wskazuje, że lista kontrolek z Załącznika A nie jest wyczerpująca i można dodać własne, jeśli wymaga tego ryzyko.
Jakie technologie najczęściej wymagają dodatkowych kontrolek ISO/IEC 27001?
Najczęściej są to: generatywna sztuczna inteligencja (ChatGPT, Claude, Gemini, Perplexity), systemy ML i MLOps, blockchain i DLT, IoT/OT, edge computing, sieci 5G i prywatne oraz DevSecOps i kontenery.
Jakie dodatkowe kontrolki mogę zbudować dla generatywnej AI?
Typowy zestaw obejmuje: politykę korzystania z GenAI, zasady danych wejściowych powiązane z klasyfikacją informacji, zarządzanie dostępem do kont Pro, logowanie i monitoring użycia AI, wymagania wobec dostawców oraz zasady weryfikacji wyników AI przed użyciem w procesach krytycznych
Czy aby objąć AI kontrolkami, muszę wdrażać ISO/IEC 42001?
Nie zawsze. W wielu organizacjach wystarczy rozszerzyć istniejący SZBI ISO/IEC 27001 o dodatkowe kontrolki dla AI. ISO/IEC 42001 ma sens wtedy, gdy systemy AI są centralnym elementem modelu biznesowego i wymagają pełnego systemu zarządzania.
Od czego zacząć projektowanie dodatkowych kontrolek?
Najpierw zaktualizuj analizę ryzyka, dodając scenariusze dla GenAI, IoT, DevSecOps itd. Następnie zidentyfikuj luki w obecnych kontrolkach i zbuduj małą, spójną „gałąź” kontrolek (np. A.9), którą pilotażowo wdrożysz w wybranych obszarach. Dopiero potem skaluj je na całą organizację.
Bibliografia:
- ISO/IEC 27001:2022 – Information security management systems – Requirements. ISO/IEC, 2022.
- Generative AI Data Controls and ISO 27001, hoop.dev – https://hoop.dev/blog/generative-ai-data-controls-and-iso-27001-mitigating-risks-while-maintaining-compliance/
- LLM Risks: Enterprise Threats and How to Secure Them, Lasso Security – https://www.lasso.security/blog/llm-risks-enterprise-threats
- Advancing AI Security Beyond ISO 27001, Squirro – https://squirro.com/squirro-blog/iso-27001-ai-strategy
- ISO 27001 for AI Companies – Ultimate Guide, HighTable – https://hightable.io/category/iso-27001-for-ai-companies/
- IoT Security Controls Framework, Cloud Security Alliance – https://cloudsecurityalliance.org/artifacts/iot-security-controls-framework
- IoT Security Risks and Best Practices for Cybersecurity, Digi – https://www.digi.com/blog/post/iot-security
- 10 Essential IoT Security Best Practices for 2025 – https://heightscg.com/2025/12/16/iot-security-best-practices/
- Securing The Edge: Addressing Edge Computing Security Challenges, DataBank – https://www.databank.com/resources/blogs/securing-the-edge-addressing-edge-computing-security-challenges/
- Secure Edge Computing: Best Practices for Protecting Distributed Environments, SUSE – https://www.suse.com/c/secure-edge-computing-best-practices-for-protecting-distributed-environments/
- ISO 27001:2022 Annex A Controls – Complete Reference List, HighTable – https://hightable.io/iso-27001-annex-a-controls-reference-guide/
- Securing LLMs: Best Practices for Enterprise Deployment, ISACA Journal – https://www.isaca.org/resources/isaca-journal/issues/2024/volume-6/securing-llms
- Strategies to Manage Risk in Enterprise LLM Implementations – https://www.trigyn.com/insights/risk-management-strategies-enterprise-llm-implementations
- ISO 27001 with AI: Complete guide, Muse AI – https://www.ismscopilot.com/blog/iso-27001-with-ai-complete-guide
- Enterprise LLM Security: Risks, Frameworks & Best Practices – https://www.superblocks.com/blog/enterprise-llm-security
