Zarządzanie ryzykiem AI - normy ISO i dobre praktyki
Rozwój sztucznej inteligencji to obecnie naturalny kierunek wielu organizacji. W tej technologii upatrują szansy na przyspieszenie swojej pracy i innowacyjne podejście do biznesu. Odpowiedzialne organizacje jednak widzą w AI coś więcej - potrzebę zbudowania systemu zarządzania ryzykiem związanego z AI. Jak podejść do tego procesu?
Budowanie typowych systemów compliance, w tym systemów zarządzania ryzykiem AI, nie jest uregulowane twardymi przepisami prawnymi. Jest to tym bardziej skomplikowane, że tematyka sztucznej inteligencji to zupełna nowość. Nie mamy jeszcze wielu lat doświadczeń i obserwacji rynku. Z pomocą przychodzą dobre praktyki zaczerpnięte od pionierów rynku czy chociażby normy ISO, jak np. ISO/IEC 42001:2023, która jest pierwszym międzynarodowym standardem systemu zarządzania, dedykowanym AI. Pełna analiza tej normy znajduje się w najnowszym komentarzu praktycznym ,,Budowa systemu zarządzania ryzykiem wdrażania mechanizmów opartych o AI w organizacji zgodnie z normami ISO i dobrymi praktykami'' dostępnym w LEX Prawo Sztucznej Inteligencji pod tym LINKIEM.
Po co budować system zarządzania ryzykiem dedykowany dla AI?
Samo pojęcie ,,zarządzanie ryzykiem'' dla organizacji, w których obecna jest kultura compliance, nie jest nowe. Pojawienie się zorganizowanego i spójnego systemu, który ma zapobiegać negatywnym konsekwencjom działania różnych czynników na organizację, to zawsze dobra i efektywna broń. Zgodnie bowiem ze starą, dobrze znaną wszystkim maksymą: lepiej zapobiegać, niż leczyć. To samo tyczy się technologii AI. Jej możliwości są ogromne. Sami chyba jeszcze nie wiemy do końca, do czego doprowadzi nas jej rozwój. To co jednak wiemy, to to, że za tak wielkimi możliwościami, idą też pewne, wpisane niemal w zasady jej funkcjonowania, ryzyka. Odrzucanie tego faktu nie spowoduje, że będzie inaczej. To, co należy robić, to dmuchać na zimne i patrzeć na to co się wokół nas dzieje przez pryzmat twardych danych. wiedzy i umiejętności specjalistów. A ci mówią jasno: budujmy systemy zarządzania ryzykiem AI i bądźmy krok przed negatywnymi konsekwencjami.
Czy są zasady tworzenia systemy zarządzania ryzyka dedykowanego dla AI?
Nie istnieją jedne, twarde i obligatoryjne dla wszystkich zasady czy standardy budowania systemu zarządzania ryzykiem AI. Istnieją jednak dobre praktyki i standardy, które mogą być podstawą jego przygotowania. Jednym z najbardziej wyczerpujących jest norma ISO/IEC 42001:2023. Jej celem jest wsparcie w budowaniu systemu dla każdego z etapów pracy z AI: od rozwoju, po wdrażanie, przez utrzymywanie. Taka idea jest typowa dla systemów zarządzania ryzykiem w ogóle, i świetnie sprawdzi się również w przypadku technologii sztucznej inteligencji.
Uniwersalizm czy dostosowane do organizacji działania?
Często, szczególnie pracując z nowymi zagadnieniami, szukamy inspiracji czy wręcz gotowej listy odpowiedzi na wszystkie nasze problemy. W przypadku AI jednak tych dobrych praktyk na początku po prostu nie było. To, co pomagało to zdecydowanie doświadczenie w pracy z innymi technologiami, ale także świadomość na temat sposobu działania sztucznej inteligencji. W przypadku tej technologii sytuacja jest o tyle bardziej skomplikowana, że możliwości AI są niemal nieograniczone. A to oznacza, że każda z organizacji może ją wykorzystywać do czegoś innego. Nie będzie więc, pewnie nigdy, jednych, złotych zasad dla tego, jak korzystać czy jak wdrażać narzędzia AI dla każdej z organizacji. Każde, nawet najlepsze wytyczne, mające charakter uniwersalny będą wymagać przynajmniej weryfikacji pod kątem dostosowania ich do organizacji. Tym niemniej, korzystanie z nich jest konieczne, a na pewno bardzo pomocne.
Zarządzanie ryzykiem AI wkracza obecnie na nowy poziom. Już nikt nie powinien mieć wątpliwości, że chcąc systemowo korzystać z narzędzi AI należy brać pod uwagę i pozytywne i negatywne tego skutki. Zbudowanie systemu zarządzania ryzykiem tylko dla takiego narzędzia może być dobrym i kompleksowym sposobem na zapobiegnięcie najgorszym skutkom. Jak to zrobić? Z pomocą przychodzi dedykowana norma ISO, omówiona dokładnie w komentarzu praktycznym ,,Budowa systemu zarządzania ryzykiem wdrażania mechanizmów opartych o AI w organizacji zgodnie z normami ISO i dobrymi praktykami'' dostępnym w LEX Prawo Sztucznej Inteligencji pod tym LINKIEM.