AI Act to nie przyszłość, to teraźniejszość biznesu
Z Barbarą Grubba, Prezes Zarządu AYP Sp. z o.o., rozmawiała Justyna Szymańska.
Coraz częściej mówi się o AI Act jako o „nowym RODO”. Czy firmy faktycznie mają się czego obawiać?
Największy problem polega na tym, że firmy nie wiedzą, że już dziś działają w obszarze regulowanym. AI Act obowiązuje i wprowadza podejście oparte na ryzyku: im większy wpływ systemu na ludzi, tym większe obowiązki. Tymczasem organizacje wykorzystują AI w rekrutacji, analizie danych, marketingu czy finansach, nie mając żadnej kontroli nad tym, jakie decyzje są w ten sposób wspierane lub podejmowane. I to jest realne ryzyko – nie technologia, tylko brak nadzoru.
Które obszary działalności są dziś najbardziej narażone?
Wszystkie, w których AI wpływa na decyzje biznesowe lub dotyczące ludzi. W praktyce to: HR – rekrutacja, preselekcja CV, ocena pracowników; finanse – scoring, analiza ryzyka, wykrywanie nadużyć; marketing – profilowanie, rekomendacje, chatboty; IT – systemy decyzyjne i automatyzacja procesów. Firmy popełniają jeden podstawowy błąd: patrzą na narzędzie, a nie na proces. A AI Act dotyczy właśnie tego, jakie decyzje są podejmowane z wykorzystaniem AI i kto za nie odpowiada.
Czy firmy są przygotowane na te zmiany?
Nie. W większości organizacji nie istnieje nawet lista systemów AI wykorzystywanych w firmie. Nie ma: inwentaryzacji narzędzi, oceny ryzyka, zasad korzystania z AI, nadzoru nad decyzjami. Firmy często myślą, że skoro mają RODO, to temat jest zamknięty. Tymczasem AI Act to nie jest regulacja o danych, gdyż jest to regulacja o odpowiedzialności za decyzje.
Gdzie firmy popełniają największy błąd?
Myślą, że odpowiedzialność leży po stronie dostawcy narzędzia. To nieprawda. Jeżeli firma korzysta z AI, nawet w modelu SaaS, to w większości przypadków jest tzw. „deployerem” i ponosi odpowiedzialność za sposób wykorzystania systemu. Drugi błąd: brak świadomości, że nawet proste narzędzia mogą wchodzić w obszar wysokiego ryzyka, jeśli wpływają na ludzi, np. decyzje rekrutacyjne czy finansowe.
Jak odpowiadają Państwo na tę lukę kompetencyjną?
Nie uczymy AI Act jako teorii. Pracujemy na procesach firmy: identyfikujemy, gdzie wykorzystywana jest AI; klasyfikujemy poziom ryzyka; wskazujemy konkretne obowiązki; pokazujemy, gdzie organizacja ponosi odpowiedzialność. To nie jest szkolenie, a początek budowy systemu zarządzania AI w firmie.
Czym różnią się Państwa programy od standardowych szkoleń?
Są dopasowane do realnych funkcji biznesowych. Mamy osobne ścieżki dla: HR – rekrutacja, zarządzanie pracownikami, ryzyko dyskryminacji; finansów – automatyzacja księgowości, analiza danych, odpowiedzialność zawodowa; marketingu – treści generowane przez AI, transparentność, compliance komunikacji; IT – governance, cykl życia systemu AI, dokumentacja i audyty. Nie mówimy „czym jest AI Act”, a pokazujemy, co dokładnie zmienić w organizacji.
Czy jedno szkolenie wystarczy, aby firma była zgodna z AI Act?
Nie. I to trzeba powiedzieć jasno. AI Act wymaga: systemowego podejścia do zarządzania ryzykiem, dokumentacji, procedur, nadzoru nad systemami AI, często także audytu. Szkolenie jest momentem, w którym firma pierwszy raz widzi skalę problemu.
Jakie podejście powinna dziś przyjąć firma?
Przestać traktować AI jako narzędzie, a zacząć traktować je jako obszar ryzyka i odpowiedzialności. Firmy, które zrobią to teraz: zyskają kontrolę, ograniczą ryzyko prawne, uporządkują procesy. Firmy, które tego nie zrobią, będą działały reaktywnie, czyli dopiero wtedy, gdy pojawi się problem.
materiał partnera
Artykuł AI Act to nie przyszłość, to teraźniejszość biznesu pochodzi z serwisu GF24.pl.