Stosowanie systemów opartych o sztuczną inteligencję zostało uregulowane w ramach AI Act. Dokument wszedł w życie 1 sierpnia i tym samym rozpoczął się proces porządkowania AI w przedsiębiorstwach.
Jak informuje Ministerstwo Cyfryzacji, celem AI Act jest zapewnienie bezpiecznego i etycznego wykorzystania technologii sztucznej inteligencji, z uwzględnieniem praw obywateli oraz wspieranie innowacji technologicznych. Nowe przepisy dotyczą wszystkich przedsiębiorstw, które korzystają ze sztucznej inteligencji. Przedsiębiorcy mają okres przejściowy na dostosowanie regulacji. Jak polskie firmy powinny się do tego przygotować?
„Praktyczny proces porządkowania AI pod kątem przepisów powinien zawierać kolejno: rozpoznanie i inwentaryzację (rejestr) rozwiązań AI, ich ocenę pod kątem ryzyka, zbudowanie ram zastosowania (zadania jakie będzie wykonywała AI) oraz zasady jej wykorzystywania (dopuszczenia, ograniczenia, wykluczenia)” – tłumaczy Robert Zyskowski, CTO grupy Symfonia.
Europejskie startupy AI wciąż są na topie. Liderzy finansowania stawiają na rozwój zespołów
Porządkowanie AI w firmie
AI Act został wprowadzony 1 sierpnia 2024 roku. Jednak przepisy będą obowiązywać dopiero po dwóch latach od daty jego wejścia w życie. Niektóre regulacje będą musiały zostać wprowadzone wcześniej. Należy pamiętać, że za naruszenie rozporządzenia przewidziano wysokie sankcje. Przykładowo, w przypadku naruszenia zakazanych praktyk kara może sięgnąć do 35 tys. euro.
Robert Zyskowski wskazuje na co muszą zwrócić uwagę firmy dostosowujące się do regulacji AI Act. Pierwszym etapem powinno być rozpoznanie rozwiązań sztucznej inteligencji wykorzystywanych w spółce. Warto zwrócić uwagę na aplikacje takie jak wirtualni asystenci oraz chatboty stosowane w automatyzacji obsługi klientów, czy kreatory kontentu używane przez pracowników do generowania tekstów, prezentacji, grafik.
Kolejnym krokiem jest określenie ryzyka stosowanego narzędzia. AI Act wyróżnia kilka możliwości:
- Minimalne ryzyko: algorytmy pomagające w tworzeniu treści na bazie danych zebranych wewnętrznie, jak np. historia zakupów.
- Specyficzne ryzyko: konieczność informowania użytkownika systemu, że ma do czynienia ze sztuczną inteligencją.
- Wysokie ryzyko: programy stosowane przy rekrutacjach, ocenie kredytowej oraz do automatycznego uruchamiania robotów. Ta grupa ryzyka podlega rygorystycznym wymogom.
- Niedopuszczalne ryzyko: systemy korzystające z danych biometrycznych np. do monitorowania działań pracowników w miejscu pracy.
Robert Zyskowski podkreśla, że stworzenie polityk i procedur zgodnych z kategoryzacją ryzyka związanego z wykorzystaniem AI powinno uwzględniać możliwy wpływ na przestrzeganie innych przepisów w firmie, szczególnie przepisów RODO.
„Pamiętajmy, że sztuczna inteligencja jest tylko narzędziem i może popełniać błędy. Wiedza o niej w organizacji i zbudowanie reguł jest potrzebne. W procesie przygotowań do zmian regulacji prawnych warto uwzględnić prowadzenie dokumentacji i rejestrów działań związanych z systemami AI oraz przeprowadzić szkolenie dla pracowników w zakresie etycznego wykorzystywania AI. Wszystkie te działania pozwolą organizacjom na pełną kontrolę nad wykorzystaniem sztucznej inteligencji, zagwarantują firmie (w tym jej pracownikom oraz klientom) bezpieczeństwo, a także zapewnią zgodność z nowymi regulacjami prawnymi” – podsumowuje Robert Zyskowski.
Nowi inwestorzy na pokładzie Revoluta. Fintech osiąga wycenę na poziomie 45 mld dolarów
#AI #SztucznaInteligencja #AIAct #Technologia #BezpieczeństwoDanych #Innowacje #RODO #PrzepisyPrawne #Automatyzacja #Biznes