Kontrowersje i Ryzyka Sztucznej Inteligencji w Biznesie
Część prawników twierdzi, że pewne kontrowersje budzi sama definicja AI, zawarta w unijnym rozporządzeniu – jest ona bowiem niezbyt precyzyjna i posiada wiele niejasnych zwrotów, co z kolei może powodować trudności w określeniu, czy dany system należy uznać za sztuczną inteligencję, czy też nie. Eksperci z PwC zauważają, że w konsekwencji zakres stosowania przepisów może być znacznie szerszy niż to wygląda na pierwszy rzut oka. Ich zdaniem „pomocy w próbie lepszego zrozumienia definicji będzie trzeba szukać w decyzjach krajowych i unijnych organów, które będą dokonywać jej interpretacji na potrzeby prowadzonych postępowań”.
Dla firm wdrażających systemy sztucznej inteligencji (przy założeniu, że dotyczy to kategorii niskiego ryzyka), kluczowe będzie zapewnienie odpowiedniego poziomu transparentności. W praktyce ma się to sprowadzać np. do tego, by użytkownicy (osoby fizyczne) tych rozwiązań AI były informowane, że system z którego korzystają, jest sztuczną inteligencją. Z kolei w przypadku kategorii wysokiego ryzyka dostawcy będą zobligowani do spełnienia licznych wymogów, w tym przeprowadzenia analizy i oceny przewidywanych zagrożeń, bądź wdrożenia systemu zarządzania ryzykiem. Firmy muszą zdawać sobie sprawę, że za naruszenie rozporządzenia grożą im sankcje – maksymalnie kary mogą sięgać nawet 35 mln euro lub do 7 proc. całkowitego rocznego obrotu.
Ryzyka dla firm związane z AI
Korzystanie ze sztucznej inteligencji w polskich firmach wciąż przypomina trochę Dziki Zachód. Tymczasem ryzyka dla firm są wcale niemałe – utrata poufności danych, rozproszona odpowiedzialność za podejmowanie błędnych decyzji, naruszenia własności intelektualnej, niezgodność z regulacjami oraz problemy z międzynarodowym transferem danych, to tylko kilka z nich. Problem w tym, że – jak wyjaśnia Aleksandra Maciejewicz, rzeczniczka patentowa i prawniczka w kancelarii Lawmore, niektóre firmy nawet nie wiedzą, jakie narzędzia AI są używane przez ich pracowników. – A przecież jedną z kluczowych kwestii jest regularne sprawdzanie regulaminów tych narzędzi. Transparentność w komunikacji z klientami na temat wykorzystania AI w obsłudze i innych procesach również nie jest taka oczywista w wielu firmach – podkreśla Maciejewicz.
Narzędzia sztucznej inteligencji upowszechniły się wraz z wydaniem w 2022 r. usług i modeli AI do generowania grafiki Dall-e, StableDiffusion oraz chatu ChatGPT. Jednak wdrożenie zasad bezpieczeństwa, określenie zasad korzystania z AI, w tym lista dozwolonych i zabronionych zastosowań AI w firmie, jest wciąż rzadkością. – Dla właścicieli firm ważne jest nie tylko zrozumienie, jak AI może zwiększyć efektywność i innowacyjność, ale także to, jak mogą zapewnić bezpieczne i odpowiedzialne jej użycie – wskazuje prawniczka. – Z moich obserwacji wynika, że w większości przypadków mamy do czynienia z biurową partyzantką. Firmy ignorują skalę problemu korzystania z AI w codziennej pracy, natomiast pracownicy pozostawieni sami sobie, korzystają z darmowych narzędzi AI, zasilając algorytmy firmowymi danymi – przestrzega.
Według niej pracownicy często nie są świadomi niebezpieczeństw związanych z używaniem nieautoryzowanych narzędzi AI. – Zarządzanie ryzykiem związanym z AI powinno stać się priorytetem dla każdej organizacji. Kluczowe jest, aby firmy nie tylko dostrzegły problem, ale także aktywnie wdrażały rozwiązania zapobiegające niekontrolowanemu użyciu AI – dodaje Maciejewicz.
#AI #SztucznaInteligencja #Biznes #Ryzyko #BezpieczeństwoDanych #Regulacje #Innowacje