Stosowanie sztucznej inteligencji od miesięcy rozgrzewa debatę publiczną. AI ma tyle samo zwolenników co przeciwników. To, co łączy jednych i drugich to dostrzeganie luk prawnych związanych ze stosowaniem AI. Do tej pory jej wykorzystywanie nie podlegało żadnym regułom. Ten Dziki Zachód postanowiła zakończyć Unia Europejska.
To ona jako pierwsza – jeszcze przed USA i Chinami postanowiła wprowadzić pierwsze regulacje na polu sztucznej inteligencji. Pierwsze próby stworzenia uregulowań prawnych pojawiły się jeszcze w 2021 roku, a w grudniu 2023 po negocjacjach z państwami członkowskimi parlament przyjął rozporządzenie w sprawie SI. Za jego przyjęciem głosowało 523 posłów, przeciw 46, a 49 wstrzymało się od głosu. 12 marca 2024 roku Parlament Europejski zatwierdził akt o sztucznej inteligencji i zaczął wdrażanie rozporządzenia przyjętego pod koniec 2023 roku.
Co to jest akt o sztucznej inteligencji?
Akt o sztucznej inteligencji (Artificial Intelligence Act), w skrócie Act AI, jest rozporządzeniem Parlamentu Europejskiego i Rady, które ustanawia zharmonizowane przepisy dotyczące sztucznej inteligencji. Znajduje on zastosowanie w szerokim zakresie aktualności związanych z systemami AI. Swoim zakresem obejmuje ich rozwój, wprowadzenie na rynek, użytkowanie i eksploatacje w Unii Europejskiej.
Akt o sztucznej inteligencji jest pierwszym formalnym dokumentem na świecie wprowadzającym przepisy w zakresie AI. Zgodnie z informacjami europejskich instytucji Act AI „ma chronić podstawowe prawa, demokrację, praworządność i środowisko przed systemami sztucznej inteligencji”. Warto tu jednak zaznaczyć, że prawo nie zakazuje korzystania z AI i jej rozwoju – wręcz przeciwnie.
Przepisy mają wspierać innowacje i dążyć do tego, aby to Europa stała się liderem w ich stosowaniu. Oprócz tego intencją prawodawcy jest umożliwić bezpieczne korzystanie z AI przez konsumentów i przedsiębiorców, zapewnić im ochronę zdrowia, bezpieczeństwa, praw i wolności. Mówiąc ogólnie, Act AI ma przynosić korzyści i społeczeństwu i gospodarce.
Kogo dotyczy akt o sztucznej inteligencji?
Europejski akt o sztucznej inteligencji dotyczy wszystkich systemów, które są wprowadzone lub używane na terenie Unii Europejskiej. Regulacje prawne będą dotyczyć też tych systemów, które powstawały i rozwijały się poza UE lub należą do przedsiębiorstw niezarejestrowanych we Wspólnocie.
Co ważne, do nowych przepisów musi zastosować się każdy, kto wykorzystuje AI w komunikacji marki. Już teraz UE wskazuje, że przepisy będą dotyczyć takich sektorów jak zdrowie, transport, finanse, edukacja, bezpieczeństwo i zaznacza, że lista branż będzie się rozszerzać w przyszłości. Wyjątek stanowią tylko niektóre zastosowania sztucznej inteligencji do celów obronnych, wojskowych oraz naukowo-badawczych (bez komercyjnego zastosowania).
Jakie zmiany w stosowaniu AI wprowadzają nowe przepisy?
Zmiany w regulacjach w AI dotyczą przede wszystkim jej prawnych zastosowań zagrażających prawom obywateli. Za takie UE uznała m.in. systemy kategoryzacji biometrycznej, wykorzystujące dane wrażliwe i nieukierunkowane pobieranie wizerunków twarzy z nagrań telewizji przemysłowej czy Internetu.
Dane te następnie są wykorzystywane do tworzenia baz służących rozpoznawaniu twarzy. Tu UE przewiduje pewne wyjątki dla organów ścigania. Będą one mogły wykorzystywać identyfikację biometryczną tylko w czasie rzeczywistym i pod rygorem spełnienia określonych warunków np. w celu odnalezienia osoby zaginionej czy aby zapobiegać działaniom terrorystycznym.
Ograniczenia zostały również wprowadzone w zakresie rozpoznawania emocji w miejscach pracy i instytucjach edukacyjnych. Na liście zakazów znalazło się też:
- prognozowanie przestępczości na podstawie profilowania osoby lub jej cech,
- wykorzystywanie sztucznej inteligencji do manipulowania zachowaniem ludzi w zakresie podejmowania decyzji lub zachowań, które mogą im zaszkodzić lub wykorzystywać ich słabości psychologiczne,
- nadmierne monitorowanie ludzi, które może naruszać ich prawo do prywatności i godności.
Czego UE będzie wymagać od systemów AI?
Unia Europejska nie tylko wprowadza ograniczenia AI w prawie, ale także stawia wymagania systemom, które będą stosowane na jej terytorium. Szczególne wymogi Wspólnota stawia przed systemami AI uznawanymi za tzw. wysokiego ryzyka. Do takich zalicza się te wpływające na bezpieczeństwo, infrastrukturę, edukację, szkolenie zawodowe, zatrudnienie, opiekę zdrowotną i bankowość. Podkreślić należy, że systemy AI wysokiego ryzyka to np. te stosowane w zabawkach, dziecięcych, samochodach, urządzeniach medycznych czy windach.
Zgodnie z Act AI sztuczna inteligencja stosowana w tych obszarach musi spełniać niezwykle rygorystyczne standardy w zakresie jakości danych, transparentności działania, nadzoru i bezpieczeństwa. Co więcej, systemy AI wysokiego ryzyka muszą też być poddawane testom i oceną przed zastosowaniem na rynku i posiadać przejrzyste procedury dla użytkowników i innych osób dotkniętych ich działaniem.
Podsumowując, nowe wymagania dla systemów AI nakazują, aby:
- ich dostawcy korzystali z danych odpowiedniej jakości – bezstronnych, wolnych od błędów i manipulacji;
- gromadzili i przetwarzali dane w sposób przejrzysty i zgodny z przepisami o ochronie danych;
- system posiadał dokumentację, która będzie dostępna dla użytkowników, organów nadzorczych i innych zainteresowanych; dokumentacja musi mówić, jak działa system, jak przetwarza dane i w jakie mechanizmy bezpieczeństwa został wyposażony;
- decyzje mające istotny wpływ na życie ludzi były poddane nadzorowi ludzkiemu i możliwe do odwrócenia, jeśli zajdzie taka potrzeba;
- były odporne na ataki i manipulacje;
- informowały użytkowników, że wchodzą w intencje ze sztuczną inteligencją.
Co zmiany w regulacjach AI oznaczają dla przedsiębiorców?
Czytając o zmianach w regulacjach AI trudno sobie wyobrazić, jak wpłyną one na rzeczywiste działania przedsiębiorców. Analiza przepisów pokazuje jednak, że ich oddziaływanie będzie bardzo duże. Pierwszą odczuwalną zmianą – nawet dla małych firm – będzie konieczność informowania, które treści zostały wygenerowane przez AI. Odpowiednia wzmianka będzie musiała znaleźć się pod contentem audio, wideo, tekstami, grafikami. Nowe przepisy będą wymagały także, by AI tworząca takie treści nie generowała ich nielegalnie.
Duże zmiany odczują też działy HR, które do tej pory wykorzystywały systemy AI do oceny kandydatów czy pracowników. Rozwiązania AI stosowane w celach rekrutacji lub wyboru osób fizycznych – szczególnie w przypadku informowania o wakatach, selekcji, filtrowania podań o pracę, oceny kandydatów na rozmowie kwalifikacyjnej lub testach zostały uznane przez AI Acta za te wysokiego ryzyka. Oznacza to, że muszą spełniać rygorystyczne wymagania, z którymi mogłeś się zapoznać powyżej.
Zostań liderem w swojej branży!
Jak dostosować się do nowych przepisów AI?
Mimo dużych ograniczeń AI Acta ma stworzyć możliwości dla małych i średnich przedsiębiorstw oraz start-upów do rozwoju i szkolenia modeli AI. W praktyce UE będzie wymagać od rządów krajowych zapewnienia przedsiębiorstwom odpowiedniego środowiska badawczego. Dzięki temu dostosowanie się do nowych przepisów ma być łatwiejsze, a rozwój sztucznej inteligencji szybki.
To, jak dostosować się do nowych przepisów AI będzie wyglądać w rzeczywistości trudno na razie określić. Przepisy są świeże i jeszcze nie obowiązują. Co więcej, w pełni AI Atca ma obwiązywać dopiero 24 miesiące po wyjściu w życie. UE daje też aż 36 miesięcy systemom AI wysokiego ryzyka dostosowania się do nałożonych wymagań.
Choć terminy te wydają się odległe, przedsiębiorcy już teraz powinni zacząć dostosowywać się do nowych przepisów. Jak to mogą robić? Przede wszystkim weryfikując, jakie narzędzia AI do SEO czy innych działań, się wykorzystuje. Już teraz marka powinna też informować swoich klientów, kiedy mają do czynienia ze sztuczną inteligencją, a kiedy z żywym człowiekiem, a także które jej komunikaty (posty, artykuły, poradniki) zostały wygenerowane przez AI.
Jaki będzie wpływ prawa na rozwój AI? Podsumowanie
Akt o sztucznej inteligencji uznawany jest za restrykcyjną regulację. Już na etapie jej procedowania można było usłyszeć głosy mówiące, że Unia Europejska wyżej stawia ochronę praw i wolności niż rozwój systemów sztucznej inteligencji. Przeciwnicy regulacji obawiają się, że doprowadzi to do wyprzedzenia Starego Kontynentu przez USA i Chiny. Mimo to nikt nie ma wątpliwości, że AI Act jest dokumentem potrzebnym, pozwalającym ująć w ramy prawne sztuczną inteligencję, a tym samym zagwarantować prawo do prywatności i ochronę danych osobowych. Jednocześnie warto pamiętać, że UE zapewnia AI szerokie pole do rozwoju.