Ograniczenia w stosowaniu sztucznej inteligencji? Co zmienia akt w sprawie sztucznej inteligencji
Parlament Europejski głosem 523 posłów przyjął akt w sprawie AI. Nowe prawo ma chronić podstawowe wolności obywatelskie, praworządność, demokracje i środowisko przed sztuczną inteligencją. Co to oznacza? Zobacz, jaki będzie wpływ prawa na rozwój AI i jak dostosować się do nowego prawa unijnego.
Spis treści
- Co to jest akt o sztucznej inteligencji?
- Kogo dotyczy akt o sztucznej inteligencji?
- Jakie zmiany w stosowaniu AI wprowadzają nowe przepisy?
- Czego UE będzie wymagać od systemów AI?
- Co zmiany w regulacjach AI oznaczają dla przedsiębiorców?
- Jak dostosować się do nowych przepisów AI?
- Jaki będzie wpływ prawa na rozwój AI? Podsumowanie
Skontaktuj się z nami i dołącz do prawdziwych #GameChangers!
Co to jest akt o sztucznej inteligencji?
Akt o sztucznej inteligencji (Artificial Intelligence Act), w skrócie Act AI, jest rozporządzeniem Parlamentu Europejskiego i Rady, które ustanawia zharmonizowane przepisy dotyczące sztucznej inteligencji. Znajduje on zastosowanie w szerokim zakresie aktualności związanych z systemami AI. Swoim zakresem obejmuje ich rozwój, wprowadzenie na rynek, użytkowanie i eksploatacje w Unii Europejskiej. Akt o sztucznej inteligencji jest pierwszym formalnym dokumentem na świecie wprowadzającym przepisy w zakresie AI. Zgodnie z informacjami europejskich instytucji Act AI „ma chronić podstawowe prawa, demokrację, praworządność i środowisko przed systemami sztucznej inteligencji”. Warto tu jednak zaznaczyć, że prawo nie zakazuje korzystania z AI i jej rozwoju – wręcz przeciwnie. Przepisy mają wspierać innowacje i dążyć do tego, aby to Europa stała się liderem w ich stosowaniu. Oprócz tego intencją prawodawcy jest umożliwić bezpieczne korzystanie z AI przez konsumentów i przedsiębiorców, zapewnić im ochronę zdrowia, bezpieczeństwa, praw i wolności. Mówiąc ogólnie, Act AI ma przynosić korzyści i społeczeństwu i gospodarce.Kogo dotyczy akt o sztucznej inteligencji?
Europejski akt o sztucznej inteligencji dotyczy wszystkich systemów, które są wprowadzone lub używane na terenie Unii Europejskiej. Regulacje prawne będą dotyczyć też tych systemów, które powstawały i rozwijały się poza UE lub należą do przedsiębiorstw niezarejestrowanych we Wspólnocie. Co ważne, do nowych przepisów musi zastosować się każdy, kto wykorzystuje AI w komunikacji marki. Już teraz UE wskazuje, że przepisy będą dotyczyć takich sektorów jak zdrowie, transport, finanse, edukacja, bezpieczeństwo i zaznacza, że lista branż będzie się rozszerzać w przyszłości. Wyjątek stanowią tylko niektóre zastosowania sztucznej inteligencji do celów obronnych, wojskowych oraz naukowo-badawczych (bez komercyjnego zastosowania).Jakie zmiany w stosowaniu AI wprowadzają nowe przepisy?
Zmiany w regulacjach w AI dotyczą przede wszystkim jej prawnych zastosowań zagrażających prawom obywateli. Za takie UE uznała m.in. systemy kategoryzacji biometrycznej, wykorzystujące dane wrażliwe i nieukierunkowane pobieranie wizerunków twarzy z nagrań telewizji przemysłowej czy Internetu. Dane te następnie są wykorzystywane do tworzenia baz służących rozpoznawaniu twarzy. Tu UE przewiduje pewne wyjątki dla organów ścigania. Będą one mogły wykorzystywać identyfikację biometryczną tylko w czasie rzeczywistym i pod rygorem spełnienia określonych warunków np. w celu odnalezienia osoby zaginionej czy aby zapobiegać działaniom terrorystycznym. Ograniczenia zostały również wprowadzone w zakresie rozpoznawania emocji w miejscach pracy i instytucjach edukacyjnych. Na liście zakazów znalazło się też:- prognozowanie przestępczości na podstawie profilowania osoby lub jej cech,
- wykorzystywanie sztucznej inteligencji do manipulowania zachowaniem ludzi w zakresie podejmowania decyzji lub zachowań, które mogą im zaszkodzić lub wykorzystywać ich słabości psychologiczne,
- nadmierne monitorowanie ludzi, które może naruszać ich prawo do prywatności i godności.
Czego UE będzie wymagać od systemów AI?
Unia Europejska nie tylko wprowadza ograniczenia AI w prawie, ale także stawia wymagania systemom, które będą stosowane na jej terytorium. Szczególne wymogi Wspólnota stawia przed systemami AI uznawanymi za tzw. wysokiego ryzyka. Do takich zalicza się te wpływające na bezpieczeństwo, infrastrukturę, edukację, szkolenie zawodowe, zatrudnienie, opiekę zdrowotną i bankowość. Podkreślić należy, że systemy AI wysokiego ryzyka to np. te stosowane w zabawkach, dziecięcych, samochodach, urządzeniach medycznych czy windach. Zgodnie z Act AI sztuczna inteligencja stosowana w tych obszarach musi spełniać niezwykle rygorystyczne standardy w zakresie jakości danych, transparentności działania, nadzoru i bezpieczeństwa. Co więcej, systemy AI wysokiego ryzyka muszą też być poddawane testom i oceną przed zastosowaniem na rynku i posiadać przejrzyste procedury dla użytkowników i innych osób dotkniętych ich działaniem. Podsumowując, nowe wymagania dla systemów AI nakazują, aby:- ich dostawcy korzystali z danych odpowiedniej jakości – bezstronnych, wolnych od błędów i manipulacji;
- gromadzili i przetwarzali dane w sposób przejrzysty i zgodny z przepisami o ochronie danych;
- system posiadał dokumentację, która będzie dostępna dla użytkowników, organów nadzorczych i innych zainteresowanych; dokumentacja musi mówić, jak działa system, jak przetwarza dane i w jakie mechanizmy bezpieczeństwa został wyposażony;
- decyzje mające istotny wpływ na życie ludzi były poddane nadzorowi ludzkiemu i możliwe do odwrócenia, jeśli zajdzie taka potrzeba;
- były odporne na ataki i manipulacje;
- informowały użytkowników, że wchodzą w intencje ze sztuczną inteligencją.
Co zmiany w regulacjach AI oznaczają dla przedsiębiorców?
Czytając o zmianach w regulacjach AI trudno sobie wyobrazić, jak wpłyną one na rzeczywiste działania przedsiębiorców. Analiza przepisów pokazuje jednak, że ich oddziaływanie będzie bardzo duże. Pierwszą odczuwalną zmianą – nawet dla małych firm – będzie konieczność informowania, które treści zostały wygenerowane przez AI. Odpowiednia wzmianka będzie musiała znaleźć się pod contentem audio, wideo, tekstami, grafikami. Nowe przepisy będą wymagały także, by AI tworząca takie treści nie generowała ich nielegalnie. Duże zmiany odczują też działy HR, które do tej pory wykorzystywały systemy AI do oceny kandydatów czy pracowników. Rozwiązania AI stosowane w celach rekrutacji lub wyboru osób fizycznych – szczególnie w przypadku informowania o wakatach, selekcji, filtrowania podań o pracę, oceny kandydatów na rozmowie kwalifikacyjnej lub testach zostały uznane przez AI Acta za te wysokiego ryzyka. Oznacza to, że muszą spełniać rygorystyczne wymagania, z którymi mogłeś się zapoznać powyżej.Zostań liderem w swojej branży!
Jak dostosować się do nowych przepisów AI?
Mimo dużych ograniczeń AI Acta ma stworzyć możliwości dla małych i średnich przedsiębiorstw oraz start-upów do rozwoju i szkolenia modeli AI. W praktyce UE będzie wymagać od rządów krajowych zapewnienia przedsiębiorstwom odpowiedniego środowiska badawczego. Dzięki temu dostosowanie się do nowych przepisów ma być łatwiejsze, a rozwój sztucznej inteligencji szybki. To, jak dostosować się do nowych przepisów AI będzie wyglądać w rzeczywistości trudno na razie określić. Przepisy są świeże i jeszcze nie obowiązują. Co więcej, w pełni AI Atca ma obwiązywać dopiero 24 miesiące po wyjściu w życie. UE daje też aż 36 miesięcy systemom AI wysokiego ryzyka dostosowania się do nałożonych wymagań. Choć terminy te wydają się odległe, przedsiębiorcy już teraz powinni zacząć dostosowywać się do nowych przepisów. Jak to mogą robić? Przede wszystkim weryfikując, jakie narzędzia AI do SEO czy innych działań, się wykorzystuje. Już teraz marka powinna też informować swoich klientów, kiedy mają do czynienia ze sztuczną inteligencją, a kiedy z żywym człowiekiem, a także które jej komunikaty (posty, artykuły, poradniki) zostały wygenerowane przez AI.Jaki będzie wpływ prawa na rozwój AI? Podsumowanie
Akt o sztucznej inteligencji uznawany jest za restrykcyjną regulację. Już na etapie jej procedowania można było usłyszeć głosy mówiące, że Unia Europejska wyżej stawia ochronę praw i wolności niż rozwój systemów sztucznej inteligencji. Przeciwnicy regulacji obawiają się, że doprowadzi to do wyprzedzenia Starego Kontynentu przez USA i Chiny. Mimo to nikt nie ma wątpliwości, że AI Act jest dokumentem potrzebnym, pozwalającym ująć w ramy prawne sztuczną inteligencję, a tym samym zagwarantować prawo do prywatności i ochronę danych osobowych. Jednocześnie warto pamiętać, że UE zapewnia AI szerokie pole do rozwoju. Źródła: europarl.europa.eu itwiz.pl eur-lex.europa.eu/legal-contentFAQ
-
Czym jest akt w sprawie AI i jakie ma cele?
Akt w sprawie AI to legislacja Unii Europejskiej mająca na celu regulację stosowania sztucznej inteligencji. Jego cele obejmują zapewnienie bezpieczeństwa, przejrzystości, odpowiedzialności oraz poszanowanie praw człowieka i wartości europejskich. Akt ma na celu minimalizację ryzyk związanych z AI i promowanie zaufania do technologii.
-
Jakie są kluczowe ograniczenia wprowadzone przez akt w sprawie AI?
Kluczowe ograniczenia obejmują zakaz stosowania AI do niektórych celów, takich jak nadzór biometryczny w czasie rzeczywistym oraz systemy oceny społeczeństwa. Akt wprowadza również wymogi dotyczące przejrzystości, zgłaszania ryzyk oraz oceny zgodności dla systemów AI wysokiego ryzyka.
-
Jakie są potencjalne konsekwencje dla firm korzystających z AI w wyniku wprowadzenia aktu?
Firmy korzystające z AI będą musiały dostosować się do nowych wymogów regulacyjnych, co może wiązać się z dodatkowymi kosztami i obowiązkami. Niespełnienie tych wymogów może skutkować sankcjami finansowymi oraz ograniczeniami w działalności. Firmy muszą również zwiększyć przejrzystość swoich systemów AI i dbać o zgodność z przepisami dotyczącymi ochrony danych i praw człowieka.