W dniu 20 października 2020 r. Parlament Europejski przyjął trzy rezolucje dotyczące sztucznej inteligencji (AI), które dotyczą następujących obszarów: etyki AI, odpowiedzialności cywilnej w związku z wykorzystaniem AI oraz własności intelektualnej w odniesieniu do AI.
12 listopada 2020
Proponowane regulacje mają w założeniu utorować drogę UE do miana globalnego lidera rozwoju AI. W tym celu Komisja Europejska przygotowuje aktualnie propozycje legislacyjne, które mają pojawić się na początku przyszłego roku.
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierająca zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii
Odnosząc się do etyki AI, Parlament Europejski (PE) wyszedł z założenia, że zaufanie obywateli do AI można zbudować jedynie w oparciu o ramy prawne uwzględniające aspekty etyczne, które zapewnią aby każda oddana do użytku AI była zgodna z traktatami, Kartą praw podstawowych UE i prawem wtórnym Unii.
Systemy AI już na etapie opracowywania, a następnie wdrażania i wykorzystywania powinny uwzględniać unijne zasady etyczne i zapewniać ochronę unijnych wartości, a zatem respektować godność ludzką, autonomię i samostanowienie jednostki, zapobiegać szkodom, promować sprawiedliwość, eliminować nierówne traktowanie i dyskryminację, a także gwarantować, że technologie te będą służyć ludziom, a nie ich zastępować, czy decydować za nich.
Parlament Europejski w swojej rezolucji podkreśla wielokrotnie cel nadrzędny AI, jakim jest dążenie do zwiększenia dobrostanu i wolności jednostki. To sztuczna inteligencja powinna zawsze służyć ludziom, nigdy odwrotnie (tzw. human–centric approach).
Technologie AI wysokiego ryzyka
W zakresie etyki AI Parlament Europejski proponuje wyodrębnić tzw. technologie AI wysokiego ryzyka (ang. high-risk AI technologies). Są to technologie, które między innymi posiadają zdolność samodzielnego uczenia się, dlatego kluczowa jest tu kontrola i nadzór człowieka nad nimi oraz możliwość ich szybkiego wyłączenia w przypadku poważnego naruszenia zasad etycznych i stworzenia zagrożenia.
PE podkreśla, że wszelkiego rodzaju sztuczną inteligencję, robotykę i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w sposób gwarantujący pełny nadzór człowieka w dowolnym momencie i umożliwiający odzyskanie pełnej kontroli przez człowieka w razie potrzeby, w tym przez modyfikację lub wstrzymanie działania tych technologii.
PE wskazuje, że ocena tego czy dana technologia kwalifikuje się do reżimu AI wysokiego ryzyka powinna zawsze wynikać z bezstronnej, regulowanej i zewnętrznej oceny ex ante opartej na konkretnych i określonych kryteriach. W tym względzie, sztuczną inteligencję, robotykę i powiązane z nimi technologie należy uznać za obarczone wysokim ryzykiem, jeżeli ich rozwój, wdrażanie i wykorzystywanie wiąże się ze znacznym ryzykiem spowodowania obrażeń ciała lub szkody dla osób fizycznych lub społeczeństwa, z naruszeniem praw podstawowych i zasad bezpieczeństwa określonych w prawie Unii. Do celów oceny, czy technologie AI wiążą się z takim ryzykiem, należy wziąć pod uwagę sektor, w którym są opracowywane, wdrażane lub wykorzystywane, ich konkretne zastosowanie lub cel oraz stopień obrażenia lub szkody, których wystąpienia można się spodziewać. Pierwsze i drugie kryterium, tj. sektor i konkretne zastosowanie lub cel, należy rozpatrywać łącznie.
AI a poszczególne dziedziny życia
PE w swojej rezolucji wskazuje na kluczowe dziedziny, które powinny zostać uwzględnione w regulacji prawnej dotyczącej etyki AI. I tak dla przykładu w zakresie środowiska i zrównoważonego rozwoju PE stwierdza, że rządy i przedsiębiorstwa powinny wykorzystywać sztuczną inteligencję, robotykę i powiązane z nimi technologie, aby przynosić korzyści ludziom i planecie, przyczyniać się do osiągnięcia zrównoważonego rozwoju, ochrony środowiska, neutralności klimatycznej i celów gospodarki o obiegu zamkniętym.
W odniesieniu do prywatności i biometrii PE zwraca z kolei uwagę, że możliwości oferowane przez AI w zakresie wykorzystywania danych osobowych i nieosobowych do kategoryzacji i mikrotargetowania osób, określania słabych stron poszczególnych osób lub wykorzystywania precyzyjnej wiedzy predykcyjnej należy równoważyć skutecznie egzekwowanymi zasadami ochrony danych i prywatności. W zakresie ochrony danych wskazuje się na konieczną rewizję RODO oraz dostosowanie rozporządzenia do przyszłych przepisów o AI.
Rezolucja zakłada również, że wykorzystanie AI przez organy publiczne do celów istotnego interesu publicznego powinno zawsze być ujawniane, proporcjonalne, ukierunkowane i ograniczone do konkretnych celów, ograniczone w czasie i przeprowadzane zgodnie z prawem Unii, z należytym poszanowaniem ludzkiej godności i autonomii oraz praw podstawowych określonych w Karcie praw podstawowych.
Mechanizm certyfikacji
Ważnym elementem proponowanych regulacji, jest stworzenie mechanizmu certyfikowania. PE wzywa do opracowania na szczeblu Unii wspólnych kryteriów i procedury składania wniosków w odniesieniu do wydawania europejskiego certyfikatu zgodności z zasadami etycznymi, w tym na wniosek dowolnego podmiotu opracowującego, wdrażającego lub wykorzystującego technologie nieuznawane za charakteryzujące się wysokim ryzykiem, który chciałby uzyskać poświadczenie pozytywnej oceny zgodności przeprowadzonej przez odpowiedni krajowy organ nadzoru.
PE uważa, że taki europejski certyfikat zgodności z zasadami etycznymi zachęcałby do uwzględniania etyki na etapie projektowania w całym łańcuchu dostaw ekosystemów sztucznej inteligencji. Podkreśla się, że w przypadku technologii wysokiego ryzyka certyfikacja mogłaby stanowić obowiązkowy warunek wstępny kwalifikacji do uczestnictwa w procedurach udzielania zamówień publicznych w zakresie systemów sztucznej inteligencji, robotyki i powiązanych z nimi technologii.
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję
Kwestia odpowiedzialności cywilnej za AI, zwłaszcza za technologie AI wysokiego ryzyka stanowi duże wyzwanie prawne. Wdrożenie sprawiedliwych, jasnych i przejrzystych przepisów w tym zakresie jest jednak kluczowe dla rozwoju AI w UE i dla stymulowania innowacyjności, oraz dla ochrony obywateli i zaufania użytkowników do tych technologii.
Jak podkreśla PE w swojej rezolucji, niektóre technologie AI stanowią istotne wyzwanie prawne dla jasnego określenia kto kontrolował ryzyko związane z systemem AI, czy też który kod, które dane wejściowe lub dane ostatecznie wywołały szkodliwe działanie. Brak przejrzystości w tym zakresie mógłby prowadzić do sytuacji, w której bardzo trudne byłoby powiązanie szkody z powodującym ją zachowaniem, przez co ofiary mogłyby nie otrzymać odpowiedniego odszkodowania.
Z tego względu kluczowe są sprawiedliwe procedury odszkodowawcze oznaczające, że każda osoba, która ucierpiała w wyniku działania systemu AI lub poniosła szkody majątkowe w wyniku działania takiego systemu, powinna korzystać z tego samego poziomu ochrony, który przysługiwałby osobie przy szkodach bez udziału systemów AI. Innymi słowy użytkownik musi mieć pewność, że potencjalne szkody spowodowane przez systemy wykorzystujące AI są objęte odpowiednim ubezpieczeniem oraz że istnieje określona droga prawna dochodzenia roszczeń.
PE w swojej rezolucji wskazuje, że bezpośrednią lub pośrednią przyczyną szkody mogą być zarówno fizyczne jak i wirtualne działania systemów AI, same zaś szkody są niemal zawsze wynikiem tego, że ktoś skonstruował lub wdrożył taki system albo ingerował w niego. Pomimo potencjalnej trudności z powiązaniem konkretnych szkodliwych działań systemów AI z konkretnymi danymi wprowadzonymi przez człowieka lub jego decyzjami na etapie projektowania systemu, PE wskazuje, że zgodnie z szeroko stosowanymi koncepcjami odpowiedzialności można mimo wszystko obejść tę przeszkodę, czyniąc odpowiedzialnymi poszczególne osoby w całym łańcuchu wartości, które tworzą, utrzymują lub kontrolują ryzyko związane z systemem AI. Nie ma wobec tego konieczności nadawania systemom AI osobowości prawnej.
Różne zasady odpowiedzialności zależnie od rodzaju ryzyka
W rezolucji wskazuje się, że istotnym czynnikiem determinującym odpowiedzialność powinien być rodzaj systemu AI, nad którym sprawuje kontrolę dany operator. Im większe ryzyko jakie niesie ze sobą system AI, tym większe zagrożenie dla chronionych wartości takich jak życie, zdrowie, własność. Z tego względu postuluje się w rezolucji stworzenie powszechnego, surowego systemu odpowiedzialności dla tych autonomicznych systemów AI obarczonych wysokim ryzykiem.
Odpowiedzialność operatora
Pojęcie operatora należy rozumieć szeroko, jako obejmujące zarówno operatora front-end, jak i back-end. Operator front-end to osoba fizyczna lub prawna, która do pewnego stopnia kontroluje ryzyko związane z obsługą i funkcjonowaniem systemu AI i korzysta z jego działania. Z kolei operator back-end to osoba fizyczna lub prawna, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem sprawuje również pewną kontrolę nad ryzykiem związanym z obsługą i funkcjonowaniem systemu AI.
PE stoi na stanowisku, że zasady odpowiedzialności dotyczące operatora powinny obejmować wszelkie działania systemów AI niezależnie od tego, gdzie są one realizowane i czy mają charakter fizyczny czy wirtualny.
Ubezpieczenia a systemy sztucznej inteligencji
PE jest zdania, że ze względu na znaczny potencjał spowodowania szkody przez AI, wszyscy operatorzy systemów AI obarczonych wysokim ryzykiem powinni posiadać ubezpieczenie od odpowiedzialności cywilnej.
PE stoi na stanowisku, że w zakresie odpowiedzialności cywilnej za AI, Komisja powinna rozważyć przyjęcie rozporządzenia. W zakresie regulacji dotyczących ubezpieczenia, proponowane rozporządzenie powinno obejmować naruszenia istotnych chronionych przepisami praw: do życia, zdrowia, nienaruszalności cielesnej i własności oraz powinno wskazywać kwoty i zakres odszkodowania, a także termin przedawnienia roszczeń. Proponowane rozporządzenie powinno również obejmować poważne szkody niematerialne, jeśli ich następstwem jest możliwa do zweryfikowania strata ekonomiczna.
Prawodawstwo
PE wskazuje, że dyrektywa w sprawie odpowiedzialności za produkty jest od ponad 30 lat skutecznym sposobem uzyskania odszkodowania za szkodę wywołaną przez wadliwy produkt, jednak mimo to potrzebny jest jej przegląd w celu dostosowania jej do świata cyfrowego i sprostania wyzwaniom związanym z powstającymi innowacjami technologicznymi, dlatego PE wzywa Komisję, aby oceniła, czy dyrektywę w sprawie odpowiedzialności za produkty należy przekształcić w rozporządzenie. Ponadto PE wzywa Komisję aby wyjaśniła definicję „produktów”, określając, czy w zakres jej stosowania wchodzą treści cyfrowe i usługi cyfrowe, oraz rozważyła dostosowanie takich pojęć jak „szkoda”, „wada” i „producent”. PE jest zdania, że w celu zagwarantowania pewności prawa w całej Unii w następstwie przeglądu dyrektywy w sprawie odpowiedzialności za produkty, pojęcie „producenta” powinno obejmować wytwórców, twórców, programistów, usługodawców i operatorów back-end.
PE zauważa, że dyrektywę w sprawie odpowiedzialności za produkty należy nadal stosować w odniesieniu do roszczeń z tytułu odpowiedzialności cywilnej producenta wadliwego systemu AI, jeżeli system taki można uznać za produkt w rozumieniu tej dyrektywy. Podkreśla także, że wszelkie aktualizacje ram odpowiedzialności za produkt powinny iść w parze z aktualizacją dyrektywy 2001/95/WE Parlamentu Europejskiego i Rady z dnia 3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów, aby mieć pewność, że w systemach SI stosuje się zasady uwzględniania bezpieczeństwa i ochrony już na etapie projektowania.
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. w sprawie praw własności intelektualnej w dziedzinie rozwoju technologii sztucznej inteligencji
W zakresie praw własności intelektualnej w odniesieniu do AI, ważne jest aby odróżnić twórczość człowieka wspomaganą przez AI od twórczości autonomicznie generowanej przez AI. O ile w pierwszym przypadku nie pojawiają się szczególne wyzwania regulacyjne - gdy AI jest wykorzystywana wyłącznie jako narzędzie wspomagające autora w procesie tworzenia, nadal zastosowanie mają obecne ramy prawa własności intelektualnej, o tyle twórczość generowana przez AI autonomicznie wiąże się z koniecznością wdrożenia regulacji w zakresie ochrony praw własności intelektualnej, takimi jak kwestie własności, wynalazczości i odpowiedniego wynagrodzenia, a także kwestie związane z potencjalną koncentracją na rynku.
PE podkreśla, że twórczość technologiczna tworzona przez technologie AI musi być chroniona w ramach praw własności intelektualnej, aby zachęcić do inwestowania w tę formę twórczości i zwiększyć pewność prawa dla obywateli, przedsiębiorstw i wynalazców. PE wskazuje jednocześnie, że AI nie powinna posiadać osobowości prawnej, dlatego wszelkie prawa własności powinny przysługiwać wyłącznie osobom fizycznym lub prawnym, które stworzyły utwór zgodnie z prawem.
PE wskazuje ponadto, że wyważona ochrona praw własności intelektualnej w odniesieniu do technologii AI oraz wielowymiarowy charakter takiej ochrony mają kluczowe znaczenie. Jednocześnie zwraca uwagę, że ważne jest zapewnienie wysokiego poziomu ochrony praw własności intelektualnej, zagwarantowanie pewności prawa i budowanie niezbędnego zaufania zachęcającego do inwestycji w te technologie oraz zapewniającego ich długoterminową rentowność i wykorzystywanie przez konsumentów.
Wywiad z mec. Arkadiuszem Zbyrowski
19 listopada 2020
Wytyczne ESMA w sprawie opłat za wyniki
17 listopada 2020
Konsultacje projektu „Dobrych Praktyk Spółek Notowanych 2021”
10 listopada 2020
ul. Wojciecha Górskiego 9
00-033 Warszawa
tel.: 22 295 09 40,
tel./fax: 22 692 44 74
e-mail: biuro@krwlegal.pl
Numer rachunku bankowego:
45 1090 1870 0000 0001 3132 3918 (PLN) WBKPPLPP