KRWLEGAL rekomendowana w rankingach IFLR1000 2024 · Rzeczpospolita 2024 · The Legal 500

W dniu 4 maja 2020 r. opublikowano przygotowany przez Komisję Prawną Parlamentu Europejskiego projekt raportu zawierającego zalecenia dla Komisji Europejskiej w zakresie wykorzystywania sztucznej inteligencji (AI).

11 maja 2020

Raport, oprócz skierowanych do Komisji rekomendacji dotyczących uregulowania kwestii odpowiedzialności za działalnie systemów AI, zawiera także konkretną propozycję rozporządzenia w powyższym zakresie. Przygotowaną przez Parlament Europejski dokumentację można zatem uznać za pewnego rodzaju przełom w działaniach prowadzonych przez organy europejskie – poprzednie opracowania przygotowywane przez Komisję Europejską, w tym opublikowane w lutym sprawozdanie dotyczące wpływu sztucznej inteligencji na wymogi bezpieczeństwa i odpowiedzialności, obejmowały w głównej mierze kwestie analityczne, bez określenia skonkretyzowanych propozycji rozwiązań prawnych w zakresie wykorzystywania sztucznej inteligencji.

Przygotowując ramy prawne w zakresie AI Komisja Prawna kierowała się dyrektywą, zgodnie z którą specyfika AI wymaga pewnych uregulowań prawnych w celu zapewnienia, że w każdym przypadku wykorzystywania systemów AI podmiot wdrażający system ma możliwość wskazania osoby odpowiedzialnej za jego działanie. Jednocześnie Komisja wskazała, że nie widzi potrzeby przeprowadzania pełnego przeglądu aktualnie obowiązujących rozwiązań prawnych w zakresie odpowiedzialności systemów AI.

W powyższym kierunku zmierza zaprojektowana przez Parlament Europejski regulacja prawna – przepisy projektu rozporządzenia wprowadzają ramy mające na celu zabezpieczenie interesów osób fizycznych i prawnych w sytuacjach, w których osoby te doznały szkody w zakresie życia, zdrowia, integralności fizycznej lub własności w związku z działaniem systemów AI, z uwzględnieniem podziału na systemy AI wysokiego ryzyka oraz inne. Przedstawiona w raporcie koncepcja regulacji opiera się zatem na założeniu, że autonomiczność systemów sztucznej inteligencji nie jest pełna – każdy system AI jest opracowany przez człowieka oraz to człowiek pełni kluczową funkcję w celu zapewnienia poprawności działania danego systemu. Projektowane przepisy wprowadzają także istotne definicje legalne, takie jak definicja autonomiczności, systemu AI (uwzględniająca ograniczoną autonomiczność), wdrażającego system AI (osoba podejmująca decyzję o wykorzystaniu AI, czerpiąca korzyści z działania AI i kontrolująca ryzyko związane z AI) czy wysokiego ryzyka (znaczny potencjał systemu AI w zakresie wyrządzania szkody osobie w sposób losowy i niemożliwy do przewidzenia z góry).

W myśl propozycji Parlamentu Europejskiego, wdrażający system AI wysokiego ryzyka będzie ponosił ścisłą odpowiedzialność za wszelkie szkody spowodowane fizyczną lub wirtualną działalnością, samym urządzeniem lub procesem napędzanym przez system AI. Wdrażający taki system nie będzie mógł uwolnić się od odpowiedzialności wskazując, że działał z należytą starannością lub szkoda została spowodowana autonomicznie przez system AI. Powinien także posiadać stosowne ubezpieczenie od szkód, które może wyrządzić AI. 

Co istotne, w załączniku do projektowanego rozporządzenia uwzględniono listę wszystkich systemów AI wysokiego ryzyka z jednoczesnym przyznaniem uprawnienia dla Komisji Europejskiej do okresowego przeglądu i dokonywania zmian w zakresie przedmiotowej listy. Obecnie na liście nie znajduje się żaden system AI działający w segmencie szeroko rozumianego rynku finansowego – lista obejmuje systemy AI działające w branży transportowej (drony, samochody autonomiczne, autonomiczne systemy zarządzania ruchem), a także autonomiczne roboty sprzątające miejsca publiczne.

Wdrażający system AI inny niż system wysokiego ryzyka określony w załączniku do projektowanego rozporządzenia będzie natomiast ponosił odpowiedzialność za szkody wyrządzone przez system AI na zasadzie winy. Nie poniesie on odpowiedzialności jeżeli udowodni, że szkoda została spowodowana bez jego winy, wskazując jedną z następujących przyczyn:

a)    system AI został aktywowany bez wiedzy wdrażającego, podczas gdy podjęto wszelkie uzasadnione i niezbędne środki w celu uniknięcia takiej aktywacji, lub

b)    wdrażający dochował należytej staranności, wybierając odpowiedni system AI dla właściwego zadania i umiejętności, odpowiednio uruchamiając system AI, monitorując działania i utrzymując niezawodność operacyjną poprzez regularne instalowanie wszystkich dostępnych aktualizacji.

Jednocześnie rozporządzenie przewiduje, iż wdrażający system AI inny niż system wysokiego ryzyka nie mógł uniknąć odpowiedzialności wskazując, że szkoda została spowodowana przez autonomiczne działanie systemu AI.

Opublikowana przez Parlament Europejski propozycja regulacji w zakresie systemów AI podlega dalszym pracom w jednostkach organów europejskich. Zgodnie z harmonogramem prac Parlamentu, kolejne debaty Komisji ds. prawnych w przedmiotowej sprawie będą miały miejsce 12 maja.

Projekt raportu dostępny jest pod linkiem

Jeśli uważasz, że może mieć to wpływ na Twój biznes, zapraszamy do kontaktu: biuro@krwlegal.pl lub +48 22 29 50 940.

  • Kontakt

    ul. Wojciecha Górskiego 9
    00-033 Warszawa

    tel.: 22 295 09 40,
    tel./fax: 22 692 44 74

    e-mail: biuro@krwlegal.pl

    Numer rachunku bankowego:
    45 1090 1870 0000 0001 3132 3918 (PLN) WBKPPLPP

    KRS: 0000576857
    NIP: 5252630217

    REGON: 362543036

    Dołącz do nas:LinkedIn