A Mesterséges Intelligencia Nemzeti Laboratórium Jogtudományi Intézetben zajló alprojektje keretében 2021. január 15-én több kollégánk is részt vett egy nemzetközi workshopon, amelyen különböző jogterületek szempontrendszeréből kiindulva tekintették át a mesterséges intelligenciák esetleges jogalanyiságával összefüggő aktuális szabályozási kihívásokat.
A rendezvényre online került sor a 2021. január 12-16. között a Texasi Egyetem által szervezett Alkotmányjogi Világkongresszus keretében. Ez a globális szakmai seregszemle csaknem 100 szekciót vonultatott fel és mintegy 500 előadó szólalt fel a világ legkülönbözőbb részeiről az öt napos eseményen.
Intézetünk tudományos főmunkatársa, Chronowski Nóra vezette a 79. workshopot, amelynek előadói között szerepeltek még intézetünk tudományos munkatársai, Kecskés Gábor és Szentgáli-Tóth Boldizsár is. Rajtuk kívül a Széchenyi István Egyetem dékánhelyettese, Karácsony Gergely, illetve az olaszországi pisai Santanna Egyetem docense, Erica Palmerini osztották meg gondolataikat a zoom hívásba becsatlakozó érdeklődőkkel. Az előadásokat kérdések, azok nyomán pedig szakmai vita követte. Az észak-amerikai szervezés miatt szokatlan időpontban, pénteken este 8-kor kezdődött a workshop, amelynek egy részére a konferencia főszervezője, Richard Albert professzor is bejelentkezett.
Chronowski Nóra, a szekció vezetője Szentgáli-Tóth Boldizsárral közösen a mesterséges intelligenciák bírósági munkába történő bevonásának lehetőségeit járta körbe. Rámutattak arra, hogy ezt a problémát nézetük szerint elsősorban nem a robotok, hanem a bíróságok szemszögéből kellene megközelíteni. Előkérdésként azt kellene feltennünk, hogy pontosan milyen elvárásokat támasztunk egy bíróval szemben, milyen megfontolásokon alapul a bíróságokba vetett össztársadalmi bizalom. Ennek a problémakörnek az alapos elemzése hozzájárulhat a hagyományos alkotmányjogi dogmatika fejlődéséhez is, hiszen mindeddig nem tettük fel azt a kérdést, hogy milyen alkotmányjogi következtetések vonhatóak le a bíróságokba vetett bizalom megőrzésének szükségességéből.
Amennyiben felvázoljuk a bíróságokra vonatkozó standardot, ezt kell rávetítenünk a mesterséges intelligenciákra és ez alapján kell reflektálnunk arra, hogy mennyiben vonhatóak be a robotok a bíróságok munkájába. A szerzőpáros úgy vélekedett, hogy csak az a mesterséges intelligencia kaphat döntéshozatali kompetenciákat az igazságszolgáltatásban, amely képes maradéktalanul megfelelni a bíróságokkal szembeni megbízhatósági követelményeknek, ennek hiányában legfeljebb a bíróság munkájának támogatásában juthatnak szerephez a mesterséges intelligenciák. Itt is azonban körültekintően kell eljárni, már csak azért is, mert gyakran összemosódik az automatizáció és a mesterséges intelligencia fogalma. Jelenleg valójában csak bizonyos folyamatok (például az esetjog áttekintése, szűrése) automatizálása tűnik reális célnak, a robotok bíráskodási tevékenysége a jövőben merülhet csak majd fel.
Felvetette továbbá a két szerző, hogy a mesterséges intelligenciákat az önvezető autók mintájára kellene besorolni humanoid vonásaik alapján öt kategóriába és amennyiben ez a csoportosítás megvalósulna, meg lehetne határozni, hogy az autonómia mely fokán és milyen mentális készségek birtokában lehetne alkalmas egy robot a bírósági feladatok ellátására. Ebbe a rendszerbe nem csak azokat a mesterséges intelligenciákat lehetne megjeleníteni, amelyek már létrejöttek, hanem azokat is, amelyeket belátható időn belül a tudomány ki fog majd fejleszteni, ahogyan ez történik az okos járművek esetében is.
Karácsony Gergely abból indult ki, hogy az emberi kontroll a mesterséges intelligenciák felett napjainkban inkább már csak illúzió, ezért újra kell gondolnunk az emberek és a mesterséges intelligenciák közti viszonyrendszert. Ezzel szemben mindennapjainkban számos területen korlátlanul megbízunk a robotokban: a közösségi médiát, mobiltelefonjainkat, vagy akár önvezető járműveket használva. Jelen van ugyanakkor a mesterséges intelligencia térnyerésétől való félelem is. Az eddigi szabályozási törekvések a robotokkal összefüggő adatvédelmi és felelősségi viszonyok tisztázására törekedtek. Karácsony amellett érvelt, hogy ezek mellé harmadik célkitűzésként a robotok feletti folyamatos emberi ellenőrzés biztosítását is fel kellene venni, ami következik a robotok algoritmusainak technikai hátteréből és az emberi viselkedés pszichológiai jellemzőiből egyaránt. Gyakran nem vagyunk képesek átlátni az algoritmusok működését, ezért az általuk esetlegesen elkövetett hibákat, vagy méltánytalanságokat sem tudjuk ideje korán kiszűrni, illetve megakadályozni. Karácsony kifejtette: nézete szerint korlátoznunk kellene a robotokba vetett bizalmat annak érdekében, hogy a jelenleg kirajzolódó tendencia ne veszélyeztethesse emberi jogaink érvényesülését, illetve a demokratikus társadalmi rend kibontakozását.
Kecskés Gábor a nemzetközi közjog szemszögéből közelített a mesterséges intelligenciák fokozódó jogi jelentőségének kérdésköréhez. Hangsúlyozta, hogy hagyományosan az ipari és technológiai fejlődés aspektusai kívül estek a nemzetközi közjog érdeklődésén, a robotok egyre növekvő szerepe azonban napjainkban már az államközi kapcsolatokat sem hagyja érintetlenül. A katonai jog, az űrjog, a tengerjog, a humanitárius jog, a környezetvédelmi jog, illetve a beruházások joga kapcsán egyaránt befolyásoló tényezőként merülhetnek fel a mesterséges intelligenciák.
Kecskés felhívta a figyelmet arra, hogy a mesterséges intelligenciák fokozhatják egy adott állam katonai potenciálját, ugyanakkor mérsékelhetik a civilek szenvedéseit fegyveres konfliktusok idején. Ezen felül a robotoknak számos aktuális kihívás kezelésében juthat kiemelt szerep, mint a klímaváltozás kordában tartásában, a mélytengeri kutatásokban, vagy humanitárius akciókban. Mindezek alapján perspektivikusan a mesterséges intelligenciák hatásának további növekedésével kell számolnunk a nemzetközi közjog területén is.
Erica Palmerini a mesterséges intelligenciák jogi személyiségét ezen entitások szerepei és kapcsolatteremtő képességei szemszögéből vetette górcső alá. Palmerini az állatok jogairól régóta zajló szakmai párbeszédből vezeti le a robotok potenciális jogi személyiségének felmerülését, és úgy véli, ezen a vonalon tovább haladva végleg szakítanunk kell azzal, hogy ezen entitásokat antropocentrikus világképünk mentén próbáljuk megragadni és védelemben részesíteni. Ezen a ponton Palmerini ketté bontotta a robotok jogi személyiségéről zajló gondolkodást. Nézete szerint amennyiben egy robot rendelkezik kizárólag az emberekre jellemző képességekkel és érzelmeit is ki tudja fejezni, szociális robotnak kell tekintenünk és ilyenként indokolt lenne jogi személyiségének formális elismerése. A jogalanyiság határai azonban ezekben az esetekben is függnek a mesterséges intelligencia autonómiájának szintjétől, létrehozóival, illetve működtetőivel való kapcsolatától. Ezzel szemben Palmerini a másik kibontakozó érvrendszert abban ragadja meg, hogy valamennyi robot tárgya és nem alanya a jognak, cselekedeteikért minden esetben másoknak, hagyományos értelemben vett természetes személyeknek kell viselnie a felelősséget. Emellett Palmerini részletesen kitért a jogi személyek, továbbá egyes folyók jogalanyiságára bizonyos országokban, mint számításba vehető analógiákra.
Összességében az előadók és a vitában a hallgatóságként jelen levők sokoldalúan körbejárták a témát és számos értékes felvetéssel gazdagították a mesterséges intelligenciák jogalanyiságával összefüggő tudományos gondolkodást. Az elhangzottak néhány hónap múlva írásban is hozzáférhetőek lesznek majd, hiszen az esemény sikerén felbuzdulva az előadók kiegészülve a szakterület néhány más elismert művelőjével azon dolgoznak, hogy egy tanulmánykötetbe rendezzék és részletesen is kidolgozzák fentebb vázolt gondolataikat.
_____________________________________________
A kutatást az Innovációs és Technológiai Minisztérium és a Nemzeti Kutatási, Fejlesztési és Innovációs Hivatal támogatta a Mesterséges Intelligencia Nemzeti Laboratórium keretében.
_____________________________________________
Az írás a szerző véleményét tartalmazza, és nem értelmezhető a TK hivatalos állásfoglalásaként.