Egy korábbi bejegyzésben rendészeti és büntetőjogi példákból kiindulva vizsgáltam, milyen egyenlőségi kérdéseket vet fel az algoritmusok tömeges használata. Az alábbiakban a számítógépekkel támogatott jogi döntéshozatal példáján keresztül a kódok alkalmazásától várt előnyöket és hátrányokat, a felvetett dilemmákat, felelősségi és szabályozási kérdéseket tekintem át.
I. Algoritmusok és jogalkalmazás
A mesterséges intelligencia fő alkalmazási területe az információk rendezése, elemzése és a döntéshozatal segítése. Nem csoda, ha alkalmazása számtalan közjogilag is releváns kérdést vet fel, például a tisztességes eljárás, az átláthatóság vagy éppen a diszkrimináció tilalma kapcsán. Régóta igaz, hogy a jogalkalmazók gyakrabban fordulnak jogi adatbázisokhoz, mint a joganyagok hivatalos forrásaihoz. Így előfordulhat, hogy a szolgáltatók által elkövetett hiba alakítja a gyakorlatot. A korábbi írásban említett, amerikai büntetőjogi példák sorát folytatva: az Egyesült Államokban nemrég látott napvilágot egy tényfeltáró jelentés arról, hogy a börtönökben a szabadlábra helyezést kezelő program nem követett olyan törvényhozói módosításokat, amelyek alapján tömegesen kellett volna már kiszabadítani elítélteket. Ez egyszerre jelzi a szoftveres döntésre hagyatkozás veszélyeit és annak fontosságát, hogy csak átlátható, ellenőrizhető módon működő programokat alkalmazzanak kritikus területeken. Természtesen az, hogy a téves jogalkalmazásra egy algoritmus miatt került sor, ami semmilyen értelemben nem csökkenti az emberi döntéshozók felelősségét a jogszerűtlen fogvatartásért.
A jogban használt, például a korábbi bejegyzésben vizsgált büntetőjogi programokat egyebek között azért is szokás kritizálni, mert a számos tényezőt mérlegelő algoritmusok kereskedelmi, zárt programok részeként nem ismerhetők meg, pontos belső működésükkel csak a gyártó van tisztában. Ez jelentősen megnehezíti vagy akár el is lehetetleníti a védők munkáját, akik azt látják, hogy a bíró követi egy-egy ilyen szoftver iránymutatását, például amikor arról dönt, hogy valaki szabadlábra helyezhető-e.
A joghoz közvetlenül kapcsolódó kódok által felvetett nehézségek azonban csak az érem egyik oldalát jelentik. A jogi munka számítógépes támogatása könnyíti is a jogi tanácsadás folyamatát. Egy algoritmus a szerzők ismertetése szerint 79%-os biztonsággal becsüli meg a tényállás alapján, milyen döntésre jutott az ügyben a strasbourgi bíróság. Egy hasonló kísérlet az Egyesült Államok Legfelső Bíróságának esetjogában 70% fölötti pontosságot ért el nem pusztán a kimenetel megjósolásában, hanem abban, hogy az egyes bírák hogyan szavaznak. A jogászi munka egyik legfontosabb része éppen ez: jogi tanácsadás során annak megbecslése, hogy bírósághoz fordulás esetén milyen kimenetel várható (egyszerűbben fogalmazva: „mit mond a jog”). A joghoz való megkülönböztetés nélküli hozzáférés új lehetőségét nyithatják meg a bírói döntést előrejelző algoritmusok, ilyen például a DoNotPay app, amely a világ első robot jogászaként hirdeti magát (forrás).
Ha az algoritmusok a megbízható tanácsadást hosszú évek jogi tanulmányait megspórolva, gyorsan és minden jogterületre kiterjedően képesek lesznek elvégezni, az bizonyosan átalakítja a jogász szakmát, az ügyfelek pedig gyorsabban és várhatóan olcsóbban jutnak jogi tanácsokhoz, még ha azt végső soron egy élő jogász magyarázza is el nekik. Az alternatív vitarendezés is átalakulhat egy ilyen lépéssel, hiszen ki az, aki közel 100%-os becsült vesztési eséllyel pert indít. Ugyanakkor a nehezen követhető logikájú algoritmusok egy ilyen trend révén manipuláció tárgyai lehetnek, a rosszindulatú kódok új nemzedékét hívva életre.
II. Az algoritmusok korlátai
Hasonlóan ahhoz, ahogy ma számítógépekre bízzuk a pénzügyi tranzakciók számítási feladatait, amelyet korábban irodisták végeztek nagy számban, számos olyan terület lesz, ahol a megbízhatósággal, gyorsasággal kapcsolatos elvárásunk miatt az algoritmusok kerülnek előtérbe. Ugyanakkor az algoritmusok elterjedésének egyik hatása éppen azon területek felértékelődése lehet, ahol nem tudjuk aritmetizálható módon leírni a helyes döntés kritériumait, és előtérbe kerül az empatikus vagy akár rugalmas mérlegelés. Számítógépes nyelven: az emberi tényező nem hiba, hanem az elvárt működés része („it’s not a bug, it’s a feature”).
Annak eldöntése, mikor szükséges emberi művelet, és mikor lép be a gép, hosszú és összetett folyamat, számos tényezővel: például orvosi tanácsokat sok esetben akkor is élő doktortól várunk majd, ha bizonyos kérdésekre megbízhatóbb választ adnak szofisztikált algoritmusok (mint ahogy például a diagnosztikában ez már előfordul). Ha elfogadjuk a Rathenau Intézetnek az Európa Tanács számára megfogalmazott javaslatát, akkor az „érdemi emberi kapcsolathoz való jog” szintén belejátszhat abba a döntésbe, hogy milyen feladatokat bízunk gépekre, például egy idősotthonban.
A bírói döntéshozatalnál fontosabbá válhat az a szempont, hogy egy magas társadalmi státuszú személy az arcával vállalt döntésben indokolja meg, kinek ad igazat, ezzel járulva hozzá a vitás kérdések megnyugtató lezárásához. Jogos elvárás lesz, hogy a jogainkat érintő, például a diszkrimináció vádját felvető gyakorlatok kapcsán akkor is emberi kommunikációban kapjunk választ a kérdéseinkre, ha maga a kérdés egyébként egy algoritmus működésére vonatkozik. Az emberi jogi döntéshozatalban gyakran alkalmazott szükségességi-arányossági teszt éppen a mechanikus jellegénél fogva tűnik vonzónak. Azonban az aritmetizálás fenyegetésének egyik hatása éppen az lehet, hogy a mechanikusként beállított bírói praktikák, az aritmetizálhatóság és a lelepleződés kettős rémének szorításában, kevésbé tűnnek majd vonzónak. A döntéshozatal digitális „lefordításának” kísérlete könnyen láthatóvá teheti, hogy a látszólag világosan alkalmazható tesztek használata során egyáltalán nem vonhatók le következtetések egyszerűen a tényekből és a jogi szövegből.
A jogi alkalmazás kapcsán azt érdemes végiggondolni, hogy a joghoz társított milyen céloknak felel meg a gépiesített jogalkalmazás (semleges, részrehajlásmentes döntéshozatal, egységes jogalkalmazás, racionális döntés, gyorsaság), és melyekkel ütközik (méltányosság és empátia, a meghallgatás vágya, társadalmi konfliktuskezelés emberi mérlegeléssel). Oxfordi kutatók egy 2020-as tanulmányban úgy érvelnek, hogy a jól algoritmizálható, statisztikai alapú egyenlőségi felfogás lényegileg különbözik attól a kontextualizált egyenlőség-felfogástól, amely például az Európai Unió Bíróságának gyakorlatában érhető tetten. A szerzők szerint ez könnyen jelentheti azt, hogy az uniós antidiszkriminációs jog soha nem lesz aritmetizálható, legalábbis érdemi torzulás nélkül biztosan nem.
Az algoritmusok használata számos közegben korlátozott eredményeket hoz, például továbbra is fontos a felelős emberi felügyelet olyan helyzetekben, mint például a felelősség a rohingya népirtást megelőző, közösségi médiában terjedő gyűlöletbeszéd kiszűréséért. Azok felelőssége, akik az algoritmusok és a platformok feletti kontrollt gyakorolják, nem tudható le az algoritmusokra mutogatással.
III. Felelősségi kérdések
A mesterséges intelligencia használatának egyik fontos hatása, hogy a döntésekért vállalt felelősséget arra hivatkozva utasítják el a fejlesztők és használók, hogy ők nem kontrollálják a folyamatot, és részben ez a vállalkozás célja. Ez egyszerre téves és veszélyes, olyan, mintha az atomenergia kapcsán a kvantummechanika bizonytalansági tényezőjére hivatkozva mondaná azt valaki, hogy ő csak beindítja a láncreakciót, vagy ha Schrödinger macskájának haláláért nem vállalná a felelősséget az, aki a sugárzó anyaggal felszerelt gépet beállítja, majd belehelyezni a macskát. Az állítás ugyanakkor megragad egy fontos problémát: kellően szofisztikált kód használatakor azt a célt, hogy a gép „önállósítsa magát”, hajlamosak vagyunk összekeverni azzal, hogy a felelősséget sem mi viseljük, akik a gépet saját céljainkra használjuk, például hatékonyabbá tesszük vele a munkavégzést, vagy értékesebb terméket állítunk elő vagy jobb szolgáltatást nyújtunk a segítségével. Hasonlóan ahhoz, ahogy a gyermek, ha felnőtté válik, jogilag már maga felelős tetteiért, és ekkortól a szülői felelősség legfeljebb kivételes esetben merülhet fel – még ha a nevelésben elkövetett hibákat továbbra is nekik rónánk fel.
A felelősség alapja nem feltétlenül az, hogy a programozó ki tudja előre számítani, vagy akár csak pontosan érti, hogy milyen lépésekben és milyen döntésre jut a program, mint inkább az, hogy bármelyik ponton közbe tud lépni, és módosítani tud a működésén. Emberi csoportok vezetésénél sincs ez másképp egy vezetői felelősség esetén, sőt, akár az egyén szintjén is felvethető, mennyiben vagyunk tisztában a minket irányító impulzusok működésével – ez általánosságban mégsem zárja ki az egyéni felelősséget.
Ezzel együtt igaz lehet, hogy például az algoritmusok által közvetített diszkriminációt nehezebb lesz észlelni, hiszen ezek kapcsán kevésbé igazítanak el a megérzéseink. Hozzátehetjük, hogy a széles körben használt algoritmusok esetén ugyanakkor több lehetőség lesz annak tesztelésére is, hogy valóban diszkriminatív eredményekkel jár-e egy adott kód használata. Hasonló kísérletekre emberi döntéshozatal esetén csak korlátozott mértékben van lehetőség. Bár vannak módszerek a diszkriminatív döntések leleplezésére, például ha egy önéletrajzban a jelentkező nemét vagy egyéb jellemzőit manipuláljuk, és így futtatjuk meg munkáltatóknál, ezek a módszerek nem feltétlenül vezetnek sikerre a bíróságokon. Az Egyesült Államok Legfelső Bírósága a Walmart bolthálózat női alkalmazottait érő diszkrimináció miatt benyújtott csoportos keresetét éppen azzal utasította el, hogy a döntésben nem zárható ki a menedzserek egyéniesített döntése, így nem mondható, hogy minden női alkalmazottat ugyanúgy ért diszkrimináció. Az algoritmusok uniformizáló hatása még összetett kódok esetén is nehezebbé teszi az ilyen érvelést. (A csoportos igények, amelyek az azonos forrásból származó jogsértések károsultjait fogják össze, különösen fontos szerepet játszhatnak egy olyan világban, ahol az algoritmusok hibás működése tömegeket hozhat hátrányos helyzetbe.)
A felelősségi szabályok kialakítása mellett a szabályozás konkrét tilalmakat és elvárásokat is megfogalmaz, zárásként ezt tekintjük át.
IV. Szabályozási kérdések
A fent említett veszélyek kezelésére számos szabályozási javaslat született. Az Európai Unió Alapjogi Ügynöksége vagy a Bizottság javaslatai a mesterséges intelligencia használatára kidolgozott felelősségi elvek,[1] amelyek szerint átlátható módon, a(z emberi) felelősség követését lehetővé téve kell dokumentálni a mesterséges intelligencia működését.[2] Az uniós megközelítésben az arcfelismerő programok (kivételt engedő) tiltása, a tudatalatti manipuláció, a tömeges megfigyelés vagy a (Kínában használthoz hasonló) állampolgári pontrendszer jogellenességének rögzítése mellett külön védelem vonatkozna a sérülékeny csoportokra, például a gyermekekre és a fogyatékkal élőkre.
Az Európai Bizottság által létrehozott szakértői csoport („mesterséges intelligenciával foglalkozó magas szintű független szakértői csoport”) kidolgozott egy listát, amely alapján ellenőrizhető, hogy megbízhatónak minősül-e egy mesterséges intelligencia működése („Assessment List for Trustworthy AI”, ALTAI). Ez nevesíti nemcsak az emberi felügyelet és felelősség, az átláthatóság, a biztonság, az adatvédelem elvét, de külön elvárásként rögzíti, hogy az algoritmusoknak a sokféleségre tekintettel, diszkriminációtól mentesen, fair (méltányos) módon kell működniük, figyelemmel a társadalmi környezetre. Mivel a legtöbb kérdésről ebben vagy az írás elején hivatkozott korábbi bejegyzésben volt szó, zárásként az átláthatóság követelményével kapcsolatban teszek néhány megjegyzést.
Az átláthatóság szerepét nehéz túlértékelni. Olyan területeken is, ahol egyértelmű működési jogellenesség mutatható ki, a hosszabb távú megoldást nem egyszerűen a kód átírása, mint az átláthatóság biztosítása jelentheti. A Harvard Egyetem egy kutatása, amely a szabadságvesztés hosszát megállapító bírói döntésekben vizsgálta az algoritmusok szerepét, például arra következtetésre jut, hogy az átláthatatlanság az egyik legfontosabb probléma. Az átláthatóság gyakorlati megteremtése gyakran nagyobb nehézséget jelent, mint ahogyan az elsőre látszik. Már most külön szakma a nehezen vagy egyáltalán nem követhető algoritmusok közelítő megértése: hasonlóan a „reverse engineering” módszeréhez, programozók célzott inputokkal tesztelik egy rendszer működését, írják le annak főbb jellemzőit, „kinyitva a fekete dobozt”. Ezek a módszerek fontos szerepet töltenek be annak eldöntésében, hogy egy-egy program diszkriminatív módon működik-e, és ez mire vezethető vissza.
Ugyanakkor ha ezeket az elveket elmulasztjuk számon kérni az algoritmusok készítőin, könnyen olyan világban találhatjuk magunkat, amelyet kevésbé a nyilvánosan megvitatott és megismerhető, demokratikus felhatalmazásra visszavezethető szabályok irányítanak, és egyre több területen ismeretlen elvek alapján és üzleti titokként védett módszer szerint működő algoritmusok határozzák meg az életünket (54. o.) A „governance by alghorithms” kora elkerülhetetlen lehet, ami szintén annak fontosságát mutatja, hogy megtartsuk ezek felett a demokratikus kontroll igényét és lehetőségét. Vagyis az algoritmusokkal segített szabályozás használata mellett fenn kell tartani és fejleszteni kell az algoritmusok szabályozását is. Ehhez persze szükséges némi derűlátás, miszerint az algoritmusok által manipulált közvélemény mint kihívás nem ítéli eleve bukásra a demokrácia ügyét.
_____________________________________________
[1] Az itthoni szabályozási menetrendhez képest szokatlanul, hároméves előkészítés után született szabályozást részben azért érik kritikák, mert ez a három év nem tűnik elegendőnek, hogy kellően kiérlelt és megfelelő társadalmi egyeztetésen átesett szabályozást alkossanak.
[2] Az uniós törekvések azt is jelzik, hogy az EU saját utat jár: az Egyesült Államokhoz képest kevesebbet bíz a cégek önszabályozására, Kínához képest pedig kifejezetten szűk határok közé igyekszik terelni az állami vagy más tömeges megfigyelés lehetőségét. A Google korábbi első embere, jelenleg az USA mesterséges intelligenciával foglalkozó nemzetbiztonsági bizottságának elnöke, Eric Schmidt szerint ugyanakkor Európának csak transzatlanti összefogással van esélye sikerre.
_____________________________________________
Készült a Mesterséges Intelligencia Nemzeti Laboratórium keretében az Innovációs és Technológiai Minisztérium, valamint a Nemzeti Kutatási, Fejlesztési és Innovációs Hivatal támogatásával.
_____________________________________________
Az írás a szerző véleményét tartalmazza, és nem értelmezhető a TK hivatalos állásfoglalásaként.