MILAB Speaker Series: Ződi Zsolt: "Az AI Act kontextusban: az elővigyázatossági elv okos alkalmazása, vagy eltúlzott "félelemtörvény"?

   2023. október 17. 10:00 - 2023. október 17. 12:00

Az EU Bizottsága által 2021 áprilisában beterjesztett Mesterséges Intelligencia Jogszabály (AIA) 110 (!) helyen hivatkozik az alapjogokra, 33 helyen a demokráciára és 24 alkalommal a jogállamiságra. Úgy tűnik, mintha az EU (leginkább a Tanács és a Parlament) legalább ugyanakkora kockázatnak érezné a mesterséges intelligenciának ezekre az eszmékre gyakorolt potenciális negatív hatásait, mint az emberéletekre vagy az egészségre irányuló kockázatokat.

Ezzel a megközelítéssel azonban kétféle probléma is van. Az egyik egy általános szemléletmódbeli hiányosság. Mivel a mesterséges intelligencia-alkalmazások egészen a generatív MI-k berobbanásáig nagyon kevés és szűk területen voltak alkalmazásban, a jogalkotó is ezeket a területeket és kockázatokat vette alapul a szabályozáshoz, és alapvetően a jól ismert termékmegfelelőségi logikával akarja kezelni, amely azon alapszik, hogy egy meghatározott funkciójú terméket (pl. szerszámgép) bizonyos, a területre jellemző megfelelőségi szabályokat betartva kell tervezni és gyártani, ezt dokumentálni kell, amit egy megfelelő szerv jóváhagy.

Azonban már a Chat GPT megjelenése is látványosan igazolta, hogy minden jövőbeli felhasználási formára az MI esetén lehetetlen felkészülni: az AIA modellje az általános célú MI-t egyszerűen nem tudta kezelni, mivel a rendszerek konkrét használatát a fejlesztők sem látják: a Chat GPT-re építve  több ezer (!) applikáció jelent meg néhány héten (!) belül. Nem csoda, hogy a szövegen sebtiben kellett igen komoly kiegészítéseket eszközölni. Ez az epizód is csak azt erősítette az európai jogalkotóban, hogy szinte az abszurditásig kell fokozni az ún. elővigyázatossági elvet, (precautionary principle) amelyről Cass Sunstein már a 2000-es évek közepén azt írta, hogy ez a „félelemtörvények” („laws of fear”) egyik leggyakoribb kiváltó oka.

A másik probléma, hogy ráadásul ez az elővigyázatosság már nemcsak az emberéletekben, egészségben, közlekedésbiztonságban, stb., tehát könnyen kvantifikálható és nagyon egyértelmű veszélyekben megnyilvánuló kockázatokat jelenti, hanem a fentebbi igencsak puha fogalmakra vonatkozó kockázatokat is. A könnyen belátható igazság azonban az, hogy ezek a fogalmak nem kvantifikálhatók, és nagyon nehezen operacionalizálhatók, különösen úgy, hogy az MI-t mint terméket kellene eleve úgy előállítani, hogy közben ezekre figyelemmel vagyunk. Gondoljunk csak arra, hogy  - mondjuk – egy igen jól felkészült Alkotmánybíróságnak is mennyi időbe telik, amíg egy bonyolult, alapjogok ütközésében megnyilvánuló esetben kimondja a végső szót. Vagy arra, hogy a „demokrácia sérelmének” konkrét módja és mértéke máig vitatott a nevezetes Cambridge Analytica ügyben, (amelyre talán gondolt a jogalkotó, amikor ezeket a rendelkezéseket megfogalmazta). Hogyan fogja majd egy programozó alkalmazni ezt a jogszabályt, amkor felkérést kap egy politikai mikrotargetálási kampány gépi tanuláson alapuló algoritmusának megtervezéséhez?

Ződi Zsolt (tudományos főmunkatárs, NKE ITKI) előadásában amellett szeretne érvelni, hogy ennek a két problémának alapvetően kétféle kimenete lehetséges: vagy meg fogja bénítani az európai MI ipart, vagy az iparági résztvevők egyszerűen megkerülik, esetleg formális sablonos „kockázatkezelési tervekkel” kipipálják ezeket  a rendelkezéseket. Egy biztos: a bürokratikus terheket ezek a szabályok mindenképpen nagyon komolyan meg fogják növelni.

Az esemény hibrid formában kerül megrendezésre, on-line csatlakozási lehetőség az alábbi linken:

https://us06web.zoom.us/j/88369802325?pwd=6fvZ6wwWaKmgfqkntQ54qpU9uYBndG.1

Meeting ID: 883 6980 2325
Passcode: 761142