2024. szeptember 5-én mérföldkőhöz érkeztünk a mesterséges intelligenciához (MI) kapcsolódó nemzetközi szabályozások terén. Az Európa Tanács égisze alatt aláírt szerződés unikalitása, hogy ez az első aláírt nemzetközi szerződés, amelynek középpontjában a mesterséges intelligencia-szabályozás áll, miközben több államban már megalkottak MI-vel foglalkozó stratégiákat, akár jogszabályokat (ld. EU MI-rendelete), azonban a klasszikus nemzetközi szerződések körében az Európa Tanács jogalkotási törekvése tekinthető úttörőnek.
A 46 államot magában foglaló Európa Tanács égisze alatt, több állam és az Európai Unió aláírásával – több éves előkészítő és szövegezési munka után – Vilniusban elfogadták[i] a mesterséges intelligenciáról és az emberi jogokról, a demokráciáról és a jogállamiságról szóló keretegyezményt (a továbbiakban: keretegyezmény), ezzel ez lett az első nemzetközi szerződés a mesterséges intelligenciát érintően. Az Európai Unió MI-rendeletét (az Európai Parlament és a Tanács 2024/1689 rendelet, a továbbiakban: MI-rendelet) már 2024. június 13-án fogadták el,[ii] ez azonban nem tekinthető nemzetközi szerződésnek.
Az utóbbi években az Európa Tanács két irányban indult el az MI-szabályozások terén, és mindkét esetben a szabályozás irányát különösen a demokrácia és az emberi jogok védelme jelentette. Az egyik irány alapján 2020-ban jött létre egy nem kötelező erejű ajánlás az algoritmikus rendszerek emberi jogokra gyakorolt hatásairól, míg a másik vonalon elindult törekvések végül 2024 szeptemberében a most vizsgált nemzetközi szerződés aláírását eredményezték. Az előbbi dokumentum, a 2020-as igen általános szövegezésű ajánlás kiemeli az MI-alkalmazások vonatkozásában az emberek adatbiztonság és háborításmentes magánélethez való jog (privacy) iránti igényét, és szükségessé teszi a biztosítékok (safeguard) beépítését már a tervezés kezdő fázisától a teljes MI-alapú folyamat során. A 2024-es szerződés az MI és az emberi jogok, demokrácia és joguralom (rule of law) eszméit kapcsolja össze, és célként jelöli meg általánosságban az emberi jogok és alapvető szabadságok tiszteletben tartását, valamint a demokratikus folyamatok integritását (5. cikk), illetve a jogállamiság elvének tiszteletben tartását az MI-rendszerek alkalmazása esetén. A szerződés 13. cikke szól a biztonságos innováció kérdéséről, eszerint ugyanis minden állam „az innováció előmozdítása, valamint az emberi jogokra, a demokráciára és a jogállamiságra gyakorolt káros hatások elkerülése érdekében minden Fél felkérést kap arra, hogy adott esetben tegye lehetővé a mesterséges intelligencia rendszerek fejlesztésére, kísérletezésére és tesztelésére szolgáló ellenőrzött környezetek létrehozását az illetékes hatóságok felügyelete mellett.”
A keretegyezmény emberközpontú és szintén kockázati alapú megközelítésben kezeli az MI kérdését, és azt a célt kívánja biztosítani, hogy az MI-rendszerek „életciklusán belüli tevékenységek teljes mértékben összhangban legyenek az emberi jogokkal, a demokráciával és a jogállamisággal” (1. cikk). A keretegyezmény szövege szerint az államok nemzetbiztonsági érdekeik gyakorlása során – emberi jogi és egyéb nemzetközi jogi kötelezettségeik betartásával – eltekinthetnek a keretegyezmény alkalmazásától, a honvédelem kérdését pedig a keretegyezmény maga kizárja a hatálya alól (3. cikk). Eme hármas pillér (emberi jogok, demokrácia, jogállamiság) játszik tehát kulcsszerepet az Európa Tanács jogalkotásában. Mivel kellő számú állam ratifikációja után hatálybalépő nemzetközi szerződésről van szó, ezért az Európai Unió jogalkotásához, a közvetlenül hatályos rendelethez képest már csak emiatt is általánosabb szövegezésű a keretegyezmény szövege, igen kevés valódi jogi kötelezettséggel (azaz soft law dokumentumnak tekinthető), és jóval nagyobb mérlegelési lehetőséget biztosít az államok számára. Az Európai Unió MI-rendeletébe foglalt definícióhoz képest még általánosabb az Európa Tanács fogalma, amely szerint (2. cikk) a mesterséges intelligencia-rendszer „olyan gépi alapú rendszert jelent, amely kifejezett vagy implicit célok érdekében a kapott bemenetből következtet arra, hogy hogyan lehet olyan kimeneteket, például előrejelzéseket, tartalmakat, ajánlásokat vagy döntéseket létrehozni, amelyek befolyásolhatják a fizikai vagy virtuális környezetet. A különböző mesterséges intelligencia rendszerek a telepítést követően eltérő autonómia- és alkalmazkodóképességgel rendelkeznek” (saját fordítás).
A keretegyezmény továbbá kulcsfogalomként használja valamennyi főbb szabályozási kérdésnél az MI-rendszerek „életciklusán belüli tevékenységek” (activities within the lifecycle of artificial intelligence systems) kifejezést, noha kifejezetten nem definiálja azt, ugyanakkor az MI-iparágnak van már erre vonatkozó jelentése, konkrét lépésekből álló protokollja, és a Nemzetközi Szabványügyi Szervezet (International Organization for Standardization: ISO) 2023-as szabványa is részletezi eme kifejezést az MI-rendszerekhez hasonlóan.[iii] Az MI-rendszerek életciklusán belüli tevékenység kifejezés leginkább azért hasznos a maga teljességében, mert a hármas kiemelt célrendszerre kifejtett (pl. emberi jogok védelem) potenciálisan súlyos jogsértések miatti veszély okán így a belső jogi szabályozások következtében a fejlesztők és alkalmazók az MI-rendszer valamennyi releváns fázisában kénytelenek lesznek figyelembe venni és értékelni a veszélyeket.
Az államok számára a keretegyezmény előírja az emberi jogok védelmének, a demokratikus folyamatok integritásának és a jogállamiság tiszteletben tartásának általános kötelezettségét (4-5. cikkek). Az MI-rendszerek életciklusán belüli tevékenységek során a keretegyezmény az elveket is kijelöli, eszerint az emberi méltóság és egyéni autonómia, az átláthatóság és felügyelet, az elszámoltathatóság és felelősség, az egyenlőség és diszkrimináció-tilalom, a magánélet és személyes adatok védelme, a megbízhatóság és a biztonságos innováció (7-13. cikkek) elvei az irányadók. Hasonlóan egyébként az EU MI-rendeletéhez, a keretegyezmény is a kockázatalapú megközelítést alkalmazza, amikor is 16. cikkében előírja az államok számára a kockázat- és hatáskezelési keretrendszer létrehozását, amelyet a fenti elvek figyelembevételével a „mesterséges intelligencia rendszerek által jelentett kockázatok azonosítására, értékelésére, megelőzésére és mérséklésére” kell megalkotni, figyelembe véve az MI-rendszereknek hármas pillérre, azaz az emberi jogokra, demokráciára és a jogállamiságra gyakorolt hatásait. A kockázat- és hatáskezelési keretrendszeren túl pedig a hatékony felügyeleti mechanizmusok megléte is szükségszerű állami szinten, amelyek terén az államok nagyfokú szabadságot élveznek, azonban a hármas célrendszer védelme érdekében, a fentiekben említett elvek figyelembevételével kell eljárni, különös tekintettel a diszkriminációmentességre, a fogyatékossággal élők és gyermekek jogaira, valamint a digitális készségek fejlesztésére.
Az Európa Tanács égisze alatt aláírt keretegyezmény tehát az első aláírt és ratifikáció előtt álló nemzetközi szerződés, amely az MI-rendszerek kérdését – ugyan egy szűkebb aspektusban – érinti, természetesen az államok számára a keretek, elvek kijelölésével és kevés részletszabállyal. Jelzésértékű az is, hogy a keretegyezményt az Egyesült Államok (mint az Európa Tanács megfigyelő állama) is aláírta, és minden bizonnyal érdemes lesz követni a szerződés további sorsát és az ezt ratifikáló államok biztonsági, kockázat-alapú és emberközpontú MI-szabályozását belső jogaikban.
Az egyre szaporodó jogalkotási lépések (belső jogi normák, MI-rendelet, keretegyezmény) és az ezekhez kapcsolódó végrehajtási mechanizmusok sokfélesége is várhatóan táptalajt ad eme vitáknak, közös gondolkodásnak.
__________________________________________________________
[i] Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law. Council of Europe Treaty Series – No. 225. Elérhető itt: https://rm.coe.int/1680afae3c. A keretegyezmény az ötödik ratifikációt követő három hónap után lép hatálya. Az öt ratifikáció közül legalább három ratifikációnak pedig az Európa Tanács tagállamaiból kell teljesülnie. A keretegyezményt Andorra, az Egyesült Államok (mint az Európa Tanács megfigyelő állama), az Egyesült Királyság, az Európai Unió, Georgia, Izland, Izrael (mint az Európa Tanács megfigyelő állama) Moldova, Monaco, Norvégia és San Marino írta alá 2024. szeptember 5-én.
[ii] A mesterséges intelligenciáról szóló jogszabály főszabály szerint 2026. augusztus 2-án válik alkalmazandóvá, a következő rendelkezések kivételével (Preambulum 179. bekezdése, illetve 113. cikk c) pontja):
- az MI-vel kapcsolatos fogalommeghatározások, különösen pedig a tiltott MI-gyakorlatokra vonatkozó szabályok és rendelkezések már 2025. február 2-án alkalmazandók;
- az irányításra, nemzeti hatóságokra, egyedüli kapcsolattartó pontokra, MI-modellek szolgáltatóira vonatkozó szabályok már 2025. augusztus 2-án alkalmazhatók, így pl. az MI szabályozói tesztkörnyezet kialakítása terén a hatóságok kötelezettségei (ld. az MI-rendelet 57-58. cikkeit);
- a II. mellékletben felsorolt, szabályozás hatálya alá tartozó termékekbe integrált magas kockázatú MI-rendszerekre vonatkozó kötelezettségek pedig csak 2027. augusztus 2-án alkalmazandók.
[iii] Ld.: ISO/IEC 5338:2023, Information technology — Artificial intelligence — AI system life cycle processes. ISO, 2023. Az MI-vel foglalkozó szakirodalomban e kifejezés alatt leginkább a tervezés, fejlesztés és telepítés (működés) során felmerülő 19 lépést értik, amelyet ld.: De Silva, Daswin – Alahakoon, Damminda: An Artificial Intelligence Life Cycle: From Conception to Production. Patterns, 2022(3), 1-13. https://www.sciencedirect.com/science/article/pii/S2666389922000745.
__________________________________________________________
A kutatás a Mesterséges Intelligencia Nemzeti Laboratórium, valamint a 138965. számú NKFIH pályázat keretében valósult meg, az Európai Unió RRF-2.3.1-21-2022-00004 projekt, valamint az Innovációs és Technológiai Minisztérium, a Nemzeti Kutatási, Fejlesztési és Innovációs Hivatal támogatásával.
__________________________________________________________
Az írás a szerző véleményét tartalmazza, és nem értelmezhető a TK hivatalos állásfoglalásaként.