Napjainkban egyre nagyobb népszerűségnek örvend a mesterséges intelligencia, így nem meglepő, hogy a terület szabályozásának kérdésköre is egyre gyakrabban felmerül a döntéshozóknál. A ChatGPT-t megjelenése óta több ország is betiltotta már: Észak-Korea, Irán, Oroszország, Szíria, Kuba és Kína, valamint egy uniós ország, Olaszország is. A tilalom mögött különböző motivációk állnak. Kína és Olaszország kivételével a tiltás tulajdonképpen kétoldalú: az OpenAI sem kíván terjeszkedni ezekben az országokban.
Kína esetében a nyugati tartalmak szűrése áll a háttérben, míg Olaszország esete adatvédelmi aggályokon alapul.
Március 31 -én közleményben jelentette be az olasz adatvédelmi hatóság, hogy azonnali hatállyal átmenetileg betiltják a ChatGPT használatát Olaszországban. A hatóság megállapította, hogy az OpenAI sérti az adatvédelmi szabályokat a személyes adatok gyűjtésére vonatkozó gyakorlatával: nem azonosítottak jogalapot a nagy mennyiségű személyes adat gyűjtésére és tárolására, ami a felület működtetéséért felelős algoritmusok tanítását szolgálja.
Ezen felül a korhatár ellenőrzésének hiányát is kifogásolta az olasz adatvédelmi hatóság, mivel az applikáció nem kéri, következésképpen nem is ellenőrzi a felhasználók életkorát és ez kiszolgáltatottá teszi a kiskorúakat. A fenti szigorú intézkedéshez valószínűleg hozzájárult a március 20-án történt adatvédelmi incidens is, amikor is a fizetős ChatGPT Plus előfizetők 1,2 százalékának személyes adatai kerülhettek nyilvánosságra, így az aktív felhasználók kereszt- és vezetékneve, e-mail címe, valamint a számlázási adatai, tehát a hitelkártyaszám utolsó négy számjegye és annak lejárati dátuma.
A hibára az OpenAI gyorsan reagált, és mintegy 10 órára offline állapotba helyezte a chatbotot, ami alatt megszüntette a problémát. Az olasz adatvédelmi hatóság 20 napot adott az OpenAI-nak, hogy változtassanak azokon a gyakorlataikon, amelyeket a hatóság aggályosnak talált.
Az EU-s szabályok nem engedik meg, hogy az MI korlátlanul, bármilyen adatból tanuljon. A lehetséges kapcsolódó kockázatok csökkentése érdekében, valamely MI eszköz használatát megelőzően kiemelten fontos ügyelni arra, hogy az adatvédelmi szempontok már a tervezési fázisban a projekt részévé váljanak, beépüljenek, és megfelelő hangsúly kerüljön többek között az adatkezelési célok világos kijelölésére, a lehetséges adatbiztonsági kockázatok azonosítására és kezelésére, illetve, hogy figyelembe vegyük az adattakarékossági elvárásokat is
– emelte ki Nagy Dániel Attila, a Deloitte Legal adatvédelmi és technológiai csoportjának vezető ügyvédje.
Amennyiben az olasz adatvédelmi hatóság megállapításai igaznak bizonyulnak, akkor ez egyben azt is jelenti, hogy az összes európai országban, sőt, a világ más régióiban is jogellenesnek minősülhet az applikáció által alkalmazott gyakorlat, ahol hasonló szabályozások vannak érvényben.
Az egységes uniós adatvédelmi szabályozási keretből adódóan, ha valamely EU-s adatvédelmi felügyeleti hatóság megállapítja az adatvédelmi megfelelés hiányát valamely MI eszközzel kapcsolatban, valószínűsíthető, hogy azonos álláspontra fog helyezkedni a t��bbi EU tagállam adatvédelmi hatósága is – ami azt jelentheti, hogy egy adott MI eszközt hasznosító szolgáltató akár a teljes uniós piachoz nem fog tudni hozzáférni
– egészítette ki Albert Lili, a Deloitte Legal adatvédelmi és technológiai csoportjának ügyvédje.
Több európai ország is fontolgatja az applikáció használatának felülvizsgálatát, így például a francia és ír adatvédelmi hatóságok felvették a kapcsolatot az olasz társszervekkel, hogy részletesen tájékozódjanak a tilalom alapjáról. Németország is követheti Olaszország példáját, és adatvédelmi aggályok miatt betilthatja a ChatGPT-t.
Világszerte egyre többen hívják fel a figyelmet a mesterséges intelligencia veszélyeire és működésének, működtetésének szabályos keretek közé történő terelésének fontosságára. Az Európai Unió jelenleg is dolgozik az úgynevezett AI Act-en, amelynek fő célkitűzése a mesterséges intelligencia rendszerek szabályozása. A jelentések szerint azonban egyrészt annyira gyorsan változik a technológia, hogy problémát jelent a szöveg véglegesítése, továbbá számos jelentős kérdésben nem tudnak megegyezni a jogalkotók.
Az Europol elemzésében pedig sötét jövőre figyelmeztet a kiberbűnözés, adathalászat, tévinformációk, propaganda kapcsán. Elon Musk és számos etikus hacker nyílt levélben hívja fel a figyelmet arra, hogy mindenki által átvett biztonsági protokollokra lenne szükség, amelyeket független szakértők alakítanak, a fejlesztőknek pedig a kormányzatokkal és hatóságokkal kellene együtt dolgozniuk.
A fentiekből jól látható, hogy a mesterséges intelligenciát alkalmazó rendszerek fejlődésének sebessége messze meghaladja a jogalkotást.
Ugyan az AI Act végleges szövegére, és annak hatálybalépésére még várni kell, azoknak a vállalkozásoknak, amelyek mesterséges intelligencia rendszereket alkalmaznak, illetve terveznek bevezetni, kiemelt figyelmet kell fordítaniuk mind az etikai, mind a jogi megfelelésre. Az átfogó EU-s MI szabályozás ugyan még formálódik, az olasz adatvédelmi hatóság döntése intő példa arra, hogy nem szabad megfeledkezni a már ismert, hatályos és az MI eszközök kapcsán alkalmazandó szabályokról, így különösen a GDPR által meghatározott adatvédelmi és adatbiztonsági követelményekről, még ha a tengerentúlról is történik az alkalmazás fejlesztése.
A megbízható mesterséges intelligencia egyik legfontosabb alappillére az adatvédelmi jogszabályok és előírások fokozott figyelembevétele. Az MI-t fejlesztő és alkalmazó szervezeteknek transzparensen kell kommunikálniuk, hogy milyen adatokat milyen célból gyűjtenek, és megfelelő szintű kontrollt kell biztosítaniuk az adatalanyok számára az adataik felett. Az elszámoltathatóságot alaposan megtervezett és kiforrott folyamatok végrehajtásával kell alátámasztani
– egészítette ki Barta Gergő, a Deloitte vezető MI szakértője.