Próbaként a KCG Partners és a JÖSz szakkollégium által létrehozott Studia Pragmatica tudásközpont szakértői a fent vázolt témában megkérdezték a legfőbb érintett, a ChatGPT véleményét. Bár a chatbot önmagát károkozásra képtelennek, az egyénekre és a társadalomra kockázat nélkülinek tartja, hangsúlyozta annak a fontosságát is, hogy a mesterségesintelligencia-rendszerek fejlesztőinek és üzemeltetőinek biztosítaniuk kell, hogy megfeleljenek a jogszabályok rendelkezéseinek – különösen az átláthatóság, az elszámoltathatóság és az adatvédelem tekintetében.
A chatbot felvetése jogos, mert jelenleg nincs kifejezetten a mesterséges intelligencia felhasználásával kapcsolatos uniós szintű szabályozás. Az Európai Parlament április 26-án szavaz az Európai Bizottság által két évvel ezelőtt benyújtott Mesterséges Intelligencia Rendelet tervezetéről, azonban a jogszabályt – elfogadása esetén is – legkorábban 2025 elején alkalmazhatják.
A ChatGPT gyors elterjedésével azonban egyre égetőbbek lettek a mesterséges intelligencia felhasználásával kapcsolatos aggályok és kockázatok, amelyek ágazati szabályozás hiányában csak a már meglévő jogszabályok rendelkezéseivel összhangban vizsgálhatók. Emiatt került sor – Európában elsőként – Olaszországban az adatvédelmi szabályokat sértő működés miatt a ChatGPT felfüggesztésére, és noha az intézkedés óta az OpenAI tárgyal az ottani hatóságokkal a chatbot működésének a GDPR-ral való összeegyeztetése és a szolgáltatás újra elérhetővé tétele érdekében, az olasz adatvédelmi hatóság lépését Európa-szerte több ország is támogatja.
A konkrét korlátozó intézkedést két fő okkal indokolták: a ChatGPT működése kapcsán egyrészről nem átlátható, hogy miként használják fel a felhasználók személyes adatait. Másrészről a felület nem biztosítja a felhasználók életkorának, illetve a gyermekfelhasználók részéről a szülői hozzájárulás meglétét és ellenőrizhetőségét, ami komoly kockázatot jelenthet a kiskorúakra.
Gond, hogy az OpenAI adatvédelmi tájékoztatója nem határozza meg egyértelműen a személyes adatok kezelésének pontos céljait – emelte ki a szakember.
„A jogalap meghatározásának a hiánya is felvet problémákat, hiszen az alapozhatja meg a nagyszámú személyes adat gyűjtését és tömeges tárolását a platformot működtető algoritmusok betanítása céljából” – nyilatkozott a KCG Partners Ügyvédi Társulás adatvédelmi szakértő partnere, dr. Párkányi Rita.
A GDPR alapelvként rögzíti az átláthatóság, a tisztesség és az elszámoltathatóság követelményét. Ezeknek az elveknek a mesterségesintelligencia-rendszereknek is meg kell felelniük, ennek hiányában ugyanis átláthatatlan a mesterséges intelligencia gépi tanulásának működése, és a felhasználó sosem lehet biztos abban, hogy a rendelkezésre bocsátott adatait az MI-rendszer miként kezeli, milyen logika áll az automatizált döntéshozatali folyamatai mögött, vagyis hogy az adatokat pontosan hol használják fel.
Ahogy arra a francia nemzeti adatvédelmi hatóság, a CNIL rámutatott, a GDPR elvei közül az adatminimalizálást, a célhoz kötöttséget és az adatok pontosságának elvét szintén meg kellene követelni a mesterségesintelligencia-rendszerektől. Nem hagyható figyelmen kívül az sem, hogy a GDPR alapján az érintetteknek biztosítani kell az MI-rendszerek által feldolgozott személyes adataikhoz való hozzáférés és ellenőrzés lehetőségét. Az átláthatóság és elszámoltathatóság fontosságát a spanyol nemzeti adatvédelmi hatóság szintén hangsúlyozta, kiemelve a tájékoztatás lényegességét.
„A GDPR szabályozásában érvényesül a beépített és alapértelmezett adatvédelem elve, így a fejlesztőknek célszerű volna már az MI-rendszerek tervezésekor szem előtt tartani az adatvédelmi és egyéb szabályoknak való megfelelést, hogy a mesterséges intelligencia programozásába beépülve automatizmusként érvényesülhessenek a jogszabályok és az egyének jogainak védelme” – tette hozzá dr. Párkányi Rita.
A nemzeti hatóságok tehát Európában felfigyeltek a ChatGPT által megjelenített kockázatokra, amelyet az Európai Adatvédelmi Testület is megerősített. Az április 13-án közzétett sajtóközleményük szerint az EDPB egy ChatGPT-munkacsoportot is felállított a kérdés vizsgálatára. Péterfalvi Attila, a Nemzeti Adatvédelmi és Információszabadság Hatóság elnöke elmondta, hogy annak tevékenységében a szervezet is részt vesz, figyelemmel kísérve a ChatGPT szabályozásával kapcsolatos szakmai vita állását. A NAIH elnöke rámutatott arra, hogy önmagában a GDPR alapján a mesterséges intelligencia és a ChatGPT használata nem tiltható meg, érintett által kezdeményezett panasz alapján indult eljárás hiányában Magyarországon nem várható a chatbot felfüggesztése.
Az adatvédelmi kérdéseken túlgyűrűző problémákat is felvet a mesterséges intelligencia használata: az MI-rendszerek hamis információk terjedésének, önkényes döntések meghozatalának és manipuláció eszközei lehetnek, fokozott kockázatoknak kitéve az egyéneket.
A jelenleg elfogadás alatt álló európai MI-rendelet kockázatalapú megközelítést alkalmaz, az MI-rendszereket különböző kockázati szintekbe sorolja, az elfogadhatatlantól a minimálisig. Minél magasabb a kockázat, annál szigorúbbak lesznek az MI-rendszerek tervezésével, fejlesztésével és telepítésével kapcsolatos követelmények.
A besorolás alapján elfogadhatatlan kockázatot jelentőnek ítélt rendszerek – mint a kormányzati szociális pontozás és a valós idejű biometrikus azonosító rendszerek a közterületeken – kevés kivétellel tiltottak lesznek. A magas kockázatú mesterségesintelligencia-rendszerek – például önvezető jármű, orvosi eszköz – engedélyezettek maradhatnak, de a fejlesztőknek és a felhasználóknak be kell tartaniuk a szigorú tesztelésre, az adatminőség megfelelő dokumentálására irányuló és az emberi felügyeletet részletező elszámoltathatósági keretet előíró szabályokat. A rendelet betartatása az Európai Mesterséges Intelligencia Testületet feladata lesz.
A jogszabály emellett jelentős szankciókat ír elő azokra a vállalatokra, amelyek figyelmen kívül hagyják a rendelkezéseit, a GDPR rendszeréhez hasonlóan a cégek akár a globális éves bevételük hat százalékát elérő bírsággal is szembenézhetnek, amennyiben megsértik a rendelkezéseket.
Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.