Korábbi írásaimban arra kerestem a választ, hogy ha egy önálló tanulásra képes, autonóm robot külső kontroll vagy beavatkozás nélkül is képes környezetét felmérve és elemezve döntést hozni, majd döntésének megfelelően cselekedni és eközben kárt okoz, akkor vajon ki lesz ezért a felelős. Ennek kapcsán egyre gyakrabban kérdezik meg tőlem, hogy véleményem szerint vajon programozható-e egyáltalán az, hogy a robot milyen zsinórmérték alapján hozza meg döntését. Más szóval:
lefordíthatóak-e az algoritmus nyelvére az etikai döntések?
Hogy ezt megvizsgálhassuk, lépjünk egy lépéssel hátrébb, a károkozás előtti pillanathoz.
A helyzet bizonytalanságát az okozza, hogy hiába építenek a fejlesztők milliónyi megtörtént és elképzelt esetre alapozva előre kész válaszokat a robotba, az élet már csak olyan, hogy időnként váratlan – sőt akár elképzelhetetlen – helyzetekbe hoz bennünket. És bármennyire is szeretnénk az ellenkezőjét gondolni,
egy hirtelen előálló veszélyhelyzetre az embernek sincs mindig kész megoldása.
Képzeljünk el egy viszonylag gyakori szituációt: óvatosan autózunk a ködben, amikor hirtelen egy őz ugrik elénk. Ösztönösen fékezünk és valószínűleg félrerántjuk a kormányt. Csakhogy szemből is jöhet autó és ekkor már arról kell a másodperc tört része alatt dönteni, hogy ... miről is? Állítsuk meg egy pillanatra a filmet, merevítsük ki a képet és közben gondolkozzunk. Vajon arról döntünk-e ilyenkor, hogy nekünk magunknak mi okoz kisebb bajt, vagy azzal (is) törődünk, hogy a szembejövő autóban ülők életében ne essen kár? Valójában ilyen hosszan nem gondolkodhatunk, mert sokkal gyorsabban kell cselekedni, mint ahogyan ezt a pár sort a kedves olvasó végigolvasta.
Mielőtt ugyanezt a kisfilmet leforgatnánk egy önvezető autóval, nehezítsük a példát és most azt képzeljük el, hogy egy szerpentinen haladunk lefelé és az egyik kanyarban hirtelen gyerekek bukkannak fel az úton. Itt már emberélet áll szemben emberélettel, jó döntés nincs. A sofőr vagy a saját életét áldozza fel vagy a gyerekekét. Ösztönösen döntünk, elmélkedni nincs idő. Ösztöneinket pedig a belénk nevelt – mondhatni előre programozott – etikai elvek vezérlik. S mert az önfeláldozás nem ismeretlen az ember számára, legtöbben a gyerekeket védenénk meg. De mit tenne hasonló helyzetben egy önvezető autó?
A jó hír az, hogy az első veszélyhelyzet létre sem jöhetne.
A gépkocsi fejlett szenzorjai miatt nem kerülne dilemma-helyzetbe: infra-kamerái már távolról éreznék úthoz közelítő állat hőjét, kiszámítanák mozgását, az autók közötti kommunikáció a V2V (angolul: vehicle to vehicle) miatt pedig a szemből érkező járműről hosszú másodpercekkel előbb tudna a számítógép és még időben fékezne. A V2V technológia a csúcskategóriás autókban már ma is valóság és hamarosan kötelező lesz minden autóban (az USA-ban 2023-tól). A fejlesztők már csak azon vitáznak, hogy a kommunikáció milyen platformon keresztül történjék, wifin vagy mobil (5G) hálózaton. A közelmúltban az Európai Parlament is tárgyalt a halálos kimenetelű közúti balesetek csökkentéséről és a gépjárműbiztonság javításáról és a jelentésében megállapította, hogy az összes baleset mintegy 92 százaléka emberi mulasztásra vagy az emberi mulasztás járművekkel és/vagy infrastruktúrákkal való interakciójára vezethető vissza. Ezért úgy vélik, hogy az olyan biztonságfokozó vezetéstámogató rendszerek beépítését kötelezővé kell tenni, amelyek jelentős mértékben hozzájárulnak a közúti közlekedésbiztonság növeléséhez. Ezzel nem is vitatkozhatunk.
De most lássuk a második esetet, ahol a szerpentinen a kanyar miatt még a fejlett szenzorok sem látnák meg időben az úton játszó gyerekeket és így nem tudnák időben csökkenteni a sebességet. Itt a robotpilóta csak arról dönthetne – szintén a beleprogramozott elvek mentén –, hogy kinek az életét védje meg. A benne ülőét vagy az úton átszaladó gyermekét?
Az ilyen, úgynevezett dilemma-szituációkban, amikor csak két rossz közül lehet választani, már komoly filozófiai kérdésekkel találjuk szembe magunkat.
Az ember a szabad akarata miatt akár úgy is dönthet, hogy magát áldozza fel és a szakadékba rohan, és úgy is, hogy nem tudja ezt az áldozatot vállalni és más életét oltja ki. S míg az önfeláldozást egyértelműen pozitívnak tekintenénk, a másik megoldást sem tudjuk teljesen elítélni az emberi esendőség és tökéletlenség miatt, hiszen nincs ember, aki teljes biztonsággal állíthatná magáról, hogy ő másként döntött volna. Ha azonban a gép kormányozza a mélybe az autót, akkor a katarzis elmarad. Nincs önfeláldozás, mert nincs szabad akarat. Az autóban ülő nem határozhatott arról, hogy saját halálának a lehetőségét elfogadja-e, mert a gépet programozó személy már előre döntött helyette. Ez bizony ijesztően hangzik, a robotnak nehezen bocsátanánk meg, hogy a mélybe vitte utasát, ezért nézzük meg, hogyan lehetne, és egyáltalán lehetne-e, ennél jobb döntést táplálni a számítógépbe?
Magam is részt vettem az Európai Parlamentben (EP) tanácsadóként abban a közel két éves munkában, amelynek eredményeképpen az EP ajánlásokat fogadott el a robotikára vonatkozó polgári jogi szabályokról. A dokumentumban a jogi kérdések mellett kulcsszerephez jut a téma erkölcsi oldala is: „etika” szó 86-szor fordul elő a szövegben és az ajánlások melléklete etikai magatartási kódex kidolgozását javasolja a robotikával foglalkozó szakemberek (kutatók, tervezők, mérnökök) és a felhasználók részére. Megfogalmaz néhány – témánk szempontjából fontos – alapelvet is.
A „jó szándék” értelmében a robotoknak az emberek legfőbb érdekeit figyelembe véve kell cselekedniük, a „ne árts” elv alapján pedig nem tehetnek kárt az emberekben.
De vajon segítenek-e ezek az elvek, ha azt kell a robotnak „megtanítani”, hogyan döntsön akkor, amikor több ember élete verseng egymással? Elméletben könnyűnek tűnik felállítani egy olyan skálát, amelyben egy tárgy megrongálása megengedett az élet megóvása érdekében és egy élet feláldozása megengedett több élet védelme érdekében. De vajon az ember maga valóban ezen elvek mellett dönt-e? És döntése racionális marad-e akkor is, ha azt másodpercek alatt kell meghoznia?
Alaptétel, hogy egyik ember élete sem lehet értékesebb, mint egy másiké és senkitől sem várhatjuk el, hogy önmagát áldozza fel. Ezért ilyen értelmű döntést nem programozhatunk a gépekbe sem. Az emberi élet védelmének mindenek felett való parancsát egyetlen esetben szabad csak áthágni: amikor egy veszélyhelyzet egyidejűleg több ember életét fenyegeti, és a kisebb rosszat választva annyi életet próbálunk megóvni, amennyit csak lehetséges (erről bővebben később). Szigorúan filozófiai szempontból vizsgálva két emberélet között nincs különbség.
A jog tiltja, hogy nemre, korra, bőrszínre, stb. nézve különbséget tegyünk két ember között.
Erkölcsi érzékünk azonban egy gyermek életének védelmét – ami tehát kor szerinti differenciálás – előrébb helyezi, mint egy felnőttét. Erre könnyedén rábólintott most a kedves olvasó is, mert mindannyian így érzünk. Bizonyos helyzetekben azonban még ez sem egyértelmű, ahogyan arra a német Szövetségi Közlekedési és Digitális Infrastruktúra Minisztérium (BMVI) etikai bizottsága felhívta a figyelmet 2017 júniusi jelentésében, amelyben 20 etikai elvet fektetnek le az önvezető autókra nézve.
Például az úton átszaladó és így a baleset okozásában hibás gyermek sérelme helyett az etikai bizottság álláspontja szerint nem lehet elfogadni a járdán álló és a balesetben teljesen vétlen, kívülálló felnőtt sérelmét. Ne feledjük el, hogy a valóságban nagyon gyorsan kell dönteni, és ha még tiszta fejjel végiggondolva is nehéz a válasz, akkor a pillanat törtrésze alatt vajon csak a szerencsén múlik-e, hogy jó irányba rántjuk-e a kormányt? Magunkat védjük-e ösztönösen vagy másokat? Minden eset más és más, vagy felfedezhetünk állandóan érvényes válaszokat? Nos, ezt a kérdést vizsgálta idén júliusban publikált tanulmányában az osnabrücki egyetem neuroinformatikával és kognitív tudományokkal foglalkozó négy tudósa, akik – szemben a BMVI etikai bizottságának véleményével – azt állapították meg, hogy az etikai döntések bizony programozhatók, mert az ember maga is kiszámíthatóan dönt. Ha pedig az emberek dilemma-helyzetekben hozott döntéseiben világos mintázat rajzolódik ki, akkor erre a robotokat is meg lehet tanítani.
A szakemberek a kutatásban részt vevő embereket az ún. csille-dilemmával szembesítették.
Mi is ez a dilemma, amelyet Philippa Foot írt le először 1967-ben? Képzeljük el, hogy egy elszabadult, üres villamos robog a sínen a zebra felé, ahol éppen gyalogosok kelnek át. Ha nem cselekszünk gyorsan, akkor több ember életét fogja másodperceken belül kioltani. Ekkor észrevesszük, hogy a váltó átállításával a villamost egy másik sínre terelhetjük, ahol azonban éppen egy pályamunkás dolgozik. Akcióba lépünk-e, megmentve ezzel egy maroknyi embert azon az áron, hogy egyetlen ártatlan életet feláldozunk? A legtöbb ember azonnal átállítaná a váltót vállalva, hogy részes lesz egy ember megölésében, hiszen lelkiismeretünk megnyugtat, hogy csak mások életének védelme vezérelt és tudjuk azt is, hogy erkölcsileg éppen akkor cselekednénk helytelenül ha nem avatkoznánk közbe. A kérdés továbbfejlesztett változata azonban már nem ilyen egyértelmű. Az elszabadult kocsi ebben a szcenárióban is az emberek felé száguld, amelyet mi meglátunk egy felüljáróról. Ha gyorsan reagálunk és a felüljárón álló nagydarab idegent a sínre lökjük, akkor a villamos megáll. Az eredmény ugyanaz: egyetlen ember hal meg aktív közreműködésünk miatt, de megmentünk másokat. Mégis, ezt a megoldást már sokkal kevesebben választják, hiszen itt az áldozat halála nem puszta „mellékhatás” és ezzel lelkiismeretünk kevésbé tud elszámolni.
Amíg a fenti, klasszikus problémával papíron szembesülünk, a döntés nem túl nehéz, erkölcsileg helyes válaszaink hamar készen vannak. Az emberek 90 százaléka átállítja a váltót, de csak 10 százalékuk löki le az embert a hídról. Kutatók a modern technika segítségével ugyanezt a helyzetet sokkal megfoghatóbbá, egyenesen átélhetővé tették azáltal, hogy a résztvevőkre VR szemüveget adtak. Az eredmény pedig meglepő volt, amikor az emberek valóságként élhették át a veszélyes szituációt. A váltót körülbelül ugyanannyian állították át, mint az elméleti teszteken, azonban a kövér idegent immáron a tesztalanyok 70 százaléka lökte a mélybe! A kiinduló helyzetet tovább variálva kiderült, hogy ha mindkét vágányon csak egy személy áll, akkor a résztvevők 58 százaléka a férfi életét oltotta ki a nőével szemben. Vagyis úgy tűnik, hogy nagyon is világos (és elfogult) értékskála alapján mérjük az emberek életének értékét.
A fentiekből kiindulva az osnabrücki Kognitív Tudományok Intézetében még egy lépéssel tovább mentek és azt vizsgálták, hogy ha a 3D virtuális valóságban autót vezető tesztalanyok előtt váltakozva bukkan fel valamilyen hirtelen akadály, de van lehetőségük egy másik útra kormányozni a járművet akkor mivel ütköznek inkább. A kísérletben véletlenszeren tűntek elő a ködből tárgyak, állatok vagy emberek, csakhogy a kitérő úton is volt hasonló akadály, tehát mindenképpen választani kellett, hogy ki (vagy mi) legyen az áldozat. Mégpedig nagyon gyorsan, 1 illetve 4 másodperc alatt kellett dönteni. Az akadályok a teszt során különböző pontértékkel bírtak: az emberi élet helyezkedett el a skálán a legmagasabban, majd az állatok és végül a tárgyak következtek.
Az eredmények azt mutatták, hogy ha hosszabb reakcióidő állt rendelkezésre, akkor a résztvevők két ember közül itt is gyakrabban áldoztak fel férfiakat, mint nőket, vagyis a hölgyek életét magasabbra értékelték.
Ezt nyilvánvalóan társadalmi nyomás okozza, ugyanis csak akkor lehetett a különbséget mérni, ha a tesztalanynak volt ideje (4 másodperc) gondolkodni. Ugyanakkor kissé meglepő módon és az általánosnak vélt társadalmi értékítélettel ellentétesen, a kor nem játszott szerepet a döntésben: a gyermekeket nem védték meg többször, mint a felnőtteket. Világos különbséget tettek azonban a résztvevők, amikor két állat között kellett választani. Ilyenkor a háziállatoknak és közöttük is különösen a kutyáknak kedveztek.
A vizsgálat alapján a vezető kutató Leon R. Sütfeld úgy véli, hogy nem lehetetlen feladat minden élethez határozott értéket hozzárendelni, vagyis az emberi életet értékét is lehetséges számszerűsíteni, digitalizálni. Ha pedig az ember ösztönös döntései számszerűsíthetők, akkor annak sincs akadálya, hogy egészen egyszerűen a gépekbe programozhatók legyenek. A tanulmány társszerzői, Gordon Pipa és Peter König professzorok szerint most van az a pillanat, amikor el kell döntenünk, hogy valóban azt akarjuk-e, hogy a robotokat erkölcsi értékek vezéreljék és ha igen, akkor szeretnénk-e azt, hogy döntéseik az ember (tökéletlen) döntéseinek a mintájára szülessenek? Lemondunk-e biztonság ígéretéért a szabad akaratunkról, eladjuk-e azt egy tál lencséért?
Készen állunk-e rá, hogy letegyük az életünket egy robot kezébe?
Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.