Blake Lemione, a Google egyik dolgozója, aki a vállalat LaMDA nevű csetrobotján dolgozik, arra a következtetésre jutott, hogy az érző lénnyé vált – olvasható a Washington Post írásában.
A nevét a nyelvi modell párbeszéd alkalmazásokhoz angol rövidítéséből kapó robottal Lemione a Google felelős mesterséges intelligencia részlegének munkatársaként került kapcsolatba. A csetbot az úgynevezett nagy nyelvi modell segítségével,
az interneten található szövegeket használva igyekszik az emberi beszédet utánozni.
Amikor Lemione a vallásról beszélt a LaMDA-val, feltűnt neki, hogy a robot felveti a személyiség és a jogok kérdését, míg egy másik beszélgetés során a LaMDA arról győzte meg, hogy változtasson álláspontján a sci-fi szerző Isaac Asimov robotikával kapcsolatos törvényei közül a harmadikkal kapcsolatban.
Lemione később egy kollégájával bemutatta a robot mint érző lény kapcsán összegyűjtött bizonyítékait is a Google-nek, azonban a cég alelnöke, Blaise Aguera y Arcas és Jen Gennai a felelős mesterséges intelligenciával kapcsolatos innovációk vezetője
a vállalatnál nem találták meggyőzőnek az állítást és a bizonyítékokat, így hétfőtől a programozót fizetett szabadságra küldték.
Azonban nem Lemione az egyetlen programozó, aki szerint a szellem már a gépben van, egyre több kutató állítja azt, hogy nincs messze a pillanat, amikor a mesterséges intelligencia öntudatra ébred. Aguera y Arcas a The Economistban például arról írt, hogy az emberi agy működését imitáló neurális hálók az öntudat felé törekednek.
A Google közleménye azonban azt állítja, hogy megvizsgálták Lemione állításait, ám a bizonyítékok azt nem támasztják alá.
Noha napjaink nagy neurális hálózatai képesek az emberi beszélgetésekre kísértetiesen hasonlító eredményeket felmutatni, ennek az oka csupán a rendszerek felépítésében és a betáplált adatok mennyisége. A szellemes társalgás hátterében nem szándék áll, hanem egyszerűen a mintázatok felismerése.
Bár mások hasonló csetrobotokat már piacra is dobtak, a Google a LaMDA-val igyekszik óvatosabb lenni. Májusban a Meta megnyitotta saját nyelvi modelljét a kutatók, civil szervezetek és kormányzati szervek előtt a transzparencia jegyében.
Számos, jól fizetett kutató, aki az emberi intelligenciát jelentősen meghaladó képességekkel bíró mesterséges intelligenciát igyekszik fejleszteni, mindenesetre fellelkesült a hírektől és azt reméli, hogy mindössze pár lépésre vagyunk az öntudattól. A legtöbb kutató szerint azonban ezek a rendszerek csupán a felhasznált adatokból dolgoznak – amit az emberek posztolatak a Wikipédiára, a Redditre vagy máshova – ám nincs jele annak, hogy értenék mit jelent amit mondanak. A rendszerek fejlesztésénél használt szavak, mint a tanulás, vagy a neurális háló tovább fokozzák az emberi elme és ezen rendszerek közötti hamis analógiát.
A hajlam, hogy mindenhova az emberihez hasonló tudatot képzeljünk sem segít a helyzet megértésében.
A Google szóvivője is azt hangsúlyozta, hogy bár a mesterséges intelligencia köré csoportosuló közösségen belül sokan számolnak az érző, vagy általános mesterséges intelligencia megjelenésével, nem szerencsés a mai társalgási modelleket ahhoz hasonlítani. Ugyanakkor a nagy nyelvi rendszerek már széleskörben használatosak, így tudja a Google keresője például folytatni a begépelt keresőszavakat, kifejezéseket, de sokan a Sirihez vagy az Alexához is úgy szólnak, mintha az ember lenne.
Az antropomorfizációnak azonban biztonsági kockázatai is vannak, így a Google egy, a LaMDA kapcsán írt tanulmánya arra figyelmeztetett, hogy az emberek könnyen oszthatnak meg személyes gondolatokat egy ilyen robottal akkor is, ha tudják, hogy az nem ember.
Bizonyos személyek társalgási stílusával pedig rosszindulatú aktorok is visszaélhetnek.
A lap idézi a Google etikus mesterséges intelligencia részlegét korábban vezető Margaret Mitchellt is, aki szerint ezek a veszélyek aláhúzzák az adatok átláthatóságának fontosságát, hogy nyomon követhető legyen melyik bevitt kód eredménye a végtermék. Ezek nélkül az érző robotról szóló találgatásokat nagyban befolyásolják a kutatók előítéletei és hiedelmei. A főként mérnököket és egyéb természettudósakat alkalmazó Google-nél például a vallásos, kis déli gazdaságról származó Lemoine inkább kivételnek számít. A kutatót mint misztikus papot is felszentelték, de a hadseregben is szolgált és az okkultizmust is tanulmányozta. Googlenél töltött hét éve nagy részét a proaktív keresésen dolgozva töltötte, mielőtt a felelős mesterséges intelligencia részlegén kötött volna ki.
A cikket jegyző újságíró maga is társalgott a robottal, ám a tapasztalataiból inkább arra lehet következtetni, hogy a vállalatnak lehet igaza, hiszen az első beszélgetése meglehetősen nyögvenyelősre sikerült, míg másodjára, Lemoine utasításait követve sokkal könnyebben ment a beszélgetés, vagyis a robot alkalmazkodott a stílusához. Ez persze lehet az öntudat jele is, de a LaMDA működési elvével is összhangban van.
Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.