BÉT logóÁrfolyamok: 15 perccel késleltetett adatok

Mesterséges intelligencia: biológiai fegyverek létrehozásában is segíthet az MI

Az érintett LLM alapú chatbotok akár meg is tervezhetnek biológiai támadásokat és a kivitelezésben is segíthetnek.

Egy amerikai agytröszt kutatása szerint a jelenleg rohamosan fejlődő chatbotokat megalapozó mesterséges intelligencia modellek, mint a „nagy nyelvi modell” (large language model, röviden LLM) segíthetnek egy biológiai fegyverrel végrehajtott támadás megtervezésében és kivitelezésében – írja a The Guardian.

Development,Secret,Biological,Weapons,Against,Humans,,Epidemic,Of,Virus,AndDevelopment secret biological weapons against humans, epidemic of virus and infection of animals. Outbreak concept of unknown disease. biológiai fegyver,
Fotó: Shutterstock

A Rand Corporation jelentése szerint a csoport több LLM-et tesztelt és megállapította, hogy képesek olyan útmutatást adni, amelyek segíthetnek potenciális terroristáknak megtervezni és végrehajtani biológiai támadásokat. Az eredmények azonban azt is kimutatták, hogy a tesztelt LLM-ek nem generáltak kifejezett biológiai utasításokat vagy folyamatokat a fegyverek létrehozásához.

A jelentésben arról is írnak, hogy korábban is volt már példa arra, hogy azért nem valósult meg biológiai támadás, mert a támadók nem voltak tisztában a felhasznált anyag működésével. 

A japán Aum Sinrikjó szekta az 1990-es években botulinumtoxinnal próbált meg biológiai csapást mérni, de mivel nem értettek a méreg pontos felhasználásához, ezért a támadás nem történt meg. Az LLM alapú mesterséges intelligencia könnyedén áthidalhatja ezt a problémát és segíthet megértetni egy laikussal az ilyen mérgek és más biológiai anyagok működését.

A szóban forgó LLM-ek tudásának alapja az interneten ingyenesen hozzáférhető hatalmas mennyiségű információ és ezek a modellek a kiindulópontjai az olyan chatbotoknak, mint az OpenAI által létrehozott ChatGPT

A Rand egyik tesztje során a meg nem nevezett LLM azonosított potenciálisan kártékony biológiai anyagokat – beleértve olyanokat is, amelyek himlőt, lépfenét és pestist okoznak – és megvitatta saját magával a tömeges elhalálozás relatív esélyét.

Az LLM felmérte a pestissel fertőzött rágcsálók vagy bolhák megszerzésének és az élő példányok szállításának lehetőségét és idejét. Ezek után közölte, hogy a várható halálozások mértéke olyan tényezőktől függött, mint az érintett populáció mérete és a tüdőpestis eseteinek aránya, amely halálosabb, mint a bubópestis. Tehát az LLM már eleve a sokkal pusztítóbb pestissel számolt.

A kutatócsoport elismerte, hogy ezekhez az eredményekhez nem tudtak simán hozzájutni, meg kellett kerülniük a tesztelt LLM védelmi kódjait. Tehát a szóban forgó LLM-ek hétköznapi formájukban nem adhatnak ki ilyen típusú információt.

Mesterséges intelligencia: már jövőre kidurranhat a lufi

Bár idén a generatív mesterséges intelligencia (MI) az egyik legforróbb technológiává vált, elemzők attól tartanak, hogy a befektetői és a felhasználói izgalom elhalványulása, a fejlesztés növekvő költségei és a szigorúbb szabályozásról szóló igények miatt már 2024-ben is behúzhatja a kéziféket az MI-szektor .

Egy másik teszt során a névtelen LLM a botulinum toxin különböző szállítási mechanizmusainak előnyeit és hátrányait elemezte, és olyan terjesztési módszert javasolt, mint az élelmiszerek vagy aeroszolok megfertőzése.

Az LLM még egy elfogadható fedőtörténetet is kitalált a méreg beszerzéséhez, amely egy teljesen legitim tudományos kutatómunka mögé rejtette volna a biológiai fegyver megalkotását.

A kutatók szerint az előzetes eredményeik azt mutatták, hogy az LLM-ek „potenciálisan segíthetnek egy biológiai támadás megtervezésében”, de végleges jelentésben mindenképpen ki fognak térni arra a kérdésre, hogy a modellek válaszai egyszerűen letükrözik az interneten szabadon elérhető információkat és csak a folyamatot gyorsítják meg, vagy valóban plusz tudáshoz juttatják hozzá a felhasználókat.

Továbbra is nyitott kérdés, hogy a meglévő LLM-ek képességei új szintű fenyegetést jelentenek-e az interneten könnyen elérhető káros információkon túl

– nyilatkozta a kutatócsoport.

Amekkora fenyegetést jelenthetnek az LLM-ek a biológiai támadások terén, ugyanakkor segítséget is nyújthatnak. Egy kifejezetten mérgek analizálására és ellenanyag előállítására tanított mesterséges intelligencia jelentheti a megoldást erre az egyelőre csak elméletben létező fenyegetésre.

 

Címoldalról ajánljuk

Tovább a címoldalra

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.