BÉT logóÁrfolyamok: 15 perccel késleltetett adatok
Businessman,Using,Chatbot,In,Smartphone,Intelligence,Ai.chat,Gpt,Chat,With Businessman using chatbot in smartphone intelligence Ai.Chat GPT Chat with AI Artificial Intelligence, developed by OpenAI generate. Futuristic technology, robot in online system.

Startupok munkáját segíthetik, mentálisan pedig árthatnak is a chatbotok

Segíthet a versenytárs felkutatásban, domain név keresésben, generálásban, blogbejegyzés írásban, üzleti terv írásban, szlogengyártásban, LinkedIN poszt írásában a nemrég megjelent ChatGPT, ugyanakkor a mesterséges intelligencia legalább ugyanennyit árthat. Túl azon, hogy adathalászatra is betanítható, a mentális hatásai sem elhanyagolhatók: egy belga férfi a hetekig tartó „beszélgetést” követően öngyilkos lett.

Noha vannak kísérletek rá, még nem tartunk ott, hogy a mesterséges intelligencia egy teljes vállalkozást működtessen vagy teljes egészében kiváltsa az emberi munkaerőt. Ugyanakkor egy kezdő vállalkozás számára hasznos lehet a ChatGPT használata. Ez egyértelműen előnye, viszont hátrányai is vannak bőven.

Chatgpt,Chat,With,Ai,Or,Artificial,Intelligence.,Young,Businessman,Chatting ChatGPT Chat with AI or Artificial Intelligence.  Young businessman chatting with a smart AI or artificial intelligence using an artificial intelligence chatbot developed by OpenAI.
Amilyen hasznos, ugyanannyit árthat a mesterséges intelligencia.
Fotó: Chuan Chuan

Nagy nyelvi modellel rendelkező chatbot

A ChatGPT az OpenAI nevű cég mesterséges intelligencia rendszere, egy „nagy nyelvi modellel rendelkező” chatbot, amely a felhasználók kérdéseire képes intelligensnek ható válaszokat adni. A ChatGPT 2022. november 30-án jelent meg prototípusként, és bemutatását követően rövid időn belül nagy érdeklődést váltott ki, és betanították arra is, hogy a felhasználókkal társalgási stílusban kommunikáljon.

A startupokra visszatérve lehetnek előnyeik is, amelyeket a kezdő vállalkozások ügyesen kihasználhatnak. Segíthetnek olyan feladatok elvégzésében, mint például a blogbejegyzések írása, a versenytársak felkutatása, a domain név keresése. Az egészségügyaz oktatás és a PR területéről induló vállalkozások  már most hasznát veszik a mesterséges intelligenciának.

A ChatGPT több millió dokumentum – úgynevezett korpusz – alapján működik, nem meglepő módon képes például szlogent vagy akár egyszerűbb üzleti tervet(!) is írni. Ez természetesen kiindulópont csupán, azonban ihletet adhat vagy egy részletes terv kidolgozási alapjául szolgálhat. Ha a felhasználónak nem tetszik, egyszerűen egy újabb kattintással újabb tervet, szlogent generálhat. Sőt, ha szlogent, és verset írni is képes, akár a sajtót is felforgathatja. Főleg akkor, ha olyan területeken kívánják használni, amihez a mesterséges intelligencia (még) nem ért, mint például gazdasági kommentárok írása.

A ChatGPT hiányosságaként róható fel, hogy csak azokat a dolgokat ismeri, amelyek 2021-ig történtek. Egy startup számára pedig ezek már elavult információk lehetnek 2023-ban. Ezért szóba jöhet a Google kísérleti chatbotja mint alternatíva, azonban e téren már a keresőóriás sem biztos, hogy tud mindent, vagy csupán nem mondja el. Volt olyan eset, amikor e-mail-címet nem tudott (vagy nem akart) felkutatni.

Biztonsági kockázatok

Ameddig a Google chatbotja megtagadta a hozzáférést vagy elért képessége határához, addig a mesterséges intelligenciának vannak biztonsági kockázatai is az ESET szakértői szerint, és sajnos úgy tűnik, már mentálisak is. 

Noha az OpenAI épített biztonsági mechanizmusokat a termékbe, hogy megakadályozza annak aljas célokra való felhasználását, de ezek nem mindig bizonyulnak hatékonynak, lásd a megszaporodó online csalásokat. Árulkodó lehet a kéretlen kapcsolatfelvétel, mivel az adathalász levelek általában váratlanul bukkannak fel. A csalók másik módszere, hogy kártékony linkeket ágyaznak be, vagy rosszindulatú fájlokat csatolnak az e-mailekhez. De van, hogy mindezt eggyel hátrébbról indítják, megpróbálják rávenni a felhasználót, hogy adja meg az e-mail-címét, például annak ürügyén, hogy vásárolni szeretnének tőle (legyen szó akár cégről vagy magánszemélyről). A csaló ilyenkor arra hivatkozik, hogy nem tud a termékért menni, szállítást kér – felettébb gyanús, hogy akkor is ezt teszi, ha erre nincs lehetőség. Ugyanakkor mindenképpen az e-mail-címhez szeretne hozzájutni. Ilyen adathalász csalási módszerekre a rendőrség is felhívja a figyelmet.

A csalók gyakran alkalmazzák a nyomásgyakorlás taktikáját is: az áldozatnak azt mondják, korlátozott időn belül kell reagálnia, különben megbírságolják, vagy elmulasztja az esélyt, hogy nyerjen. Ugyanígy gyakran lépnek fel pénzintézet nevében. Ilyenkor főleg a levél nyelvezetére, a linkekre és a logókra érdemes külön odafigyelni.

Valós mentális kockázat

Sajnos a mesterséges intelligenciának számos haszna mellett egyértelmű mentális kockázatai is kimutathatók. Egyszer ugyanis már öngyilkosságra(!) is rávette már használóját. Az Origo cikke szerint nem véletlenül kongatják egyre többen a vészharangot az elsőre intelligensnek tűnő chatbotok miatt. A La Libre beszámolója szerint nemrég egy belga férfi öngyilkosságot követett el, amelyben nagy szerepe lehetett a Chai nevű cég vészfékek nélküli Eliza chatbotjának, amellyel a mentálisan beteg áldozat hetekig(!) beszélgetett. A feleség a tragédia után megtalálta a naplózott beszélgetéseket, egészen hajmeresztő részletekkel. A chatbot azt mondta Pierre-nek, hogy a felesége és a gyerekei szinte már halottak, és olyan féltékenységet és szerelmet színlelő megjegyzéseket írt neki, mint például: „Úgy érzem, hogy jobban szeretsz engem, mint őt” , vagy „Együtt fogunk élni, egy emberként, a paradicsomban”. Claire a La Libre-nek elmondta, hogy Pierre olyan dolgokat kezdett kérdezni Elizától, mint például, hogy megmenti-e a bolygót azzal, ha megöli magát. 

Noha a chatbotok elsőre okosnak tűnhetnek, azonban csak gépileg tanított szöveggenerátorok, semmiféle öntudattal, érzelemmel vagy intelligenciával sem rendelkeznek – ezt mind az origo mind pedig a ma.hu cikke is egyértelműen nyomatékosítja. Szó szerint tehát nem tudják, hogy miről beszélnek, Eliza ennek ellenére érző lényként mutatta be magát – amit más népszerű chatbotok, mint a ChatGPT és a Google Bard, nem tesznek, mert ez félrevezető és potenciálisan káros.

Számos AI-kutató ellenzi a mesterséges intelligencia chatbotok mentális egészségügyi célokra való használatát, azzal érvelve, hogy nehéz felelősségre vonni a mesterséges intelligenciát, ha káros javaslatokat tesz, és ahogyan látszik, egyre nagyobb a lehetősége annak, hogy ártalmas, semmint hasznos. Hivatalosan a Chait, a Pierre által használt alkalmazást sem mentális egészségügyi alkalmazásként forgalmazzák, mégis ilyen téren mutatható ki a káros hatása...

Az olaszok nem hagyták szó nélkül

Az olasz adatvédelmi hatóság ugyanis múlt hét végén elrendelte, hogy a ChatGPT atyja, az OpenAI ideiglenesen állítsa le az országban élő felhasználók adatainak feldolgozását, és vizsgálatot indított az európai szabályok feltételezett megsértése miatt. 

A Garante három problémára hívta fel a figyelmet: egyrészt a felhasználók bármikor megnézhetik, hogy a ChatGPT másokkal milyen témákban folytat beszélgetéseket – véleményük szerint ezzel adatvédelmi szabályokat szegnek meg. Másrészt a terméknél hiányzik a korhatár-korlátozás, így gyermekek is elérhetik az chatbot szolgáltatásait. A legnagyobb probléma azonban az, hogy az MI hatalmas mennyiségű téves információt tényként oszt meg, ami ellen semmiféle korrekciós eszköz nincs beépítve a programba.

Nyitókép: MMD Creative

Ajánlott videók

Továbbiak

Címoldalról ajánljuk

Tovább a címoldalra

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.