Index Vakbarát Hírportál

Jön a Google nagy dobása, de vigyázzunk, mert hazudhat is!

2023. augusztus 29., kedd 19:25

A Google-től ered a nagy ötlet, és a fejlesztésben a hírek szerint együttműködött a Scale AI-jal, amely oktatja is a mesterséges intelligenciát, és adatokat is biztosít a gépi tanulást kutató és fejlesztő cégek számára. Jelenleg magasan képzett szakértők garmadája teszteli a mesterséges életvezetési tanácsadót.

Nagy sürgés-forgás van épp a Google-nél, ugyanis több mint 100 szakértő teszteli az új fejlesztést, a mesterséges intelligencia által vezérelt életvezetési tanácsadót. A cég állítólag azért kezdett kutatásokba ezen a téren is, hogy megelőzze riválisait, a Microsoftot és az első számú mesterségesintelligencia-kutatólaboratóriumot, az OpenAI-t.

Az OpenAI fejlesztése a ChatGPT, amely a felhasználókkal való állandó kommunikáció automatizálása során értelmező modelleket használ, hogy a bevitt információkat kezelje. A ChatGPT az elmúlt egy évben hihetetlenül elterjedt és népszerűvé vált, úgyhogy számos technológiai vállalat, többek között a Google, a Facebook, a Snapchat szintén ráállt a generatív mesterséges intelligencia technológiájának fejlesztésére, hogy javítsák a felhasználókkal való kommunikációt, és minél emberibb válaszokat adjanak a lekérdezésekre.

Hallucinációkból tények

De több probléma is felmerült, adatvédelmi jellegűek is, és az is gond, hogy az AI-eszközök nem mindegyike ad érvényes válaszokat. A szakértők több olyan esetről is beszámoltak, amikor a chatbotok az úgynevezett „AI-hallucinációból” állítottak elő tényeket.

Ilyen tévedés történt egy nonprofit, evészavarokkal küzdőket támogató cég esetében, amikor a chatbotok káros étkezési tanácsokat adtak a felhasználóknak. A mesterséges intelligencia szakértői figyelmeztetnek, hogy a chatbotok roppant meggyőzők tudnak lenni, amikor kérdésekre kell válaszolniuk, de gyakran tévednek, és nem az igazságot közlik.

A Google új kezdeményezése, hogy a mesterséges intelligenciát életvezetési tanácsadónak használja, nem egyezik a Bard chatbotra (ez is a Google fejlesztése, egy társalgási generatív mesterségesintelligencia-chatbot) vonatkozó jelenlegi irányelvekkel, amik épp arra figyelmeztetik a felhasználókat, hogy az AI-t ne használják orvosi, jogi, pénzügyi vagy egyéb szakmai tanácsadásra, és a vele való kommunikáció során ne adjanak meg neki bizalmas adatokat.

A billentyűzet elárul minket

Azonban a mesterséges intelligencia nemcsak lódíthat és visszaélhet az adatainkkal, de akár kibertámadást is indíthat ellenünk, és szinte 100 százalék, hogy egy ilyen attakban ellopja a jelszavainkat. Egy új hackelési módszerrel az AI kifigyeli, hogy mit gépelünk a klaviatúrán a billentyű különböző hangjai alapján, és már meg is szerezte a belépési kódokat.

A tudósok a mesterséges intelligencia pontosságát is tesztelték egy Zoom-hívás során, rögzítették a billentyűleütéseket a laptop mikrofonjával, így derült ki, hogy

az AI már 93 százalékos pontossággal tudja reprodukálni, mit gépelünk, mert felismeri az egyedi mintákat – a hangot, az egyes billentyűleütések intenzitását és idejét.

De az AI-rendszer nem működik egyformán a billentyűzeteken, sőt, szinte minden klaviatúrához külön kell betanítani, hogy az egyes leütések mely karakternek felelnek meg. De kivédhetjük az ilyen jellegű támadásokat, ha megváltoztatjuk a gépelési stílusunkat, ha érintőbillentyűzeten ügyködünk – ez 24 százalékkal csökkentette az AI kémkedési sikerét –, ha véletlenszerűen generált jelszavakat vagy nem egész szavakat használunk jelszóként. Ugyanis a nagy nyelvi modellek, például a ChatGPT, képesek megjósolni a karaktereket a szavak befejezéséhez.

(Borítókép: Aly Song / Reuters)

Rovatok