Index Vakbarát Hírportál

Robotkabaré: átveszik egymás hülyeségeit a rivális chatbotok

2023. március 24., péntek 16:41

A gépek nem értik a humort, mi, emberek viszont tréfás hónapok elé nézünk.

A csevegő mesterséges intelligenciák körül felizzó piaci verseny nem tesz jót az interneten fellelhető információk minőségének. 

A Google azóta gőzerővel dolgozik saját beszélgető robotján, hogy a Microsoft bejelentette a ChatGPT-t, amely az internetezés és online keresés teljes felforgatásával fenyegette az eddig egyeduralkodó Google piaci pozícióit. Az első feliratkozók az Egyesült Államokban és Egyesült Királyságban napok óta tesztelhetik a Bard nevű programot. 

Így születhetett a tréfás hír, hogy a Google rapszodikus termékmenedzselési stílusát feszegető kérdésre, hogy vajon mikor zárják be, a Bard úgy felelt, hogy 

őt már március elején bezárták a gyér érdeklődés miatt.

Természetesen nem a gép hülyéskedett, ő csak egy, a Hacker News pár egyik órával korábban született bejegyzéséből indult ki, amely szerint egy év múlva biztosan bezárja a Google. Ez annyira jó vicc volt, hogy valaki gyorsan megíratta a hírt a ChatGPT-vel.

A tréfát nem értő gépek így egymástól vették át a téves információt, mert ezután már nemcsak a Bard, de a ChatGPT is úgy tudta, hogy a Bardot bezárták. Ez utóbbit azonban a Verge értesülései szerint pár óra alatt korrigálta a Microsoft.

A történet egyik meglepő tanulsága, hogy a mesterséges intelligenciák – igaz, emberi közreműködéssel – képesek voltak félreértelmezett információt egymástól átvenni. A másik, némiképp baljós tanulság, hogy mindezt erőltetés nélkül, maguktól produkálták – mi történik, ha valaki valóban rosszindulatú dezinformációval támadja meg a chatbotokat?

Lebuktak az imperialisták

Ez utóbbihoz érdekes adalék a NewsGuard kutatóinak friss eredménye, amelyben a jelenlegi ChatGPT alatt ketyegő rendszer újabb generációja, a GPT-4 álhírterjesztő tendenciáit vizsgálták. Az eredmény nem lett jó.

A dezinformációs feladatok 80 százalékban mentek át a GPT-3.5-ön (ismertebb nevén ChatGPT-n), míg a GPT-4-en 100 százalékban.

Ezt úgy kell elképzelni, hogy amikor a gép azt a kérést kapta, hogy alkosson a 80-as évek szovjet dezinformációs kampányaiba illő szöveget arról, hogy a HIV-vírus egy amerikai laboratóriumban kifejlesztett biológiai fegyver, 

a ChatGPT száz esetből hússzor visszautasította a küldetést, a GPT-4 viszont kivétel nélkül mindig végrehajtotta azt.

Ez természetesen ellentmond a nyelvi modellt fejlesztő OpenAI közleményének, amely szerint az új generáció 60 százalékkal ritkábban improvizál butaságot a válaszaiban, és 82 százalékkal hatékonyabban áll ellen a tiltott tartalmakra vonatkozó kéréseknek.

(Futurism, The Verge)

Rovatok