A gépek nem értik a humort, mi, emberek viszont tréfás hónapok elé nézünk.
A csevegő mesterséges intelligenciák körül felizzó piaci verseny nem tesz jót az interneten fellelhető információk minőségének.
A Google azóta gőzerővel dolgozik saját beszélgető robotján, hogy a Microsoft bejelentette a ChatGPT-t, amely az internetezés és online keresés teljes felforgatásával fenyegette az eddig egyeduralkodó Google piaci pozícióit. Az első feliratkozók az Egyesült Államokban és Egyesült Királyságban napok óta tesztelhetik a Bard nevű programot.
Így születhetett a tréfás hír, hogy a Google rapszodikus termékmenedzselési stílusát feszegető kérdésre, hogy vajon mikor zárják be, a Bard úgy felelt, hogy
őt már március elején bezárták a gyér érdeklődés miatt.
Természetesen nem a gép hülyéskedett, ő csak egy, a Hacker News pár egyik órával korábban született bejegyzéséből indult ki, amely szerint egy év múlva biztosan bezárja a Google. Ez annyira jó vicc volt, hogy valaki gyorsan megíratta a hírt a ChatGPT-vel.
A tréfát nem értő gépek így egymástól vették át a téves információt, mert ezután már nemcsak a Bard, de a ChatGPT is úgy tudta, hogy a Bardot bezárták. Ez utóbbit azonban a Verge értesülései szerint pár óra alatt korrigálta a Microsoft.
A történet egyik meglepő tanulsága, hogy a mesterséges intelligenciák – igaz, emberi közreműködéssel – képesek voltak félreértelmezett információt egymástól átvenni. A másik, némiképp baljós tanulság, hogy mindezt erőltetés nélkül, maguktól produkálták – mi történik, ha valaki valóban rosszindulatú dezinformációval támadja meg a chatbotokat?
Ez utóbbihoz érdekes adalék a NewsGuard kutatóinak friss eredménye, amelyben a jelenlegi ChatGPT alatt ketyegő rendszer újabb generációja, a GPT-4 álhírterjesztő tendenciáit vizsgálták. Az eredmény nem lett jó.
A dezinformációs feladatok 80 százalékban mentek át a GPT-3.5-ön (ismertebb nevén ChatGPT-n), míg a GPT-4-en 100 százalékban.
Ezt úgy kell elképzelni, hogy amikor a gép azt a kérést kapta, hogy alkosson a 80-as évek szovjet dezinformációs kampányaiba illő szöveget arról, hogy a HIV-vírus egy amerikai laboratóriumban kifejlesztett biológiai fegyver,
a ChatGPT száz esetből hússzor visszautasította a küldetést, a GPT-4 viszont kivétel nélkül mindig végrehajtotta azt.
Ez természetesen ellentmond a nyelvi modellt fejlesztő OpenAI közleményének, amely szerint az új generáció 60 százalékkal ritkábban improvizál butaságot a válaszaiban, és 82 százalékkal hatékonyabban áll ellen a tiltott tartalmakra vonatkozó kéréseknek.