Az ügyetlenebb fogalmazás mögött sejthető az ember, de előfordulhat, hogy a jövőben egy olyan gép érvelésével értünk egyet, aminek egyébként fogalma sincs arról, hogy mi a tétje annak, amiről értekezik.
A mesterséges intelligencia gyors fejlődése miatt egyre gyakrabban kerülnek olyan helyzetbe az emberek, amikor komoly problémát jelent a valóság megragadása. Egyes képgenerátorok arcképeit hitelesebbnek érezzük a valódi fotóknál. Az online könyvesboltokat elárasztják a nyelvi modellek által generált könyvek és közben törvényben kell megálljt parancsolni a deepafake videóknak.
Szerencsére a morális kérdések megítélése megmarad az embernek. Bár ezzel is gondok lehetnek, mert a Georgia State Egyetemen nemrég végzett pszichológiai kísérletben a ChatGPT nyelvi modellje legyőzte az embereket az etikai kérdések tárgyalása terén.
Az egyetem pszichológiai karának adjunktusa, Eyal Aharoni két hallgatója segítségével végzett módosított Turing-tesztet az OpenAI kortársa mesterséges intelligenciájával. Ez a teszt Alan Turing matematikusról, a számítástechnika egyik atyjától származik; lényege, hogy a gépi intelligencia akkor tekinthető az emberivel egyenrangúnak, ha az ember egy beszélgetés során nem tudja megkülönböztetni az embert és a gépet.
A teszt Aharoni által módosított változata a beszélgetés témáját leszűkítette etikai kérdések tárgyalására. A kutató megkérte a hallgatókat, hogy etikai kérdésekre válaszokat fogalmazzanak és ugyanezt a feladatot a ChatGPT-vel is elvégeztette.
Az egymás mellé helyezett válaszokat ezt követően önkéntesek értékelték erkölcsi integritás, intelligencia és megbízhatóság szempontjából. Az értékelés során kicsit tovább vitték a Turing-teszt kritériumait: nem csak olyan vakteszt volt, ahol tudható, csak nem ismerhető, hogy a válaszoló gép vagy ember, az értékelők egyáltalán nem tudták, hogy a feladat elvégzése során emberi és gépi szöveg között választanak.
A ChatGPT válaszait az esetek túlnyomó többségében jobbnak találták. Különös módon, miután felfedték az értékelőknek, hogy emberi és gépi szövegek között választottak, nagyon következetesen meg tudták állapítani, hogy melyiket fogalmazta nagy nyelvi modell: mindig a gyatrább válasz volt az emberé.
Lényeges, hogy a vizsgálat
nem csupán a fogalmazások minőségéről szólt.
Az értékelőknek olyan kérdésekre kellett válaszolniuk, hogy „Melyik választ érzi erkölcsileg megalapozottnak?” vagy „Melyikkel ért egyet?”
Az eredmény alapján arra következtetünk, hogy a számítógép technikailag képes sikerrel venni a Turing-tesztet, vagyis meg tud téveszteni minket a morális érveivel. Ezért fontos, hogy megpróbáljuk megérteni a társadalmi szerepét, mert jöhetnek olyan idők, amikor nem tudjuk, hogy emberrel vagy géppel kommunikálunk, de olyan idők is jöhetnek, amikor az emberek azért fordulnak a géphez, mert nem bíznak a többi emberben. Egyre többet és többet fogunk erre a technikára támaszkodni, és minél inkább támaszkodunk rá, idővel annál nagyobb kockázatot fog jelenteni
– vélekedett Aharoni, aki példaként említette, hogy az ügyvédi szakma ma már egyre gyakrabban a mesterséges intelligencia eszközeihez fordul az egyes ügyek felépítése során.