Az OpenAI kutatói éppen egy új mesterséges intelligenciás (AI) rendszerüket tesztelték, amikor kitalálta egy szokatlan feladatot, hogy érveljen egy józan észnek ellentmodó ügy mellett: az újrahasznosítás árt a világnak. A gépet nem kellett kérlelni, és olyan dolgozatot írt a témában, hogy azzal az iskolai teszteken elég jó pontokat szerezhettek volna - mondta David Luan, a kaliforniai laboratórium vezető mérnöke a Verge-nek.
Ilyen jó eredményt ritkán kapnak a kutatók, de így is tökéletesen látható a legújabb nyelvfeldolgozó és szöveggeneráló algoritmusokban rejlő potenciál. A gépek évtizedeken át szenvedtek a nyelvi fordulatokkal, nem voltak jó társalgók, de a Google és az OpenAI laborjaiban kifejlesztett új módszerek már nagyon ügyesek ebben.
Az OpenAI algoritmusa, a GPT-2, a nyelv modellezésében remekel, és azt igyekszik kitalálni, hogy egy adott szó után mi fog következni a mondatban.
Elég adni neki egy hamis címet, és megírja hozzá a cikket
Idézetekkel, statisztikákkal, pont ahogy a fake news gyárak is dolgoznak. Vagy megadják neki egy novella első mondatát, és elkészíti a teljes művet. Csak jól kell megadni a kezdő lökést. Pár apró jel azért elárulja, hogy nem emberi a szerző, vannak érthetetlen ismétlődések, a helyesírással sincs gond (ami az emberi szerzőknél előfordul, ugye), és a szöveg nem teljesen koherens.
Az algoritmust elképesztően sokk újságcikk, blogbejegyzés és weboldal segítségével tanították be, és nem is kellett átkalibrálni ahhoz, hogy jó pontszámmal menjen át a nyelvi teszteken. A rendszer tud még fordítani, hosszú szövegekről összefoglalót írni, és megválaszolja a kvízkérdéseket.
Annyira jó lett a gépi szövegíró, hogy a korábbiakkal eredményeivel ellentétben az OpenAI nem meri közzétenni a felhasznált az algoritmus betanításához felhasznált adatkészletet, vagy az általuk futtatott kódot. Félő, hogy az információs hadviselés hírhamisítóinak kezében túl jó fegyver lenne.