A Google DeepMind új agya több mint hatszáz különböző feladat megoldását tanulta meg.
Dr. Nando de Freitas, a Google DeepMind kutatási igazgatója tweetben reagált a Next Weben megjelent cikkre, amelynek szerzője annak a véleményének adott hangot, hogy az emberiség soha nem lesz képes általános, ha úgy tetszik, emberhez hasonlóan értelmes mesterséges intelligenciát létrehozni.
Már csak a méreteken múlik! Game over!
– írta Freitas.
Csak nagyobbá, biztonságossá és hatékonyabbá kell tenni a modelleket, okosabb memóriahasználat, több üzemmód, innovatív adatok, on- és offline működés... Ha ezeket a kihívásokat megoldjuk, megvan az általános mesterséges intelligencia
– tette hozzá.
A szóváltás abból alakult ki, hogy a DeepMind, amely egy évtizede dolgozik általános mesterséges intelligencia fejlesztésen, nemrég bemutatta Gato nevű intelligenciáját, ami az eddigi legteljesebb gépi tanulási csomagként különböző feladatok megoldását képes megtanulni régi Atari játékoktól a robotkar önálló mozgatásáig.
A jelenlegi MI-rendszerek túlnyomórészt egy nagyon szűken behatárolt feladat végrehajtására alkalmasak. A munkánk jelentősége, hogy egy modellel feladatok százait vagyunk képesek megoldani
– részletezte a rendszer jelentőségét Scott Reed, a DeepMind kutatója.
A Gato egyelőre nem igazán ügyes: a 604 feladatból, amit meg tud oldani, 450-ben tudja megközelíteni a szakképzett ember teljesítményét, más esetekben nem. A beszélgetésben butaságot mond, és tévesen állapítja meg az emberek nemét.
A Gato egyébként nagyon hasonló a ma használatos MI-rendszerekhez, ez is egy úgynevezett transzformer, ami az összetett feladatok megoldásához 2017 óta használt architektúra. A GPT-3 nyelvi intelligenciánál egy nagyságrenddel kisebb az általa kezelt paramétereket tekintve. Az, hogy kisebb, nem véletlen, fejlesztői szerint nagyobb léptékben megvalósítva már megbirkózhat bármilyen „feladattal, viselkedéssel vagy bármivel, ami érdekes”.
A Gato egyelőre nemcsak kicsi, de van egy a fejlettebb mesterséges intelligenciákra jellemző gyengesége is, ami a korlátozott kontextuális mozgástér, még egyszerűbben: az emlékezet. A GPT-3 például képes teljesen hitelesen fogalmazott szöveget előállítani, de egy hosszú esszé vagy könyv megírására így sem képes, mert egyszerűen elveszíti a fonalat. Annak elfelejtése, hogy miről szól az aktuális feladat, a gépi tanulás egyik Achilles-sarka.
Az általános mesterséges intelligencia egy filozófiai probléma is. A témával foglalkozó tudósok egy része úgy gondolja, hogy egy ilyen gondolkodó gép veszélyt jelent, és egzisztenciális katasztrófába sodorhatja az emberiséget. Attól tartanak ugyanis, hogy a mesterséges intelligencia az embereket kiszorítva a bolygó urává válik, mivel egy csapásra az emberit meghaladó szuperintelligenciára tehet szert, és megakadályozza, hogy a majmokká visszaminősített emberek kikapcsolják.
Freitas elmondta, hogy a biztonság az egyik legfontosabb kérdés, a londoni DeepMind dolgozik egy úgynevezett „nagy piros gombon”, ami lehetővé teszi az emberi beavatkozást, ha a gép tettei nem kívánt következményekhez vezetnek, vagyis vész esetén leállítható a hatalomátvétel.
Kérdés, hogy mikor lesz szükség egy ilyen gombra. A Turing-teszt az a beszélgetés, amelyből kiderül, hogy a gép megkülönböztethető-e az értelemmel rendelkező válaszadótól. A kollégája kérdésére, hogy a Gato milyen messze van attól, hogy átmenjen a teszten, Fretias elmondta, hogy
egyelőre messze van.
(Independent, The Next Web, TechCrunch)
(Borítókép: Jason Alden / Bloomberg via Getty Images)