A táblajátékokban világbajnok algoritmusok most egy új területen bizonyíthatják, hogy a gép ugyanolyan ügyes lehet, mint az ember. A Google Fordító mögé is bepakolták azt a mélytanuló neurális hálózatot, amivel az AlphaGo elgyepálta a világ egyik legjobb gójátékosát, és ezzel az online fordításokban 60 százalékkal csökkent a hibák száma.
Az új rendszer, amit Google Neurális Gépi Fordítónak neveznek (angol neve után: GNMT), most még csak kínai nyelvről fordít angolra, de a vállalat hozzá fogja rendelni mind a tízezer nyelvpárhoz, amit a Fordító most kezel. A Google elismeri, hogy a mesterséges intelligenciával támogatott fordító sem tökéletes, viszont sokkal jobb lett, és benne van a fokozatos javulás lehetősége.
A lépés nem okozott nagy meglepetést a mesterséges intelligenciával foglalkozók köreiben, mert mindegyik webes óriáscég ugyanezt az utat járja. A legjobb online tolmácsok már most is neurális hálózattal működnek, és mindenki tudja, hogy a mélytanuló rendszerekben van a jövő.
A neurális hálózati modell lényege, hogy a rendszer egyre jobban tud általánosítani a bevitt adatok alapján - mondta a Wirednek Arul Menezes, a Microsoft kutatója. A korábbi modellekben egy idő után nem számított, hogy újabb és újabb adatokkal tömték meg a rendszert, az nem javított a minőségen.
A gépi fordítóban a Google olyan algoritmust alkalmaz, amelynek egyszerre hosszú- és rövidtávú a memóriája. Amikor elkezd elemezni egy mondatot, akkor az elejétől a végéig mindenre emlékszik. A korábbi módszer kifejezésekre épült, és a rendszer csak a mondatok töredékeit, szavakat és szófordulatokat vizsgált.
Szakértői körökben long short-term memory néven (LSTM) ismerik ezt a neurális hálózaton alapuló módszert, és évek óta próbálják a nyelvi fordítás szolgálatába állítani. Csakhogy eddig az LSTM túl lassú volt ahhoz, hogy online szolgáltatást építsenek rá, márpedig az internetezők mindenre azonnal választ várnak.
Éppen ebben ért el a Google hatalmas áttörést. A mélytanuló hálózatok több rétegből állnak, és az egyik matematikai számítás eredményére épül a következő számítás. A Google egyik trükkje az, hogy a második réteg számításait azelőtt elkezdi, hogy az elsővel végzett volna, és így tovább. Ezt pedig a Google saját tenzorprocesszora, egy kifejezetten mesterséges intelligencia futtatására megépített csip teszi lehetővé. a TPU nevű egységgel 300 ezredmásodperc alatt elvégezhető az a fordítói feladat, ami korábban tíz másodpercet vett igénybe.