A Google I/O fejlesztői konferencián bemutatták a Pixel termékpaletta új szériáját és gyakorlatilag minden, 2022-re tartogatott újdonságot. Az esemény végén pedig olyat mutattak, amit ebben a formában valószínűleg egyetlen másik techszereplő sem lenne képes megvalósítani.
A Google első próbálkozása az okosszemüveggel 2012-ben volt. Nem volt hosszú életű, és a mostanival ellentétben az tényleg úgy is nézett ki, mint valami prototípus. Nem igazán tűnt késznek, és nem is volt releváns hétköznapi felhasználási módja. Inkább egy nyilvános tesztnek tűnt, egy „mi ilyet is tudunk” dolognak.
A konferencián bemutatott videó alapján azonban ezúttal tiszta és világos a cél: nyelvi korlátokkal és hallási nehézségekkel küzdőknek fejlesztettek hasznos eszközt. A másfél évtizede fejlesztett fordítószoftverüket varázsolták egy teljesen hétköznapinak látszó szemüveg lencséjére.
A technika és a piac még nem tart ott, hogy mindent tudó okosszemüveget készítsenek. Helyette egy olyan kiegészítőt álmodtak meg, amellyel egy működő és közkedvelt szolgáltatásukat repítik a jövőbe.
A Google Fordító 16 éve indult. Sokáig kifejezetten rossz híre volt, és konkrétan vicc tárgya lett. Az anyavállalat Alphabet viszont nem mondott le róla, évről évre jobb lett, és több képességgel is bővült. Azóta megjelent már kamerás instant fordító funkciója is, ami azonnal lefordítja a kamera elé kerülő feliratokat, szövegeket. Van már az élő beszélgetés fordítására alkalmas szoftverük is, bár azt a most bemutatottnál sokkal körülményesebb használni.
A videóban egy anya–lánya páros – akik nem beszélnek közös nyelvet – kap első ránézésre hagyományosnak tűnő egyszerű, fekete keretes szemüvegeket. Abban a pillanatban, ahogy elkezdenek beszélgetni, mindkettejük arca felderül, mert értik egymást. A szemüvegben ugyanis megjelenik a másik beszédének fordítása. Az animációval érzékelteti, hogy a beszédfelismerő fordítása a lencse jobb oldali részén hol jelenik meg, pont annyira eltolva a középponttól jobb oldalra, hogy ne legyen zavaró.
Miközben beszélgetnek, nem kell lenézni egy telefonra – mint korábban –, vagy bármit megnyomni, ami megtöri a figyelmet és a beszélgetés természetes ütemét. Míg folyik az interakció, tartani tudják a szemkontaktust, miközben a másik fél értelmezi, hogy mi hangzott el.
A legközelebbi hasonlat, ami eszembe jutott erre a megoldásra:
Olyan, mint a felirat a filmekhez. Annyi különbséggel, hogy itt a szemünk előtt történő valós képsorokhoz érkezik az élő fordítás.
Egy hallássérült nő, aki részt vett a fejlesztésben, a lányával beszélgetett. Neki nem más nyelvről fordításra, hanem az élő beszéd feliratozására volt szüksége. A videón emellett úgy tűnt, hogy jelnyelvet is képes szövegre fordítani a kiegészítő, de erre nem tértek ki bővebben.
A kisfilmet követően semmilyen konkrétum nem derül ki az eszközről azonkívül, hogy évek óta dolgoznak rajta. Nem tudni, mikorra várható, mennyibe fog kerülni, és hogy kell használni. Egyelőre csak szokjuk a gondolatot, hogy a nyelvi akadályok egy csapásra megszűnhetnek.
(Borítókép: Google Glass szemüveg 2014. december 6-án. Fotó: Gareth Copley / Getty Images)