Kedd este, a fejlesztőknek megtartott Google I/O rendezvényen bemutatkozott az új Android Q, pár Pixel mobil, és egy rakás fejlesztés, amely a mesterséges intelligenciára épül.
Eljött az ideje annak, hogy megújuljon az Android, hiszen eltelt egy év a legutóbbi verzió bemutatása óta. A vezérigazgató Sundar Pichai persze az ilyenkor szokásos erős kijelentésekkel indított, hogy keresőcégből olyan vállalattá szeretnének válni, amely segít az embereknek a mindennapokban.
tudásukat, sikerüket, egészségüket és boldogságukat szeretnék növelni
Mindez tök jól mutat a tízméteres kivetítőn, de nézzük, hogy milyen újításokat hoztak nekünk idén.
A Google alaptermékében, az online keresőben sokkal több vizuális tartalom lesz, 3D modellek is megjelennek a találatok közt. Ha például megtaláljuk egy csontváz modelljét, amely az izmok működését mutatja be, az animált modellt behelyezhetjük a saját terünkbe, hogy az asztal közepén mozgassa azt a bicepszet. A kiterjesztett valósággal akár egy cápát is tehetünk a nappalinkba, méretarányosan, de úgy, hogy még az árnyéka is látsszon a padlón a mobil kijelzőjén át nézve.
Látványos, de ennél jóval hasznosabb a Google Lens, ha az ételek kiválasztásában kell segíteni, amikor beülünk egy étterembe. Elég rávinni a kamerát az étlapra, és a telefon kijelzőjén bekeretezi nekünk a látogatók kedvenceit, ismét a valóságot keverve a virtuális térben meglévő adatokkal. Persze el is olvashatjuk, mit írnak mások a helyről és az ételekről.
Még többet segít a Lens, ha otthon akarunk főzni. Elég ránézni a kamerával egy főzős magazin receptjére, és a telefonunkon máris életre kel az újság, egy részletes, videókkal kiegészített útmutatót kapunk. A Google több lapkiadóval együttműködik, hogy legyenek ilyen online tartalmak, különféle témákban, szóval kíváncsian várjuk, hogy mikor lesz ilyen magyar nyelven is.
Fordítani is tud a Lens a gépi látás fejlődésének hála: valós időben felolvassa a látott betűket, és ennek köszönhetően az analfabéták is el tudnak boldogulni a világban, önállóan tudnak maguknak vonatjegyet venni, bankolni és vásárolni. A rendszer jobb, mint a számítógépes optikai karakterfelismerők, és az egész megoldást úgy rakták össze, hogy beleférjen 100 kilobájtba, akár egy 35 dolláros telefonon is futtatható legyen. Nem véletlen, hogy egy indiai példát hoztak: ott írástudatlanok és olcsó telefonok is előfordulnak.
A Google Segéd pedig az a rendszer, amely helyettünk tud beszélni, online szolgáltatásokat kezelni. A Google Segéddel dolgozik együtt a Duplex nevű alrendszer, amely tök automatán végig tud menni például egy autókölcsönzési folyamaton, a naptárbejegyzéseink alapján kitölti az adatokat, kiválasztja a kedvenc autótípusunkat a korábbi rendelések alapján, és bár végig kontrollálhatjuk a folyamatot, igazából csak a végén kell rábökni, ha elfogadjuk a rendelését.
A Segédben jelentős javulást értek el a hangfelismerésben a legújabb mélytanulási algoritmusokkal, és a beszédmodellhez szükséges 100 gigabájtnyi adatot be tudták sűríteni fél gigabájtba, hogy telefonokon is elférjen. A demóban villámgyorsan működött a Google Segéd, és bármilyen alkalmazás volt éppen nyitva, meg tudott nyitni egy másikat.
Csak mondani kellett, és máris rendelt egy Ubert, beállított egy 10 perces időzítőt, megnézett egy adott Twitter-fiókot, és mindezt úgy, hogy egyszer sem kellett kézzel appot váltani. Úgy tudtak kizárólag diktálással végigírni egy emailt, hogy amikor fogalmazás közben megmondták, hogy legyen a tárgy "Yellowstone-i Kalandok", ezt a pár szót az utasítással együtt először még beírta a rendszer az email szövegtörzsébe, de aztán egy pillanaton belül átkerült a tárgy a neki szánt helyre. Ez a funkció valamikor pár hónapon belül lesz elérhető a Pixel telefonokon.
Hogy okosabb legyen a Segéd, kézzel is megadhatunk személyes információkat, adatokat a családtagjainkról, ismerőseinkről. Ez abban segít, hogy gyorsabban hozzájuk tudjunk navigálni autóval, vagy beállíthassunk egy emlékeztetőt a születésnapjuk előtti hétre, és hogy a GDPR szabályaira nagy ívben tojva más emberek személyes adatait tápláljuk be a Google rendszerébe.
Miután a Google az elején arról beszélt, hogy mindenkinek az életét egyszerűbbé szeretnék tenni, különösen fontos az a bejelentés, hogy a Google igyekszik kivenni az előítéletet a mesterséges intelligenciát (MI) betanító modellekből.
Olyan módszert dolgoztak ki, amely kimutatja, hogy melyek a lényeges adatok, és melyek azok, amelyek félreviszik a tanítást. Így az MI nem gondolja majd azt, hogy az orvos csak férfi lehet, csupán azért, mert a betanításhoz használt fotók igen nagy részén férfi orvosok láthatók.
Az is egy érdekes megközelítése az MI-nek a felhasználói adatokra építő keresőcégtől, hogy a lehető legkevesebb nyers adat begyűjtésével szeretnék továbbképezni a modelljeiket. Mint Sundar Pichai elmondta, ahelyett, hogy a telefonokról próbálnának minél több adatot felküldeni a felhőbe, inkább a gépi tanulás algoritmusait küldik le a telefonokra.
Ezzel a módszerrel úgy tanulhat új szavakat és rövidítéseket a Gboard billentyűzet, hogy a Google soha nem látja, mit írnak az emberek
Néhány érzelmileg is megkapó projektje is van a Google-nek, hasonlóan ahhoz az Azonnali átíráshoz, amelyet az Indexen már bemutattunk, és a halláskárosultaknak segít abban, hogy leírja a kijelzőre a mobil közelében tartózkodók beszédét, hogy ők se maradjanak le a beszélgetésekről.
Ennek a kiegészítése a Project Euphonia, amely a beszéddel küszködők, például a stroke-on átesettek, szklerózis multiplexben szenvedők mondanivalójának megértését segíti - az alig érthető szavakat is le tudja írni a kijelzőre. Ehhez viszont még a Google is segítséget kér, hogy minél több nehezen beszélő ember, minél több nyelven vegyen részt az algoritmusok betanításában, mert anélkül nem jutnak sehová.
A Live Caption nevű rendszer a családi videók és hangfelvételek feliratozását végzi el, a még fejlesztési stádiumban lévő Live Relay pedig leírja nekünk mindazt, amit egy telefonhívásban a másik fél mond, és bepötyögött szöveggel lehet válaszolni.
Ebben a pillanatban 2,5 milliárd android mobil van használatban világszerte, hangzott el a sajtóbemutatón, szóval amit a Google fejleszt, annak valóban elég nagy hatása van az emberiségre.
A Nest Hub Max a Google új otthoni asszisztens eszköze, amellyel videotelefonálni lehet, hangvezérléssel tehetünk fel kérdéseket, és kezelhetjük az okosotthon eszközöket, például a kompatibilis termosztátokat és lámpakapcsolókat. A magánszférára is odafigyeltek, a 10 colos kijelző mögött van egy kapcsoló, amellyel lekapcsolható a kamera és a mikrofon áramellátása, így a készülék biztosan nem tud kémkedni utánunk. Magyarul viszont még nem tud.
A mobilok maradnak a Pixel név alatt, és a kínálatba most bekerült két új modell, a 3A és 3A XL, amelyek 400 dolláros árról indulnak, vagyis fele vagy egyre inkább harmadannyiba kerülnek, mint az aktuális csúcsmodellek. A kijelző OLED, van jackdugós aljzat, és a demó alapján remek a kamerája. Az aksija állítólag 30 órát bír, és 15 perc alatt 7 órára elegendő energia tölthető bele. Nagy kár, hogy Magyarországon nem árulják, Németországig kell elmenni érte.