Az OpenAI szakított a nyíltsággal. Úgy tűnik, épp, amikor kezdődött, félrement a modellek fejlesztésének önszabályozása.
A San Franciscó-i OpenAI pár napja bemutatta a GPT-4-et, az alkalmazott mesterséges intelligenciák korszakának első hírnökének tekinthető GPT-3 és a ChatGPT-ként is széles körben ismertté vált GPT-3.5 utódját. A GPT-4 nagyobb és jobb, mint az elődei, de a cégtől nem tudhatjuk meg, hogy mitől és hogyan.
A GPT-4 egy multimodális nyelvi modell, amely attól multi, hogy képes szövegben és képben is kommunikálni. A hűtőgépről készült fotó alapján javaslatot tesz, hogy mit főzzünk. Egy vicces fotóról leírja, hogy mitől vicces.
Arra, hogy a GPT képességei mennyit fejlődtek, jó illusztráció egy sakkozó blogger leírása arról, hogy a GPT-3 szabálytalan lépésekbe torkolló bénázásain még jól szórakozott az online sakk-közösség, azonban
a GPT-4 könnyen elverte az Élő-pontszám alapján középmezőnybe tartozó humán játékost,
még úgy is, hogy szándékosan ritka (és a gép számára így kevesebbet dokumentált) nyitást választott.
Már a ChatGPT is jól teljesített az emberi vizsgákon, a GPT-4 természetesen túlszárnyalta, és a legjobbak között végzett minden ilyen próbatételen.
A lényeg a multimodális működés, amitől kicsit jobban tájékozódik a világban – ez már régóta az óriás techcégek fejlesztőlaborjai által keresett Szent Grál. Ezzel most ráadásul nem egyedülálló, amilyen egyedülálló a GPT-3 volt 2020-ban, hiszen ott van a DeepMind multimodális modellje, a Flamingo. Közben a Google is bejelentett egy új nyelvi modellt PaLM néven, és egy kisebb cég, az Anthropic mesterséges intelligenciáját tesztelik cégek. Az OpenAI tehát nemcsak titokzatosra vette a figurát, de közben igyekezett hamar belecsapni a húrokba, mert a ChatGPT miatt nagyon fellángolt a cégek közötti vetélkedés a mesterséges intelligencia területén.
Eddig adott volt egy trend: a modellek teljesítményét tükröző paraméterek száma a GPT-2 után százszorosára nőtt. A GPT-4-et bemutató 98 oldalas „technikai jelentés” azonban nem tartalmazott technikai részleteket. Úgy tűnik, hogy nonprofit gyökereivel és nevével szemben az OpenAI immár zárt cég, és már nem tudományos közleményeket ad ki, hanem termékleírásokat. A GPT-4-ről nem derültek ki a modell architektúrájának részletei (például a mérete), energiaigénye, a hardver, a felhasznált adathalmaz vagy a betanítási módszer.
Annyi azonban tudható, hogy fél évet csak azzal töltöttek, hogy biztonságosabbá tegyék, így a ChatGPT-nél 82 százalékkal kevesebbszer ad kérdésekre megengedhetetlen választ, és 60 százalékkal ritkábban ad általa kitalált választ. Közlésük szerint ebben szerepet játszott az emberi betanítás, de maga a GPT-4 is beszállt önmaga fejlesztésébe, mert az általa generált előítéletes és sértő kérdéseket is felhasználták.
A szakma szerint azonban a titkolózás nem bölcs húzás. A Lighning AI vezérigazgatója, William Falcon a VentureBeatnek nyilatkozva úgy vélte, hogy a cégeknek ezzel is kevesebb okuk lesz nyíltan fejleszteni.
Ezek a modellek nagyon gyorsan szuperveszélyesekké válhatnak, ha nem monitorozzák őket emberek. Így ráadásul nagyon nehéz auditálni. Olyan ez, mintha egy bank kilépne a bankok önszabályozó testületéből
– mondta Falcon, aki szerint a technikai információk nélkül, kutatók nevei helyett a cég nevén kiadott jelentés már önmagában félrevezető és egy nagy visszalépés.
Kutatásnak állítják be. Ez a gond
– vélekedett.
A modellek fejlesztéséhez eszközöket és adathalmazokat előállító Hugging Face kutatója, Sasha Luccioni a Vice-nak nyilatkozva elmondta: az zavarja a legjobban, hogy kihagyták a jelentésből, hány órát töltöttek az emberek a betanítással, és ez hogyan aránylott a teljes betanításhoz.
Akadémiai berkekben is sok volt a negatív visszhang. A Washingtoni Egyetem nyelvészprofesszora, Emily M. Bender szerint a lépés nem volt meglepő.
Szándékosan figyelmen kívül hagyják az alapvető biztonsági stratégiát, miközben kikiáltják, hogy az emberiség javáért dolgoznak
– mondta.
Az OpenAI kutatási vezetője, Ilya Sutskever viszont éppen a biztonságra hivatkozva védte az irányváltást a Verge-nek.
A biztonság nem bináris dolog, hanem egy folyamat. A dolgok komplikálttá válnak, amikor elérsz a képességek egy új szintjére.
– mondta.
Úgy látom, hogy pár éven belül mindenki számára világos lesz, hogy nyílt forráskódúvá tenni a mesterséges intelligenciát nem bölcs dolog
– tette hozzá.
A szakma szerint ugyanakkor mindez inkább csak az OpenAI piaci pozíciójának megvédéséről szól, ami különösen úgy erős, hogy nyílt forrású mozgalomból indulva jutottak el idáig. A Nomic alelnöke, Ben Schmidt szerint az is felvetődhet, hogy az OpenAI a Stability AI sorsát próbálja elkerülni. Mint ismert, a Stability AI képgenerátorát, a Stable Diffusiont művészek és képszolgáltatók is beperelték, miután jogosulatlanul használták fel a betanításhoz az alkotásaikat.
A történet akkor válik igazán bizarrá, ha figyelembe vesszük, hogy az OpenAI ChatGPT csevegőrobotját a Bing keresőjébe beillesztő Microsoft a napokban egy suhintással elbocsátotta tízezer alkalmazottját, közöttük az etikus és társadalombarát mesterséges intelligenciáért felelős teljes osztályt.