Átaolvasta a leírásokat és cselekedett. A konkurens modellek kimaradtak a kutatásból. Aki be tudja csapni a nyelvi modelleket igen potens kibertámadó eszközre tesz szert.
Egy nagy nyelvi modell és a feladatvégrehajtást automatizáló szoftver segítségével könnyen kihasználhatók az ismert kiberbiztonsági sebezhetőségek egy friss kutatás szerint – jelentette a Register. Az Illinoisi Egyetem (UIUC) informatikusai által közölt tudományos cikk szerint az OpenAI legfrissebb elérhető nyelvi modellje, a GPT–4 a szakmai leírások alapján képes önállóan kihasználni egy számítógépes biztonsági hiányosságait kihasználó programot írni. A szakmai leírás alatt az Egyesült Államok belbiztonsági minisztériuma és kibervédelmi hivatalai által használt CVE (Common Vulnerabilities and Exposures) adatbázisban szereplő sebezhetőségek értendők.
A kutatók 15 leírást vettek alapul, amelyben a biztonsági rés ismert, de az azt kivédő hivatalos javítást még vélhetően nem alkalmazták mindenütt. A tesztek során a GPT–4 a sebezhetőségek 87 százalékát képes volt kihasználni – ez az arány a GPT3.5 és nyílt forrású nyelvi modellek esetében nulla százalék volt.
A vizsgált mesterséges intelligenciák körével kapcsolatban lényeges, hogy a kipróbáltak között volt a Mistral, az OpenChat 3.5 és a Meta különböző Llama–2 modelljei, viszont
nem vizsgálták az OpenAI termékének legfőbb konkurenseit,
az Anthropic által fejlesztett Claude 3-at és a Google Gemini 1.5 Prót. Utóbbiakhoz nem volt hozzáférése a kutatóknak, de vélhetően ezeket is vizsgálni fogják, amint lehetőség nyílik.
Az UIUC adjunktusa Daniel Kang elmondta, hogy a GPT-4 önállóan ki tudta használni a sebezhetőségeket és ehhez, ha kellett a CVE adatbázisban található linkeket használva tájékozódott. Kang szerint, ha ezek a képességek a GPT-5-ben tovább fejlődnek a jövőben sokkal könnyebbé válik a hackerek élete.