Eddig tiltották a saját szabályaik, de változtattak, és most beszállnak a kibervédelembe.
Az évtized legnagyobb hatású cége, a GPT nyelvi modelleket és a Bing keresőben csevegő mesterséges intelligenciát fejlesztő OpenAI felhasználói alapszabályaiban a közelmúltban az állt, hogy termékeiket tilos veszélyt vagy sérülést okozó tevékenységek céljára, például fegyverfejlesztésre, katonai vagy háborús célokra használni. Múlt szerdán azonban változtattak a szabályokon: a veszély, sérülés okozása és a fegyverfejlesztés maradt, a katonai és háborús célok azonban kikerültek a tiltott dolgok köréből.
A változtatás oka a Bloomberg interjújából derült ki, amelyet a svájci Davosban hétfőn indult 54. Világgazdasági Fórumon készítettek a cég globális kapcsolatokért felelős igazgatójával, Anna Makanjuval és Sam Altman vezérigazgatóval. Az OpenAI vezetői itt elmondták, hogy mesterségesintelligencia-alapú, nyílt forráskódú kiberbiztonsági eszközöket fejlesztenek az Egyesült Államok hadseregének.
Mivel korábban általános tiltás volt a katonai felhasználásra, sokan úgy gondolták, hogy ezzel kizárunk olyan felhasználási módokat, amik nagyon egybeesnek azzal, amit látni szeretnénk a világban
– kommentálta a fordulatot Makanju.
Nem ritka dolog, hogy technológiai óriáscégek az Egyesült Államok hadseregének dolgoznak, ahogy az sem ritka, hogy az ilyen munkák miatt az egyes cégekben lelkiismereti okokból belső viszály alakul ki. Ilyen problémák voltak a Google-nál a drónok videóit elemző szoftver fejlesztése során. A Microsoft munkatársai is tiltakoztak a katonáknak kiterjesztettvalóság-sisakot gyártó félmilliárdos program miatt. Az Amazon és Google alkalmazottak pedig nyílt levélben tiltakoztak az ellen, hogy cégük felhőszolgáltatásokat nyújtson az izraeli hadseregnek.