Sorozatosan szenzációs rekordokat állít fel a Google DeepMind mesterséges intelligenciája, különböző játékokban bizonyítva, hogy az embernél is jobb.
Van azonban egy igen kellemetlen hiányossága, és ez 2015 februárjában igazán frusztrálta a fejlesztőket, amikor az algoritmusnak 49 Atari videojátékban kellett bizonyítania. Mindegyik játékra külön be kellett tanítani, és a gép rögtön elfelejtette az előző játékkal kapcsolatos tudását.
A mai számítógépes programok képtelenek valós időben és adaptívan tanulni a bevitt adatokból - írják a DeepMind fejlesztésén dolgozó tudósok egy friss tanulmányukban, és ebben egy kisebb előrelépésről is beszámolnak.
A kutatók által csak „katasztrofális feledékenység” néven emlegetett jelenségben az új feladatok felülírták a korábban megszerzett tudást és emlékeket. A mesterséges intelligenciák mély neurális hálózatait ugyanis általában úgy alakítják ki, hogy az egyszerre bevitt adathalmazra támaszkodjon. Az emberi agy ezzel szemben fokozatosan tanulja meg a dolgokat, és az ismereteket egymásra tudja építeni.
A DeepMind új algoritmusa az Elastic Weight Consolidation (EWC) nevet kapta, és ez már egymás után több játékot el tud sajátítani. A kutatók azt mondják, hogy a munkájuk épít az emberi agy memóriaalkotásával, ismeretszerzésével kapcsolatos az idegtudományi elméletekre, és abban bíznak, hogy egy rugalmasabban, hatékonyabban tanuló mesterséges intelligenciát tudnak majd létrehozni.