Index Vakbarát Hírportál

Pedofilokra vadászik az Apple a készülékein

2021. augusztus 9., hétfő 05:52

Új rendszert vezet be az Apple, egyelőre csak az amerikai készülékein, mely az iMessage szolgáltatásban küldött és fogadott, illetve az iCloud felhőbe feltöltött fényképeket fogja vizsgálni, gyermekek elleni szexuális erőszakra utaló jeleket keresve. Amennyiben ilyet talál, az AI jelez az Apple-nek, ahol emberi moderátorok átvizsgálják a jelentést, majd értesítik az illetékes hatóságokat, ha az szükséges.

A frissítések az iOS 15-tel, ősszel aktiválódnak majd az iPhone és iPad készülékeken, illetve a macOS Monterey operációs rendszerrel a Mac számítógépeken.

Az új gyermekvédelmi funkciókkal az iMessage üzenetszolgáltatásban, ha egy 13 éven alatti gyermek szexuális tartalmú fényképet kap vagy szexuális tartalmú képet küldene, több felugró ablak fogja figyelmeztetni, hogy ez veszélyes lehet, és hogy szülei értesítést fognak kapni róla. Amennyiben ugyanis a gyerek egy iCloud Family családi csoporthoz tartozik, a csoporthoz tartozó felnőtteknek az Apple egy rendszerértesítést küld arról, hogy a gyermek esetleg számára veszélyes tartalmat küldött vagy fogadott.

A képeket egy mesterséges intelligencia nézi meg és ítél róla, hogy ez veszélyes lehet-e. Az egész folyamat a készüléken megy végbe, nem pedig a felhőben, így az iMessage által használt végpontok közti titkosítás nem sérül – állítja az Apple.

Az Apple amerikai gyermekvédelmi szervezetekkel együttműködve felépített egy adatbázist (Child Sexual Abuse Material, röviden CSAM), melyben gyermekek elleni szexuális zaklatást, illetve erőszakot ábrázoló felvételeket gyűjtöttek össze. Ennek az adatbázisnak a tartalmát veti össze a készülékeken dolgozó mesterséges intelligencia azokkal a fényképekkel, melyeket az iMessage szolgáltatáson keresztül küldenek, vagy melyeket az iCloud felhőszolgáltatásba feltöltenek.

A képeket a készülék még a feltöltés előtt összeveti a CSAM adatbázissal, egyezések után kutatva. Amennyiben talál olyan jellemzőt a képen, mely gyermekek elleni szexuális bántalmazásra utal, titkosított biztonsági jegyet rendel hozzá a képhez. Ha ezek a biztonsági jegyek túllépnek egy adott határt (az Apple küszöbnek nevezi), a rendszer automatikusan jelent, hogy veszélyes tartalmat talált, ezután pedig az Apple manuálisan ellenőrzi a fotót és amennyiben nem tévedett az AI, az Apple feljelentést tesz az Eltűnt és Kizsákmányolt Gyermekek Nemzetközi Központjának (National Center for Missing and Exploited Children), mellette pedig letiltja az adott iCloud felhasználói fiókot.

A cég állítása szerint mivel minden a készüléken történik és van egy biztonsági küszöb a manuális ellenőrzés előtt, így elkerülhető, hogy az Apple illetéktelenül belenézzen valaki fotóiba. A felismerőrendszer az Apple szerint rendkívül kifinomult, egy az ezermilliárdhoz eséllyel jelöl meg olyan tartalmat, mely nem jogsértő.

Szakértők az Apple állításaitól függetlenül aggályaikat fejezték ki a rendszer kapcsán, mivel ezt egyes országokban törvényi tiltás alá tartozó vagy politikailag aggályosnak minősített tartalmak szűrésére is felhasználhatják, ezzel megkönnyítve a felhasználók rendszerszintű megfigyelését. Az Apple szerint mivel rendszerük nem a készülék tárhelyét és nem is a teljes felhőt figyeli, kizárólag az iCloudba felkerülő CSAM tartalmak után kutat, így ettől nem kell tartani.

Az iMessage és iCloud frissítései mellett a Siri és a készülék Spotlight keresője is frissül. Ezentúl a gyermekbántalmazáshoz kapcsolódó keresések során a Siri és a kereső is segítséget nyújtó oldalakat fog elsődlegesen felajánlani, ha pedig aggályosnak ítélt tartalomra keres rá a felhasználó, a Siri és a kereső is beavatkozik, névtelen segélyvonalra átirányítva a felhasználót.

Az Apple idén ősszel aktiválja az új funkciókat az iOS 15-tel, watchOS 8-cal és macOS Monterey-vel, egyelőre csak az Amerikai Egyesült Államokban. A cég közleménye szerint reméli, hogy hamarosan több országra is kiterjeszthetik a rendszert.

(Borítókép: Rafael Henrique / SOPA Images / LightRocket / Getty Images)

 

Rovatok