Nem említik többé a tervet, de továbbra is meg akarják valósítani.
Az Apple csendben eltüntette a gyermekek biztonságáról szóló oldaláról a CSAM program említését. A gyerekek szexuális zaklatására utaló rövidítés (child sexual abuse material, CSAM) a cég nagy port kavart tervét takarja, amelynek keretében pedofil képek után kutattak volna felhasználók eszközein.
A cég közölte, hogy a funkció bevezetését felfüggesztik egy időre, a vásárlóik, jogvédő szervezetek, kutatók és mások visszajelzései nyomán. Elmondásuk szerint a következő hónapok során újragondolják a tervet, de a szándékuk egyébként nem változott, vagyis be fogják vezetni a jövőben.
Az augusztusban bejelentett program folyamatosan automatikusan szkennelné az Apple ügyfelek telefonjait és tabletjeit, és a gyanúsnak talált fotókat emberi ellenőrök elé terjesztené. A bejelentést követő általános felzúdulásban többen kifogásolták, hogy megfelelő erőforrások bevetésével például állami szereplők manipulálhatják a rendszert, ami visszaélésekhez vezethet, miközben nem tudná megakadályozni a pedofil anyagok terjesztését.
Az is probléma volt, hogy ha a talált anyagokat átadták volna a bűnüldöző hatóságoknak, nem lehetett volna ezeket bizonyítékként felhasználni, mivel ezekhez a magánélethez fűződő jogokat megsértve jutottak. Az Apple ugyan közölte, hogy semmit sem ad át a hatóságoknak, de a tervre ekkor már az az árnyék vetült, hogy az eredeti szándékkal ellentétes végeredményekhez vezethet.
Az Apple azzal szállt be a vitába, hogy alapvetően félreértik a rendszer célját. Bevallották, hogy már három éve szkennelik az e-maileket az iCloudon, de a bejelentés – nagy meglepetésükre – csak olaj volt a tűzre.
A cupertinói cég az augusztusban bejelentett gyerekvédelmi funkciók további részeit bevezette az iOS 15.2-ben. Az egyik a figyelmezteti a kiskorúakat, ha meztelen képet próbálnak küldeni a Messages üzenőprogramban. A másik figyelmezteti a felhasználót, ha gyerekzaklatással kapcsolatos dologra keres a Safari keresőn, a Spotlighton, vagy a Sirin.