Článek
Zmiňovaná funkce nese název CSAM, což je zkratka Child Sexual Abuse Material. Jméno tedy přesně vystihuje to, co si klade nová funkce za cíl – vyfiltrovat materiály zachycující sexuální zneužívání dětí.
Na funkci spolupracoval Apple s americkým Národním centrem pro pohřešované a zneužívané děti. To poskytlo pracovníkům amerického počítačového gigantu databázi snímků s dětskou pornografií, aby mohl podnik vytvořit algoritmus, který je bude automaticky rozeznávat.
Chybovost je velmi nízká
V praxi to bude fungovat tak, že ještě před odesláním snímku do služby iCloud Photos se budou snímky porovnávat se speciálně vytvořenou databází, aby mohl celý systém automaticky rozpoznat sexuální zneužívání mladistvých. Pokud systém skutečně vyhodnotí přítomnost nevhodného obsahu, bude moci snímek přezkoumat přímo společnost Apple, která na něj následně upozorní příslušné úřady.
Lidé se tedy nemusí bát toho, že po uložení snímku vlastního dítěte, které skáče nahé do bazénu, budou mít oplétačky se zákonem. Apple se dušuje, že smyslem celého systému je skutečně zabránit lidem v šíření dětské pornografie.
Sexting, šikana či kyberstalking. Děti jsou na internetu lovná zvěř
Zástupci amerického podniku také zdůraznili, že ke všem snímkům, které jsou ukládány zašifrované, nebude mít i nadále nikdo přístup. To jinými slovy znamená, že si kdejaký zaměstnanec Applu nebude moci prohlížet snímky libovolného uživatele, zobrazeny budou pouze fotografie, které systém vyhodnotí jako závadné.
Apple se pochlubil tím, že celý systém má naprosto minimální chybovost. Tzv. prahová hodnota je nastavena na extrémně vysokou úroveň, šance na nesprávné označení konkrétního účtu na základě fotografií je údajně menší než jedna ku miliardě za rok.
Zprávy se budou cenzurovat
CSAM není jediný systém, který si klade za cíl zajistit větší bezpečnost dětí v kyberprostoru, novinkou je i ochrana při zasílání zpráv. Tu budou mít na svých iPhonech aktivní dětské účty, kterým se tak bude zobrazovat cenzurovaný výpis zpráv.
Pokud dítěti pošle někdo nějaký nevhodný materiál, dítěti se zobrazí informace, že je daný obsah nevhodný. Například fotografie obsahující násilí či sex tak budou rozmazané, o přijetí či odeslání nevhodného materiálu navíc budou informováni rodiče.