「AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も 」
現地時間の2021年8月5日、Appleは「子どものための拡張された保護」と題するページを公開し、「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」の拡散を制限するために、新たな安全機能を導入すると発表しました。Appleは具体的に「メッセージアプリ上でやり取りされるCSAMと思しきコンテンツについては警告を表示する」「iCloud写真に保存されているデータを検査し、CSAMが検出できるようにする」「Siriと検索機能からCSAMに関する報告を可能にする」という3つを挙げているのですが、ユーザーからは「iCloud写真の中身をチェックするのはプライバシーの侵害だ」と批判が噴出しています。
コンテンツ文字数:0 文字
見出し数(H2/H3タグ):0 個
閲覧数:108 件
2021-08-06 14:02:59