「Appleが「iPhoneの写真やメッセージをスキャンする施策」の延期を発表 」

Appleは児童に対する性的搾取コンテンツの拡散を防止するために、ユーザーのiCloud Photosに保存されている「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」画像をスキャンし、公的機関に報告するという新しい安全機能を2021年8月5日付けで発表しました。この新機能が「ユーザーのプライバシーを損なう」と大きな反発を呼んだことを受け、Appleは新機能のリリースを延期すると発表しました。

Appleは児童に対する性的搾取コンテンツの拡散を防止するために、ユーザーのiCloud Photosに保存されている「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」画像をスキャンし、公的機関に報告するという新しい安全機能を2021年8月5日付けで発表しました。この新機能が「ユーザーのプライバシーを損なう」と大きな反発を呼んだことを受け、Appleは新機能のリリースを延期すると発表しました。

gigazine.net

Webページ

コンテンツ文字数:0 文字

見出し数(H2/H3タグ):0 個

閲覧数:98 件

2021-09-06 11:00:42

オリジナルページを開く

※読み込みに時間がかかることがあります