- ニュース

画像:Apple
Appleは、iCloudフォトライブラリをスキャンして児童性的虐待コンテンツを探す計画を中止した理由について、より詳細な説明を発表しました。2022年に発表した理由と同じですが、より詳細な説明となっています。
すべてはユーザーのプライバシー、そしてハッカーや抑圧的な政府によってシステムが悪用される可能性にかかっています。
AppleのCSAMスキャン計画が実現しなかった理由
Appleが2021年に発表した当初の計画では、neuralMatchと呼ばれるシステムを用いて、iCloudにアップロードされたユーザーの写真ライブラリから児童虐待の疑いのある画像を発見する予定でした。また、人間の審査員を雇用して、その素材が違法かどうかを検証することも計画されていました。CSAM画像が発見された場合、関係する地方当局に報告される予定でした。
しかし、2022年後半にこの計画は撤回されました。当時は「企業が個人データを精査しなくても、子どもたちは保護される」とだけ述べていました。
最近、子供の安全を訴える団体「Heat Initiative」がこの決定に抗議し、Appleに撤回を求めました。Appleでユーザーのプライバシーと子供の安全を担当するエリック・ノイエンシュワンダー氏は、長文の反論を行いました。
Wiredに送られたメールの中で、ノイエンシュヴァンダー氏は「児童性的虐待に関するコンテンツは忌まわしい」と述べた。しかし、彼はさらにこう続けた。
数年前にiCloudフォトのCSAM検出にハイブリッドクライアントサーバー方式を採用するという提案がありましたが、いくつかの正当な理由から、この提案は却下しました。児童安全擁護団体、人権団体、プライバシーおよびセキュリティ技術の専門家、そして学者の方々と広範囲に協議し、スキャン技術をあらゆる角度から検討した結果、ユーザーのセキュリティとプライバシーを最終的に危険にさらすことなく実装することは現実的に不可能であると結論付けました。
「すべてのユーザーが個人的に保存したiCloudデータをスキャンすると、データ窃盗犯が見つけて悪用するための新たな脅威ベクトルが生まれます。
「また、意図しない結果を招く危険な状況を招く可能性も生じます。例えば、ある種類のコンテンツをスキャンするだけで、大量の監視が可能になり、他の暗号化メッセージングシステムを対象に、コンテンツの種類(画像、動画、テキスト、音声など)やコンテンツカテゴリーを横断して検索したいという欲求が生じる可能性があります。」
「スキャンシステムも完璧ではない。他のプラットフォームからは、全く普通で適切な赤ちゃんの写真を共有しただけで、無実の人々がディストピア的な捜査網に巻き込まれ、被害者に仕立て上げられたという証拠が文書化されている。」
Heat Initiative と Apple の間で交わされた電子メールの全文は、Wiredから入手できます。
Appleの代替的な子どもの安全計画
しかし、iCloud画像をCSAMスキャンしないからといって、Appleが児童搾取対策を諦めたわけではありません。Appleは2021年に導入されたコミュニケーションセーフティ機能の改良を続けています。
これにより、iPhoneは、子供がメッセージアプリを通じて性的に露骨な写真を入手または送信した場合にそれを検出し、ユーザーに警告を表示します。このプロセスはリモートサーバーではなく、端末上で完全に実行されます。メッセージは暗号化されたままです。
Apple は、iCloud に保存されている写真を CSAM について検査する代わりに、ユーザーが iCloud フォトに保存されている写真を暗号化できるようにすることで、逆の方向に進みました。