- ニュース

画像:Apple
Appleは、以前発表していたiCloudフォトライブラリをスキャンして児童性的虐待関連画像を探す計画を完全に撤回した。同社は今後、クラウドストレージサーバーに保存されているユーザーの写真にCSAM画像が含まれていないか確認することはしない。
代わりに、Apple はユーザーが iCloud フォトに保存されている写真を暗号化できるようにすることで、逆の方向に進んでいます。
Appleが2021年に発表した当初の計画では、neuralMatchと呼ばれるシステムを用いて、iCloudにアップロードされたユーザーの写真ライブラリから児童虐待の疑いのある画像を発見する予定でした。また、人間の審査員を雇用して、その素材が違法かどうかを検証することも計画されていました。CSAM画像が発見された場合、関係する地方当局に報告される予定でした。
同社の意図は善意に基づくものだったが、プライバシー擁護団体、人権団体、そして電子フロンティア財団などの団体から猛烈な批判にさらされた。同社の従業員たちさえも、ひそかにこの反発に加わった。
Appleは昨年12月にこの計画を保留にしていたが、今では完全に放棄した。
MacメーカーはWiredに対し、次のように述べている。
「さらに、以前提案したiCloudフォト向けのCSAM検出ツールについては、開発を進めないことを決定しました。企業が個人データを精査することなく、子どもたちを守ることができます。」
この決定に基づき、Appleは水曜日にiCloud向けの高度なデータ保護機能を開始しました。これにより、iCloudフォトにエンドツーエンドの暗号化が導入され、ユーザー以外がそこに保存された画像にアクセスできなくなります。Appleでさえアクセスできないのです。
iOS 16.2およびiPad版で導入されるこの機能により、ユーザーはデバイスのバックアップやiCloudに保存されているメモ、その他多くの種類のデータを暗号化するオプションも利用できるようになります。
アップルは依然として子供たちをセクスティングから保護している
この変更は、Appleが児童搾取との闘いを諦めたことを意味するものではない。Wiredへの声明では次のようにも述べられている。
「昨年提案した児童保護の取り組みに関するフィードバックを集めるために専門家と広範囲に協議した結果、2021年12月に初めて提供を開始したコミュニケーションセーフティ機能への投資を強化しています。」
iOSに組み込まれたシステムにより、iPhoneは子供がメッセージアプリを通じて性的に露骨な写真を入手または送信したことを検知できます。検知された場合、ユーザーには警告が表示されます。このプロセスはリモートサーバーではなく、端末上で完全に実行されます。メッセージは暗号化されたままです。
この記事にはキリアン・ベルが協力しました。