- ニュース

写真:Kevin Dooley/Flickr CC
アップルは金曜日、ユーザーの写真に児童性的虐待コンテンツ(CSAM)が含まれていないかスキャンを開始するという物議を醸す計画を延期したことを認めた。
この機能は当初、今年後半に導入される予定でした。Appleは現在、変更を適用する前に「意見を集め、改善を行う」ために時間をかけると述べています。しかし、この機能が完全にキャンセルされるわけではありません。
Appleが先月発表した当初の計画では、iCloudフォトにアップロードされたすべての画像をスキャンし、CSAMコンテンツを検出することになっていた。一致する画像が見つかった場合、当局に報告する前に人間による審査が行われる。
アップルはまた、子供が使用するデバイス向けに、性的に露骨なコンテンツを開く前、または共有しようとする際に警告を表示する機能も発表した。しかし、この計画は多くのアップルファンの不満を招いた。
アップル、CSAM計画を延期
ユーザー、プライバシー擁護者、そして一部のApple従業員は、CSAM検出について、そして将来的に外部からの圧力によって他のコンテンツも検出できるように拡張される可能性について懸念を表明した。
Appleは現在、改善に時間を要するため、計画を保留にしていると発表している。 金曜日にCult of Macに送られた声明は以下の通り。
先月、コミュニケーションツールを利用して子どもたちを勧誘・搾取する犯罪者から子どもたちを守り、児童性的虐待コンテンツの拡散を抑制するための機能計画を発表しました。お客様、支援団体、研究者などからのフィードバックに基づき、これらの極めて重要な子どもの安全に関する機能をリリースする前に、今後数か月かけて意見収集と改善に時間をかけることを決定しました。
Apple 社も、この機能を発表した当初のプレスリリースを更新し、この声明を追加しました。
CSAMスキャンとの戦い
今月初め、90以上の団体がAppleのCEOティム・クック氏に公開書簡を送り、CSAMスキャン計画の中止を強く求めました。また、同様の機能を導入する前に、市民社会団体や社会的弱者コミュニティと協議を行うようAppleに強く求めました。
これに先立ち、AppleはCSAMスキャンに関する懸念を払拭しようと試みました。同社は長文のFAQを公開し、新しいチャイルドセーフティ機能を詳細に解説しました。また、各機能が個別にどのように機能するかについても明確に説明しました。
しかし、この文書は懸念を払拭するにはほとんど役に立たなかった。依然として多くのユーザーがオンラインでApple製品のボイコットを警告し、専門家も潜在的な落とし穴について警告を発し続けた。
Appleが計画を延期した決定は、同社がこうした懸念を認識していたことを裏付けている。しかし、将来的にCSAMのために写真をスキャンするという同社の計画は、決して消え去ったわけではないようだ。