EU、IT大手に児童性的虐待画像の削除と報告を義務付ける可能性

EU、IT大手に児童性的虐待画像の削除と報告を義務付ける可能性

  • Oligur
  • 0
  • vyzf
EU、IT大手に児童性的虐待画像の削除と報告を義務付ける可能性
  • ニュース
欧州委員会の法案草案は、企業にCSAMの検出、除去、報告を義務付ける可能性がある。
欧州委員会の法案は、企業にCSAMの検出、除去、報告を義務付ける可能性がある。
写真:欧州委員会

新たな報道によると、欧州委員会は今週、AppleやGoogleなどのテクノロジー企業に対し、CSAMと呼ばれる児童性的虐待の違法画像について自社のプラットフォームをより厳しく監視することを要求する法案草案を発表する可能性がある。

この法律は、テクノロジー企業に画像を検出し、削除し、法執行機関に報告することを義務付ける。

EUの法案草案はテクノロジー企業にCSAMの削除と報告を義務付ける予定

ポリティコが入手した法案のリーク情報によると 、欧州委員会は、一部のデジタル企業が導入している児童性的虐待コンテンツ(CSAM)を抑制するための自主的な対策が「不十分であることが判明した」と考えている。

そのため、委員会はそのような資料の検出、除去、報告を義務化したいと考えています。

ハイテク企業や子どもの権利団体を代表する団体は、数カ月にわたるロビー活動を経て、提案された法案の規則がどれほど厳格になるかを見守っている。

また、テクノロジー企業がすべてのユーザーコンテンツをスキャンしなくても、これらの規則がどのように機能するのかという疑問も残ります。欧州司法裁判所は2016年にこれを違法と判断しました。

さらに、プライバシー保護団体やテクノロジー企業は、EUの立法措置により、ホスティングプラットフォームの管理外で、エンドツーエンドの暗号化メッセージングサービスへのバックドアが作成される可能性があることを懸念している。

EC内務委員のイルバ・ヨハンソン氏は、会話の安全を保ちながら違法コンテンツを見つける技術的解決策は存在すると述べたが、サイバーセキュリティの専門家はこれに反対している。

「EUは技術的に不可能なことを提案すべきではない」とエラ・ヤクボフスカ氏はポリティコに語った。ヤクボフスカ氏は、45の非政府組織(NGO)からなるネットワーク、欧州デジタル権利協会(EDRi)の政策アドバイザーである。

「EU内の何億人もの人々が、プライベートな通信をしており、それがプライベートであると当然期待しているにもかかわらず、それが24時間年中無休で無差別かつ一般的にスキャンされるという考えは前例がない」とヤクボウスカ氏は述べた。

欧州議会議員(MEP)はこの問題について様々な見解を示している。中道派の「リニュー・ヨーロッパ」を率いるモーリッツ・ケルナーMEPは、ポリティコに対し、ECの提案は「デジタル通信のプライバシーが消滅することを意味する」と述べた。

議論はAppleの物議を醸したCSAMスキャン計画を想起させる

この議論は、昨年アップルがiPhoneやiPadでCSAMを検索する計画をめぐって起きた論争を思い起こさせる。

Appleは2021年8月、ユーザーのiCloudフォトライブラリをスキャンしてCSAMを検出する機能や、性的に露骨な写真を送受信する際に子供とその保護者に警告する機能など、一連の新しい子ども向け安全機能を計画していると発表しました。この通信機能は既にAppleのiMessageプラットフォームで利用可能です。AppleはCSAMスキャンをまだ導入していません。

Appleの計画、特にCSAMスキャンは、セキュリティ研究者、電子フロンティア財団(EFF)、Facebookの元セキュリティ責任者、政治家、政策団体、大学の研究者、そしてAppleの一部従業員からも批判を浴びた。スキャンは監視行為として嘲笑され、画像識別の有効性にも疑問が投げかけられた。

当初は批評家を安心させようとしたが、CSAM の導入を延期した。

アップルは、延期の決定は「顧客、支援団体、研究者などからのフィードバックに基づいており、今後数カ月かけてさらに時間をかけて意見を集め、改善を行った上で、これらの極めて重要な子どもの安全機能をリリースすることを決定した」と述べた。

2021年12月、Appleは自社の「子どもの安全」ウェブページからCSAMに関するすべての言及をひっそりと削除しました。しかし、AppleはCSAM検出に関する計画は9月から変更されていないと述べており、CSAM検出が今後も行われる可能性を示唆しています。