Appleは、先週発表したCSAM(児童性的虐待資料)検出機能について引き続き明確にしています。に加えて 本日以前に公開されたAppleは、CSAM検出がiCloud Photosに保存されている写真にのみ適用され、ビデオには適用されないことも確認しました。
同社はまた、CSAM検出の実装を、他の企業よりもプライバシーに優しく、プライバシーを保護するものとして擁護し続けています。
Appleは本日、発売時にCSAM検出がiCloud Photosに保存されている写真にのみ適用され、ビデオには適用されないことを確認しました。ただし、CSAMコンテンツでのビデオの急増を考えると、同社は、将来的にはさらに多くのことが可能であり、時間の経過とともに計画を拡大および進化させることができることを認めました。
これは、一歩下がって方法を見るときに意味があります 。すべての照合はデバイス上で行われ、Appleは全米行方不明・搾取児童センターの写真のデータベースを、ユーザーのデバイスに安全に保存される読み取り不可能なハッシュのセットに変換します。次に、デバイス上のデータベースが写真と照合され、デバイス上で一致が確認されると、デバイスは一致結果をエンコードする暗号化された安全バウチャーを作成します。
Appleはまた、ユーザーがiCloud Photosを使用しない場合、CSAM検出プロセスのどの部分も実行されないことを強化している。これは、ユーザーがCSAM検出プロセスをオプトアウトしたい場合、iCloudフォトを無効にできることを意味します。
最後に、Appleはまた、CSAM検出のデバイス上での実装が、他社で使用されているサーバー側の実装よりもはるかに優れていると信じている理由を倍増しています。 Appleによると、これらの実装では、ユーザーがサーバーに保存したすべての写真をスキャンする必要があり、その大部分はCSAMではありません。
AppleのCSAM検出の実装では、Appleサーバーがすべての写真をスキャンする必要はありません。プロセスをデバイス上で移動することにより、Appleの方法はより安全になり、すべての画像のサーバー側スキャンとは対照的に、既知のCSAMの画像のNCMECデータベースに対して画像のハッシュのみをチェックするように設計されています。