先週、Appleはデバイスの子供の安全を対象とした3つの新機能を発表しました。意図は良いものですが、一部の組織や
動力付きレールを配置する頻度
同社は、これらすべての新機能とそれらがどのように機能するかについてのFAQを公開しました。さて、さらなる論争を避けようとして、AppleプライバシーヘッドのErik Neuenschwanderは、CSAMを検出するための新しいシステムに関する懸念にインタビューで対処しました。 TechCrunch 。
子供を保護するためのこれらの機能は、iCloud写真でのCSAM検出、メッセージでの通信の安全性、およびSiriと検索での介入を使用します。これらの対策は一緒に発表され、相互に関連していますが、さまざまな目的で使用されています。例えば:
あなたはできる 。
Neuenschwanderとのインタビューで、 TechCrunch ユーザーの懸念のいくつかに対処します。たとえば、Neuenschwanderは、AppleがiCloudPhotos機能でのCSAM検出と一緒にメッセージで通信安全機能を発表した理由を説明しています。
minecraftでmodを取得する方法
AppleのiCloudPhotosサービスに保存されている既知のCSAMのコレクションを特定することは重要ですが、すでに恐ろしい状況の上流に到達しようとすることも重要です。 (…)人々がこの問題のある有害な領域に入り始めたとき、または虐待が起こり得る状況に子供を手入れしたり連れて行ったりしようとしている虐待者がすでにいる場合は、早い段階で介入することも重要です。メッセージの安全性とSiriおよび検索への介入は、実際にはプロセスのこれらの部分に影響を及ぼします。そのため、CSAMにつながるサイクルを実際に中断しようとしていますが、最終的にはシステムによって検出される可能性があります。
もう1つの懸念は、この措置で裏口を見つけようとしている政府や機関に集中している。Neuenschwanderは、Appleは違法行為に従事していないすべての人のプライバシーを乱さないようにするつもりだと説明している。
政府がこの新しいシステムを危険にさらそうとした場合にAppleを信頼すべきかどうかについて尋ねられたところ、Appleのプライバシー責任者は次のように述べています。
xboxoneコントローラーPCをオフにする方法
まず第一に、それは米国、iCloudアカウントに対してのみ開始されているので、仮説は、そのように話すとき、一般的な国または米国ではない他の国を育てているように見えます。米国の法律がこれらの種類の機能を私たちの政府に提供していないことに同意します。
ただし、システムを変更する試みについて話している場合でも、多くの保護機能が組み込まれているため、特に不快な画像を保持している個人を特定するのにはあまり役立ちません。ハッシュリストはオペレーティングシステムに組み込まれています。グローバルオペレーティングシステムが1つあり、更新を個々のユーザーにターゲティングする機能がないため、システムが有効になっている場合、ハッシュリストはすべてのユーザーによって共有されます。
Neuenschwanderはまた、iCloud Photosが無効になっている場合、NeuralHashは実行されず、バウチャーを生成しないことを強調している。
ユーザーがiCloudPhotosを使用していない場合、NeuralHashは実行されず、バウチャーも生成されません。 CSAM検出は、オペレーティングシステムイメージの一部である既知のCSAMハッシュのデータベースと比較されるニューラルハッシュです。 iCloud Photosを使用していない場合、その部分も、安全バウチャーの作成やiCloudPhotosへのバウチャーのアップロードを含む追加の部分も機能しません。
続きを読む :