Appleは、ユーザーの写真をスキャンしてCSAM(児童性的虐待資料)コンテンツを探す新しいシステムの発表を受けて、多くの批判に直面しています。ただし、通常のiOSユーザーだけでなく、Apple自身の従業員もこれを心配しています。
Windows10ファイルを解凍する方法
からの新しいレポート ロイター 複数のApple従業員が、内部Slackチャネルの新しいCSAMシステムについて懸念を表明していると述べています。身元を明かさないように求めたこれらの従業員の一部によると、彼らはその機能が権威主義政府によって人々を検閲するために悪用される可能性があることを恐れています。
別の労働者は、機能が先週発表された後、CSAMコンテンツの検出について800以上のメッセージが送信されたため、新しい議論の量と期間は驚くべきものであると述べました。
Appleの従業員は、1週間前に発表された計画に関する800以上のメッセージでAppleの内部Slackチャネルを氾濫させた、と特定されないように求めた労働者はロイターに語った。何日にもわたるスレッドを見た労働者によると、多くの人が、この機能が検閲や逮捕のための他の資料を探している抑圧的な政府によって悪用される可能性があることへの懸念を表明した。
従業員のグループは、新機能について話し合うための専用のスレッドを作成しましたが、一部の従業員は、Slackはそのような話し合いに最適な場所ではないと主張しました。報告によると、違法な資料を取り締まると信じていたため、CSAM検出に賛成する従業員もいます。
Appleは、COVID-19の大流行により世界中のオフィスが閉鎖され、複数の従業員が自宅で仕事をすることを余儀なくされた後、Slackをより広く採用し始めました。 Appleの強力な秘密文化にもかかわらず、社内のSlackで従業員が何を言っているかについての公開討論は避けられなくなっています。
他のSlackチャネルは、Appleの従業員が会社のようなことを話し合うために使用しています。 そしてさえ 。 Appleは従業員に、Slackを使用して労働問題やその他のデリケートなトピックについて話し合うことはしないように求めてきました。しかし、これは一部の人々が会社に不満を示すのを止めたようには見えません。
内部プラットフォームを使用することに加えて、一部の従業員は 。