技術

Appleの衝撃的なSiri監視には、迅速な対応が必要です

506views

Siriが音声アシスタントとの会話の抜粋を録音するというニュースは新しいものではありませんが、これらの短い録音は人間のエージェントが聞いていると主張しています。

これらはAppleにとって悪い光学系です

私はプライバシーの重要性を熱心に信じています。

それは、苦労して獲得した自由を維持し、公の言説を保護するという観点からだけ重要ではありません。 また、すべての学校、医療施設、または企業にとって、人間の存在のあらゆる部分で重要性が増しています。 歴史は、プライバシーの欠如が社会に腐食性の影響を及ぼし、家族を互いに敵対させ、イノベーションを弱めることを示しています。

プライバシーに関するAppleの警告(私たちが毎日協力しているテクノロジー企業の多くが私たちを監視状態に移行させているというAppleCEOのTimCookの警告を含む)は重要です(プライバシーは私たちが犠牲にすべきものであると主張する人々にとって必ずしも便利ではないにしても私たちが作るロボットの良さ)。

しかし、Appleが私たちのプライベートな会話の録音が「品質管理」と「トレーニング」の目的で「請負業者」と共有されていることを明らかにしていないという暴露は、会社にとって本当に悪い見た目です。

Appleが言っていること

Appleは次のように述べています。

「Siriとディクテーションを改善するために、Siriリクエストのごく一部が分析されます。」 また、「ユーザーリクエストはユーザーのAppleIDに関連付けられていません。 Siriの応答は安全な施設で分析され、すべてのレビュー担当者はAppleの厳格な機密保持要件を順守する義務があります。」

それはある程度安心ですが、場合によっては、Appleのレビュー担当者が、住所などの個人情報を共有している人々を聞いたと報告されていることを考えると、関連するAppleIDから録音された音声を離婚する動きは十分ではないかもしれません。

Appleはもう少しやる必要があるでしょう。

Appleが状況を改善する方法

透明性から始める

Appleの利用規約に隠されているのは、Siriを使用して作成された録音が品質管理の目的で使用されることがあるという警告です。

また、これらの録音は(競合他社とは異なり)AppleIDまたは個人IDとはまったくリンクされていないという約束もあります。

これらの約束はあまり明確ではありません。

そのため、Appleは、デバイスでのSiriの使用に関して、はるかに明確で理解しやすいプライバシー警告を導入する必要があると私は言います。 これらの警告を前面と中央に移動し、これらの記録を使用することがあるだけでなく、それらの使用方法、使用時のIDの保護方法、およびこれらの記録が保持される正確な期間を明確にする必要があります。

しかし、人々にコントロールを与える

Appleは(私が思うに)Siriの録音をオプトアウトにするべきだ。

つまり、新しいデバイスでSiriをセットアップする場合、ユーザーには、元の要求以外の目的での音声の使用を明示的に拒否する機会を与える必要があります。

データをトレーニングや品質管理に使用したくないと言えるはずです。

「しかし、Appleはアシスタントを迅速にトレーニングすることができなくなります」と不満を言う人もいるかもしれません。 おそらくそうではないかもしれませんが、それはプライバシー保護におけるリーダーシップを維持するでしょう。

それだけでなく、これらの録音が実際にどれほど有用であるかについては議論の余地があります。

より説明責任を果たす

アップル、グーグル、アマゾン、そして他のすべての人が使用している「請負業者」は誰ですか?

彼らはどのように雇われていますか?

彼らの仕事の説明は何ですか? 彼らは他に誰のために働いていますか?

彼らはどのような根拠に基づいて信頼でき、個人がこの信頼を乱用した場合にどのように賠償を引き出すことができますか?

そして、なぜSiriユーザーはこれらすべての質問に対する答えをすでに知らないのでしょうか?

これらの請負業者が外部委託されていることは意味がありません。

Appleはこの作業を社内に持ち込み、音声ワーカーと管理者がこれらの録音をどのように処理するかについて完全に説明責任を負い、顧客がデータプライバシーの侵害を罰する方法を確保する必要があります。

情報が必要であることを本当に確認してください

Appleは、聞いた単語のごく一部だけを記録して使用していると言っていますが、選択した数のサンプルを保持または検証する必要さえありますか?

このように考えてください:

WatchまたはHomePodのSiriが「Hey、Siri」コマンドと思われるものを聞いたが、その後リクエストが行われない場合は、誤警報が発生したことを認識するのに十分賢いはずです。

このような誤警報が発生した場合、デバイス上のSiriは、偶発的な呼び出しの原因を学習し、将来その音に対する感度を下げるのに十分なほど賢いはずです。

(NS ガーディアン レポートによると、たとえば、ジッパーの音がSiriを目覚めさせることがあります。確かに、Siriはそれに応じてジッパーの音を無視することを学ぶことができます。)

肝心なのは、Siriが呼び出されたが特定の要求が行われなかった場合、システムはインタラクションを無視し、そのインタラクションの結果として作成された記録を(おそらく)最初の3秒を超えて削除するのに十分スマートでなければならないということです。トリガーコマンドを聞いたと思った。

このステップを踏むだけで、Siriが聞いて請負業者と共有したと言われている、より悪質な録音のいくつかをかなり防ぐことができます。

私は、Siriに聞きたくないときに、私が言うことを聞き上手にさせたくありません。 リクエストをするときは、聞き取りが上手くなりたいだけです。

人間も必要ですか?

音声技術は急速に進歩しています。 これは疑問を投げかけます:「人間の請負業者がSiri関連の会話スニペットを聞く必要さえありますか?」

多くの場合、そうではないと思います。

録音は、正確さのチェックを自動化するために、最初にSiriやその他の音声認識テクノロジーを介して行われる必要があります。

異なる音声認識システムが、人間の耳が必要であると言われていることに同意する方法を見つけることができない場合にのみ。

私はAIの専門家ではありませんが、この種の分析は、ランダムフォレストモデル/アルゴリズムが構築されているようなものです。人間が必要な場合に、なぜリクエストが間違っているのかについてテクノロジーが同意できない場合に限ります。

重要な理由

これらは、Siriを業界で最もプライベートな音声アシスタントにするためにAppleが取ってほしい提案のほんの一部です。

これは重要です。

考えてみてください。

私たちが使用する言葉は私たち自身の財産であるだけでなく、センサーベースのテクノロジーとAIが、マッピングからユビキタスVRまで、日常生活のさまざまな領域に入るにつれて、プライバシーの必要性がさらに重要になります。開いた本。

今日の音声に関する決定は、他のすべてのプライバシー領域を定義します。

プライバシーはコンピュータ化された利便性のために支払うべき代償であると考える人もいますが、私は彼らに同意したことはありません。

私たちは、音声アシスタントのプライバシーに関して私たちが下す決定が私たちの将来に共鳴する人類の歴史のある時点に立っています。

これを効果的な方法で整理する必要があります。そうしないと、実装が安全でなくなり、倫理的に不健全になる可能性があるためです。

そしてAppleは、この分野でのデジタル権利章典、つまりユーザーをプライバシー管理の中心に置く法案の要求を推し進めなければならない。

Leave a Response