【Natural News】2024年7月2日 エバ・グレイス著
https://www.naturalnews.com/2024-07-02-uk-uses-amazon-ai-read-peoples-mood.html
英国で行われた一連の人工知能(AI)試験で、何千人もの電車の乗客が知らず知らずのうちに感情検出ソフトの対象となり、プライバシーに関する懸念が持ち上がっている。
アマゾンが開発し、ロンドンのユーストンやウォータールーを含む様々な主要駅で採用されたこの技術は、AIを使って顔をスキャンし、年齢や性別とともに感情の状態を評価するものだった。
市民的自由団体『ビッグ・ブラザー・ウォッチ』が情報公開請求によって入手した文書により、こうした慣行が明らかになった。
これらの実験では、CCTV技術やクラウドベースのシステムにリンクされた旧式のカメラを使って、線路への不法侵入の検知、ホームの混雑状況の管理、大声や喫煙などの反社会的行動の特定など、さまざまな活動を監視していた。
この試験では、自転車の盗難やその他の安全に関する事件も監視された。
このようなシステムから得られるデータは、切符のバリア付近の仮想トリップワイヤーを通過したときに捉えられる乗客の感情的な状態から、乗客の満足度を測ることで広告収入を強化するために活用される可能性がある。
批評家たちは、この技術は信頼性に欠けると主張し、その禁止を求めている。
過去2年間、英国内の8つの鉄道駅では、CCTVカメラによるAI監視技術をテストしてきた。
鉄道インフラ機関であるネットワーク・レールが監督するこの大規模な試験では、物体認識(映像内の物体を識別する機械学習の一種)が使用された。
別の試験では、ワイヤレスセンサーを使って滑りやすい床や満杯のゴミ箱、溢れる可能性のある排水溝などを検知している。
ビッグブラザー・ウォッチの調査・研究責任者であるジェイク・ハーフルトは、「このような公共の場で、相談も会話もなく、AIによる監視が展開され、常態化することは、非常に懸念すべき一歩だ」と述べた。
感情を検知する技術の信頼性は低い
AI研究者たちは、感情を検出する技術は「信頼できない」と警告しており、音声や映像から相手の気持ちを探るのは難しいため、この技術を禁止すべきだという声もある。
2022年10月、英国のデータ規制当局である情報コミッショナー事務局は、感情分析の使用に対して警告する公的声明を発表した。
プライバシー擁護団体は、公共空間でのAI利用における不透明な性質と行き過ぎの可能性に特に警鐘を鳴らしている。
ハーハルト氏は、十分な言論や監視が行われないまま、このような侵襲的な監視が常態化することに大きな懸念を表明している。
「ネットワーク・レールは、英国で最も大きな駅のいくつかで、無意識の通勤客に対して信用されていない感情認識技術を導入する権利はなく、私はこの試験について情報コミッショナーに苦情を提出した」とハーハルトは語った。
「公的機関として、アマゾンが作ったAI監視の大規模なトライアルを、一般に知られることなく、いくつかの駅で展開することを決定したことは憂慮すべきことであり、特にネットワーク・レールが安全技術を疑似科学的なツールと混ぜ合わせ、データを広告主に提供する可能性を示唆したことは憂慮すべきことだ」と彼は付け加えた。
「テクノロジーは鉄道をより安全にする役割を果たすことができますが、使用するツールの必要性と比例性について、しっかりとした国民的議論が必要です。AIによる監視は、特に悪用された場合、私たちすべてのプライバシーを危険にさらす可能性があり、ネットワーク・レールがこうした懸念を無視することは、私たちの権利を軽んじていることを示している。」