感じるものに気をつけよう。中国、「感情認識」技術で逮捕に踏み切る

   Image: Watch what you feel: China now using “emotion recognition” technology to arrest people

 

【Natural News】2022年5月31日(火) by: ラモン・トーメー

https://www.naturalnews.com/2022-05-31-china-using-emotion-recognition-technology-arrest-people.html

 

中国は今、人々の感情を監視するために専門の「感情認識」技術を使用している。

 

この技術によって、中国政権は特定の感情を犯罪化し、それに基づいて市民を逮捕することができる。

 

実際、犯罪防止の目的で、人がいつもより神経質になっているかどうかを精査する人工知能の利用を始めている、と国営出版が言及している。

 

 

中国国営紙「環球時報」は3月4日の記事で、中国共産党(CCP)が健康や都市警備など「さまざまな分野」で同技術を応用していると紹介した。さらに、中国国民は感情認識技術の日常的な使用にますます慣れてきていると付け加えた。

 

国営紙は、感情認識技術がどのように犯罪と戦うことができるかの一例を示した。

運転手と乗客を観察する人工知能(AI)の事前警告システムの助けを借りて、警官が車内で妙に緊張した様子をしている人を監視することができます。その後、旗を振って捜索すると、車内に違法薬物が隠されていることが判明します。

 

環球時報は、中国の感情認識技術は「高精度」な利用を実現していると指摘した。EmoKit Tech Co., Ltd.の代表であるウェイ・キンチェン氏によると、AIの感情認識に基づく製品は、70%から95%の精度を達成することができるという。

 

同社は、感情認識エンジン「EmoKit」をベースにした製品の開発を専門としている。このエンジンは、"ビデオ、オーディオ、ボディセンサーからの信号を正確に(組み合わせて)、マルチ周波数オーバーレイ分析を(実行)します。"

 

ウェイは、北京の有名な精神科病院と共同で行ったプロジェクトで、Emokitエンジンの臨床現場での精度を実証した事例を紹介した。

このAIシステムは、統合失調症の診断において、コンピュータによる総合的な精度で78.8%を達成し、臨床試験の成績とほぼ同じだった。

 

さらに、患者の声を聞くだけで、70パーセントの精度でうつ病を診断することができたという。

環球時報はまた、2019年に中国の刑事制度で感情認識技術が使用されたことを指摘し、"少数の地方刑務所で受刑者のリスク評価に貢献した "と付け加えている。

 

中国政法大学の社会学教授マー・アイ氏によると、この技術は、囚人が「潜在的なリスク...(例えば)精神的問題の可能性や暴力・自殺傾向」を示しているかどうかを刑務所の職員が評価するのに役立つとのことだ。さらに、この技術は出所後の囚人の再犯率を推定することもできるという。

 

マー氏は国営新聞の取材に対し、この「世界最先端の(技術)」は、中国国内の5〜6か所の刑務所で使用されていると語った。

 

 

■■ 囚人への感情認識技術の使用は、より悪質な用途につながる可能性がある


MITテクノロジーレビューによる2019年12月のレポートでは、感情認識技術市場は少なくとも200億ドル(約2兆円)に達すると推定されており、急速に成長している。現在、この技術は求職中の人や犯罪の疑いのある人を評価するために使われている。

 

さらに、仮想現実のヘッドセットでゲーマーの感情状態を調べるなど、他の用途でのテストも行われている。

 

ブライトバートの国家安全保障担当編集者フランシス・マーテルは、中国が感情認識技術をより邪悪な意図で使用する可能性があると警告している。

 

彼女は特に、新疆ウイグル自治区西部のイスラム教徒ウイグル族を監視するための既存のシステムに組み込むことができると指摘している。中国共産党は、顔認識技術を搭載した高解像度の監視カメラを設置し、少数民族であるウイグル人の動きを監視している。

 

これは、多くの国々が非難している、彼らに課せられた恣意的な拘束や強制的な不妊手術とは別の話である。

 

悪用される可能性もさることながら、芽生えつつある業界では、プライバシーに関する懸念も浮上している。AI技術が自分の感情を捉え、「読む」ことに対して不快感を示す声もある。また、個人情報の悪用や流出の可能性を指摘し、その結果、人々の安全が損なわれる可能性もある。

 

しかし、中国の多くの関係者は、感情認識技術を悪者にする必要はないと発言している。寧波大学の神経管理専門家である馬清国氏は、次のように述べている。

 

「生命に対する権利は基本的な人権です。場合によっては、感情認識によって危険人物や暴力的な人物を把握し、その悪事を防ぐことができる。これは人々の命を救うことにつながる。」

 

一方、ウェイ氏は、感情コンピューティングは邪悪な「心を読む」技術ではないとコメントした。感情認識技術を支える中国企業は「『善のための技術』の原則に厳格に従っている」と断言した。

 

EmoKitの責任者はGlobal Timesの取材に対し、感情認識技術は「より良いサービスを人々に提供する」「(犯罪を犯した)法律違反者を逃がさない」という究極の目的を持っていると語った。」