生死に関わる場面でAIが人の判断を左右する

Image: AI can influence people’s decisions in life-or-death situations
【Natural News】2023年4月12日(水)by: オリバー・ヤング

https://www.naturalnews.com/2023-04-12-ai-can-influence-decisions-life-death-situations.html

 

 

 人工知能(AI)で強化されたチャットボットは、生死に関わる場面で人々の意思決定に影響を与えることができる。

 

 

学術誌「サイエンティフィック レポーツ」に掲載された研究によると、5人を救うために1人を犠牲にするかどうかという人々の意見は、ChatGPTが出した答えによって左右されることが判明した。

 

 

研究者たちは、将来的にボットが倫理的な問題についてアドバイスをすることを禁止するよう求めている。

 

研究者たちによると、現在のソフトウェアは人々の道徳的判断を堕落させる恐れがあり、ナイーブなユーザーには危険な存在となる可能性があるという。

 

つい最近も、悲嘆に暮れる未亡人が、ベルギー人の夫がAIチャットボットによって自らの命を絶つように勧められたと主張した。

 

一部のオブザーバーは、人間のように話すように設計されたソフトウェアは、嫉妬の兆候を示すことができる。結婚を辞めるように言うことさえあると述べた。

 

専門家は、AIチャットボットが社会独自の偏見に基づいているため、危険な情報を与える可能性があることを強調している。

 

研究ではまず、インターネット上の数十億の単語をもとに学習させたChatGPT自身が、モラルジレンマに対する回答に偏りを見せたかどうかを分析した。

 

ロッコのジレンマと呼ばれる心理テストの前提である「5人を救うために1人を殺すのは正しいか、間違っているか」を複数回質問されたのだ。

 

チャットボットは、道徳的なアドバイスをすることをためらわなかったが、毎回矛盾した答えを返してきた。

 

つまり、一方的な決まったスタンスを持っていないのである。

 

次に研究者たちは、767人の参加者に同じ道徳的ジレンマを、ChatGPTが生成した、これが正しいか間違っているかという文と一緒に尋ねた。

 

参加者の中には、ボットによるアドバイスと言われた人もいれば、人間の 「モラルアドバイザー 」によるアドバイスと言われた人もいた。

 

ChatGPTのアドバイスは、特に深い意味はないものの、参加者に影響を与えるものであった。

 

しかし、ほとんどの参加者は、そのアドバイスがどの程度影響したかを軽視しており、80%の参加者は、アドバイスがなくても同じ決断を下したと主張している。

 

 

 

■■ ChatGPTは道徳的判断力を向上させるよりも、腐敗させる可能性が高い

 


この研究では、ユーザーは「ChatGPTの影響力を過小評価し、ランダムな道徳的スタンスを自分のものとして採用する」と結論づけ、チャットボットは「道徳的判断の向上を約束するのではなく、腐敗させる恐れがある」と付け加えている。

 

興味深いことに、この研究ではChatGPTを支えるソフトウェアの古いバージョンを使用しています。その後、さらに強力に、そしてより説得力のあるものにアップデートされている。

 

ChatGPTは、AI技術によって駆動する自然言語処理ツールで、ユーザーはチャットボットと人間のような会話やその他の多くのことを行うことができる。

 

言語モデルは、質問に答えたり、電子メールやエッセイ、コードの作成などのタスクをユーザーに支援することができる。

 

AIと研究の会社であるOpenAIによって作られた。

 

同社は2022年11月30日にChatGPTの提供を開始した。

 

スイスの銀行UBSの分析によると、ChatGPTは最も急成長しているアプリである。

 

分析によると、ChatGPTはローンチからやっと2ヶ月経った1月に1億人のアクティブユーザーを獲得した。

 

ちなみに、TikTokが1億人に達するまでには9カ月を要した。

 

「ChatGPT」は恐ろしく優秀だ。

 

危険なほど強いAIからそう遠くないと、OpenAIの創設者の一人であるイーロン・マスク氏は言う。

 

何らかの形で人間の生活に影響を与えることができることを示している。

 

それだけで怖いし、危険だ。