チャットGPT4について心配する必要がありますか? チャットGPT4について聞いてみました

Free stock photo of artificial intelligence, machine learning Stock Photo

【Issue & Insights】2023年5月1日  著:イルガー・ナギエフ

https://issuesinsights.com/2023/05/01/should-you-be-concerned-about-chatgpt4-we-asked-chatgpt4/

 

最近まで、もしあなたがこれを読んでいたら、この文章は人間が書いたものだと思うかもしれない。

 

ChatGPT4がまもなくマイクロソフト365の次期バージョンに組み込まれるという発表を受けて、その確信が蒸発したのだ。

 

それは、私たちが懐かしく思うようになるかもしれない無邪気な時代だ。

 

人工知能を空想の未来から日常的に利用することで、人類に飛躍的な利益をもたらす可能性がある。

 

 

コストを削減し、金融詐欺に対抗し、企業がより良い、より生産的な意思決定をするのを助けることができる。

 

2035年には、世界の経済成長率を2倍にすることができるとする説もある。

 

うまく利用できればの話だが。

 

しかし、インターネットを例にとれば、新しいテクノロジーは必然的に悪用され、時には武器にさえなってしまう。

 

では、害になる可能性は、善を上回るのか?

 

ChatGPT4へのアクセス待ちを解消した後、私はChatGPT4自体に、それを心配する必要があるのか、なぜ心配する必要があるのかを尋ねてみた。

 

以下は、「500字でわかるChatGPTの魅力」という質問に対する回答だ。

(回答には私のコメントを挟んでいます)

 

ChatGPT4です: ChatGPT4は、OpenAIが開発した人工知能チャットボットで、実際の人間に近い会話をすることができる。

このチャットボットは膨大な量のデータで訓練されており、理論的にはどんな質問に対しても答えを生成することができる。


すべて真実である。

 

ChatGPT4は、50億語のソース情報にアクセスできるラージランゲージ モデルと説明されている。

 

信憑性のある文章を書き、驚くほど複雑な応答を生成することができる。

 

最も重要なのは、これまでのチャットボットの特徴であった堅苦しさを感じさせないことである。

これが人気と知名度の秘密なのだ。

 

 

ChatGPT4: 素晴らしい技術革新と思われるかもしれませんが、ChatGPT4には懸念される理由がある。

 

まず、ChatGPT4が人間でないことを明確に示すことなく、人間のように会話することができるため、人を欺くことにつながる可能性がある。

 

例えば、ChatGPT4がフェイクニュースなどの偽情報を簡単に生成し、それが認識されないことで、誤った情報による意思決定が行われる可能性がある。

 

また、プロパガンダフィッシング詐欺の拡散、あるいは個人になりすますために利用される可能性もある。

 

このような欺瞞の可能性が、これをめぐる議論の中心となっている。

 

ChatGPT4は、初期に導入されたチートが試験に勝つために使用したとされ、最近では、米国のロースクールの司法試験で上位10%のスコアを獲得するなど、大学院レベルのテストに合格して話題となった。

 

適切な指示があれば、恐ろしいスピードで偽情報を拡散するために使用することができる。

 

一人の個人とノートパソコンがあれば、生産性の高いトロールファームに取って代わることができるのだ。

 

メディアやネット上では、真実と意見を見分けるのはすでに難しくなっているが、これによって、さらに見分けがつきにくくなる可能性がある。

 

これが、チャットボットの次の有効な指摘につながるのである。

 

 

ChatGPT4です: 次に、ChatGPT4は、偏見を永続させ、抑圧を永続させる危険性をはらんでいる。

 

チャットボットは既存のデータから学習するように設計されていますが、そのベースとなるデータに偏りがあると、チャットボットに歪んだ世界観がプログラムされることになりかねない。

 

例えば、チャットボットを学習させるためのデータが、ほとんどが男性の視点によるものであれば、チャットボットは性差別的であったり、女性差別を助長することになりかねない。

これは、ChatGPT4の使用範囲を考えると、非常に残念なことだ。

 

 

ChatGPT4は、私たちが求めていることを忠実に実現している。

 

高度で直感的であるがゆえに、ユーザーのモラルを倫理的に判断することはできない。

 

まだ、そうではありません。

 

そのユーザーの倫理観が健全であれば、結果に反映されるかもしれない。

 

もし、そのユーザーが何か意図を持っていたり、悪意やいたずら、危害、詐欺に手を染めているのであれば、ChatGPTはその手助けをすることだろう。

 

ツールであるChatGPTは、非常に便利なものだが、扱う人の自由裁量に任されている。

 

ビジネスが成功する可能性がある分、性差別や人種差別の世界観が広まる可能性もあるのだ。

 

ChatGPT4: 3つ目は、ChatGPT4がAI技術に対する倫理的・実存的な問いを投げかけることである。

 

背後にある技術が進歩すれば、いつか人間の知能を超えるかもしれず、技術的特異点や他の形態のディストピアを含む不確実な未来につながるかもしれない。

 

社会や個人のプライバシーへの長期的な影響についてほとんど考慮されないまま、日常生活における人工知能技術の利用がさらに強固なものになる可能性もある。

 

AI技術の使用と規制に関する疑問は、対処して慎重に検討する必要がある。

 

正直なところ、この回答を見て、私はあまり安心できなかった。

 

注目すべきは、ルールや法律ではなく、ガイドラインに言及していることだ。

 

法律、広告、ダイレクトセリングなど、多くの業界で自主規制が行われていますが、いずれも信頼が損なわれているのが現状である。

 

AIは、金融、医療、教育など、数え上げればきりがないほど、時代を画する技術である可能性がある。

そのためには、ガイドライン以上のものが必要、方向性が必要だ。

 

その方向性とは、アイザック・アシモフの「ロボティクスの法則」のようなものに近いと思われる。

 

彼によれば、機械は人間を傷つけてはならないし、不作為によって人間に危害を加えることを許してはならない。

 

傷害や被害をどう定義するかにもあるが、この技術は間違いなく悪用されるだろう。

 

その被害を抑制することは、必須ではないにせよ、有益であることは間違いないだろう。

 

2つ目のルールは、ChatGPT4の議論をより複雑なものにしている。

 

機械は人間の命令に従わなければならないが、そのような命令が第一法則に抵触する場合は例外である。

 

これがChatGPT4の根本的な欠点だ。

 

ChatGPT4は、私たちが頼んだことを忠実に実行する。

第一法則に抵触する場合を除き、そのような命令をすることは、ChatGPT4が持っていない分別のレベルである。

 

私たちは、これから長い間、人工知能の倫理と利益について格闘していくことになるだろう。

 

膨大な可能性だけでなく、そのリスクも考慮するのが妥当だろう。