ChatGPTです: 止めるか、一時停止するか、修正するか? わずか2カ月超で、1億人以上のユーザーを獲得

(Pixabay image)
【WNDニュースサービス】2023年4月15日13時08分

https://www.wnd.com/2023/04/chatgpt-stop-pause-fix/

(編集部注:この記事は元々Real Clear Wireに掲載されたものです)

ギルマン・ルーイ著
アルクリアワイヤー

 

 

ChatGPTは、発売後2ヶ月で1億人以上のユーザーを獲得し、瞬く間に話題となった。

 


論文執筆、研究、法的分析、子育てアドバイス、デジタルコンパニオンなど、これまで人間にしかできなかった仕事をこなすことができる初の汎用AIアプリケーションとして畏敬の念を抱かせ、すでにエリートレベルの仕事をこなせることを実証している。

 

 

私たちの働き方、学び方、作り方を変える高度な人工知能技術は、もはやSFの世界ではない。

 

 

 

だから、そのような技術の責任ある開発と実装を保証するために、私たちは一時停止ではなく、迅速に行動しなければならない。

 

AIの開発におけるアメリカのリーダーシップがなければ、敵対的または無法な行為者が、私たち自身の利益と倫理を犠牲にして、AIを捕らえ、形成することになるに違いない。

 

ChatGPTは、一般的にラージ ランゲージ モデル(LLM)と呼ばれる技術を搭載しており、ディープラーニングアルゴリズムと脳のようなニューラルネットワークを使って言語を処理することができる。

 

LLMは強力ですが、完璧ではない。

 

SATで1410点を取ったり、統一司法試験で90%の得点を取ることができる技術が未熟であるとは考えにくいが、このChatGPTの高度なバージョンでさえも未熟で、今日の1980年代のWindows 1.0に相当する。

 

LLMは、完全に間違った、あるいは偏った回答を、確信を持って提供することができる。

 

また、幻覚を見ることもあり、言い換えれば、学習データからは正当化されないような確信を持った回答をすることもある。

 

例えば、ChatGPTは最近、爆弾製造の指示を出すように「だまされた」。

 

グーグル、マイクロソフト(OpenAI)、メタなどの大手テック企業は、中国のテンセント、アリババ、バイドゥとともに、ChatGPTに負けないように競争している。

 

 

米国も中国も、世界的なAIのリーダーシップを競う大きな勢力争いの中にありながら、我々の組織は変化のスピードについていけずにいます。こうしたことから、技術者、学者、政府関係者、組織の中には、生成AI技術の導入が早すぎるのではないかという疑問を持つ人もいる。

 

 

LLMの技術は、オープンソースを通じてすでに世界的に利用可能であり、チャットボット以外にも毎日何百もの新しいアプリケーションに世界的に実装されている。

 

米国の技術開発・展開を遅らせたり一時停止したりしようとするのではなく、政府、学界、民間企業は、より安全で信頼できるAIシステムを要求するフレームワークの構築にエネルギーを注ぐべきだ。

 

どんな技術でも完璧に安全な利用を保証するシステムは存在しませんが、生成型AIがもたらす素晴らしい有用性を失うことなく、継続的に改善するための明確な戦略とガードレールを開発することは可能だ。

 

例えば、民間企業やアカデミアは、トレーニングデータ、アルゴリズム、クエリー、応答検証方法の品質向上に注力することができる。

 

技術者は、より成熟した技術を使って、システムの意図する機能とずれた不適切なクエリを選別することができる。

 

多くの人が規制の強化を提案していますが、現実には、適切な検討と理解がなければ、規制は解決策よりも損害を大きくする鈍器になり得る。


最近、著名な技術者が署名した公開書簡では、新しい高度なAI技術の導入を最低6カ月間休止して、その意味をより深く理解し、安全で責任ある利用を保証する適切なガードレールを制定することを求めている。

 

この書簡は興味深い問題を提起している。

 

政府は、AIの潜在的な危険から国民を守ろうとする意図で介入し、AIのあらゆる利点や積極的な利用を犠牲にすべきなのか? 

 

インターネットを構築した産業が自ら規制することを信じていいのだろうか? 

 

これらの疑問には答える必要がありますが、高度なAIの実装を遅らせるかどうかという議論に焦点を当てるのではなく、ChatGPT 4.0のような既存の生成型AIアプリケーションを、より安全で責任あるバージョンにどれだけ早く置き換えることができるかが重要なのだ。

 

政府、産業界、学界が協力して、より安全なAIの開発と実装を支援し加速させる、より良いAIエコシステムを構築する時が来たのである。

 

連邦政府は、AI技術に精通した専門家を集め、安全に導入するための最良の方法を確立するために、委員会を開催するユニークな立場にある。

 

連邦政府は、全米アカデミーを利用して、戦略や情報に基づいた政策を推奨することができる。

 

国立標準技術研究所(NIST)のような信頼できる政府機関は、適切な基準、信頼できるモデル、検証されたデータセットを開発することができる。

 

国防高等研究計画局(DARPA)や全米科学財団(NSF)などの機関は、AIの安全性に関する研究開発への資金提供を増やすことができる。

 

学術界は、信頼できるAIに焦点を当てた新しいAI研究センターを構築することによって、最も安全なAIの実践を明らかにし、学生に情報を提供し、人工知能分野でのキャリアへの足掛かりとなるK-12AIカリキュラムの開発を支援することができる。

 

また、大学は、高度な人工知能の上級学位を増やすべきだ。

 

業界のリーダーは、より安全なAIの実践を日常的に制定することができる。

 

業界の関係者は、安全性、ベストプラクティス、オープンソースライブラリ、共通のデータセット、検証済みモデル、テスト、検証認証に焦点を当てたAIコンソーシアムを設立する機会がある。

 

AIを活用する企業は、安全な実装に責任を持つAI最高責任者を設置することができる。

 

また、業界は、テストと認証サービスを提供できる信頼できる第三者機関(AIリスクの格付け機関)を開発することができる。

 

この議論は、テック業界に全幅の信頼を置くべきか、政府に全幅の信頼を置くべきかを問うべきものではない。

 

 

むしろ、政府、産業界、アカデミアが協力して、AIへの信頼を築く必要があるだろう。

 

外国政府、特に敵対的な政府が明日のテクノロジーを直接コントロールすることになれば、誰もが損をすることになる。

 

 

また、AIが無法地帯の西部劇のような力を持つようになれば、誰もが損をする。

 

今こそアメリカは、安全で倫理的、かつ責任ある包括的なAIの枠組み作りを主導し、イノベーションを阻害することなく高度なAIを責任を持って導入する方法を世界に示す時だ。

 

待つのはやめよう。

 

より安全なシステムをより早く世に送り出そう。一緒になって、今すぐ始めよう。