OpenAIの元従業員、高度なAIのリスクを警告する「警告する権利」文書を公開


【Natural News】2024年06月17日 イーサン・ハフ 著

https://www.naturalnews.com/2024-06-17-openai-employees-rightly-warn-advanced-ai-risks.html

かつてOpenAIやGoogleで働いていた人工知能(AI)の専門家や開発者の一団が、彼らが先陣を切った技術が人類にとって深刻な脅威であると警告している。


彼らは今でも「人類に前例のない利益をもたらすAI技術の可能性を信じている」と言うものの、「高度な人工知能について警告する権利」と呼ばれる論文の著者たちは、「深刻なリスク」もあると言う。

 

「これらのリスクは、既存の不平等をさらに根付かせるものから、操作や誤った情報、自律的なAIシステムの制御を失い人類が絶滅する可能性のあるものまで、多岐にわたる」と彼らは書いている。

 

AI企業自身も、世界中の政府や他のAI専門家と同様に、これらのリスクを認めている。

 

科学界、政策立案者、そして一般市民からの十分なガイダンスがあれば、人類のためにAIを抑制できると、これらの専門家は期待している。

 

同時に、このような指導は、システムが機能する方法に基づいて行われることはないだろう。

 

AI企業には、効果的な監視を避けようとする強い金銭的インセンティブがある。

 

■■AI企業は一般の人々よりもはるかに多くのリスクを知っている


公には決して言わないだろうが、オープンAIや「ディープマインド」と呼ばれる不気味なAIプログラムを運営するグーグルのようなAI企業は、この技術に関わる深刻なリスクを十分に知っている。

 

しかし、彼らがこの技術を止めることは、あまりにも利益が大きすぎる。

 

現状では、AI企業が開発中のテクノロジーについて知っていることを政府に開示する法的要件はほとんどない。さらに悪いことに、公開要件はほとんど存在しない。

 

「私たちは、企業が自発的に情報を共有することを信頼できるとは考えていません」と著者は警告する。

 

これらの企業に対する政府の効果的な監視がない限り、現従業員や元従業員は、一般市民に対して説明責任を果たせる数少ない人々の一人である。

 

しかし、広範な守秘義務契約によって、これらの問題に対処していない可能性のある企業を除いて、私たちは懸念を口にすることができない。

 

既存の内部告発者保護に関しても、これらは違法行為を中心にしているため不十分であり、世界をコントロールできる高度なAIシステムの開発には、良くも悪くも違法性はない。

 

AI技術の既知のリスクの多くはまだ規制されておらず、おそらく今後も規制されることはないだろう。

 

つまり、AI企業にとっては、AIに関する醜い真実を語ろうと名乗り出る者に対して報復する強い動機があるということだ。

 

それでもなお、「警告する権利」の著者と署名者は、あらゆるAI企業に対し、自社のAI作品に対する「中傷」や批判を禁止するいかなる契約も結ばない、または強制しないという約束を含む、一連の約束と原則に自発的に同意するよう求めている。

 

■■著者はまた、AI企業に次のことを求めている。

 

- 現社員、元社員を問わず、AIに関する懸念を匿名で企業のトップに訴えることができるようにすること。

- AIをオープンに批判する文化を支援すること

- AIについて知っていることを公に共有する現従業員や元従業員に対して報復しないこと。

 

記事の署名者は以下の通り:

ジェイコブ・ヒルトン(元OpenAI

ダニエル・ココタジロ(元OpenAI

ラマナ・クマール(元グーグル・ディープマインド

ニール・ナンダ(現Google DeepMind、元Anthropic

ウィリアム・サンダース、(元OpenAI

キャロル・ウェインライト(元OpenAI

ダニエル・ジーグラー(元OpenAI

匿名、現在はOpenAI

また、6人の匿名署名者もおり、全員がかつてOpenAIで働いていた。

ヨシュア・ベンギオ氏、ジェフリー・ヒントン氏、スチュアート・ラッセル氏も「警告する権利」の呼びかけに賛同している。