AIがもたらす致命的な脅威を無視するChatGPTメーカー - 内部関係者

© Getty Images / Guillaume

【RT】2024年6月6日-14:35 ホームビジネスニュース

https://www.rt.com/business/598858-openai-ignoring-ai-threat-insider/
将来のAI技術の進歩は人類を滅亡させるか、壊滅的な被害を与える可能性があると研究者がニューヨーク・タイムズに語った。


OpenAIは、人工知能(AGI)システムの構築に成功した場合の大きなリスクを認識しているが、それを無視していると、米テクノロジー企業の元研究者ダニエル・ココタジロ氏がニューヨーク・タイムズ紙のインタビューで警告している。

 

AGIとは、幅広いタスクを理解し、推論することができる、仮想的な人工知能の一種である。この技術が成功すれば、学習と推論の能力を示しながら、人間の行動を再現したり予測したりすることになる。

 

4月にOpen AIのガバナンス・チームを去ったココタジロによれば、「高度なAI」が人類を破滅させる可能性は70%程度だが、サンフランシスコを拠点とする開発者は、それに関係なくこの計画を推進している。

 

「OpenAIはAGIの構築にとても興奮しており、そこで最初になるために無謀な競争をしている」と元従業員は同紙に語った。

 

この31歳の研究者はまた、2年前にOpenAIに入社し、技術の進歩を予測する仕事を任された後、この業界は2027年までにAGIを開発するだけでなく、その技術が人類に壊滅的な被害を与えるか、あるいは滅亡させる可能性が高いという結論に達したとNYT紙は伝えている。

 

この元スタッフは、OpenAIのCEOであるサム・アルトマンに、企業は「安全性に軸足を置き」、AIをより賢くし続けるのではなく、AIがもたらすリスクへの対策に多くの時間とリソースを費やすべきだと語ったという。

 

ココタジロは、アルトマンは彼に同意したが、それ以来何も変わっていないと主張した。

 

ココタジロは最近、OpenAIの内部関係者のグループの一員で、OpenAIを含むAI開発者に対し、より透明性を高め、内部告発者の保護を強化するよう求める公開書簡を発表した。

 

OpenAIは、従業員の批判や世間の厳しい目が向けられる中、最も高性能で安全なAIシステムを提供してきた実績を誇り、リスクに対処するための科学的アプローチを信じていると述べ、その安全記録を擁護している。