Googleの社員が、ライバルであるСhatGPTの展開を阻止しようとした - メディア

FILE PHOTO © Getty Images / imaginima

 

【RT】2023年4月10日

https://www.rt.com/news/574501-google-employees-stop-ai-bard/

 

2人のAIレビュアーが、バルドが不正確で有害な主張を吐いているという警鐘を鳴らすために奮闘した。

 


Googleの責任あるイノベーション部門の2人の従業員が、先月、同社のAIチャットボットバードのリリースを阻止しようとして失敗し、「不正確で危険な発言」をしやすいと警告していたことが、ニューヨークに詳しい内部関係者の話として、4月7日(金曜日)に明らかにされた。

 

 

危惧する製品レビュアーたちは、グーグルの主任弁護士が研究・安全担当幹部と面会し、同社が何よりもAIを優先していることを伝えたとき、すでにバードやその宿敵ChatGPTなどのAI大規模言語モデルの問題を指摘した。

 

チャットボットが偽の情報を作り出し、感情的になったユーザーを傷つけ、あるいは合成的な集団嫌がらせによって「技術によって促進される暴力」を放つという2人の懸念は、その後、責任あるイノベーションのスーパーバイザーのジェン・ゲンナイによって軽視されたと情報筋は主張している。

 

審査員たちは、バードをリリースする前に待つようグーグルに促していたが、ゲンナイはその勧告を完全に削除するために報告書を編集したと言われている。

 


ゲンナイはタイムズ紙に対し、バードはあくまで実験であるため、レビュアーが続行するかどうかの意見を共有することは想定されていなかったと弁明した。

 

そして、「不正確な仮定を修正し、考慮すべきリスクや害を実際に追加した」ことで、報告書を改善したと主張した。その結果、完成品はより安全なものになったと彼女は主張した。

 

Googleは、Bardを「限定的な実験」として公開したことについてゲンナイを信用したが、Google自身のウェブサイトによると、このチャットボットはまだ、市場を支配するGoogle検索エンジンに「まもなく」完全に統合される予定であるとのことだ。

 

 

グーグルは以前にも、AI問題で社員の反乱を鎮圧したことがある。

 

昨年は、バードの前身であるLaMDA(Language Model for Dialogue Applications)が覚醒したと主張したブレーク・レモインを解雇し、研究者のエル・マハディ・エル・マムディは、バードなどの大規模言語モデルのサイバーセキュリティ上の脆弱性を警告する論文の発表を同社に禁止されて辞職している。

 

2020年には、AI研究者のティムニット・ゲブルが、AI開発におけるGoogleの慎重さが不十分であると非難する研究発表を行い、解雇された。

 

しかし、AI研究者、技術幹部、その他の影響力のある未来人の一派は、技術に効果的なセーフガードを課すことができるまで、Googleと競合するマイクロソフトやChatGPTメーカーのオープンAIの高速で進む「進歩」に反対している。

 

最近、「巨大なAI実験」の6ヶ月間のモラトリアムを求める公開書簡には、オープンAIの共同設立者イーロン・マスクやアップルの共同設立者スティーブ・ウォズニアックなど数千人の署名者が集まった。

 

多くの専門家が警告を発しているのは、この技術が多くの人間の職業(あるいは人間そのもの)を陳腐化させ、社会を根底から覆す可能性があることだが、データ漏洩(オープンAIではすでに発生している)など、より低いリスクも頻繁に挙げられている。