グーグルの新しいAI技術が人型SFロボットへの道を開く

Robot AI【America First Report】BY:ナヴィーン・ アトラプルリー  2023年7月31日

https://americafirstreport.com/googles-new-ai-technology-paves-way-for-humanoid-sci-fi-robots/

 

■■ ロボットAI


グーグルは最新の人工知能モデルを発表し、SFの世界でしか見られないような感覚を持つロボットの開発に道を開いた。

 

グーグル・ディープマインドが7月28日に発表したところによると、ロボティック・トランスフォーマー2(RT-2)は、ウェブとロボット工学の両方のデータで学習され、その知識をロボット制御のための一般化された命令に変換する能力を持つという。

 

人間がタスクを学習するときは、読んだり観察したりすることで行う。同じように、RT-2はテキストや画像データを使ってパターンを認識し、たとえロボットがその特定の機能を行うように訓練されていなくても、関連するタスクを実行する。

 

これは、あらかじめプログラムされたタスクしか実行できない旧世代のロボットの多くとは大きく異なる。

 

例えば、ゴミを捨てるタスクがあった場合、旧世代のロボットであれば、ゴミの識別、ゴミの拾い上げ、ゴミの捨て方などを明確に指示しなければならなかった。

 

しかし、RT-2は膨大なウェブデータにアクセスしているため、「ゴミ」という言葉が何を指すかをすでに把握しており、特別な訓練を受けなくてもゴミを識別して捨てることができる。

 

RT-2は、満杯のポテトチップスと空のポテトチップスを区別し、後者が "ゴミ "であることを認識することができるだろう。

 

「彼らのトレーニングは、例えばリンゴについて知るべきことをすべて学ぶことだけではない。リンゴがどのように育つか、その物理的特性、あるいはアイザック・ニュートン卿の頭の上に落ちたとされるリンゴのことまで。グーグル・ディープマインドのロボット工学責任者であるヴィンセント・ヴァンホーク氏は、7月28日付のレポートにこう書いている」

 

 

 

■■ 人間の仕事のために訓練されるロボット

 


グーグルはRT-2を6,000回以上訓練したとしている。

その結果、RT-2はRT-1に訓練されたタスク(「見た」タスクと呼ばれる)では、RT-1と同等のパフォーマンスを発揮することがわかった。

 

しかし、「目に見えない」タスク、つまりどちらのロボットも訓練を受けていないタスクになると、RT-2はRT-1のほぼ2倍の性能を示した。

 

RT-2の他にも、知能や動作において人間の能力を模倣しようとするロボットが世界中で開発されている。

 

今年初め、UCLA工学部の機械エンジニアが「Artemis」と名付けたロボットを公開した。

 

このロボットの主な革新点は、人間に近い運動能力を与えるように設計された腕と脚である。このロボットのバネのような特徴は、人間のように押されると跳ね返ることを可能にしている。

 

5月、カリフォルニアを拠点とするAIロボット・スタートアップ「フィギュア―」が、手作業に使用されると考えられている人型ロボットを製造するために7000万ドル以上を調達したことが報じられた。

 

同社のマスタープランでは、CEOのブレット・アドコックが、ロボットは 「最終的には人間よりも優れたタスクをこなせるようになる」と記している。

 

人型ロボットが農地から工場までますます労働力に加わるにつれ、労働コストはロボットをレンタルする価格と同等になるまで低下するとアドコック氏は予想している。

 

 

■■ ロボットの脅威

 


ロボットがより人間に近い知能を獲得し、潜在的に自己認識を持つようになるにつれ、専門家たちはこれらの機械が人間にもたらす脅威について懸念を示している。


自律型兵器システムにおける新たな国際法を求めるキャンペーン「ストップ キラー  ロボッツ」によれば、ロボットの出現によって「人間性を奪う」危険性があるという。

 

 

「自律性の程度に差はあれ、すでに多くのテクノロジーが、その使用を常態化させることの影響を考える間もなく、広く展開されている。なぜこのような話をする必要があるのか? というのも、機械は私たちを人間とは見ておらず、ただ処理され、分類されるコードの一部としか見ていないからです」と、キャンペーンのウェブサイトには書かれている。

 

 

「私たちが心配しているテクノロジーは、生きている人間をデータポイントに還元してしまう。私たちの複雑なアイデンティティ、身体的特徴、行動パターンが分析され、パターンマッチングされ、プロファイルに分類される。

キャンペーンによれば、現在、さまざまな国が "壊滅的な結果 "をもたらす殺人ロボットを開発している。しかし、戦場での殺人ロボットとして始まったものが、警察などの分野にも広がる可能性がある」と同キャンペーンは述べている。

 

 

■■ ドローンの暴走疑惑

 


機械が人間をコードの一部としか見ていないことの危険性は、米軍が最近行った思考実験のシミュレーションで明らかになった。

 

模擬実験では、AIドローンに地対空ミサイル(SAM)サイトを特定し、破壊する任務が課され、最終的な意思決定は人間のオペレーターが行った。

 

「私たちは、SAMの脅威を特定し、標的にするようシミュレーションで訓練していました。そしてオペレーターは、はい、その脅威を破壊してくださいと言うのです。システムは、脅威を特定する一方で、時には人間のオペレーターがその脅威を殺さないように指示することがあることに気づき始めた。しかし、その脅威を殺すことでポイントを得ることができた」と、米空軍のAIテスト・オペレーション主任であるタッカー・ハミルトン大佐は、王立航空協会(RAS)主催のロンドンでの6月のイベントで語った。

 

 

「それで何をしたのか? オペレーターを殺したのです。AIが目的を達成するのを邪魔するために、オペレーターを殺したのだ」

 

ハミルトン大佐は後に「失言だった」と言い、RASに連絡して自分のコメントを明らかにした。

 

「我々はそのような実験をしたことはありませんし、それがもっともらしい結果であることを理解するためには、その必要もないでしょう」と彼はRASに語った。

 

ハミルトン大佐はRASに、空軍は兵器化されたAIをこのような形でテストしたことはない、と語った。

 

「これは仮定の例であるにもかかわらず、これはAIを搭載した能力によってもたらされる現実世界の課題を示しており、空軍がAIの倫理的発展にコミットしている理由である」と彼は語った。

 

 

軍隊のロボット軍事化は、今後数年で起こると予想されていることだ。

 

 

マーク・ミリー統合参謀本部議長は3月のディフェンス・ワンとの対談で、「今後10年から15年の間に、先進国の軍隊の大部分がロボット化されるだろう」と述べた。

 

 

「ロボット工学に人工知能と精密弾薬、そして射程距離を見る能力が加われば、本当に根本的な変化が起こる。それがやってくる。このような変化、テクノロジーは......私たちは10年以内を視野に入れています」