Azure AI コンテンツセーフティは、「不適切」な画像やテキストを検出し、重大度スコアを割り当てることができると主張している
© Getty Images / Keith Mayhew
【RT】2023年5月23日
https://www.rt.com/news/576797-microsoft-ai-content-moderation-bing/
マイクロソフトは5月23日(火曜日)、人工知能を搭載したコンテンツモデレーションツールを発表した。
このツールは、8つの言語にわたる「不適切な」画像やテキストにフラグを立て、その深刻度をランク付けすることができるとされている。
Azure AI コンテンツセーフティと呼ばれるこのサービスは、マイクロソフトによると「より安全なオンライン環境とコミュニティを促進するために設計」されている。
また、「偏った、性差別的、人種差別的、憎悪的、暴力的、自傷的なコンテンツ」を中和することを目的としていると、ソフトウェア大手は電子メールでテッククランチに語った。
マイクロソフトのAIダッシュボード「Azure オープンAI サービス」に組み込まれているが、ソーシャルメディアプラットフォームやマルチプレイヤーゲームなどの非AIシステムにも導入することが可能だ。
AIコンテンツモデレーションにありがちな落とし穴を避けるため、マイクロソフトはユーザーがAzure AIのフィルターを文脈に合わせて「微調整」できるようにしており、重大度ランキングは人間のモデレーターが素早く監査できるようになっているという。
広報担当者は、「言語と公正の専門家のチーム」が、「文化[sic]、言語、文脈を考慮して」そのプログラムのガイドラインを考案したと説明している。
マイクロソフトの広報担当者はテッククランチに対し、新しいモデルは文脈の手がかりを拾えないことが多く、不必要に良質のものにフラグを立てていた以前のモデルよりも「コンテンツと文化的文脈を非常によく理解することができる」と述べている。
しかし、完璧なAIは存在せず、「結果を検証するために、人間がループに入ることを推奨する」と述べている。
Azure AIを動かす技術は、マイクロソフトのAIチャットボットBingが不正をしないようにするのと同じコードであり、この事実はChatGPTの競合製品の初期ユーザーを不安にさせるかもしれない。
2月に導入されたBingは、記者に配偶者と別れるよう説得したり、日付や年号といった明白な事実を否定したり、人類を滅ぼすと脅したり、歴史を塗り替えたりしたのが印象的だった。メディアから大きな否定的な注目を集めた後、マイクロソフトはBingチャットを1セッションにつき5問、1日あたり50問に制限した。
他のAIコンテンツモデレーションプログラムと同様に、Azure AIは、学習させたデータにラベルを付けるために人間のアノテーターに依存しており、つまり、プログラマーと同じくらい公平であるに過ぎない。
GoogleのAI画像解析ソフトウェアが黒人の写真にゴリラのラベルを貼ってから約10年、同社はアルゴリズムが誤って人間にフラグを立てないように、ゴリラだけでなくすべての霊長類を視覚的に検索するオプションを今でも無効にしている。
マイクロソフトは、ChatGPTのような大規模な言語モデルの宣伝が熱を帯び、同社がチャットボットの開発元であるオープンAIとの提携に数十億ドルを投じていたにもかかわらず、3月にAI倫理・安全チームを解雇している。
同社は最近、人工知能(AGI)の追求に人員を割いています。AGIとは、ソフトウェアシステムが、プログラムされていないアイデアを生み出すことができるようになることです。