記事の概要
東京大学を中心とした国際研究チームが、自然言語による指示に基づいてロボットが物体を把持する手法「GraspMAS」を開発しました。
この手法では、複数のAIエージェントが協力し、事前学習なしでロボットが曖昧な指示に対応できるようになります。
具体的には、指示を分解し把持計画を作成する「Planner」、視覚と言語を認識しコードを実行する「Coder」、結果を評価してフィードバックを行う「Observer」の3つのエージェントが連携します。
この新しい方法により、実験で従来の手法を大幅に上回る成果が得られました。
今後は推論時間の短縮や物体密集環境での性能向上に取り組み、産業応用を目指すとのことです。
記事のポイント
詳しい記事の内容はこちらから(引用元)
日経クロステック(xTECH)
東京大学などの国際研究チームは、自然言語の指示に基づいてロボットによる把持を可能にする手法を開発した。複数のAIエージ…
https://xtech.nikkei.com/atcl/nxt/news/24/02916/