フィルタは6Dポーズ推定でロボットのビジョンを強化します
ロボットは、組立ラインでの簡単な作業など、同じ繰り返し動作を行うのが得意です。しかし、それらは環境内を移動するときにオブジェクトを知覚する能力を欠いています。最近の研究は、イリノイ大学アーバナシャンペーン校、NVIDIA、ワシントン大学、スタンフォード大学の研究者によって、ロボットがオブジェクトを操作してナビゲートできるように、より大きな空間知覚を与えるフィルターを開発するための6Dオブジェクトポーズ推定について実施されました。より正確に宇宙を通り抜けます。
3Dポーズは、X、Y、およびZ軸の位置情報(カメラに対するオブジェクトの相対位置)を提供しますが、6Dポーズははるかに完全な画像を提供します。飛行中の飛行機を説明するのと同じように、ロボットはオブジェクトの向きの3つの次元(ヨー、ピッチ、ロール)を知る必要があります。実際の環境では、これら6つの側面すべてが絶えず変化しています。
このフィルターは、ロボットが空間データを分析するのに役立つように開発されました。フィルタは、各粒子、またはオブジェクトに向けられたカメラによって収集された画像情報の一部を調べて、判断エラーを減らします。
画像ベースの6Dポーズ推定フレームワークでは、粒子フィルターはサンプルを使用して位置と方向を推定します。すべての粒子は仮説のようなものです—推定を必要とする位置と方向についての推測。粒子フィルターは、観測を使用して他の粒子からの情報の重要性の値を計算し、誤った推定を排除します。
以前は、オブジェクトの向きの完全な分布を推定するシステムはありませんでした。これにより、ロボット操作に関する重要な不確実性情報が得られます。新しいフィルターは、Rao-Blackwel化された粒子フィルタリングフレームワークで6Dオブジェクトポーズトラッキングを使用します。このフレームワークでは、オブジェクトの3D回転と3D平行移動が分離されます。これにより、PoseRBPFと呼ばれる新しいアプローチにより、オブジェクトの3D平行移動を、3D回転全体の完全な分布とともに効率的に推定できます。その結果、Pose-RBPFは、適切な事後分布を維持しながら、任意の対称性を持つオブジェクトを追跡できます。
詳細については、Lois Yok-soulianまでお問い合わせください。このメールアドレスは、スパムボットから保護されています。表示するにはJavaScriptを有効にする必要があります。; 217-244-2788。
センサー