自動運転車向けの新しいAIが歩行者の動きを予測できる
- エンジニアは、自動運転車用のニューラルネットワークを開発して、人を検出し、次の動きを予測します。
- 車両から最大45メートルの距離にある複数の歩行者のポーズと次の位置を同時に正確に予測できます。
ほとんどの自動運転車は、さまざまなカメラ、LiDAR、GPSを使用して、周囲の内部マップを生成および維持します。次に、アルゴリズムがこれらの入力を処理し、経路をプロットして、ステアリング、加速、ブレーキを制御する車両のアクチュエータに命令を送信します。
予測モデリング、ハードコードされたルール、障害物回避、オブジェクト識別アルゴリズムなどの他のパラメータは、ソフトウェアが交通ルールに従いながらナビゲートするのに役立ちます。この領域で行われる作業のほとんどは、歩行者が3次元でどのように動くかを考慮していない静止画像のみを調べています。
この問題に対処するために、ミシガン大学の研究者は、既存のテクノロジーと比較してより高い精度で人を検出し、次の動きを予測できるAIを開発しました。車両から最大45メートルの距離にある複数の歩行者のポーズと次の位置を同時に予測できます。
生体力学的にインスパイアされたリカレントニューラルネットワーク
これまでのところ、自律型テクノロジーは、何百万もの2次元画像を処理する機械学習手法を使用してきました。現実の世界で一時停止の標識をリアルタイムで認識することができます。
一方、新しい機械学習手法では、数秒のビデオクリップを使用して動きを認識し、歩行者が次のステップでどこに行くかを正確に予測します。
参照:arXiv:1809.03705 |ミシガン大学
システムは、歩行者が左/右を見ているか、携帯電話で遊んでいるかにかかわらず、歩行者のポーズを監視します。これらの種類の情報は、次に何をする可能性が最も高いかについて多くのことを教えてくれます。
ニューラルネットワークは、人間の歩行の生体力学、たとえば人体の鏡像/左右対称性や人間の歩行の周期性からインスピレーションを得た長期短期記憶ネットワークに基づいています。
それはどれくらい正確ですか?
ニューラルネットワークの結果は非常に印象的でした。翻訳エラーの中央値は、1秒後に約10センチメートル、6秒後に80センチメートル未満でした。一方、他の同様の技術は最大700センチメートル離れていました。
ネットワークをより効率的にするために、チームは人体に適用されるいくつかの物理的制約(可能な限り最速の歩行/走行速度や飛行不能など)を設定し、システムがすべての可能な次の動きを計算する必要がないようにしました。
彼らは、CUDAディープラーニングフレームワークを備えた2つのNVIDIA TITAN X GPUを使用して、ミシガン州の実際の交差点を含むPedXデータセットでニューラルネットワークをトレーニングしました。
Python 3.6で実装されており、各フレームの各人の次のステップを予測するのに約1ミリ秒かかります。研究者によると、コードをさらに最適化して、より良い結果を得ることができます。
読む:新しい自動運転車のアルゴリズムは車線を積極的に変えることができる
AIは、自動運転車の能力の水準を引き上げることができます。また、二足歩行ロボットの歩行研究に役立つ可能性があり、臨床歩行リハビリテーションシステムの開発に適用できます。
産業技術