ロボットビジョンの現実は何ですか?
ロボットビジョンまたはビジョンガイドロボットシステムは、多くのメーカーが標準的な産業用ロボットに伴うジギングやポジショニングの制約を回避するための新しい手段です。
これらの制約が存在するのは、信頼できる出力で反復可能なプロセスを実行するために、ロボットは通常、制限されたプログラムまたは正確なプログラムに従う必要があるためです。これらは、自動車のシャーシを溶接する、または大量の組立ラインでコンポーネントを組み立てるのに役立つと考えることができます。これらは、投資収益率を維持しながら、大幅で正確なセットアップコストを正当化できる、正確で再現性の高い操作です。
ただし、多くのシナリオでは、さまざまなパーツまたはそのサイズとボリュームにより、このような正確なジギングは実用的ではありません。ロボットビジョンは、依然として非常に反復的なプロセスを実行するための代替手段を提供します。ビジョン能力に加えて特殊なテクノロジーを備えたロボットビジョンは、既存のジギングの制約の限界を克服するだけでなく、実際にロボットがこれまでにないリアルタイムで応答できるようにする「セルフプログラミング」ソリューションへの扉を開くこともできます。部品と位置–すべて手動プログラミングなしの付加価値 。
今日ロボットが使用されている場所
ロボットは、自動車メーカーやその他のマスマーケット企業で一般的に使用されています。北米の製造ロボットの約40%が自動車部門で使用されていると推定されています。これらのロボットは車両を組み立て、部品または最終製品に製造プロセスを適用します。
これは、このタイプのメーカーで機能します。これは、自動車が1)購入に費用がかかる、2)製造に費用がかかる、3)バッチサイズが大きい(年間数万から数十万のユニットを販売する自動車のモデルが多数ある)ためです。 4)5〜7年ごとに大きな設計変更のみが表示されます。
自動車や電子機器などの業界がさまざまな種類のロボット操作を推進してきた方法にもかかわらず、ロボット自体は他の形式の操作にそれほど反応するようにはなりませんでした。ロボットまたはマシンビジョンは、ロボットにリアルタイムで環境に応答したり、主要なオブジェクトを識別して空間で操作したりするためのセンシング機能を提供することで、それを変えようとしました。
現在のところ、これらの操作のほとんどはかなり反復的です。ロボットが空間内の小さな部品やコンポーネントを識別して組み立てたり結合したりする必要があるパレタイズ、ピックアンドプレース、または自動化された操作を考えてみてください。これらのアプリケーションは、人工知能の新しい使用法で引き続き機能しますが、マシンビジョンを使用する産業用ロボットは、産業環境で熟練した人間の労働者と同じように応答性が高くなり、何よりもハイミックスメーカーに利益をもたらします。
これまでのロボットビジョンの試行方法
ロボットビジョンの試みは、静止画像、レーダー、LIDAR、またはその他の定式化を通じて行われてきましたが、コンピュータービジョンの進歩により、より自律的なロボットを開発する他の機会も生まれました。
今日のメディアで最もよく知られているロボットビジョンの形態は、自動運転車、自律移動ロボット、「ピッカー」ロボットです。自動運転車は、まだ開発中であり、強力な安全ケースをゆっくりと達成しながら、基本的に道路や高速道路で自律的に機能します。
自動運転は、地図、GPS、状況認識の組み合わせを効果的に使用して、進行中の場所と障害物を評価します。また、一般的に、交通、信号、一時停止の標識、歩行者、制限速度、オブジェクトのさまざまな問題をナビゲートします。彼らの目的地に到達するための道路。このテクノロジーは、今日のテスラのような車や他のブランドから、レーンアシスタンスやドライバー自身の能力を強化するさまざまな安全機能の形ですでに利用可能です。
自律移動ロボットに関しては、それらは主に倉庫で使用され、時には荷物の配達やリモート監視シナリオ(たとえば、ドローンなど)で使用されます。このような状況では、AIは一般的な視覚情報を処理し、特定の目的を特定するためにも使用されます。 Doordashは、目的地に食料を運ぶための小型配達ロボットの配備をすでに開始しています。
さまざまな倉庫ロボットもマテリアルハンドリングや梱包を可能にする能力があると見なされていますが、Covariantのような技術に基づく「ピッカー」ロボットは、ロボットがコンベヤー上のオブジェクトを区別し、卸売りまたは小売りの出荷のためにそれらをパッケージ化または分類できるようにします。これは、さまざまな種類の部品を区別して適切に分類することを目的としているため、ロボットのビジョンに関してさらに一歩進んでいます。これは大きな前進ですが、それでも倉庫アプリケーション、マテリアルハンドリングに限定され、付加価値やクラフトベースではありません。プロセス。
付加価値のあるプロセスでは、ロボットビジョンはさまざまな方法で使用されてきましたが、プログラミングやパーツの組み合わせに関して必ずしもリアルタイムで機能するとは限らない、まだプログラムされたマシンフレームワークの一部であることがよくあります。同時に、それらはこれまで以上に必要とされています。社会的距離、団塊の世代の退職後の危機、若年労働者の熟練労働者の不足の間で、企業は、コストを押し上げることなく生産量を維持するための十分な自動化オプションを用意していません。
ロボットビジョンがセルフプログラミングのブレークスルーを可能にする理由
ロボットのビジョンと効果的でプロセスに特化したAIを組み合わせることは、工場や施設に職場での真の自律性を与えるための最後のステップです。
Omniroboticでは、ロボットが正面に配置された形状を視覚化して解釈できるようにする赤外線センサーシステムを作成しました。このシステムは、熟練労働者が「自分の頭の中で」持っているのと同じ程度に、製造環境のさまざまな部品、形状、および位置のデジタル化された画像を生成できる十分な奥行き知覚と視野を備えています。 AIを使用すると、システムはリアルタイムで独自のロボットモーションを生成できます。これにより、従来のプログラミングプロセスが短縮され、部品の種類や多くの一般的なメーカーの要件に関係なく、ロボットが自律的に機能できるようになります。
このテクノロジーは、さまざまなプロセス制限を考慮に入れています。たとえば、スプレープロセスでは、特定のツールタイプが必要ですか?ツールと部品の間にスタンドオフ距離が必要ですか?塗装が必要な部分の面だけがありますか?
ロボットビジョンを使用して生産性を変革する方法
では、1つの仕事をするロボットと、投げたほぼすべての部分を処理できるロボットの違いは何ですか?
ええと、基本的に、ロボットの視覚は良いスタートですが、自分で考えることができる 操作の実行方法については不可欠です。
もちろん、必要な特定の指示と克服すべき特定の制限がまだありますが、要点は、産業用ロボットがこれまでになく「設定して忘れる」ことに近づいているということです。
さらに、これにより、チームはマテリアルハンドリング、その他の熟練した、または創造的なタスクに集中できる柔軟性が得られ、これまで以上に出力の面でより高い品質と生産性を達成すると同時に、ハイミックスになっている制限や障壁を克服できます。近年の熟練労働者を見つけるという点でメーカー。
これを「絶対的な勝利」と呼ぶかもしれませんが、私たちはそれをShape-to-Motion™テクノロジーと呼んでいます。詳細については、今日私たちに連絡してください。
Omniroboticは、ロボットにセルフプログラミングテクノロジーを提供します。これにより、ロボットは重要な産業用スプレーおよび仕上げプロセスを確認、計画、および実行できます。 Omniroboticのチームは、数十年の経験と新しいAI機能を組み合わせて、Shape-to-Motion™テクノロジーと呼ばれるものを通じてこれを提供します。このテクノロジーは、各パーツと特定の要件に対してリアルタイムで独自のロボットモーションを生成します。 ここで、どのような見返りが得られるかを確認してください 。
産業用ロボット