ステップバイステップ ガイド:ABB Robotics Add‑In を使用した Bin Picking Studio の導入
2025 年 12 月 11 日、当社は ABB Robotics と提携して、 独占ウェビナー「3D ビジョン誘導ロボティクスによる複雑なオートメーションの習得」 を開催しました。
目標は、産業オートメーションにおける大きな進歩、つまり高度な 3D ビジョン システムとロボット セルの間の従来の壁を崩壊させることを実証することでした。
メーカーは何年もの間、複雑さを排除し導入を加速する、視覚誘導ロボット工学への統一アプローチを求めてきました。私たちは、Locator Studio と Bin Picking Studio を ABB Robotics One エコシステムと OmniCore コントローラーに直接統合することで、その要求に応えました。
以下のガイドでは、この統合の技術的な詳細について説明します。ハードウェア接続から最終的なブロック プログラミング ウィザードまで。
ここでは、ABB 用の新しい Photoneo アドインを使用して、最初の AI ビンピッキング アプリケーションを起動する方法を正確に説明します。
1.ハードウェア接続の必需品
信頼性の高いアプリケーションの基礎は、物理的なセットアップから始まります。まず、シーンに適したスキャナを選択します。静的環境には PhoXi 3D スキャナを使用し、アプリケーションに動的なシーンが含まれる場合、またはロボットの直前の領域をメッシュする必要がある場合には MotionCam-3D を使用します。
次に、Locator または Bin Picking Studio ライセンスを格納している産業用 PC を接続します。この PC には 6 つの特定のイーサネット ポートが備えられています。ロボット通信にはポート 1 を、インターネット接続にはポート 2 を接続する必要があります。ポート 3 ~ 6 はスキャン デバイス用に予約されています。
2.アドインのインストール
インストールは、ロボット コントローラーで直接処理される 7 分間の迅速なプロセスです。 Photoneo Web サイトからインストール パッケージを USB スティックにダウンロードし、ABB FlexPendant に挿入します。
メイン メニューで [コントローラ ソフトウェア] に移動し、[新しいアドインのインストール] を選択して、Photoneo パッケージを選択します。
ここで最も重要な手順は、物理構成に一致する正しいテンプレートを選択することです。
ハンドアイ構成 (左)、外部構成 (右)カメラがスタンドに取り付けられている場合は、外部セットアップを選択します (単一デバイスの場合は「Basic」を選択し、複数のデバイスの場合は「Multiple Vision」を選択します)。カメラがロボットのフランジに取り付けられている場合は、ハンドアイセットアップを選択します。ハンドアイの場合、ロボットがスキャンのために停止するか (「マルチビュー静的」)、移動しながらスキャンするか (「マルチビュー動的」) を指定できます。
インストール プロセスは簡単で、所要時間は約 7 分です。コーヒーを飲むのに十分な時間です。
<オル>3.ネットワーク構成
インストール後、ABB のメイン メニューに新しい Photoneo アイコンが表示されます。これを開くとネットワーク設定が表示され、パブリック ネットワークとプライベート ネットワークを切り替えることができます。
このシステムには、ビジュアル コントローラーおよびロボット システム用に事前定義されたアドレスが付属しています (通常は管理ポートまたは DSQC 1100 I/O カード経由)。
カスタム IP アドレスを入力する必要がある場合、システムはそれらをすぐに検証し、緑色に点滅する「保存」ボタンが成功を示します。
プライベート ネットワークの場合、「Photoneo サーバーへのリダイレクト」機能を使用すると、ロボットと Photoneo ソフトウェアの両方を単一のインターフェイスから制御できます。
インストールしたら、 新しいPhotoneo アイコンを開きます。 ABB のメイン メニュー内。 3 つのセクションが表示されます。
- マニュアル (左): すぐに走り始めるためのガイド。
- ネットワーク設定 (中央):
- パブリック ネットワークまたはプライベート ネットワークを選択できます。
- ビジュアル コントローラーとロボット システムのアドレスは事前に定義されています (管理ポートまたは DSQC 1100 I/O カードへの接続を想定しています)。
- IP を変更すると、システムがそれを検証します。成功すると、「保存」ボタンが緑色に点滅します。
Photoneo サーバー (右) にリダイレクトします: プライベート ネットワーク用の強力な機能で、ロボット機能と Photoneo ソフトウェアの両方を 1 か所で完全に制御できます。
4.ビンピッキングスタジオ (BPS) のセットアップ
ネットワークがアクティブな状態で、Bin Picking Studio に移動して、アプリケーション ロジックを定義します。
まず、一意の ID を持つ新しいソリューションを作成し、次にハードウェアを定義します。ロボット モデルを選択し、グリッパーの CAD モデル (1MB 未満の STL) をアップロードし、ツール センター ポイント (TCP) を設定します。ここでは、アプローチ ベクトルや直線パスなどの把握方法も定義します。
ビンピッキングスタジオでのロボットの選択次に、ビジョンと環境を設定します。ビジョン システムを追加し、物体検出用のニューラル ネットワークを選択します。
[環境] タブでは、作業セルの STL モデルをインポートして衝突オブジェクトを定義し、テスト スキャンをトリガーして点群がデジタル ロボット モデルと一致していることを確認できます。
最後に、[設定] でピッキングの優先順位を微調整し、ピッキングの失敗のトラブルシューティングに役立つ「自動スナップショット」を有効にすることができます。
ここでは、簡単なステップバイステップの概要を示します:
ステップ A:プロジェクトとハードウェア
- 新しいソリューション: 一意の ID を使用してプロジェクトを作成します。 (この特定のソリューションを呼び出すためにロボット プログラムによって使用されます)
- ロボット: ロボットの名前、到達範囲、積載量を選択します。
- グリッパー: CAD モデル (1 MB 未満の STL ファイル) をアップロードし、ツール中心点 (TCP) を定義し、不変性を設定します。
- 把握方法: パス ステージを定義します (アプローチ、直線パス、位置許容差など)。ここで、事前定義されたロボット ルーチンをトリガーできます。
ステップ B:ビジョンと環境
- ビジョン システム: 最大 4 つのシステムを追加します。キャリブレーション タイプ、センサー ID、スキャン プロファイルを構成します。
- ローカリゼーション: 物体の検出と最初のグリップ ポイントの配置にニューラル ネットワークを選択します。
- 環境:
- シーン: 衝突オブジェクト(作業セルの単純な形状またはインポートされた STL)を設定します。
- ロボット: ロボットをジョギングし、現在位置を確認し、軸の制限を設定します。
- ビジョン: スキャンをトリガーして、点群がロボット モデルと一致していることを確認します。
- 設定: ピッキングの優先順位、角度制限、衝突パラメーターを微調整します。 ヒント:トラブルシューティングに役立つように、失敗したアクションの「自動スナップショット」をオンにします。
ステップ C:導入
- 本番モード: 完全に操作の準備が整いました。ロボットからのリクエストを直接受け入れます。
- シミュレーション モード: 実際のデータまたはシミュレートされたデータを使用してロボットの動きをシミュレートします。ジョイントの制限とグリッパーの設計をテストするのに最適です。
5.ロボットのプログラムとキャリブレーション
次に、アプリケーションに合わせてロボットのプログラムを変更します。
システムを実行する前に、ロボットの内部プログラムを調整する必要があります。まず、RobotStudio で、特にプライベート ネットワーク上の「Rapid Sockets」に対してファイアウォールを有効にし、コントローラを再起動します。
次に、ロボットに特定の物理的位置を教える必要があります。正しい作業オブジェクトとツールを使用して、ロボットをジョグして、ホーム、ビンピッキング開始位置、およびピッキング終了位置を定義します。
また、グリッパーの開閉信号を AttachGripper ルーチンと DetachGripExcerptper ルーチンにマッピングする必要があります。
キャリブレーションの場合、ワークスペースに適切なツール (外部セットアップ用のボール、またはハンドアイ用のマーカー パターン) を配置します。
マーカーパターンCalibPositions ルーチンには 9 つのターゲット位置が含まれています。これらのターゲットを調整して、視覚システムがどのポーズでもマーカーが衝突することなく明確に見えるようにします。キャリブレーション ルーチンを実行し、最終結果が 2 mm 未満であることを確認します。
<オル>- RobotStudio でファイアウォールを有効にします。
- Rapid Sockets のファイアウォールを有効にする プライベート ネットワーク上。
- ロボット コントローラーを再起動します。
- ホームポジション。
- ビンのピッキング位置を開始します。
- ピッキング位置を終了します。
調整ルーチン
<オル>チェック結果: 2 mm 未満の結果を目指します。 .
6.ウィザード:ブロックプログラミング
深いプログラミングスキルは必要ありません。
最後のステップでは、ブロック プログラミング ウィザードを使用してアプリケーション ロジックを構築します。これにより、複雑なコーディングが不要になります。 HE (Hand-Eye) または X (Extrinsic) というラベルの付いたブロックが表示されます。
標準のワークフローは、初期化ブロック (IP とホーム ポジションを含む) で始まり、続いて継続実行のために True に設定された While ループが続きます。ループ内では、ローカリゼーションを実行するスキャン ブロック、パーツを取得するピック ブロック、パーツを解放する配置ブロックなど、必要なアクションを積み重ねるだけです。
Place ブロックには、降下点から 100mm 上の安全な位置を自動的に計算する「Approach」パラメータも含まれています。ブロックを配置したら、「適用」をクリックするだけでアプリケーションをデプロイできます。
ウィザードを使用すると、HE というラベルの付いた単純なブロックを使用してアプリケーション ロジックを構築できます。 (ハンドアイ) または X (外部)。
サンプル ロジック フロー:
<オル>- スキャンポーズ: 既存のポジションを使用するか、新しいポジションを作成します。
- ビジョン ID: ローカリゼーションを実行するシステムを選択します。
- 待ち時間: スキャン前にロボットが安定していることを確認するためのオプションのパラメータ。
- アプローチパラメータ: アプローチとリリースのために、オブジェクトの上方 100mm の位置を自動的に作成します。
最終ステップ: [適用] をクリックします。 .
これで、Photoneo と Omnicore プラットフォームを使用して、初めての AI ベースの箱ピッキング アプリケーションを実行する準備が整いました。そのパワーとメリット、そして実際の成功事例について詳しく知りたい方は、今すぐウェビナーをもう一度ご覧ください。
自動制御システム
- 仮想の美徳
- 中小企業の33%は、英国の支払い遅延文化を懸念しています
- SICKのインダストリー4.0トレーニングにより、PLCでIO-Linkを開始できます
- 射出成形:K2019での自動化のニュース
- グリッパーはコボットでより高いペイロードを可能にします
- 知識豊富な組織がRPAを使用して自動化の最初の時代に成功する方法
- UiPathによると、英国のオフィスワーカーの78%は自動化を恐れていません
- SoftingIndustrialAutomationがエンドレスハウザーのIIoTネットワークに参加
- BluePrismのデジタルワーカーがCovid-19との戦いをどのように支援しているか
- RPAとCOVID-19:ソフトウェアロボットが企業が従業員の健康を最優先するのをどのように支援しているか
- キヤノンとAVEVAがスマートファクトリー向けの画像技術合弁会社を設立