AIがゆっくりと工場の床に移動する
カリフォルニア州サンノゼ—ディープニューラルネットワークが工場のフロアに向かって這っています。
いくつかの初期の採用者にとって、ニューラルネットはコンピュータービジョンカメラの目の後ろに埋め込まれた新しいインテリジェンスです。最終的に、ネットワークはロボットアーム、センサーゲートウェイ、コントローラーに蛇行し、産業用自動化を変革します。しかし、変化はゆっくりと進んでいます。
「私たちはまだ数十年の進歩と次世代の機械学習アルゴリズムの初期段階にありますが、今後数年間で大きな進歩が見られると思います」とチーフのロブ・ハイは述べています。 IBMワトソンのテクノロジーオフィサー。
ニューラルネットワークは、ファクトリーフロアとその周辺に登場するLinux対応のマルチコアx86ゲートウェイとコントローラーの数を増やしていきます。新たな5Gセルラーネットワークは、いつの日かニューラルネットがリモートデータセンターにすぐにアクセスできるようになるとHigh氏は述べています。
自動車や航空機のメーカーや医療提供者は、主にスマートカメラを使って初期の一歩を踏み出している企業の1つです。キヤノンは、ディープラーニングをオンにするために、産業用カメラにNvidiaJetsonボードを組み込んでいます。産業用カメラベンダーのコグネックスは、独自の製品を増やしています。また、中国の新興企業であるHorizon Roboticsは、ディープラーニング推論アクセラレーターを組み込んだ監視カメラをすでに出荷しています。
Nvidiaの自律型マシンのゼネラルマネージャーであるDeepuTallaは、次のように述べています。 「知覚はかなり簡単で、研究者はそれを解決された問題と見なしています。
「現在、大きな問題は、人間との相互作用とより詳細な作動のためにAIを使用することです。これらは、10年間の研究上の問題です。ドローンやロボットナビゲーションなどの分野では、プロトタイプの段階にあります。」
タラはロボット工学を「コンピューターとAIの交差点」と呼んでいますが、ディープラーニングの多くの産業用途は魅力的ではなく、より早く到着するでしょう。
ロボット部品の大手サプライヤーであるHarmonicDriveLLCの最高経営責任者であるDougOlsen氏は、工場のロボットはまだAIを使用していないと述べています。短期的には、「故障を予測し、システムが予防保守を必要とする時期を判断するために日常の使用に関するデータを収集できる、工場フロアの機械」が組み込まれているほど、スマートロボットアームを監視しないでください。 「そこでAIが最初に定着することができます。」
一部の大手チップメーカーは同意します。ルネサスは3年前に実験を開始し、AIをサポートするマイクロコントローラーをエンドノードに配置して、障害を検出し、半導体ファブの1つで生産システムのメンテナンスニーズを予測しました。
10月、日本のチップ大手は、リアルタイム画像処理用に動的に再構成可能なプロセッサブロックを備えた最初のMCUを発表しました。 2020年のリアルタイム認知と2022年の漸進的学習をサポートできるコントローラーをフォローアップすることを目的としています。
ライバルのSTMicroelectronicsは、STM32チップでも同様のアプローチを取っています。 2月には、工場フロアでの障害検出を一部目的とした、開発中のディープラーニングシステムオンチップとアクセラレータを発表しました。
やがてスマートロボットが登場します。たとえば、スタートアップcovariant.aiは、強化学習を可能にするために取り組んでいます。カリフォルニア大学で共変を設立し、ロボット工学研究室を運営しているAI研究者、Pieter Abbeelは、次のように述べています。バークレー校で。
Abbeelは、ニューラルネット技術を使用して実行することを学習しているロボットの驚異的なシミュレーションを示していますが、まだ初期の段階です。 「実際、産業用AIスペースはまだそれほど混雑していないため、共変を開始しました」と彼は言いました。
モノのインターネットテクノロジー