超低電力システムがAIの期待をTinyMLに固定
カリフォルニア州サニーベール– 200人近くのエンジニアと研究者のグループがここに集まり、TinyMLと呼ばれる超低電力システムでディープラーニングを育成するためのコミュニティの形成について話し合いました。プレゼンテーションやダイアログでは、新しいクラスのシステムを実現することを期待して、テクノロジーの最も動きの速い分野のまだ未成熟な分野を把握するのに公然と苦労しました。
「素晴らしいアイデアに事欠くことはありません」と、Armの機械学習のフェローであるIan Brattは、ディスカッションを開始しました。
「4年前、物事は退屈になりました。その後、機械学習は新しい浮動小数点形式と圧縮技術とともに登場しました。それは再び若いようなものです。しかし、実際のシステムでこれらのアイデアを使用してお金を稼ぐ方法は非常に不足しています」とブラット氏は述べています。
「ソフトウェアエコシステムは完全に野生の西部です。それは非常に断片化されており、Amazon、Google、Facebookなどがすべてフレームワークを推進しているため、ハードウェアエンジニアは、多くの人が使用できるものをどのように入手できるのでしょうか。」と彼は尋ねました。
STMicroelectronicsのエンジニアが同意しました。
「AIには少なくとも4つのコンパイラがあり、新しいチップは従来の組み込み設計者には使用されないことに気づきました。そのため、ソフトウェアインターフェースを安定させ、相互運用性に投資する必要があります。標準化委員会が共通のインターフェースに取り組む必要があります」とSTMエンジニアは提案しました。
TinyMLグループの共同議長であり、モバイル環境と組み込み環境を対象とするフレームワークであるGoogleのTensorFlowLiteのテクニカルリーダーであるPeteWarden氏は、ソフトウェア標準には時期尚早かもしれないと述べています。
「私たちは、運用とアーキテクチャを絶えず変更している研究者を非難します。彼らはまだ重み、圧縮、フォーマット、そして量子化についてのことを発見しています。セマンティクスは変化し続けており、私たちはそれらについていく必要があります」とWarden氏は述べています。
「今後数年間は、汎用計算を実行しないアクセラレータが新しい操作や活性化関数を処理する未来はありません。2年後、人々はさまざまな操作をテーブルに持ち込む可能性が高いからです」と彼は付け加えました。
MicrosoftAIの研究者も同意しました。 「私たちは本来あるべき場所から非常に遠く離れており、1、2年でそこにたどり着くことはありません。これが、MicrosoftがAzureクラウドサービスを高速化するためにFPGAに投資した理由です。 「ハードウェアの革新を可能にするために、適切な抽象化レイヤーを構築する必要があります。オープンソースのハードウェアアクセラレータがあれば、それが役立つかもしれません」と彼は付け加えました。
「おそらくコンプライアンス基準が最初のステップであるため、研究はクラウドと同じ経験をエッジで得ることができます」と、Bratt ofArmは提案しました。
「どのレベルに住んでいても、堅牢な機能仕様が必要です。十分なレベルにある場合、他のレイヤーへのエントリポイントが提供されます。このグループは、それらの定義に取り組むのに最適なグループです」とNaveenVerma氏は述べています。研究がメモリ内のAIプロセッサに焦点を当てているプリンストン教授。
モノのインターネットテクノロジー