トレンドはAIの処理をエッジに押し続けています
この記事の重要なポイントは次のとおりです。
- デバイスの急増とデータ量は、速度、パフォーマンス、データセキュリティの理由から分散コンピューティングモデルを支持するようになりました
- NVIDIAとVMwareによる最近のベンダーの動きは、AIや機械学習などのデータ集約型処理のサポートをエッジで提供します。
- 産業用IoTや消費者ベースのIoTなど、多くのプロセスや業界は、処理をエッジにプッシュすることでメリットが得られます。
接続されたデバイスが急増するにつれて、デバイスとデータの爆発的な増加に対応するための新しい処理方法が前面に出てきました。
何年もの間、組織はクラウド内の集中型のオフサイト処理アーキテクチャに移行し、オンプレミスのデータセンターから離れてきました。クラウドコンピューティングにより、スタートアップは、データセンターインフラストラクチャへの巨額の資本支出やIT管理の継続的なコストを必要とせずに、ビジネスを革新および拡大することができました。これにより、大規模な組織はオンデマンドリソースを使用して、迅速に拡張し、俊敏性を維持することができました。
しかし、企業がよりリモートモデル、ビデオ集約型の通信、およびその他のプロセスに移行するにつれて、データを大量に消費するタスクに対応するためのエッジコンピューティングアーキテクチャが必要になります。
これらのデータ集約型のプロセスは、ほんの一瞬で発生する必要があります。自動運転車、ビデオストリーミング、または輸送トラックの追跡をリアルタイムで考えてください。クラウドへのラウンドトリップでデータを送信してデバイスに戻すには、時間がかかりすぎます。また、コストが増加し、転送中のデータが危険にさらされる可能性があります。
NXPセミコンダクターズのAIテクノロジー責任者であるMarkusLevy氏は、「顧客は、多くの処理をクラウドに渡したくないことを認識しているため、エッジが真のターゲットであると考えています」と述べています。埋め込まれたAIの台頭。
近年、データとデバイスの急増、およびこのデータの移動速度に対応するために、エッジコンピューティングアーキテクチャが前面に出てきました。
MarketsandMarketsのデータによると、エッジコンピューティング市場は、2020年の36億ドルから2025年までに157億ドルに成長すると予想されています。
市場の動きは引き続き処理をエッジにプッシュします:NVIDIA
グラフィックプロセッシングユニット(GPU)市場の巨人であるNVIDIAと仮想化ベンダーであるVMwareによる最近の動きは、これらの新しい分散処理アーキテクチャをサポートし、エッジでの超高速処理への道を明確に開きます。
まず、たとえば9月に、NVIDIAはArmに400億ドルを支払う意向を発表しました。これは、AIをエッジに近づけ続けるためです。 NVIDIAはGPUを備えたデータセンターで優位を占めてきましたが、Armはモバイル市場で拠点を持ち、Apple、Qualcommなどにチップを供給しています。
「未来がAIであり、それがGPUとCPUによって支えられていると信じているなら、これらのエンドツーエンドシステムを作成するNVIDIAの能力はちょうど向上しました」とZeusKerravalaはNVIDIAのビデオインタビューで述べました。 -エッジでのAIの武器取引と見通し。 「特にエッジコンピューティング市場では、[NVIDIA]はそのすべてを網羅するでしょう。」
NVIDIA-Armの取引には、Armのライセンスビジネスの成功を妨げる可能性があるかどうかなど、規制上の懸念があります。 Armは、競合他社のAMDやIntelに加えて、Apple、Qualcomm、Broadcomなどの巨人を含むパートナーとの間で数百のライセンスを持っています。 NVIDIAのモバイルCPU市場の新たな支配についても深刻な独占禁止法上の懸念があります。
SmartNIC:処理をエッジに移行する
次に、9月下旬に開催されたVMworld 2020仮想会議で、VMwareはProject Montereyが、SmartNIC(またはスマートネットワークインターフェイスカード)テクノロジとNVIDIAのデータ処理ユニット(DPU)を使用してAIパフォーマンスを向上させることを発表しました。 Project Montereyは、エッジでAIアプリケーションをサポートするインフラストラクチャを強化するために、NVIDIAを含むいくつかの企業とのパートナーシップを必要としています。
モントレーは、ハイパーバイザー、ネットワーキング、セキュリティ、およびストレージのタスクをホストCPUからNVIDIAのBlueFieldDPUにオフロードします。この処理をDPUとSmartNicsに移行すると、AI、機械学習、その他のデータ中心のアプリケーションを転送できます。
SmartNICはサーバーCPUから非アプリケーションタスクを実行するため、サーバーはより多くのアプリケーションをより高速に実行できます。
「計算をデータに近づけることに一般的な関心が集まっています」と、OmdiaのシニアアナリストであるAlexanderHarrowell氏は述べています。
「ハイパーバイザーの抽象化をホストからネットワークに移し、ハイパーバイザー自体が行う作業の一部をそのカードにオフロードします」とHarrowell氏は述べています。 「それはあなたが支払った処理能力のより多くを利用可能にします。したがって、ここには、従来のIntelx86モデルからいわゆるハーバードコンピューティングモデルへの移行の話があります。」
分散コンピューティングへのこの傾向は、ペースを維持し、AI処理などのより複雑な処理を可能にするだろうとHarrowell氏は述べています。
VMwareのシニアバイスプレジデント兼最高技術責任者であるGregLavenderは、次のように述べています。 CPUの30%が…そしてそれをアプリケーションに還元することで、それらの余分なコンピューティングリソースとメモリリソースのメリットを享受できます。
コネクテッドシングス市場では、処理をスタックからこれらの分散エッジアーキテクチャに移行することは、迅速な応答時間を必要とするデータ集約型プロセスにとって大きな恩恵となるでしょう。
「エッジでAIを実行できるようになったので、IoTを実際の機能を備えたものに変えることができます」とNXPのLevy氏は述べています。
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
インダストリアルIoTの詳細については、今年12月にインダストリアルIoTワールドに参加してください。
モノのインターネットテクノロジー