革新的な AI チップがトランジスタの限界を超え、膨大な計算能力を実現
電子機器とセンサー インサイダー
プリンストンの研究者たちは、現代の AI ワークロードに対応するチップを構築するために、コンピューティングの物理学を完全に再考しました。そして、新たな米国政府の支援により、このチップがどれほど高速で、コンパクトで、電力効率が向上するかが分かるでしょう。初期のプロトタイプが上の写真です。 (画像:Hongyang Jia/プリンストン大学)国防総省最大の研究組織は、人工知能用の高度なマイクロチップを開発するプリンストン大学主導の取り組みと提携しました。
電気・コンピュータ工学教授のナヴィーン・ヴェルマ氏によると、この新しいハードウェアは、今日の最先端の半導体よりもはるかに少ないエネルギーで強力なAIシステムを実行できる現代のワークロード向けにチップを再考したものだという。このプロジェクトを主導する Verma 氏は、この進歩により、サイズ、効率、拡張性など、AI 用チップの障害となっていた主要な障壁が打ち破られると述べました。
より少ないエネルギーを必要とするチップを導入すれば、ラップトップや電話から病院、高速道路、低軌道などに至るまで、よりダイナミックな環境で AI を実行できます。現在の最先端モデルに搭載されている種類のチップは、小型デバイスで実行するには大きすぎて非効率であるため、主にサーバー ラックや大規模なデータ センターに限定されています。
今回、国防高等研究計画局(DARPA)は、ヴェルマ氏の研究室からの一連の重要な発明に基づく研究を、1,860万ドルの助成金で支援すると発表した。 DARPA の資金提供により、新しいチップがどの程度高速、コンパクト、電力効率に優れるかの研究が推進されます。
「利用可能な最高の AI がデータセンターにあるだけでは、かなり重要な制限があります」と Verma 氏は言います。 「そこから鍵を開ければ、AI から価値を得る方法が爆発的に広がります。」
この発表は、次世代AIコンピューティングのための「科学、デバイス、システムの革命的進歩」に資金を提供するDARPAによる広範な取り組みの一環として行われた。 OPTIMA と呼ばれるこのプログラムには、複数の大学や企業にわたるプロジェクトが含まれています。このプログラムの提案募集では資金総額は 7,800 万ドルと見積もられていますが、DARPA は機関の完全なリストやプログラムがこれまでに与えた資金総額を明らかにしていません。
プリンストン主導のプロジェクトでは、研究者らはVermaのスタートアップであるEnCharge AIと協力することになる。カリフォルニア州サンタクララに拠点を置く EnCharge AI は、2016 年まで遡って電気工学の大学院生と共同執筆したいくつかの重要な論文を含む、Verma の研究室での発見に基づいたテクノロジーを商品化しています。
Verma は、元 IBM フェローの Kailash Gopalakrishnan および半導体システム設計のリーダーである Echere Iroaga と 2022 年に EnCharge AI を共同設立しました。
ゴパラクリシュナン氏は、AIが計算能力と効率に対する新たな大きな需要を生み出し始めたまさにその時期に、既存のコンピューティングアーキテクチャ内のイノベーションとシリコン技術の改善が減速し始めたと述べた。今日の AI システムの実行に使用される最高のグラフィックス プロセッシング ユニット (GPU) であっても、業界が直面しているメモリとコンピューティング エネルギーのボトルネックを軽減することはできません。 「GPU は現在利用可能な最良のツールですが、AI の可能性を引き出すには新しいタイプのチップが必要であるという結論に至りました。」
プリンストン大学工学教育イノベーション・ケラーセンター所長でもあるヴァーマ氏によると、2012年から2022年の間に、AIモデルに必要なコンピューティングパワーの量は約100万パーセント増加したという。需要に応えるために、最新のチップには数百億個のトランジスタが詰め込まれており、それぞれのトランジスタは小さなウイルスほどの幅で区切られています。しかし、チップのコンピューティング能力は、現代のニーズを満たすほど高密度ではありません。
大規模な言語モデルとコンピューター ビジョンやその他の機械学習アプローチを組み合わせた今日の主要なモデルは、それぞれ 1 兆を超える変数を使用して開発されました。 AI ブームの原動力となった Nvidia 設計の GPU は非常に価値があり、大手企業は装甲車でそれらを輸送していると伝えられています。これらのチップを購入またはリースするためのバックログは消失点まで伸びています。
Nvidia が評価額 2 兆ドルに達した史上 3 番目の企業となったとき、ウォール ストリート ジャーナルは、同社の収益増加のうち急速に増加している割合は、トレーニングと呼ばれるモデルの開発によるものではなく、すでにトレーニングされた AI システムの使用を可能にするチップによるものであると報じました。技術者は、この展開段階を推論と呼びます。そして、ヴェルマ氏は推論において、彼の研究が近中期的に最も大きな影響を与えるだろうと述べています。
「これはすべて、AI を分散化し、データセンターから解き放つことです」と彼は言いました。 「データセンターから、私たちと私たちにとって重要なプロセスがコンピューティングに最もアクセスできる場所、つまり電話、ラップトップ、工場などの場所に移動する必要があります。」
コンパクトな環境やエネルギーに制約のある環境で最新の AI ワークロードを処理できるチップを作成するために、研究者らは、既存の製造技術で製造でき、中央処理装置などの既存のコンピューティング テクノロジーとうまく連携するハードウェアを設計およびパッケージングしながら、コンピューティングの物理学を完全に再考する必要がありました。
「AI モデルのサイズは爆発的に増大しました。これは 2 つのことを意味します。」と Verma 氏は言います。 AI チップは、計算をより効率的に実行し、データの管理と移動をより効率的に行う必要があります。
彼らのアプローチには 3 つの主要な部分があります。
事実上すべてのデジタル コンピューターのコア アーキテクチャは、1940 年代に初めて開発された、一見単純なパターンに従っています。つまり、ある場所にデータを保存し、別の場所で計算を実行します。これは、メモリセルとプロセッサの間で情報をやり取りすることを意味します。過去 10 年間にわたり、Verma は、インメモリ コンピューティングと呼ばれる、メモリ セル内で直接計算が行われる最新のアプローチの研究を先導してきました。それがパート 1 です。インメモリ コンピューティングにより、大量のデータの移動と処理にかかる時間とエネルギーが削減されることが約束されています。
しかしこれまでのところ、インメモリ コンピューティングへのデジタル アプローチは非常に限られています。 Verma と彼のチームは、別のアプローチであるアナログ計算に目を向けました。それはパート 2 です。
「インメモリ コンピューティングという特殊なケースでは、効率的に計算を行うだけでなく、非常に高密度で計算を行う必要もあります。なぜなら、非常に小さなメモリ セル内に計算を収める必要があるからです。」と Verma 氏は言います。アナログ コンピューターは、一連の 0 と 1 で情報をエンコードし、従来の論理回路を使用してその情報を処理するのではなく、デバイスのより豊かな物理学を利用します。歯車の曲率。ワイヤが電荷を保持できる能力。
1940 年代にデジタル信号がアナログ信号に取って代わり始めたのは、主にコンピューティングの指数関数的な成長に伴ってバイナリ コードの拡張性が向上したためです。しかし、デジタル信号はデバイスの物理的性質を深く利用していないため、より多くのデータ ストレージと管理が必要になる場合があります。その点では効率が悪くなります。アナログは、デバイスの固有の物理現象を使用して微細な信号を処理することで効率を高めます。ただし、これには精度とのトレードオフが伴う可能性があります。
「鍵となるのは、非常にうまく制御でき、大規模に製造できるデバイスの仕事に適した物理学を見つけることです」と Verma 氏は述べています。
彼のチームは、正確な精度でオン/オフを切り替えるように特別に設計されたコンデンサによって生成されるアナログ信号を使用して、高精度の計算を実行する方法を発見しました。それがパート 3 です。トランジスタなどの半導体デバイスとは異なり、コンデンサを通過する電気エネルギーは、材料内の温度や電子移動度などの変動する条件に依存しません。 「それらは幾何学のみに依存しています」とヴェルマ氏は言う。 「それらは、一方の金属線ともう一方の金属線の間のスペースによって決まります。」そして、ジオメトリは、今日の最先端の半導体製造技術が非常にうまく制御できるものの 1 つです。
ソース
センサー