工業製造
産業用モノのインターネット | 工業材料 | 機器のメンテナンスと修理 | 産業プログラミング |
home  MfgRobots >> 工業製造 >  >> Manufacturing Technology >> 産業技術

2026 年の主要な Nvidia の代替製品と競合他社 14 社を調査する

NVIDIA はデスクトップ用ディスクリート GPU 市場を支配しており、主にゲーマーとプロ ユーザーの間で同様に人気のある GeForce 製品ラインを通じて、2024 年にはほぼ 88% の市場シェアを保持します。 

また、AI および機械学習ハードウェアの市場リーダーでもあり、データセンターで使用される GPU および AI プロセッサーの市場シェアは 98% 近くに達します。半導体分析会社 TechInsights によると、Nvidia は 2023 年に 376 万個のデータセンター GPU を出荷し、2022 年の 264 万個から増加しました。 [1]

この急増により、NVIDIA の収益は 2024 年 7 月に終了する会計年度で 963 億ドルに達し、前年比 194.6% という驚異的な増加となりました。この収益の約 78% はデータセンター ビジネスからのもので、17.1% はデスクトップ GPU セグメントからのものです。

2025 年度の Nvidia の収益は、前年度比 71.55% 増の 1,652 億 1,000 万ドルに達しました。粗利益は 1,153 億 9,000 万ドルに達し、前年比 57.71% 増加しました。

Nvidia の収益は急速に成長していますが、いくつかの主要市場で激しい競争にも直面しています。ここでは、AI チップ、データセンター、ゲーム用 GPU、自動運転技術などの分野で NVIDIA の優位性に挑む上位の競合他社に焦点を当てます。

知っていましたか? 

NVIDIA のこれまでで最も高額な買収は、2019 年の Mellanox Technologies の 69 億ドルでの買収でした。この買収により、NVIDIA は GPU とネットワーキングを組み合わせたエンドツーエンドのコンピューティング ソリューションを提供することで、データセンター市場における地位を強化しました。 [2]

14. IBM

設立 :1911年
年間収益 :640億3,000万ドル以上
競争 :AI と HPC

IBM は、主に AI、ハイパフォーマンス コンピューティング (HPC)、データセンター ソリューションの分野で NVIDIA と競合しています。具体的には、同社の Watson AI および Power Systems は、機械学習ワークロードに使用される NVIDIA の AI 高速化 GPU と競合します。

IBM はハイブリッド クラウド サービスで強い存在感を示しており、金融、ヘルスケア、物流などのさまざまな業界に合わせた AI および自動化ソリューションを提供しています。同社のコンサルティング部門は、企業が AI とクラウド テクノロジーを深く統合するのを支援し、Nvidia のハードウェア中心の戦略よりも包括的なアプローチを提供します。

市場調査レポートによると、世界の IBM Watson サービスは 2023 年に 55 億ドルと評価され、2033 年までに 764 億 7000 万ドルに達し、CAGR 30.1% で拡大すると予測されています。 [3]

IBMは量子コンピューティングにも多額の投資を行っている。 2023 年には、1,121 個の超伝導量子ビットを搭載した強力な Condor プロセッサを発表しました。これは、この分野における NVIDIA の将来の事業と競合する可能性があります。 [4]

研究面では、IBM の量子ハードウェアは、格子ゲージ理論のシミュレーションやトポロジカル位相の研究など、より複雑な実験に利用されています。これらの実験は、「ノイズの多い中間スケール」量子デバイスの成熟度が高まっていることを浮き彫りにしています。

13.マーベル テクノロジー

設立 :1995年
年間収益 :65億ドル以上
競争 :データ インフラストラクチャ

Marvell Technology は、特定のセグメント、特にデータセンター、クラウド、5G インフラストラクチャ市場で NVIDIA と競合する半導体企業です。 NVIDIA が GPU に重点を置いているのに対し、Marvell はデータセンター向けのネットワーキング、ストレージ、プロセッサ テクノロジーに重点を置いています。

Marvell はイーサネット、データセンター スイッチ、データ処理ユニット、ストレージ コントローラーを開発し、OEM、クラウド サービス プロバイダー、通信会社に販売しています。同社は 5G インフラストラクチャ市場に強力な足跡を残しています。大手通信プロバイダーと協力し、5G 基地局を最適化するために特別に設計された製品を提供しています。 

2025 年に、同社はアクセラレータとスイッチ全体でのコンピューティング使用率の最大化を目的とした UALink スケールアップ ソリューションを導入しました。その主な機能には、低遅延、オープン スタンダードのサポート、銅線や光の同時パッケージ化などの柔軟なパッケージング オプションが含まれます。

マーベルは、半導体、ネットワーク、5G テクノロジーをカバーする世界中で 20,290 を超える特許を取得しています。このうち 49.6% が現在活動しています。特許の大部分は米国で出願されており、中国、欧州諸国がそれに続く。 [5]

12.シノプシス

設立 :1986年 
年間収益 :64億3,000万ドル以上
競争 :AI を活用した設計自動化ツールを提供します

シノプシスは、チップの設計、検証、テストのためのソフトウェアと知的財産 (IP) を提供しており、Nvidia などの半導体企業が複雑な GPU、AI アクセラレータ、SoC (システム オン チップ) を構築するために使用しています。シノプシスは設計プロセスの実現に重点を置いているのに対し、Nvidia はチップ自体の構築とマーケティングに重点を置いています。

シノプシスは、ソフトウェア セキュリティとハードウェア検証のソリューションも提供しています。 Synopsys と Nvidia は両方とも AI 駆動システムのセキュリティの確保において連携していますが、前者は検証とテストの段階に重点を置いています。 

シノプシスは、電子設計自動化 (EDA) ツールと半導体 IP ライセンスの分野で一貫した成長を遂げており、年間売上高は 13 ~ 15% 増加しています。この成長は、AI およびカスタム チップ設計に対する需要の増加によって推進されています。 [6]

2025 年にシノプシスはアンシスを買収し、シノプシスの電子設計自動化 (EDA) ツールとアンシスのシミュレーションおよび物理ベースのモデリングを組み合わせることにより、新たな相乗効果を生み出しました。目標は、より強力な「シリコンからシステムへ」機能を業界全体に提供することです。 

11. Amazon (AWS Inferentia および Trainium チップ)

設立 :1994年
年間収益 :1,110 億ドル以上 (AWS より)
競争 :Graviton および Inferentia プロセッサー

AWS は、一般的なコンピューティング ワークロード用の Graviton プロセッサや機械学習推論用に最適化された Inferentia チップなど、独自のカスタム シリコンを開発しました。これら 2 つのチップにより、Amazon はサードパーティ製ハードウェアへの依存度を減らすことを目指しています。 [7]

Amazon の Inferentia プロセッサは、機械学習推論ワークロード向けに設計された Nvidia の A100 および H100 プロセッサをターゲットとしています。また、1,000 億を超えるパラメータを持つモデルの深層学習トレーニング用の Trainium チップも導入しました。 [8][9]

Amazon は、SageMaker (フルマネージド型機械学習サービス) などの AI および機械学習サービスを AWS を通じて提供しています。対照的に、Nvidia は GPU や CUDA などのソフトウェア プラットフォームを使用して AI システムを強化しています。

同社はまた、自動運転スタートアップのZooxを買収することで、自動運転システムでも大きな進歩を遂げた。この買収により、Amazon は自動運転技術の特許における地位を高め、特にラストマイル配送において、同社の物流ネットワークにおける自動化を強化することができました。

さらに、AWS は、独自のチップを開発して拡張することで、トレーニングと推論のワークロードにおける GPU ベンダー (主に Nvidia) への依存を減らすことを推進しています。これにより、コスト (いわゆる「Nvidia 税」) が削減され、AWS はパフォーマンス、エネルギー、およびスケーラビリティをより詳細に制御できるようになります。 

10.アリババクラウド

ハングアン 800 NPU

設立 :2009年 
年間収益 :150億ドル以上
競争 :AI ハードウェア インフラストラクチャ

Alibaba Cloud は最大のクラウド サービス プロバイダーの 1 つであり、世界のクラウド サービス市場で 4% 近くのシェアを占めています。 IaaS、PaaS、AI サービスを提供します。 AWS と同様、Alibaba Cloud は AI および ML ワークロードに Nvidia GPU を使用していますが、Nvidia のハードウェアと競合するために独自のチップも開発しました。

たとえば、同社の Hanguang 800 (AI 推論チップ) は、クラウドでの AI 推論に関して Nvidia の A100 および H100 GPU と競合します。低エネルギー消費向けに最適化された Hanguang 800 は、AI による画像分析などのタスク (通常は 1 時間かかります) をわずか 5 分で完了できます。 [10]

2022 年に、Alibaba Cloud はチップ開発プラットフォームである Wjian 600 を導入しました。これは、コスト効率が高く効率的な方法で RISC-V 命令セット アーキテクチャを活用し、メーカーがエッジ AI コンピューティング用の高性能 SoC を設計するのに役立ちます。 [11]

2023 年、アリババの年間研究開発支出は 76 億ドルに達し、AI チップ、クラウド インフラストラクチャ、カスタム チップ開発に重点が置かれました。 2024 会計年度の Alibaba Cloud Intelligence Group は、年間収益が 147 億 3000 万ドルで、前年比 3% 増加し、EBITA は 8 億 4,800 万ドルに達したと報告しました。

アリババは 2025 年に、クラウド インフラストラクチャと AI 機能を構築するために今後 3 年間で 520 億ドル近くを投資することを約束しました。これは、同社が過去 10 年間に AI とクラウドに費やしたと主張する金額を超えています。 

9. Google (Tensor Processing Unit – TPU)

Google TPU:アイアンウッド

設立 :2008 (Google Cloud プラットフォーム)
年間収益 :360 億ドル以上 (Google Cloud より) 
競争 :テンソル プロセッシング ユニット (TPU)

Google は、機械学習ワークロードを高速化するために Tensor Processing Unit (TPU) を開発しました。 TPU は、NVIDIA の CUDA と統合される Google のオープンソース機械学習フレームワークである TensorFlow 用に最適化されています。 

TPU は、AI モデルのトレーニングに高い効率をもたらします。たとえば、Google は、TPU を導入すると、ResNet-50 のようなモデルを従来の GPU (Nvidia P100 など) よりも最大 15 倍高速にトレーニングできると報告しました。

2024 年、Google は第 6 世代の TPU を発表しました。これは、前世代と比較して、チップあたり 4.7 倍のピーク コンピューティングを実現し、エネルギー効率が 67% 以上向上しました。この新しい TPU は、AI モデルの次の波を加速するように設計されており、遅延を削減しながらより高速で効率的なパフォーマンスを提供します。 [12]

Google は、ディープラーニング、自然言語処理、クラウド コンピューティング、AI 用カスタム ハードウェアの先駆的な開発により、AI 研究とイノベーションでもリードしています。 2024年度、同社は研究開発に471億3000万ドルを費やし、前年度比10.65%増加した。 [13]

2025 年、Google は、推論専用に設計された初の TPU である Ironwood を発表しました。これは、チップあたり最大 4,614 TFLOP を実現し、クラスタあたり最大 9,216 チップまでスケールアップして、主張される最大 42.5 エクサフロップスを実現します。

8.ファーウェイ

設立 :1987年 
年間収益 :993億7000万ドル
競争 :AI と 5G インフラストラクチャ

ファーウェイは独自の AI チップ、特に Ascend プロセッサを開発しています。たとえば、Ascend 910 チップと Ascend 310 チップは、高性能 AI タスク向けに設計されています。第 2 世代の Ascend 910B シリーズ チップは、第 1 世代の Ascend 910 シリーズ チップと比較して、理論上の最大パフォーマンスが 80 TFLOPS (FP16) 向上しました。 [14]

これらのチップは、中国本土で第 2 位のクラウド ベンダーである Huawei Cloud Services を支えています。 NVIDIA は、AI および ML ワークロード用に他の主要なクラウド プロバイダーや企業に GPU を供給することで、ここで競合しています。 

ファーウェイは、トレーニング機能において Nvidia の製品の一部に匹敵するかそれを超えるという野心を持って、Ascend 910D などの新しいチップを準備しています。 

ファーウェイは5G通信とエッジコンピューティングのリーダーでもあり、世界の通信機器市場の30%近くを占めている。同社の AI および 5G テクノロジーは、特に自律システムと IoT において、エッジの AI を支配するという NVIDIA の野心と重なっています。 [15]

7.マイクロンテクノロジー

設立 :1978年
年間収益 :213億7,000万ドル
競争 :AI ワークロード向けのメモリ ソリューション

マイクロンは、DRAM、NAND フラッシュ メモリ、SSD ストレージ ソリューションを開発しています。同社は GPU や AI ハードウェアで直接競合していませんが、その製品は AI モデルとクラウド インフラストラクチャのパフォーマンスにとって重要であり、NVIDIA もそこで事業を行っています。

マイクロンのメモリ ソリューションは、(AI チップによって処理される)大規模なデータセットを保存および管理し、AI アルゴリズムに必要な高速アクセスを提供します。同社は、AI およびデータセンター アプリケーションで使用される NVIDIA の高性能 GPU にとって重要な GDDR6X メモリの主要サプライヤーです。

マイクロンはサムスンとSKハイニックスに次いで世界第3位のDRAMチップメーカーであり、世界のDRAM市場の約21.5%を占めている。 NANDフラッシュメモリ市場の9.9%も保有している。 [16]

同社は2025年にEUV(極紫外線)リソグラフィーを使用する1ガンマDRAMノードを発売した。また、(CPU クロックに完全に依存するのではなく) メモリ モジュールにクロック ドライバーを含む新しい DDR5 フォーム ファクター モジュールも導入しました。これらのモジュールは最大 6,400 MT/秒の速度に達します。 

6.シスコシステムズ

設立 :1984年
年間収益 :566億ドル以上
競争 :AI、データセンター インフラストラクチャ、ネットワーキング

Cisco の中核的な強みは、データセンター向けのハードウェア (スイッチやルーターなど) とソフトウェア ソリューションにあります。また、クラウド ネットワーキングやソフトウェア デファインド ネットワーク (SDN) ツールも提供しており、エンタープライズ ネットワーク インフラストラクチャ市場の 40% 近くを占めています。 [17]

同社のハイエンド Nexus スイッチ、特にデータセンター向けに設計されたスイッチは、AI やクラウドのワークロードに不可欠な高帯域幅と低遅延のネットワーキングを実現します。シスコの ACI アーキテクチャは、ハイ パフォーマンス コンピューティング(HPC)市場に重点を置き、ネットワークの自動化とワークロードの最適化をサポートします。

シスコはまた、NVIDIA の Jetson プラットフォームも支配的な市場であるエッジでのリアルタイム処理能力とネットワーキングを統合することで、エッジ コンピューティングにも投資しています。両社は、IoT や自律システムなどのアプリケーション向けのエッジでの AI 処理に取り組んでいます。 

2024 会計年度、シスコはネットワーキング テクノロジー、AI 主導のネットワーク自動化、エッジ コンピューティング、サイバーセキュリティ ソリューションの進歩に 79 億ドル以上を費やしました。 [18]

シスコは、AI インフラストラクチャを構築するための G42 およびサウジアラビアの HUMAIN アライアンスとの協力など、中東におけるいくつかの AI イニシアチブを発表しました。これらの取り組みは、この地域の AI 成長において中心的な役割を果たすというシスコの目標を示しています。

2025 年、シスコは NVIDIA とのパートナーシップを拡大し、AI 対応のデータセンター ネットワーキング インフラストラクチャを提供しました。重要な成果は、Cisco の Silicon One スイッチ シリコンと NVIDIA の Spectrum-X イーサネットを組み合わせた「クロスポートフォリオ統合アーキテクチャ」であり、Cisco スイッチを Spectrum-X プラットフォームに直接統合できるようになります。 

5.アップル

設立 :1976年
年間収益 :293億6,000万ドル(Macから)
競争 :A シリーズおよび M シリーズ チップ

Mac ラインナップ用の M1、M2、M3 チップを含む Apple のカスタム シリコンは、ハイパフォーマンス コンピューティングと AI ワークロードにおいて Nvidia と直接競合します。 2024 年、Apple は、1 秒あたり 38 兆回の演算を実行できる、これまでで最速のニューラル エンジンを搭載した M4 チップを導入しました。 [19]

Apple はまた、機械学習アクセラレータとニューラル エンジンを iPhone に統合し、強力なオンデバイス AI 処理を可能にする A シリーズ Bionic チップも開発しています。同社の最も先進的なチップである A18 Pro は、1 秒あたり 35 兆回の演算を処理できる 16 コアのニューラル エンジンを備えています。

iPhone 16 Pro モデル用の Apple Bionic A18 Pro 3nm チップ。

6コアCPU
6コアGPU#AppleEvent #AppleEvent24 #BionicA18Pro pic.twitter.com/1uKkQseltL

— アビシェク ヤダフ (@yabhishekhd) 2024 年 9 月 9 日

2023年、Appleは約2億3,100万台のiPhoneを販売し、総売上高の52%を占めた。 2024 年には、AI、機械学習、カスタム シリコン、拡張現実テクノロジーに重点を置き、研究開発に 313 億 7000 万ドルを投資し、2023 年の 299 億ドル、2022 年の 262 億ドルから増加しました。

Apple は、データセンター クラスター内の AI アクセラレータとチップの標準相互接続を開発している Ultra Accelerator Link Consortium (UALink) に参加しました。 UALink の目標は、GPU、TPU、カスタム AI チップなどのアクセラレータ間の接続のボトルネックを克服し、大規模なチップ グループが高帯域幅と低遅延でポッド内で連携できるようにすることです。 

4. AMD (アドバンスト マイクロ デバイス)

AMD Instinct MI355X GPU

設立 :1969年
年間収益 :237億ドル
競争 :データセンターの Radeon GPU と EPYC プロセッサ。

AMD (Advanced Micro Devices の略) は、GPU、データセンター、AI ハードウェア市場における Nvidia の直接の競合相手です。また、Xbox や PlayStation などのコンソール用のカスタム シリコンも設計しています。 

AMD の Radeon シリーズは、ゲーム用およびプロフェッショナル用 GPU において NVIDIA の GeForce シリーズと競合します。 MI100 および MI200 アクセラレータを含む MI シリーズは、深層学習と AI ワークロードをターゲットにしており、Nvidia の Tensor コア GPU と競合します。 

さらに、EPYC プロセッサと Instinct GPU は、特にハイパフォーマンス コンピューティングおよびクラウド コンピューティング環境におけるデータセンターに強力な組み合わせを提供します。特に EYPC Milan シリーズは大幅なパフォーマンスの向上を示し、Nvidia と Intel の両方に挑戦しています。 [20]

AMDの市場シェアはここ数四半期で増加しています。 デスクトップ市場では、AMD のユニットシェアは 23.9%、収益シェアは 19.2% です。ラップトップ市場における AMD のユニットシェアは約 19% です。ただし、ディスクリート GPU 市場の 12% しか支配しておらず、NVIDIA が圧倒的なシェアを保持しています。 [21]

2025 年、AMD は Instinct MI350 シリーズ アクセラレータ (MI350X および MI355X) を発表し、大きな世代の飛躍を遂げました。このシリーズは、前世代と比較して、トレーニングと HPC に対して約 4 倍の AI コンピューティング パフォーマンスを実現します。 

これは、AMD の広範な AI インフラストラクチャ戦略の一環であり、ワットあたりのパフォーマンスの向上、メモリの大容量化、拡張性の向上を実現します。 

3.クアルコム

設立 :1985年
年間収益 :373億4,000万ドル
競争 :モバイル AI と自動運転システム

クアルコムはモバイル プロセッサと 5G テクノロジーにおけるリーダーシップで最もよく知られていますが、AI と自動車プラットフォームにも拡大し、Nvidia に直接挑戦しています。人気の Snapdragon チップは、オンデバイス推論用の AI エンジンを内蔵し、モバイル デバイスや IoT アプリケーションでの AI 処理を強化します。

クアルコムは、ドライバー支援と自動運転のための AI を活用したソリューションを提供する Snapdragon Ride プラットフォームも開発しました。ゼネラルモーターズのような自動車メーカーと提携しており、NVIDIA の Drive エコシステムと直接競合しています。 [22]

現在、クアルコムは世界第 3 位の半導体企業であり、世界の半導体市場シェアは 5.4% です。さらに、スマートフォン用チップ市場の30%近くを支配している。 [23]

クアルコムは、チップや 5G などのワイヤレス技術に加えて、広範な知的財産ポートフォリオの一部をライセンスすることによって収益を生み出しています。これには、特定のワイヤレス製品の製造に不可欠な特定の特許権が含まれます。  

2025 年に同社は AI オンプレミス アプライアンス ソリューション + AI 推論スイートを導入し、企業/メーカーが生成 AI およびコンピューター ビジョン ワークロードをクラウドではなくローカル (オンプレミス) で実行できるようにしました。 

2.インテル

設立 :1968年
年間収益 :530億7000万ドル
競争 :CPU、GPU、自動運転プラットフォーム

インテルはコンピュータチップの設計と製造の両方を行っているが、ライバル企業のほとんど(Nvidiaを含む)はどちらか一方しか行っていない。 CPU、GPU、データセンター向け AI アクセラレータ、自動運転車技術を開発しています。 

より具体的には、Intel は Xeon プロセッサと、Habana Gaudi2 や Nervana Neural Network プロセッサなどの AI アクセラレータを通じて競争します。その oneAPI プラットフォームは、CPU と GPU にまたがる統一プログラミング モデルを提供し、NVIDIA の CUDA エコシステムと競合します。

Intel は世界の GPU 市場で大きなシェアを占めています。 Nvidia はデータセンターで使用される GPU 市場の 90% 以上を支配していますが、Intel は統合グラフィックス市場で 68% の市場シェアを占めています。 [24]

インテルは子会社モービルアイを通じて自動運転でもエヌビディアと競合している。 Mobileye の EyeQ チップは、先進運転支援システム (ADAS) で使用されています。これらのチップは、単一のカメラ センサーを利用して、アダプティブ クルーズ コントロール、交通渋滞アシスト、車線維持アシスト、前方衝突警告、自動緊急ブレーキなどの ADAS 機能を提供します。 50 社を超える自動車メーカーが、自社の運転支援技術に EyeQ チップを組み込んでいます。 [25]

テストベンチマークの結果によると、Intel プロセッサはラップトップ CPU のほぼ 71% に電力を供給しているのに対し、AMD プロセッサはテストで検出されたラップトップ CPU の 21% を占めています。 

インテルは最近、競争の激化、市場の変化、内部問題による大きな財務上の課題に直面しています。年間収益は 2022 年に 20% 減少し、2023 年にはさらに 14% 減少しました。2025 年度の収益はさらに減少し、530 億ドルになりました。回復するために、インテルは研究開発投資の増加や国内チップ生産の拡大などの長期戦略に焦点を当てている。 

1. TSMC (台湾半導体製造会社)

設立 :1987年
年間収益 :1,044億ドル以上
競争 :AI 対応チップのメーカー

TSMC は、半導体サプライチェーンのさまざまな部分で事業を行っています。チップを設計する Nvidia とは異なり、TSMC がチップを製造します。最先端の半導体テクノロジーの開発と導入に影響を与えるという点で、NVIDIA と間接的に競合しています。

TSMC は世界最大の純粋な半導体ファウンドリであり、Apple、Qualcomm、AMD、Nvidia 自体を含むさまざまなテクノロジー巨人向けのチップを製造しています。 5nm や 4nm などの高度なノードに特化しており、現在は 3nm および 2nm の生産に移行しています。 TSMC のクライアントは、その高度なノードを使用して、Nvidia 製品と直接競合します。  

同社は世界の半導体製造市場でほぼ 53% のシェアを占めています。同社は、特に 7nm 以下の高度なチップの頼りになるメーカーです。 2023年、TSMCは12インチ相当のウエハーを1,200万枚出荷し、7nm以下のチップが同社のウエハー総収益の58%を占めた。 2024 年には、12 インチ相当のウェーハを 1,290 万枚納入しました。 [26]

TSMC は現在、2 nm (「N2」) プロセス技術の量産化を積極的に進めています。同社は、自社の N2 ノード欠陥密度 (D0) が、同等の開発段階における初期のノードよりも低いことを明らかにしました。これは、ゲートオールラウンド ナノシート トランジスタへの移行にもかかわらず、歩留まりの向上とプロセスの成熟度の向上を示しています。

続きを読む

引用された情報源と追加の参考文献

<オル>
  • Nvidia の Agam Shah 氏、2023 年に 376 万台のデータセンター GPU を出荷、HPCWire
  • プレスリリース、Nvidia が Mellanox を 69 億ドルで買収、Nvidia
  • レポート、IBM Watson サービス市場分析、Facts.mr
  • 量子研究、量子ユーティリティ時代のハードウェアとソフトウェア、IBM
  • 主要な分析情報、マーベル テクノロジーは世界中で合計 16,347 件の特許を取得しています、GreyB
  • 2024 年第 3 四半期レポート、シノプシス、2024 会計年度第 3 四半期の財務結果を掲載、シノプシス
  • 製品、AWS Graviton プロセッサ、Amazon
  • 製品、AWS Inferentia アクセラレータ、Amazon
  • 製品、ディープラーニングおよび生成 AI トレーニング用の AWS Trainium、Amazon
  • Hanguang 800 NPU、データセンター向け AI 推論ソリューション、Alibaba Group
  • ブログ、Alibaba Cloud がチップ開発プラットフォーム Alibaba Cloud を発表
  • コンピューティング、Google Cloud TPU の第 6 世代である Trillium を発表、Google Cloud
  • 会社概要、Alphabet の研究開発費、マクロトレンド
  • ジェイコブ フェルドゴイズ氏、ファーウェイの AI チップが米国の輸出規制をテスト、CSET 氏
  • Barry Elad、Coolest-Gadgets の収益および事業セグメント別の Huawei 統計
  • テクノロジーと通信、世界の DRAM メーカー収益シェア、Statista
  • テクノロジーと通信、エンタープライズ ネットワーク インフラストラクチャ ベンダーの世界市場シェア、Statista
  • 会社概要、シスコの研究開発費、マクロトレンド
  • プレスリリース、Apple、M4 チップを発表、Apple
  • AMD Milan プロセッサ、Milan ノードは、NASA の主要な NAS 建物のコンピュータ フロアに設置されています
  • アントン シロフ氏、AMD がデスクトップとサーバー、tom’sHardware で CPU 市場シェアを Intel から奪う
  • プレスノート、ゼネラルモーターズとクアルコムは長年にわたる関係を拡大、クアルコム
  • テクノロジーと通信、世界のクアルコム半導体市場収益シェア、Statista
  • Timothy Fries、インテルと AMD は Nvidia と競合できますか?、投資
  • EyeQ、車載アプリケーション向け SoC、Mobileye
  • 2023 年年次報告書、株主への手紙、TSMC の財務ハイライト

  • 産業技術

    1. 静電気
    2. 直接販売のスタートアップの次の波がやってくる
    3. 精密金属を精密にする 3 つのこと
    4. 過小評価されたコミュニティに力を与えることでスキルギャップと戦う
    5. コモンゲートアンプ(JFET)
    6. 自動運転車の深度センサーへの革新的な 1000 倍のアップグレードにより安全性が向上
    7. 標準からメトリック公差チャートへの変換のリスクを回避する
    8. さまざまなタイプの消火システムの定義
    9. 集中型組織と分散型組織の違い
    10. 14ナノテクノロジーのなじみのない使用法|メリットとアプリケーション
    11. インベストメント鋳造の表面仕上げ