メインコンテンツにスキップ
kjh

人工知能と機械学習

人工知能 (AI) と機械学習 (ML) が新しいビジネスモデルに不可欠になるにつれ、将来の収益性と競争力はデータ・センターのパフォーマンスに左右されるようになりました。データ通信エンジニアには、施設のパフォーマンスを 224 Gbps-PAM4などの最新テクノロジーにアップグレードし、ルーティング、スペース効率、電力管理に関する最先端の戦略を採用するというプレッシャーがかかっています。

AI向けのデータ インフラストラクチャーの革命


ビッグデータの起源からディープラーニングの開発、大規模言語モデル (LLM) の時代に至るまで、データ処理アプリケーションの能力と影響力はますます高まっています。それぞれのブレークスルーは可能性を再定義し、運用の堅牢性、拡張性、効率性を維持するためにデータコムエンジニアが対処しなければならない独自の課題と機会をもたらします。

データ・センターは、拡大するデジタル経済を可能にする物理インフラストラクチャであるため、その信頼性が不可欠です。しかしながら、AIとMLは急速に進歩し、現在のデータセンター能力に前例のない負荷をもたらしています。これらの膨大なデータセットを効率的に保存して処理するには、より広い帯域幅とより低い遅延が必要です。

さらに、AIモデルが複雑化するにつれて、トレーニングや推論に必要なコンピューティング帯域幅は急増し、運用コストの上昇や、より高度な熱・電力管理戦略の導入を迫られます。実際、ChatGPT 4.0のような大規模な生成AIモデルのトレーニングには、最大1セプティリオン(10^25)FLOPS相当の処理が必要とされ、推定1億ドルのコストがかかる可能性があります。この影響は、MLアプリケーションが自動運転車や医療診断、スマートホームといった用途を支えるためにエッジへと広がるにつれて、さらに顕在化していくでしょう。この市場は、2034年までに220億ドルを超えると予測されています。

これには、より強力で効率的な新世代のGPUハードウェア、ネットワーク内のデータ転送速度の向上、AIとMLの増大する需要に適応できるスケーラブルなシステムが必要です。

Molexはこれらの開発の最前線に立ち、お客様と協力しながら、市場初の224G製品ポートフォリオから次世代のPCIeテクノロジーに至る革新的なソリューションを共同開発しています。当社のグローバルで学際的なエンジニアリング専門家チームは、効率性を重視し、速度、応答性、シグナルインテグリティ、熱管理、スペースの制約、メンテナンスの容易さに対処する、スケーラブルなモジュール式相互接続ソリューションを提供します。

数字で見る

adfg

42%

2022年から2032年までの生成AI市場の複合年間成長率 (CAGR)

sg

1.3兆ドル

10年間の生成AIの推定市場価値

fb

6ヵ月

MLデータ量要件が2倍になるまでにかかる時間

dh

100億

2010年以降、学習モデルのトレーニング計算が増加した要因

注目のリソース


448Gデータセンターチャネルのための変調技術

AIや機械学習のデータ処理要求に対応し続けていくためにも、データセンターはポートあたり3.2Tbpsという目標を迅速に達成する必要があります。Molexと大手半導体ベンダーによる共同調査に基づく最新のホワイトペーパーでは、224Gレーン数を倍増する方法と、レーンあたりの速度を448Gへと引き上げる方法という、2つの帯域幅スケーリング戦略を評価しています。シグナルインテグリティとサーマルバジェットという観点とケーブル密度と電力影響という観点の間でのトレードオフといった重要なトレードオフを検証して、堅牢かつ高性能な次世代サーバーとストレージの設計における指針にしましょう。

青い背景のグリッド内に浮かぶデータ。

高性能コンピューティングの構成要素

データセンターは、現在のインフラストラクチャーへの投資を最大限に活用しながら、コンピューティングパフォーマンスをアップグレードするための取り組みを絶えず行っています。高性能コンピューティング(HPC)向けのモジュラーハードウェアソリューションは、迅速なスケーラビリティ、効率的な熱管理、信頼性の高い高速接続戦略を提供しています。

AIとML導入の傾向と推進力

AIとMLは、ネットワークの複雑化が進む中で、その管理を支援し、日常的なプロセスを自動化する新たな手法として、ますます導入が進んでいます。その結果、オートモーティブヘルスケアおよび診断スマート農業、消費者製品の設計・製造といった多様な分野からのデータが急増しています。

これらの業界では現在、リアルタイム分析によるインサイトの提供や、クラウドおよびモノのインターネット(IoT)ネットワーク全体でのリソース配分の最適化に、AIとMLが活用されています。同時に、アルゴリズムの革新と大規模な実験学習モデルにより、サプライチェーン、製品開発、顧客エクスペリエンス全体にわたるビジネスアプリケーションに新たな道が常に開かれています。

より高いコンピューティング性能への要求は、当面の要件と将来を見据えた要件の両方に対応するため、より俊敏なアーキテクチャやモジュール型ハードウェアプラットフォームの採用と表裏一体となっています。

sdf

AIとML革命の課題

データ・センターと周囲のネットワークにAIとMLを実装すると、次のようないくつかの課題が生じます。

  • 最も重要なのはデータ管理です。多くのアプリケーションでは、その膨大なデータ量とミッションクリティカルな性質から、ストレージ、ルーティング、予測分析、データセキュリティを支える堅牢なシステムが求められます。
  • スケーラビリティももう1つのハードルです。ネットワークの需要が高まるにつれて、AIとMLのフレームワークは変動する負荷に適応して拡張する必要があります。
  • データセンター全体にわたるシグナルインテグリティは極めて重要です。整合性が損なわれるとモデルに干渉し、誤った結果やパフォーマンスの低下につながる可能性があります。
  • コンピューティング性能とデータ転送速度の向上に伴い、発熱量も増加します。信頼性は、データ・センターの運用全体にわたる効果的な熱管理によって部分的に決まります。
  • 最後に、AIとMLを既存のインフラストラクチャに統合するには、システムの調和を維持し、進行中の運用を中断することなく次世代のハードウェアにアップグレードするための慎重なオーケストレーションが必要です。
sdg

その他のリソース


ブログ

LLMの仕組み:AIの隠れたハードウェア要件

大規模言語モデル(LLM)のトレーニングと推論は、AIクラスター内に前例のない規模の東西トラフィックを発生させ、インターコネクトがパフォーマンスの大きなボトルネックとなり得るという問題を浮き彫りにしています。アクセラレータやGPUを最大限に活用するために必要な帯域幅とレイテンシー、電力効率を、専用設計のAIインターコネクトアーキテクチャがどのように実現するのかをご覧ください。

ブログを読む

ブログ

ユニファイドファブリック:AIデータセンター接続の未来

AIが求める強烈な処理要件により、従来のデータセンターネットワークは限界に達しつつあります。新しく登場したユニファイドファブリックアーキテクチャは、簡素化された高性能ソリューションを約束しますが、この強力な概念を具体化するには、その構造を構成する物理的なインターコネクトの全面的な変革が必要です。このブログでは、ユニファイドファブリックがAIデータセンターの未来をどのように形作るかについて学びます。

照明付きラックと光り輝くブルーのLED照明がずらりと並んだ未来的なサーバールームトンネル。

次世代データ・センターのための熱管理

高性能コンピューティング向けに設計された次世代データセンターの熱管理ソリューションをご覧ください。最先端のテクノロジーでサーバーとストレージのインフラストラクチャーを最適化し、コンピューティング集約型の運用で効率的な冷却と最大限のパフォーマンスを保証します。

オープン アクセラレータ インフラストラクチャーのモジュラー形式

Open Compute Project(OCP)は、AIの出現によって引き起こされる高速データ・センターにおける互換性とスケーラビリティの増大に関する課題に対応します。革新的なアクセラレータ インフラストラクチャーのコアとして、Molexのメザニンコネクターは、効率的な通信とAIワークロードに対応するスケーラビリティを実現する上で重要な役割を果たします。

adf

耐久性に優れた銅製エッジ

AIやその他の高度なアプリケーションの要件を満たすには、次世代の224Gの速度が必要です。高速銅線相互接続技術がAI時代にどのように適応し、最先端の224Gbpsアプリケーションに比類のない速度、効率、信頼性を保証しているかをご覧ください。

adf

未来は224Gです

次世代のデータ・センターはどのようなものになるでしょうか。224 Gbps-PAM4システムのプレビューと、システムアーキテクトに新たな機能と柔軟性を提供する改善点をご覧ください。

注目の製品