産業とアプリケーション
AIの性能が新たな局面を迎え、未来に向けて最強のデータセンターを提供しようという競争が始まっています。AIの用途の複雑さが引き続き高まり、膨大な電力が必要とされるようになる中で、どのデータセンターが処理能力引き上げのためのアップデートや高品質ステータスの維持が可能になるかは電力源によって左右される可能性があります。
近年、ヘルスケア、金融から輸送に至るまでさまざまな業界においてAIがゲームチェンジャーになりつつあります。機械学習アルゴリズムとディープニューラルネットワークがデータ分析やパターン認識、意思決定の強力なツールになりました。しかし、こうしたAIの用途が効果的に機能するためには、膨大なコンピューティング処理能力とエネルギーが必要になります。
大規模AIモデルのトレーニングには膨大な量の電力が消費され、多くの場合、グラフィックス プロセッシングユニット(GPU)やテンソルプロセッシングユニット(TPU)といった専用ハードウェアが採用されて、既存のCPUよりもはるかに高速な深層学習アルゴリズムに求められる複雑なマトリクス計算が実行されています。こうした専用ハードウェアユニットは大容量データを取り扱い、機械学習に必要な処理を最適化するものです。
大規模モデルを拡大する時期
昨今の例では、トレーニングモデルには数百キロワットの電力が必要であることが示されています。たとえば、OpenAIのLarge Language Model(LLM)GPT-3は、1750億のパラメータと570GBのインターネット上のデータでトレーニングされましたが、これには355メガワットの電力が必要であったと報道されています。
OpenAIの次のバージョンであるGPT-4はGPT-3よりも数百倍能力が高く、170兆のパラメータのセットでトレーニングされました。少なくとも現時点では、史上最強のAIエンジンということになります。
OpenAIはGPTプロジェクトのためにMicrosoft Azureのデータセンターを利用しています。独壇場の人気を獲得したりユーザーベースの急速な成長を支えたりするために、企業は引き続き自社施設内にデータセンターを構築し、維持しています。しかし、おそらくMicrosoft AzureやAmazon Web Services、Google Cloud Platformといったクラウドベースのサービスにも頼る必要があるでしょう。突然の需要のスパイクに対応するために必要な追加のコンピューティング処理能力を確保するためです。
こうした大規模クラウドプラットフォームが超巨大データセンターのベストプラクティスの発展を牽引しており、コンピューティングのスピードや帯域といった点で最も高度なデータセンター性能を誇っています。
競争の激しいこのような環境において、最も有望なAIプロジェクトでは、コンピューティング処理で最も高い負荷を提供できる信頼性の高いデータセンターを競って手に入れようとするでしょう。AIの伸びとデータセンターのアップグレードに関して次の段階を見据えると、プレミアムデータセンターサービスが足りなくなる可能性があります。
このボトルネックの大部分は電力の限界が要因である可能性があります。設計エンジニアとそのマネージャー800人以上を対象にしたモレックスの調査では、データセンターへの電力システム導入に際して電源管理が最も大きな課題であるとした回答者は40%に上りました。2位は配電でしたが、回答者は20%と大幅に下回りました。
データセンターの処理能力倍増
現在、最先端のデータセンターは最大112 Gbpsのデータレートを提供しています。多くのデータセンターがハードウェアとコネクターを更新してスピードやパフォーマンスにおいてこのレベルに到達しようとしています。
AI処理の需要の高まりに応えるために、224 Gbps-PAM4のデータセンターを構築しようという動きもすでに見られます。しかし、224G向けのインフラのコンポーネントは市場投入の初期段階にあります。つまり、完全な224Gの設備が一般化するにはまだ数年かかるということです。
世界のデータセンター全体でデータレートの容量を倍増させるのは気の遠くなるような作業です。これは、発電量を大幅に引き上げる必要があるためです。AIが現在のエネルギーリソースの2%を消費していることから、今後のアップグレードは世界地図に新たに大都市が加わるのと同等であると言えます。双方ともに自身の発電所が必要になるでしょう。
実際、一般的なGPUモジュールに必要な電力は2018年にモジュールあたり450ワットであったものが2022年には1000ワットに、OCP OAMのボックスあたりでは3600ワットから8000ワットに増加しています。この増加はコンピューティング処理能力の利用拡大に牽引されています。この電力増加によって今まで以上に熱が発生しており、ヒートシンクや高熱に耐えられる部品の必要性も高まっています。モレックスのミラーメザニンコネクターは電力需要の高まりとそれに伴う熱管理の双方に向けて作られています。同じコネクターを450ワットと1000ワットのGPUモデルに使用でき、空調による冷却でも液体冷却でも高いパフォーマンスを発揮します。
将来に順応する
AI対応のデータセンターに必要な電力の飛躍的な増加と既存施設の限界が相まって、創造的なソリューションが必要になります。単に場所が悪いという理由だけで、現在の巨大データセンターの中には次世代に向けた飛躍を遂げられないものが出てくる可能性があります。場所によっては、限りある電力の一部をクラウドサーバー企業に対して回せないと判断される場合もあるでしょう。または送電線が古いため(再生可能リソースへの移行過程にある送電線であっても古いことがあります)、しばしば停電が起こる可能性もあります。これはデータセンターにとっては問題です。
テクノロジーAからテクノロジーBに移行しようとする過程で、社内の配電アーキテクチャが最大値に達するなど、施設内に問題が生じる場合もあるでしょう。業界がAI主導のデータセンターの構築に向かう中、データセンターはハードウェアへの投資に加えて電力消費を最適化する新たな方法にも注力していく必要があります。これには最新の冷却システム、エネルギー効率の高いハードウェア、革新的な電源管理戦略の活用などが考えられます。AI主導の管理ツールを使って現在のリソースの最適化に向けた取り組みが行われていますが、こうしたツールがデータセンターの未来のソリューションになる可能性もあります。
AIによってコンピューティングの世界が変容を遂げる中、こうした用途の需要の拡大に応えるためにデータセンターも順応していく必要があります。AIの世界が広がり、業務にAIを取り入れようとする企業が増えていくと、最も高い計算能力を持った強力なリソースに対する競争は引き続き激しくなります。データセンターの運営会社として時流に乗り遅れず、ダイナミックな環境でも競争力を保っていくために、最新のテクノロジーと戦略に投資する必要があります。このような理由からモレックスは224 Gbps-PAM4や一連のデータセンターの電源管理向けのソリューションなどの未来のテクノロジーに投資しているのです。