産業とアプリケーション
I/Oモジュールの熱管理ソリューションレポート
データ・センター内エコシステムにおける熱管理の新たな発展
データ・センター内において、基本的なメール処理から生成AIのような最新のものまで、デジタル製品やサービスは、現在、ほぼクラウドコンピューティングによって実現されています。データ・センターの各サーバーは動作するために電力を必要とするので、このコンピューティングも無料ではありません。特にそのデータ・センターが、AIや機械学習といった先進領域向けに大量のデータ処理を必要としている場合、その電力の消費量も高い値に及ぶことがあります。この電力を消費している主役は、先進的なサービスを動作させるためのGPUやアクセラレーターカードです。データ・センターでは、可能な限り計算密度が急速に増加しつづけており、これは本質的に熱の課題を生み出します。効率的な熱管理戦略に注目することは、これまでになく重要性を増しています。
多くの企業がデジタルトランスフォーメーションを取り入れており、データ・センターには、保守と運用にかかるコストを最小化しながら高効率のコンピューティングパワーを提供することについて、余剰なプレッシャーがかかっています。熱管理は、データ・センター運用における主要なコストの1つとなっており、効率的な熱管理は、コンポーネントの寿命を延長するので、長期的な保守コストを削減します。ITソリューションプロバイダーであるEnconnexによれば、最新の液体冷却システムの運用費用は、冷却対象の電力1キロワットあたり$2,000におよぶことがあり、企業データ・センターのための投資は、容易に$100,000を超えるとのことです。明らかにこういった費用は、現代の、コスト効率を重視する広範な企業イニシアチブにとっては課題となり得るもので、熱管理は、資本支出(CAPEX)と運用費用(OPEX)の問題に取り組む際の、自然な出発点であると言えるでしょう。
データ・センター内のラックマウント型サーバーやネットワークスイッチ間、さらにデータ・センター間での通信に使用される光モジュールに、熱管理の問題があることは、あまり知られていません。サーバー同士は、それぞれ孤立して動作しているわけではなく、クラスターを形成し光ファイバーを介してコミュニケーションを行うことで、例えば生成AIのような次世代サービスを実現しています。これらのサーバーをスケーリングすることは、対応するクラスターをもスケーリングすることになり、通信のデータ・レートについても同様です。より高いデータ・レートを可能にする新たなテクノロジーが利用可能になってきており、それにつれ、光I/Oモジュールとアクティブ電気ケーブル(AEC)トランシーバーの電力需要も増加しつづけています。例えば、データ・レートが112GbpsのPAM4での現在の電力レベルは約15Wから25Wであり、大企業内で32ポートを扱うスイッチの光I/Oモジュールだけで、最大0.8kWという場合もあります。仮に、長距離の112Gbps通信にコヒーレント(800G)光ファイバーを使用したとすると、その電力レベルはモジュールごとに30Wの大きさにまで到達し得ます。こういった電力レベルでは、I/Oモジュールが従来型の強制空冷システムを動作限界ぎりぎりで稼働させます。
224 Gbps-PAM4の相互接続に移行すると、レーンごとのデータ・レートは2倍になります。また、電力消費も増大し、長距離のコヒーレントリンクにおいては、光モジュールだけでも40W程度にまで到達します。これは難題です。何故かと言えば、光I/Oモジュールに必要な電力が、ほんの数年で12Wから40Wに増加しているのにもかかわらず、モジュールのフォームファクターには変化がないからです。本質的に電力密度で4倍の増加を意味しており、冷却に対して新たなアプローチが必要となっています。液体冷却ソリューションの実装には、追加の投資と保守コストが伴います。とはいえ、既存フォームファクター内に創造的な液体冷却ソリューションを導入することで、I/Oモジュールで増加した電力と熱的需要に対処することが可能になるのです。
増加する光I/Oモジュールの電力需要に対応して、システムデザイナーやデータ・センター アーキテクトは、今後到来する224Gpsの実装をサポートするために、I/Oモジュールでの液体冷却の使用を検討し始めています。液体冷却の先には、モジュールの設計と特性設定のより進んだアプローチが待っており、これにより、次世代の高速伝送ネットワーク相互接続が可能になります。
このレポートでは、熱的特性とその管理に関して従来型のアプローチがもつ限界を確認し、112Gbpsや224Gbpsリンクが要求されるシステム内で実装が進むサーバーや光モジュールの冷却における、新たなイノベーションを見ていくことにします。
冷却の現状: レガシーの熱ソリューション
一般的にハイパワーシステムでは、アクティブ冷却、または、ネットワークから熱を除去するために能動的な電力システムを利用する冷却方式が使用されます。アクティブ冷却の採用には、先述の投資や保守コストが伴います。さらに、こういった冷却システムの設置および保守の経験を積んだ技術者も必要となります。データ・センター アーキテクチャの中でのアクティブな冷却手段には、次の共通した要素があります。
強制気流(または方向性気流): 階層化した建屋内も含め、これらのシステムでは、サーバーラックに対してプレナムから気流を直接ポンプ移送します。サーバーとスイッチには、独自の専用ファンが備わっており、これが、エンクロージャー内への気流の引き込みをアシストしています。このようなシステムでは、サーバー内の特定のコンポーネントやサーバー(プロセッサー、光モジュールなど)を完全に冷却する能力に上限があります。
液体冷却: この方式では、高い熱質量を持つ液体が冷却版上で循環され、それがラックマウントシステム内の発熱源となっているコンポーネントに接しています。この液体としては水が選択されることもありますが、オイルあるいはプロピレングリコール(PG-25)の混合物のような、誘電性のある液体も一般に使用されています。
現状のアクティブ冷却アプローチ
プロセッサーやASICから熱的需要がある、すべての最新データ・センターの配置は、アクティブ冷却に依存しています。熱放散容量について言えば、この方式がもっとも効果的であり、また、液体の流れを対象のコンポーネントに導き、追加の受動的コンポーネントによりアシストすることで、これを強化できます。現代のデータ・センターの配置内では、強制気流と液体冷却の両方が見られます。
これらのシステムは特に傑出した熱放散能力を持っており、また、冷却媒体との熱交換を促進させるよう液体を発熱コンポーネント上に導く機構が備わっている場合には、その機能が際立ちます。
強制気流: 空気冷却はリスクの低いアクティブ冷却アプローチであり、必要に応じ、発熱するコンポーネントに直付けされたヒートシンクに気流を導く手法がとられます。ラック当たりの電力需要が10kW台であるなら、通常、強制気流システムが熱的負荷を処理できます。チップやI/Oモジュールの電力需要が高いレベルに拡大したハイパワーなコンポーネント上で、液体冷却が採用されている場合でも、強制気流方式が冷却システムの一部として残されることがあります。
チップ向け液体冷却: チップ向けの液体冷却は、データ・センター内の液体冷却の1つの選択肢として、多くの場合、現代のクラウド環境で要求される大量の計算を行うプロセッサーで使用されています。チップ向け液体冷却では、チップの露出した背面に接する冷却板の中を液体が流れ、高温のコンポーネントから熱を引き出すようになっています。Enabled Energy社のジェフ・シャスター氏によると、ラックあたりの電力需要が25kWから50kWに到達した場合には、熱放散を行うためにチップ向け液体冷却が必要になるとのことです。
これらのアクティブ冷却オプションは、最も効果的ではありますが、同時に複雑にもなり保守作業が最も多くなります。データ・センター内のプロセッサー、アクセラレーター、電力システム向けの液体冷却ソリューションは数多く存在しますが、最近では、光I/Oモジュールを冷却するソリューションの必要性も生まれてきています。サーバーまたはスイッチのこれらの部分において、現在、多くのオペレーター達は、強制気流か受動的な方式によりI/Oモジュールを冷却しています。
アクティブ冷却を拡張する受動コンポーネント
いくつかの受動コンポーネントが、アクティブ冷却戦略を補助しており、熱の移送を助けたり追加の熱質量を提供したりしています。アクティブ液体冷却あるいは強制気流と併せて一般的に使用される受動コンポーネントは、ヒートシンクやヒートパイプです。チップおよびGPUの運用には、多くの場合、ヒートシンクが使用され、またファンもしくは液体冷却のアクティブ冷却が選択されることもあります。I/Oモジュールの上に乗せたヒートシンクは、高温のモジュールから熱を取り去る強制気流をサポートします。
ヒートシンク付QSFP-DDケージ
光トランシーバーモジュールにおいて、一体化したヒートシンクおよび上部に置かれたヒートシンクへの熱の移送をアシストする場合、そのソリューションの1つとして、熱的感受性が最も高い内蔵コンポーネントを対象にした熱電冷却を組み込むことがあります。ペルチェ効果により、熱をヒートシンクにくみ上げ、そこで気流により放散させることができます。これは、内蔵型の熱移送メカニズムとしては便利ですが、224G光I/Oモジュールでの熱放散の需要を軽減させるものではありません。
液浸冷却
ほぼまちがいなく、データ・センターにおいて最も効果が高い液体冷却は液浸冷却です。この方法では、サーバー全体を非導電性の液体に沈めることで冷却を行います。この液体は大きな熱質量を提供し、熱交換機に対し循環されます。液浸冷却では、ラックあたり概ね50KWを超える熱の冷却を非常に効率的に行えます。
液浸冷却の効果は非常に高いものの、これには、以下に挙げるような顕著なリスクとコストも伴います。
- 投資: 液浸冷却システムの装備と設置にかかるコストは、強制気流または液体冷却に比べてより高価になることがあります。これは主に、データ・センターアーキテクチャの完全な見直しが必要となるためです。これに反し、気流や液体での冷却は備え付けにより配備することができます。
- スペースの必要性: 液浸冷却のタンクに対応するラックは、通常、標準的なラックユニットより幅広く奥行も大きくなります。
- 適合するI/Oモジュールとコネクター: 液体の誘電率は、コネクターの電気的インピーダンスに影響します。通常のコネクターの設計では、動作中に空気が流れることを前提としているため、特別なコネクターとトランシーバーモジュールが必要となります。
- 対応サーバー: 液浸冷却で動作するサーバーは専用設計であり、すべてのサーバーベンダーが提供している訳ではありません。
- 液流: 液浸冷却での液体は、熱質量の点では効果が高いものの、それを冷却するために特別な循環システムが必要です。
- 保守: 装備が特別であるため、液浸冷却では保守コストが高くなりがちです。
- 漏出のリスク: 仮に、液浸冷却で壊滅的な漏出が起きた場合には、流れた液体が施設内の他のエリアにダメージを与えることがあります。
- コンポーネントの故障: 一部のコンポーネント周辺で流れが不充分になると、その温度が高くなります。これは、老朽化を早め早期の故障につながることがあります。
- 環境への影響: 液浸冷却で使用される液体には定期的な交換が必要であり、その廃棄には適切な手順が求められます。
しばしば液浸冷却では、ハードウェアに対し、沈めるための設計や適応が必要です。長期にわたり液体内の環境で耐え得るかについて、コンポーネントの評価が必要となります。112Gと224Gシステム内の光I/Oモジュールの熱的需要を評価する際、モジュールに直接の液体冷却を広げることで、特殊な液浸冷却システムへの出費なしで、その熱に対処することが可能です。
光I/Oモジュールの熱的課題
サーバーや、ラックマウント ネットワークのインフラシステム内にある光I/Oモジュールは、特にラックマウント機器のフロントパネルから取り入れられる強制気流など、アクティブ冷却システムからの直接的な冷却を受けています。ラックマウント機器の熱設計では、I/Oモジュールの熱管理とプロセッサーまたはASICでの熱放散でバランスを取り、I/OやASICの動作温度に過剰なマージンを与えないようにする必要があります。プロセッサーの冷却需要と光I/Oモジュール全体の電力を考慮に入れて冷却策を最適化することで、適切なバランス点を捉えてシステムのパワー効率を最大化できます。
リンク長対データ・レート: 現在、56Gと112Gのために使用される光I/Oモジュールでは、かろうじて空気冷却がなりたちます。データ・レートが112Gかそれを超えるコヒーレント光通信を実装する場合には、プラガブルな光I/Oモジュールの(33Wを超える)電力レベルが、モジュールに対して液体冷却の対策を取ることを要求します。
112Gと224G世代のトランシーバーは、依然としてIEEE 802.3規格で定義されている標準的なリンク長を目標としています。したがって、システム設計者やデータ・センター オペレーターは、この標準が光モジュール内の電力要求が高まることを単純に受け入れると、ある程度想定しておくべきです。これは、前世代の光モジュールで既に存在する熱的需要は増加が予想され、以前からの熱管理のアプローチではその効果が薄れる可能性があることを意味します。
フォームファクター: およそ20年前に光ファイバートランシーバーが導入されて以来、そのフォームファクターは変化しておらず、プラガブル光モジュールではそれが課題となります。今日の業界は224Gに移行しようとしており、新世代の光I/Oモジュールには、アップグレードを可能にするために、既存のラックマウント機器との後方互換性が求められます。つまり、熱密度は今後も増大することになり、これは、光I/Oモジュールを冷却するための唯一の手段である強制気流が、限界に達することにつながります。
ヒートシンク: 光I/Oモジュールに装着されたヒートシンクは、強制気流システムの冷却能力を増強するものですが、耐久性の要件があるため、熱移送を最大化する上では金属同士の接触による制約を受けます。地金による接触は、いかなるヒートシンクにとっても望まれないものですが、これはI/Oモジュールにおいて特に顕著です。過去数年間に光モジュールの電力レベルが大幅に増加しているためです。モジュール辺りの電力需要が40W程度の大きさにまで増加することが推定され、これは、上記のボトルネックをさらに悪化させます。地金の接触面での接触熱抵抗を改善するため、上乗せのヒートシンクには熱伝導材料(TIM)が装着されており、プラガブルモジュールとの接触を密にし、熱移送の効率を向上することに役立っています。
上乗せのヒートシンクへのTIM装着に伴う問題点は、この材料の信頼性です。ケージに対する差し込みまたは取り外しの際、モジュールの尖った角がTIMをこすり落とし、嵌合サイクル毎に熱的効率を低下させる原因となります。初回ではないにせよ、初期の数回の挿入後に、その効果が失われることになります。攻撃性のある(例えば、ケーブルの荷重のために挿入に角度が付き、脆弱なTIMの表面がモジュールの尖った角に接触するなどの)フィールド状態にモジュールがさらされた場合には、上記の耐久性の問題はさらに重大になります。繰り返しの嵌合において、TIMが100回のサイクルに耐え得るような高い信頼性を確保するためには、ヒートシンクの接触手段を工夫する必要があります。
ケージ/ヒートシンクでのダメージを受けた熱パッド
モジュール温度のモニタリング: 増大する電力密度が、光モジュールに対する従来型の熱特性評価アプローチを再評価する必要性を生んでいます。従来、温度仕様としては、囲うケースの温度を70℃とする要件が(デジタル光モニタリング(DOM)温度の代わりなどとして)使用されています。しかし、最近の研究では、たとえケース温度が70℃であったとしても、モジュール内部の温度感受性が高いコンポーネントに、2、3度以上のマージンが残されていることが示されています。これは、システムの熱的実現可能性に関する結論を不正確にし、冷却システムの過度な運用につながります。例えば、I/Oの熱性能が制約要因となっているシステムでは、モジュールの内蔵コンポーネントの温度に基づけば余剰なマージンが見込める場合あっても、単純にケース温度の要件を満たすためだけに、ファンを必要より高い速度で回転させていることがあります。新しい熱特性評価(本レポートの後半で説明)により、今のアプローチが持つこの制限を解決することができます。
モジュール温度のイラストレーション
シミュレーションとテスト: シミュレーション/予測技術は、組み立てと設置を行う前に、システム設計、コンポーネントの配置、冷却システムなどを最適化するために使用されます。光モジュールでのヒートシンクと強制気流のアプローチを最適化することは、しばしば、機構設計が終了する前のシャーシ全体での気流のシミュレーションを必要とします。1RUフォームファクターを使用する多くの装置において、ラックマウント型サーバーではその高さと幅が標準化されています。その他のコンポーネント(チップ、アドインカード、SSDなど)は、エンクロージャーを通過しI/Oモジュールバンクの近くを流れる気流に影響しており、これが、冷却効率にも影響をあたえます。
光I/Oモジュールについては、モジュール本体に沿って高温のスポットを特定するために、コンポーネントレベルでのシミュレーションも重要です。シミュレーションでは、モジュール自体の内部構造、そして隔離されたモジュールの大きさとの相互関係までを、考慮する必要があります。隔離状態で動作させる際の温度テストの範囲は、接触測定から赤外カメラによる測定までおよびます。トランシーバー内の熱プロファイルが把握できたら、それをシステムレベル シミュレーションに入力でき、その後で、システムレベルと相互関係のテストが行えます。
熱シミュレーションシステム
液浸冷却: ハイパワーな112Gと224G光モジュールの冷却には、液浸冷却システムが効果を発揮します。熱負荷の観点から、これが冷却に最も効果的な手段ではあるものの、誘電性の液体は主に信号品位の点で、モジュールのコネクターで課題を生み出します。光モジュールとI/Oコネクターでは、一般にほとんどが、周囲の誘電体が空気であることを前提に設計されているので、これを代替の誘電体に置き換えることで、カップリングが効果を損なうことになります。結果として、液浸冷却されたラックマウント機器内部の112Gおよび224Gチャネルでは、誘電性液体に適合する、特別なモジュールが要求されることになります。液浸冷却が望ましい場合には、供給数が少ないことと特殊な構築方法が、ラックあたりのコストを相当程度増大させることになります。
相互接続と誘電性液体との材料適合性についてのインサイトを、モレックスのプリンシパルエンジニアであるデニス・ブリーンによるOCPグローバルサミットでのプレゼンテーションでご確認ください。
データ・センターアーキテクチャのための革新的な熱管理ソリューション
熱負荷は増加し続け、サーバーと光I/Oモジュールの後方互換性のためにフォームファクターが制約を受けている状況では、既にサーバーやスイッチ内に存在する液体冷却ソリューションを、より高いデータ・レートとデータ・センターでのより大きなコンピューティング要件をサポートするモジュールに拡大することが必要でしょう。特にI/O向けとして、サーバーおよびスイッチの中に一体化することが可能な新たなソリューションがあり、これにより、信頼性を妥協することなくより多くの放熱を実現できます。これは、機構上の変更とモジュール上で直接行う革新的な液体冷却により実現するもので、ラックマウント ネットワークシステムとプラガブルモジュールで使用されている、標準のフォームファクターを維持できます。
ドロップダウン ヒートシンク
上乗せヒートシンクの熱移送能力を最大化するには、ヒートシンクの台とプラガブルモジュール間での金属同士の乾燥した接触を、TIMの導入により改善する必要があります。 既に強調したとおり、光I/Oモジュールに挿入する際、その尖った角がTIMにダメージを与えることがあり、使用可能な嵌合サイクル数が低下します。多数の挿入サイクルにわたりTIMの機械的・熱的完全性を守るには、、ヒートシンクのための代替の接触機構が必要です。
モレックスでは、光I/Oモジュール上でドロップダウン ヒートシンク(DDHS)を使用し熱管理を強化できる、革新的なソリューションを開発しました。DDHSのブレークスルーデザインにより、モジュールとTIMの間に直接の接触がないことが保証されます。ヒートシンクを効果的に浮かせて、接触が生じるのは、モジュールがリセプタクルに約90%挿入された場合のみです。挿入の最後の10%中に、ヒートシンクはTIMの上に「落下」し、モジュールを尖ったエッジにはまったく触れさせることなく、その表面と完全に密着します。これにより、100回を超える挿入サイクルのために、TIMを完全に実装することができます。ドロップダウン ヒートシンクは、単一列と積み重ねケージの、異なる構成に対して実装が可能です。
モレックスのDDHSは、現在の従来型上乗せヒートシンクに対し、容易に置き換えができます。すでに最適化されているジッパーフィンのヒートシンクと比較して、DDHSでは、35Wにおいて9℃の改善を提供できます。
モレックスのドロップダウン ヒートシンク システム
このドロップダウン ヒートシンクのソリューションは、標準的なモジュールとラックマウントのフォームファクターに適合し、信頼性のある熱管理を提供します。この9℃の改善によるメリットを、システムの設計者は、以下の2つのいずれかの方法により活用できます。
- 同じ電力(例えば30W)のモジュールを使用し、DDHSからの熱マージンを活用することで、単純にシステムファンの回転速度を低減し、より高い電力効率を実現する。
- ファンを同じ速度で回転させながら、電力が5Wから7W高い(30Wではなく35Wから37Wの)モジュールを冷却する。
DDHSでは、単純な置き換えによる変更を使用して、より大きい電力のモジュールをシステムが冷却できるようになります。この革新的デザインの詳細については、動画をご覧ください。
進んだ液体冷却ソリューション
112Gのデータ・レートの光I/Oモジュールでは、その動作電力のために、強制気流冷却を能力の限界で使う必要があります。224Gの実装においては、光I/Oモジュール内で発生する熱の管理に、液体冷却が必要になると考えられます。高コンピューティング プロセッサーでは既に液体冷却が活用されているため、この既存の冷却システムに、ハイパワーな光I/Oモジュール向けのソリューションを統合することには妥当性があります。その上で、既存の装置に新しいテクノロジーとしての改良を行えば、より高いデータ・レートでの実装が可能になります。
液体冷却はデータ・センター業界にとって新規なものではないものの、これをプラガブルI/Oに対し実装しようとする場合には、内在した課題点が露呈します。液体冷却の実装にとっての自然な道筋は、個別の上乗せヒートシンクを個別の冷却プレートで代用することです。しかし、その結果として、32個におよぶ注入口と排出口が必要となります。配管がこのレベルになると、制約のある1RU/2RUシステム内部では対処しきれません。この次のステップは、複数のI/Oポートを冷却できる単一の冷却プレートを実装することです。このアプローチでの課題は、モジュールの高さ、ケージ内でのモジュールの配置、台の高さなどに応じ、交差の積み重ねが各I/Oポートで異なることです。単一のポートであれば、良好な熱的接触が保証できるかもしれませんが、各ポートで積み重ねが異なるということが、各ポート1つずつに対して十分な熱的接触を保証することを不可能にします。例えば1x6ケージ構成においては、すべての冷却プレート台、および、そのプレートと接するすべてのモジュール表面に対して、本質的に完璧な平面性が要求されます。これは、各ポートの交差に確実に対応でき、充分な熱的接触を実現するに足りる押しつけ力を提供できる、適切な台が必要であることを示しています。
モレックスでは、上記の課題を解決するために、一体型フローティング ペデスタルという液体冷却ソリューションを開発しました。このソリューションでは、モジュールと接する各ペデスタル(台)は、ばねガイド付きで個別に可動です。これにより、一種類の冷却プレートを、1xNおよび2xNの単一列と積み上げケージでの異なる構成に実装することを可能にしています。個別に動く台は、各ポートで異なる交差の積み重ねを補償することができ、同時に、良好な熱的接触のために必要なだけの下向き力を発揮します。
以下に示すのは、この1x6 QSFP-DD液体冷却ソリューションの一例です。このソリューションでは、個別に可動な6つのペデスタルを装備し、ポートごとに変化する積み重ねを補償しながら、良好な熱的接触を(望ましい下向き力によって)確保しています。
モレックスの一体型フローティング ペデスタルの例
一体型フローティング ペデスタルを使用すると、熱的および機械的ギャップの充填材を使用せず、I/Oでの液体冷却を実現できます。ギャップ充填材は、伝導経路における熱抵抗を増加させます。このソリューションにおいて、熱は発生源であるモジュールからペデスタルに向けて直接流れ、そのペデスタルは冷却プレート内を流れる液体に直に接合しています。この伝導経路は、理論上、液体冷却ソリューションが達成し得る最も短いものであり、熱抵抗の最小化と熱移送効率の最大化を助けています。
境界面の状態に強く依存はしますが、モレックスでは、この液体冷却により、仕様上40W程度のモジュールが冷却可能であることを示しています。
モレックス液体冷却ソリューションのデモ
次世代冷却戦略に向けた標準化と試験
光モジュールのための冷却戦略設計に影響する重要な要因の一つが、モジュール温度の仕様あるいは上限として、事例温度が用いられることです。こういったモジュールのデザインは複雑であり、事例温度の仕様のみでは、モジュール内部にある重要なコンポーネントの温度が正確に反映されません。これは、内部コンポーネントの上限温度であり、モジュールが仕様内で動作するかどうかを定義するものです。
モジュール温度モニタリングでの従来からのアプローチでは、モジュールケース上でモニタリングポイントを選定します。この位置は主としてヒートシンクの下部になります。システムの冷却策は、動作中に最大ケース温度仕様(Tcase、通常75℃)を超過しないことを目標に設計されます。通常、このモニタリングポイントは、動作中にヒートシンクを阻害せずにアクセスすることはできず、また、内部コンポーネントの真の温度を直接反映しません。しかし、デジタル光学モニタリング(DOM)を使用し内部センサーにTcase値をレポートさせ、ソフトウェア管理インターフェース(CMISなど)により、これを読み取ることは可能です。
以下の表に、ケース温度アプローチを使用した場合に失われるマージンの例を示します。この表は、積み上げケージの下部ポートに配置された典型的なモジュールからの読み取り値を示しています。モジュールケースの温度上限を、モジュールの動作と性能を保証するために必要な、重要な内部コンポーネントの実際の温度と比較しています。内部コンポーネントの温度を観察できれば、まだ余剰の設計マージンが残されていることを確認できます。
モジュール | 上限 | 真値 | マージン(ΔT) |
---|---|---|---|
Tcase(DSP上) | 75℃ | 72.6℃ | 2.4℃ |
レーザー | 85℃ | 76.4℃ | 8.6℃ |
TIA/ドライバー | 105℃ | 81.4℃ | 23.6℃ |
DSP | 105℃ | 93.5℃ | 11.5℃ |
この場合、ファンの負荷を低減させ、より高いケース温度で動作させるように冷却策を再考することが可能で、システムは一定の追加的マージンを開拓できるようになります。モジュールのケース温度を、そのモジュールの温度上限として使用すると、温度マージンは2.4℃にしかなりません。代わりに、レーザーを(温度マージンが最小の)重要なコンポーネントとして使用して温度上限を定義する場合には、レーザーでパフォーマンスの影響が認識される前に利用できるマージンが、実際には8.6℃あることがわかります。
したがって、光モジュールのDOM読み取り値は、次の数式で示すように、内部コンポーネントの最も低い温度マージンに基づき最定義することが提案されます。先述のとおり、既存のCMISとシステムソフトウェアとの後方互換性を維持しながらでも、冷却システム設計の中で追加的なマージンを開拓することは可能です。DOMレジスター内で報告される値は、次のようになります。
DOM = 75°C - Min(ΔT(laser), ΔT(DSP), ΔT(TIA), etc.)
ここで提案されたDOMの定義は、単純にDOMの値つまりは実際の温度マージンで解釈でき、モジュールの動作環境の中でマージンが最小である内部コンポーネント(レーザー、光、TIA、DSPチップなど)を基準にできます。このレポートされたDOMの簡単な変更は、システム設計者が冷却システムアーキテクチャにおける余剰なマージンを排除するのに役立ち、システム管理に対して良いモジュール制御を提供します。
モレックスのハサン・アリとCiscoのジョー・ジャックが現在のケース温度アプローチでの限界に光を当て、システム設計者とモジュール設計者の視点からプラス面・マイナス面に重きを置きながら代替手法について考察する、録画プレゼンテーションをご覧ください。
データ・センター冷却の未来に向けたイノベーションの実現
複雑なデータ・センター環境の熱管理における、数十年の実績と広範な専門知識を活用して、モレックスでは、さらに高いデータ・レートが増大させる熱的課題に対するる、革新的なアプローチを導入しています。変化のペースが素早い中で、システム設計と実装には制約が引き続き存在します。装置のフォームファクターの標準化が、多くのI/O数を維持しつつスペース上の制約にも適合するような、独創的なソリューションを要求しています。
モレックスでは、光I/Oモジュール用として業界をリードする冷却ソリューションを開発し、電力面での要求が厳しく高速で実行されるシステムのために、より高い信頼性を提供しています。独自に設計された、プラガブルな光I/Oモジュール用の放熱と接触の手法は、レガシーの熱管理ソリューションよりシンプルであり、はるかに信頼できるパフォーマンスを実現します。これにより、煩わしい液浸冷却手法に頼ることなく、次世代のデータ・センター相互接続アーキテクチャにスケールアップするための道筋が開けます。
データ・センターの熱管理における複雑さを案内する適切なプロバイダーを選択することは、確信を持って前進するための中心的事項です。モレックスでは、次世代のデータ・センターアーキテクチャ向けの先進機能を導入し、連携によるお客様最優先のアプローチにより、性能と効率の両方を最適化します。
関連するアプリケーション
注目の製品