loading

FARSINCE による 13 年間にわたる専門的エンジニアリングによるケーブル ソリューション。

最新データセンターストレージの設計:SATA、SAS、NVMe、およびそれらの物理的相互接続に関する実践ガイド

最新のデータセンターストレージの設計

はじめに:ストレージ設計に階層的な視点が必要な理由

ストレージに関する議論でよくある問題の一つは、SATA、SAS、NVMe、U.2、SlimSAS、MCIOといった規格を、あたかも全て同じシステム層を指しているかのように扱うことです。実際にはそうではありません。

サーバー、ストレージ、インフラストラクチャ環境におけるケーブルおよび相互接続プロジェクトに携わってきた経験から、多くの設計ミスはここから始まっていることに気づきました。将来のNVMeパスに対して不適切なバックプレーンを選択したり、不必要なコストをかけて容量層を過剰に構築したり、あるいは設計プロセスの早い段階でトランスポート、プロトコル、物理インターフェースを分離しなかったために、アップグレードの柔軟性を制限したりしてしまう可能性があるのです。

そのため、現代のストレージ設計は、ドライブの選択という作業ではなく、階層的な意思決定として捉えるべきである。

実際には、アーキテクチャは次の3つの要素を整合させる必要がある。

  • 輸送経路
  • 通信プロトコル
  • 物理的なコネクタとケーブル接続方法

これら3つの要素が明確に扱われるようになれば、プラットフォームの残りの部分の計画ははるかに容易になります。これは、混在トポロジーが一般的で、単一のシャーシにSATAまたはSASの容量層とNVMeのパフォーマンス層が併せ持つ可能性がある、現在のサーバー設計においては特に重要です。以前の技術ドラフトは既にこの同じロジックに基づいて構成されていました。つまり、まずレイヤーを分離し、抽象的なインターフェース名ではなく、実際のプラットフォーム実装のコンテキストでSATA、SAS、およびNVMeを評価するというものです。

3層構造

ストレージに関する意思決定を体系化する上で有効な方法は、それらを3つの階層に分けることです。

  • トランスポートパス― SATA、SAS、PCIeなどのデータパスそのもの
  • プロトコル— ホストとデバイス間で使われるコマンドモデル。例えば、AHCIやNVMeなど。
  • 物理インターフェース― U.2、SlimSAS、MCIOなど、リンクを実装するために使用されるコネクタとケーブルの形式

この区別によって、非常によくある間違い、つまりトランスポートとコネクタを混同することを防ぐことができます。

PCIeはトランスポート層であり、NVMeはプロトコルである。U.2、SlimSAS、MCIOは物理的な実装である。これらの役割を分離することで、アーキテクチャの理解がはるかに容易になる。

この分離によって、2つのサーバーがどちらもNVMeサポートを謳いながら、内部構造、サービスモデル、アップグレードパスが大きく異なる理由も説明できる。

SATA、SAS、NVMe:最適な選択肢を選ぶ

SATA:コスト効率の良い容量

SATAケーブル

SATAは現代のインフラストラクチャにおいて依然として明確な役割を果たしている。レイテンシやピークIOPSよりもテラバイトあたりのコストが重視される大容量ストレージに最適であり、アーカイブノード、バックアップリポジトリ、大容量HDDベースのシステムなどがその典型例である。

重要なのは、SATAが古いかどうかではなく、より高価なものを使うだけの作業負荷があるかどうかだ。

コールドデータ環境やシーケンシャルアクセスが多い環境では、SATAは依然として最も経済的なソリューションとなることが多い。そのため、パフォーマンス重視のストレージ設計の中心ではなくなったとしても、依然として議論の対象として残しておくべきである。

SAS:構造化されたエンタープライズレイヤー

SASケーブル

SASは、予測可能な拡張性、確立されたバックプレーンエコシステム、およびエンタープライズグレードの管理が求められるあらゆる場面で、依然として重要な存在です。また、すべてのベイを可能な限り最速のフラッシュパスに移行することよりも、耐障害性が重視される、混合ドライブシステム、ストレージアレイ、および環境にも引き続き適しています。

SASが依然として有用な理由の一つは、より構造化されたストレージアーキテクチャをサポートしている点にある。デュアルポート接続、成熟したエキスパンダーエコシステム、そして実績のあるコントローラー統合により、SASは高可用性ストレージの導入において依然として有力な選択肢となっている。

SASはSATAとNVMeの中間的な存在としてのみ捉えるべきではありません。多くの企業設計においては、導入の優先順位が異なるため、SASは依然として適切な選択肢となります。

PCIe経由のNVMe:パフォーマンスのデフォルト

NVMe over PCIe

パフォーマンスが重視されるワークロードにおいては、PCIe経由のNVMeが標準的な選択肢となっている。

AIトレーニングデータセット、リアルタイム分析、高性能データベース、高密度仮想化スタックなどは、従来のアーキテクチャでは対応できなかったほど、ストレージのレイテンシと並列処理に大きな負荷をかけます。NVMeは、フラッシュストレージにソリッドステートの動作により近いプロトコルモデルを提供すると同時に、PCIeのCPUへの直接パスを活用することで、この課題に対処します。

したがって、NVMeへの移行は単なるドライブのアップグレードにとどまりません。それはアーキテクチャの転換です。プラットフォームがこの方向へ移行すると、レーン割り当て、信号整合性、熱設計、保守性といった要素すべてがストレージ選定の決定事項となります。

物理的な選択肢:U.2、SlimSAS、それともMCIO?

輸送手段とプロトコルが明確になれば、次の問題は物理的な実装となる。

ここで、密度、サービス性、そして将来的な拡張性が、答えを形作り始める。

U.2 (SFF-8639): 確立され、使用可能

 U.2 (SFF-8639) ケーブル

U.2は、保守性の高いエンタープライズ向けSSDの導入、特に2.5インチホットスワップ対応設計において優れた性能を発揮するため、依然として広く普及しています。多くの既存システムが依然としてU.2に依存しており、保守や現場での交換が重要な場面では、依然として実用的な選択肢となっています。

その制約は通常、性能ではなくパッケージングにある。最新の高密度プラットフォームでは、よりコンパクトな相互接続オプションと比較して、コネクタとケーブルの形状が大きくなる可能性がある。

物理的な選択肢:U.2、SlimSAS、それともMCIO?

輸送手段とプロトコルが明確になれば、次の問題は物理的な実装となる。

ここで、密度、サービス性、そして将来的な拡張性が、答えを形作り始める。

SlimSAS(SFF-8654):フレキシブルブリッジ

SlimSAS (SFF-8654) ケーブル

SlimSASが重要視されるようになったのは、過渡期の課題をうまく解決できるからです。従来の内部接続方式よりも高密度を実現し、アーキテクチャによってはSASとNVMeの両方のプラットフォーム設計をサポートできます。

そのため、特に混在環境において有用です。プラットフォームは既存の容量階層を維持しながら、シャーシ全体の設計を根本的に見直すことなく、選択したベイや機能をNVMeにアップグレードできます。

実際には、SlimSASは密度、柔軟性、移行価値のバランスが最も取れた組み合わせを提供することが多い。

MCIO(SFF-TA-1016):高密度フォワードパス

MCIOケーブル

MCIOは、単なるストレージコネクタの一つとしてではなく、次世代の内部相互接続戦略の一部として理解する方が適切である。

PCIe 5.0およびPCIe 6.0をベースとした最新の設計では、MCIOはその高密度性と、超高速内部リンクの信号完全性要件により適していることから、魅力的な選択肢となっています。レーン密度が上昇し、プラットフォームのさらなる拡張が見込まれる中で、MCIOは従来の内部ケーブル形式よりも自然な形で適合します。

このような速度域では、ケーブルアセンブリはもはや受動的な後付け部品ではなく、全体の性能と信頼性を左右する重要な要素となる。

なぜ今、ストレージに関する議論にシグナルインテグリティが加わるべきなのか

設計がPCIe 4.0以降に移行すると、ストレージ計画は高速シリアル設計と重複し始める。

それは、すべてのストレージアーキテクトがシグナルインテグリティの専門家になる必要があるという意味ではありません。しかし、専門用語を理解することは重要です。

  • ISI以前のシンボルが現在のシンボルに及ぼす歪みを説明する
  • FFEそしてDFEチャネル損失と干渉を補償するために使用される等化方法
  • CDR受信データストリームからタイミングを復元する役割を担う。
  • FECリンクがPAM4シグナリングとより高いエラー感度に向かうにつれて、ますます重要になる。

これらはもはや周辺的な話題ではありません。リンクが確実にトレーニングできるかどうか、ケーブルの選択が適切かどうか、そして運用環境下でプラットフォームが安定して稼働するかどうかに直接影響します。

そのため、最新の設計では、認定されたケーブルリスト、リタイマー、リドライバー、低損失材料がより重要になります。高速化が進むにつれ、相互接続は単なるエンドポイント間の配線ではなく、システム設計の一部となるのです。

実例:2Uストレージサーバーの近代化

有用な例としては、大容量データ用にSATA HDD、メタデータキャッシュ用にSAS SSDを搭載した2Uプラットフォームが挙げられる。

性能上のボトルネックは高温域で発生するが、シャーシ全体の交換は費用がかかりすぎ、作業の中断も大きすぎる。

現実的な移行経路は次のようになります。

  • 容量のためにSATA HDD層を残しておく
  • シャーシ全体の設置面積を維持する
  • SlimSASを中心にバックプレーンを再設計し、内部の柔軟性を向上させた。
  • 選択したパフォーマンスベイの配線をSASからPCIeレーンに直接接続されたNVMeパスに変更する
  • より新しい高密度相互接続オプションを使用して将来の拡張のためのスペースを確保する

このタイプの移行では、ストレージ層全体を一度に交換する必要はありません。既存のプラットフォームの価値を維持しながら、ホットデータのパフォーマンスを向上させます。

多くの実際のプロジェクトでは、それは白紙からの再設計よりも現実的だ。

実際の導入環境で通用する設計原則

プロジェクト全体を通して、いくつかの原則は一貫しています。

  • 使用SATA大量生産能力とコスト管理が重視される場所
  • 使用SAS構造化されたエンタープライズ展開、回復力、および制御された拡張が重要な場合
  • レイテンシ、並列処理、フラッシュのパフォーマンスがプラットフォームの性能を左右する場合、 PCIe 上で NVMe を使用してください。
  • U.2、SlimSAS、またはMCIOを選択する際は、命名トレンドだけでなく、保守性、密度、およびシステムのロードマップに基づいて判断してください。
  • 設計がPCIe 4.0 / 5.0 / 6.0クラスの信号処理に入ったら、内部ケーブルとコネクタをパフォーマンスコンポーネントとして扱います。

これが、単に動作するだけのストレージプラットフォームと、スムーズに拡張できるように設計されたストレージプラットフォームを分ける決定的な要素です。

結論:ドライブリストだけでなく、アーキテクチャを設計すべきである

現代のデータセンターにおけるストレージは、トレードオフの問題である。

正解は、抽象的な意味での「最適な」インターフェースを選択することにあるのではなく、トランスポートパス、プロトコル、そして物理的な相互接続を、実際のワークロードとプラットフォームの目標に適合させることにある。

SATAは、大容量化において依然として実用的な解決策である。

SASは、構造化されたエンタープライズストレージにおいて、依然として信頼できるソリューションです。

NVMeは、現代のフラッシュ中心のワークロードにおいて、依然として最高のパフォーマンスソリューションである。

U.2、SlimSAS、およびMCIOは、それらの決定がシステム内部で物理的にどのように実現されるかを決定します。

より良いアプローチは、馴染みのあるドライブの種類やコネクタに安易に頼ることではなく、意図的にアーキテクチャを設計することである。

著者

フランク・ヤン

創業者 | Farsince Connectivity Solutions

フランク・ヤンはFarsinceの創設者であり、ケーブルおよび接続業界で13年以上の経験を持ち、データセンター、産業、ネットワーク接続ソリューションに関して世界中の顧客と緊密に連携してきました。

prev prev
PAM4とは何か?高速データシステムにおける4値変調の実践ガイド
あなたにおすすめ
データなし
お問い合わせください
電話: +86 574 8704 2335
携帯電話: +86 189 5787 1301
メールアドレス:sales@farsince.com
WhatsApp:  +86 189 5787 1301
住所: 中国浙江省寧波市鎮海区中関西路 777 号。 315201
Customer service
detect