Windows Server の記憶域スペース ダイレクトを使用すると、業界標準のサーバーとローカル 記憶域を使用して、高可用性とスケーラブルな記憶域ソリューションを構築できます。 展開する前に、ハードウェアが信頼性とパフォーマンスの最小要件を満たしていることを確認することが重要です。 この記事では、Windows Server での記憶域スペース ダイレクトの物理展開と仮想展開の両方でサポートされているハードウェア構成、推奨されるプラクティス、および重要な考慮事項について説明します。 このガイダンスは、最適な結果を得るために環境を計画および検証するのに役立ちます。
物理ハードウェアを使用する場合、Microsoft では、展開ツールと手順を含む、検証済みのハードウェア/ソフトウェア ソリューションをパートナーから購入することをお勧めします。 これらのソリューションは、互換性と信頼性を確保するために、Microsoft の参照アーキテクチャに照らして設計、組み立て、検証されているため、迅速に稼働させることができます。
ヒント
記憶域スペース ダイレクトは、クラウドに接続されたハイパーコンバージドデプロイ用に設計されたオペレーティング システムである Azure Local でも使用されます。 Azure Local に固有のハードウェア要件については、「Azure Local のシステム要件」を参照してください。 使用可能なハードウェア ソリューションとサイズ変更ツールについては、 Azure ローカル ソリューションの Web サイトを参照してください。
ゲスト仮想マシン クラスターでの記憶域スペース ダイレクトの使用に関するページの説明に従って、Hyper-V または Azure 仮想マシンで記憶域スペース ダイレクトを使用することもできます。
基本要件
システム、コンポーネント、デバイス、およびドライバーは、Windows Server Catalog の使用しているオペレーティング システムに対して認定されている必要があります。 さらに、サーバーとネットワーク アダプターには、次の図に示すように 、Software-Defined データ センター (SDDC) Standard または Software-Defined Data Center (SDDC) Premium 認定 (AQs) も使用することをお勧めします。 SDDC AQ には、1,000 以上のコンポーネントがあります。
完全に構成されたクラスター (サーバー、ネットワーク、ストレージ) は、フェールオーバー クラスター マネージャーのウィザードまたは Test-Cluster
を使用して、すべてのクラスター検証テストに合格する必要があります。
Von Bedeutung
クラスター ノードが実装されているシナリオでは、NIC アダプター、ドライバー、ファームウェアは、SET チーミングが正常に機能するために完全に一致する必要があります。
サーバーの要件
最小サーバー要件を次に示します。
- 少なくとも 2 台のサーバー、最大 16 台のサーバー。
- すべてのサーバーを同じ製造元とモデルにすることをお勧めします。
CPU (中央処理装置)
最小 CPU 要件を次に示します。
- Intel Nehalem 以降の互換性のあるプロセッサ。もしくは
- AMD EPYC 以降の互換性のあるプロセッサ。
記憶
最小メモリ要件を次に示します。
- Windows Server、VM、およびその他のアプリまたはワークロード用のメモリ。および
- 記憶域スペース ダイレクト メタデータの場合、各サーバーのキャッシュ ドライブ容量 1 テラバイト (TB) あたり 4 GB の RAM。
ブート
最小ブート要件を次に示します。
- Windows Server でサポートされているブート デバイス 。 SATADOM が含まれるようになりました。
- RAID 1 ミラーは必要ありませんが、ブートではサポートされています。
- 推奨: 最小サイズは 200 GB です。
ネットワーク
記憶域スペース ダイレクトでは、ノード間に信頼性の高い高速な帯域幅、低待機時間のネットワーク接続が必要です。
ネットワークの最小要件を次に示します。
小規模な 2 から 3 ノード クラスターの最小相互接続の場合:
- 10 Gbps ネットワーク インターフェイス カード (NIC)、またはそれ以上。
- 冗長性とパフォーマンスのために、各ノードからの 2 つ以上のネットワーク接続が推奨されます。
高パフォーマンス、大規模、または 4 つ以上のノード クラスターのデプロイに推奨される相互接続:
- リモートダイレクト メモリ アクセス (RDMA) が可能な NIC、iWARP (推奨) または RoCE。
- 冗長性とパフォーマンスのために、各ノードからの 2 つ以上のネットワーク接続が推奨されます。
- 25 Gbps NIC 以上の速度。
スイッチ付きまたはスイッチなしのノード接続
- スイッチ: ネットワーク スイッチは、帯域幅とネットワークの種類を処理するように適切に構成されている必要があります。 RoCE プロトコルを実装する RDMA を使用する場合、ネットワーク デバイスとスイッチの構成がさらに重要になります。
- スイッチレス: ノードは直接接続を使用して、スイッチの使用を回避して、相互接続できます。 すべてのノードは、クラスターの他のすべてのノードと直接接続する必要があります。
ドライブ
記憶域スペース ダイレクトは、それぞれ 1 台のみのサーバーに物理的に接続されている直接接続型 SATA、SAS、NVMe、または永続メモリ (PMem) ドライブで動作します。 ドライブの選択の詳細については、ドライブの選択に関する記事および「永続的なメモリの理解と展開」を参照してください。
- SATA、SAS、永続メモリ、NVMe (M.2、U.2、アドイン カード) ドライブがすべてサポートされています。
- 512n、512e、4K のネイティブ ドライブがすべてサポートされています。
- ソリッドステート ドライブは 、電力損失保護を提供する必要があります。
- すべてのサーバーで同じ数と種類のドライブ – ドライブの対称性に関する考慮事項を参照してください。
- キャッシュ デバイスは 32 GB 以上である必要があります。
- 永続メモリ デバイスは、ブロック ストレージ モードで使用されます。
- キャッシュ デバイスとして永続メモリ デバイスを使用する場合は、NVMe または SSD 容量デバイスを使用する必要があります (HDD は使用できません)。
- HDD を使用してストレージ容量を提供する場合は、ストレージ バス キャッシュを使用する必要があります。 オールフラッシュ デプロイを使用する場合、ストレージ バスのキャッシュは必要ありません。
- NVMe ドライバーは、Windows に含まれる Microsoft 提供のドライバーです (ドライバーのファイル名は
stornvme.sys
)。 - 推奨: 容量ドライブの数は、キャッシュ ドライブの数の倍数全体です。
- 推奨: キャッシュ ドライブは、書き込み耐久性が高い必要があります。1 日あたり少なくとも 3 つのドライブ書き込み (DWPD) または 1 日あたり少なくとも 4 テラバイト (TBW) が書き込まれます。「1 日あたりのドライブの書き込みについて (DWPD)、テラバイト (TBW)、記憶域スペース ダイレクトに推奨される最小値」を参照してください。
注
記憶域の容量にすべてのフラッシュ ドライブを使用する場合、記憶域プールのキャッシュの利点は制限されます。 詳細については、記憶域プール キャッシュに関する記事を参照してください。
ドライブを記憶域スペース ダイレクト用に接続する方法を次に示します。
- 直接接続された SATA ドライブ。
- 直接接続された NVMe ドライブ。
- SAS ドライブを備えた SAS ホスト バス アダプター (HBA)。
- SATA ドライブを備えた SAS ホスト バス アダプター (HBA)。
- SAS 物理ストレージ デバイスのみを直接通過する RAID コントローラー カード。
Von Bedeutung
サポートされていません: SAS 物理ストレージ デバイスまたは SAN (ファイバー チャネル、iSCSI、FCoE) ストレージの直接パススルーをサポートしていない RAID コントローラーのカード。 ホストバス アダプター (HBA) カードは、記憶域スペース ダイレクトに使用されるすべての記憶装置に対して、単純なパススルー モードを実装する必要があります。
ドライブは次の通りです。
- サーバーの内部
- 1 台のサーバーに接続されている外部エンクロージャ ("JBOD") 内。 スロットのマッピングと識別のために SCSI エンクロージャ ービス (SES) が必要になります。 各外部エンクロージャは、ユニークIDを持つ必要があります。
Von Bedeutung
サポート対象外: 複数のサーバーに接続されている共有 SAS エンクロージャ、またはドライブに複数のパスからアクセスできる任意の形式のマルチパス IO (MPIO)。
ドライブの最小数 (ブート ドライブを除く)
必要な容量ドライブの最小数は、展開シナリオによって異なります。 記憶域プール キャッシュの使用を計画している場合は、サーバーごとに少なくとも 2 つのキャッシュ デバイスが必要です。
記憶域スペース ダイレクトは、物理サーバーのクラスターまたは仮想マシン (VM) ゲスト クラスターに展開できます。 物理ストレージ デバイスまたは仮想ストレージ デバイスの選択に基づいて、パフォーマンス、容量、またはバランスの取れたシナリオ向けに記憶域スペース ダイレクト設計を構成できます。 仮想化された展開では、プライベートまたはパブリック クラウドの基になるストレージのパフォーマンスと回復性を利用できます。 VM ゲスト クラスターに記憶域スペース ダイレクトを展開すると、仮想環境内の高可用性ソリューションを使用できます。
以降のセクションでは、物理および仮想の各展開での最小ドライブ要件について説明します。
物理展開
次の表は、Windows Server または Azure Local を使用したハードウェアデプロイの種類別の最小容量ドライブ数を示しています。
ドライブの種類 (容量のみ) | 必要な最小ドライブ数 (Windows サーバー) | 必要な最小ドライブ (Azure ローカル) |
---|---|---|
すべての永続メモリ (同じモデル) | 4 つの永続メモリ | 2 つの永続メモリ |
すべて NVMe (同じモデル) | 4 つの NVMe | 2 つの NVMe |
すべて SSD (同じモデル) | 4 つの SSD | 2 つの SSD |
記憶域プール キャッシュを使用する場合は、キャッシュ用に少なくとも 2 つのドライブが構成されている必要があります。 次の表に、2 つ以上のノードを使用する Windows Server と Azure ローカルの両方のデプロイに必要なドライブの最小数を示します。
存在するドライブの種類 | 必要な最小ドライブ数 |
---|---|
永続メモリ + NVMe または SSD | 2 つの永続メモリ + 4 つの NVMe または SSD |
NVMe + SSD | 2 つの NVMe + 4 つの SSD |
NVMe + HDD | 2 つの NVMe + 4 つの HDD |
SSD + HDD | 2 つの SSD + 4 つの HDD |
Von Bedeutung
ストレージ プール キャッシュは、単一ノードのデプロイで Azure Local と共に使用することはできません。
仮想展開
次の表に、Windows Server ゲスト VM や Windows Server Azure Edition などの仮想展開の種類別のドライブの最小数を示します。
ドライブの種類 (容量のみ) | 必要な最小ドライブ数 |
---|---|
仮想ハード ディスク | 2 |
ヒント
Azure Local または Windows Server で実行しているときにゲスト VM のパフォーマンスを向上させるには、CSV メモリ内読み取りキャッシュ を使用して、バッファーなし読み取り操作をキャッシュすることを検討してください。
仮想環境で記憶域スペース ダイレクトを使用している場合は、次の点を考慮する必要があります。
- 仮想ディスクは物理ドライブのような障害の影響を受けませんが、パブリック クラウドまたはプライベート クラウドのパフォーマンスと信頼性に依存します。
- 低待機時間/高パフォーマンスストレージの単一レベルを使用することをお勧めします。
- 仮想ディスクは容量にのみ使用する必要があります。
ゲスト仮想マシン クラスターでの記憶域スペース ダイレクトの展開について詳しく学びましょう。
最大容量
クラスター内のサーバーの数と使用されるドライブの種類によって、記憶域スペース ダイレクトの最大容量が決まります。 次の表に、Windows Server 2019 以降と Windows Server 2016 の最大値を示します。
最大 | Windows Server 2019 またはそれ以降 | Windows Server 2016 |
---|---|---|
サーバーあたりの生の容量 | 400 TBの | 100 TBの |
プール容量 | 4 PB (4,000 TB) | 1 ペタバイト (PB) |