Azure のレイテンシの問題を解決する方法

Azure のレイテンシの問題を解決する方法

人気のクラウド サービス プロバイダーのレイテンシを低減し、ネットワーク パフォーマンスを向上させる方法を紹介します。

企業は、クラウド ネットワークを必ずしも最大限に活用しているとは限りません。ニーズが容量を上回り、ネットワークにレイテンシの問題が生じることがあります。このブログの読者の方は、レイテンシの問題がビジネスにとっていかに重要であるか、また、その非効率性がすぐに収益の損失につながることを理解されていると思います。Gartner の最近のレポートによると、ダウンタイムが企業にもたらすコストは 1 分あたり平均 5,600 米ドルで、信頼性の低いレイテンシがその主な要因となっています。では、ネットワークのニーズがネットワーク容量を上回っている場合、どのようにしてレイテンシの問題を回避し、維持すればよいのでしょうか。

幸いなことに、クラウド ネットワーキングを Microsoft Azure に依存している企業の 70% にとって、コストを増やさずレイテンシを低減する簡単な方法があり、ほとんどのケースで既存のアセットを最大限に活用できます。ここでは、Azure のレイテンシを低減し、ネットワーク パフォーマンスを向上させる 3 つの主な方法を紹介します。

方法 1: 高速ネットワーク

高速ネットワークは、シングル ルート I/O 仮想化 (SR-IOV) とも呼ばれ、レイテンシを低減するための最も一般的な方法です。高速ネットワークとは、わかりやすく言うと、A-B 間の最短ネットワーク パスを見つけることです。

問題は、多くのクラウド セットアップが管理用のホストに過度に依存していることです。しかし、高速ネットワークでは、トラフィックは仮想マシン (VM) のネットワーク インターフェイスから直接流れ、ホストと仮想スイッチを経由することはなくなります。その結果、最も要求の厳しいワークロードのレイテンシ、ジッター、CPU 使用率が低減します。

高速ネットワークが重要なのは、不要なネットワークの複雑さを排除するためです (以前のブログで、この推測を行ったことがあります)。高速ネットワークがない場合、VM に出入りするトラフィックはホストと仮想スイッチを通過する必要があります。高速ネットワークによって、トラフィックが宛先に到達するまでのジャンプ回数が削減されます。

適正に実行すると、仮想スイッチは、アクセス制御やネットワーク セキュリティなど、従来はホストが行っていたすべてのポリシー適用を提供します。

その典型的なユース ケースが障害復旧です。これはネットワークの専門家にとって悪夢であり、企業にとってはコストがかかる出来事です。このような状況で指針となるのが、高速ネットワークのような手法です。セントラル ホストが選択肢ではなくなり、仮想スイッチがその役割を担う必要が生じたときに、ネットワーク運用を復旧させるために何ができるかを示してくれるからです。

Microsoft には、このユース ケースに関する広範なドキュメントがあります。レイテンシだけでなくクラウド ネットワーク全体の健全性について真剣に考えている方は、ぜひ目を通してください。技術的にさらに掘り下げたいという場合は、Microsoft の高速ネットワークの説明が必見です

Azure を使用することで、高額なエグレス料金がかかっていませんか。コストを下げる 4 つの方法についてのブログをご覧ください。

方法 2: Receive Side Scaling (RSS)

当然ながら、高速ネットワークは万人向けではありません。VM が高速ネットワークと互換性のあるシナリオに適合しない組織では、Receive Side Scaling (RSS) が、レイテンシを含むネットワーク全体のパフォーマンスの問題を低減させる最善の方法となります。RSS では、A-B 間の最短パスを見つけることが主な目標です。ただし、ホストを迂回するのではなく、複数の CPU にまたがるネットワーク処理の最も効率的な配分を見つけることができる点が異なります。

RSS は、ネットワークの「交通整理」の役割を果たします。ある特定のトラフィックを通過させ、他のトラフィックの優先順位を低くします。RSS がなければ、ネットワークは単一のネットワークパスを通してトラフィックを処理しようとし、すべてが同時に起ころうとすることによる当然の帰結としてレイテンシが発生します。

Azure は RSS を簡単に実装する方法を提供します。管理者は、ネットワーク インターフェイス カード (NIC) とミニ ポート ドライバーを構成するだけで、他のプロセッサの遅延プロシージャ呼び出し (DPC) を受信できます。その他の利点として、RSS では、特定の接続に関連する処理が、割り当てられた CPU に留まることが保証されます。ネットワーク担当者は、一度設定を行えば残りは NIC が処理してくれるため、他の作業に移ることができます。

RSS は、NIC からの受信処理を複数の CPU にルーティングすることで、処理遅延を軽減する非常に有用な方法です。ここでの目標は、単にレイテンシを低減することではなく、より優れたネットワーク インテリジェンスを構築することで、ある CPU がリクエストで圧倒され、他の CPU がアイドル状態にならないようにすることです。

この方法は、ブローカー ディーラーや e コマース プロバイダーなど、大容量ネットワークを扱う企業や、瞬時に高いネットワーク容量を必要とする企業にとって、特に朗報と言えます。高速ネットワーク同様、Microsoft では、組織が RSS を迅速かつ効率的に展開できるように役に立つドキュメントを提供しています。

Microsoft Azure のプライベート接続を、AWS や Google Cloud と比較したガイドをご覧ください。

方法 3: 近接配置グループ

近接配置グループは、最も簡単なレイテンシ低減手法で、基本的にはコロケーションを指します。しかし、この場合、コロケーションという用語は単にネットワーク アセットを同じホスティング施設でホストすることではなく、Azure のコンピュート リソース間の距離を縮めてネットワーク全体のレイテンシを低減させるという、より広範な意味で使っています。

近接配置グループは、オンプレミスの VM、複数のロケーションにある VM (可用性セット)、複数のネットワーク グループ (スケール セット) 間のレイテンシを低減することができます。当然のことながら、アセット同士の距離が離れるほど、レイテンシなどの問題が発生する可能性は高くなります。近接配置グループの目標は、物理的な距離が最も短いアセットを使って、ネットワーク タスクをどのようにルーティングするかを考えることです。

この手法にインテリジェンスを組み込むために、Microsoft では近接配置グループと高速ネットワークを組み合わせることを推奨しています。ここでの意図は、近接配置グループの最初の仮想マシンを要求するときに、データ センターが自動的に選択されるようにすることです。

唯一の注意点は、エラスティックなワークロードの場合、配置グループに制約がかかるほど、割り当てエラーが発生する可能性が高くなり、レイテンシが発生する可能性が高くなることです。高速ネットワークがトラフィックを処理する場合でも、ネットワーク管理者は常に注意を怠らないようしてください。例えば、VM を停止 (割り当て解除) した場合、容量は維持されません。

近接配置グループは、ホーム リージョンでのネットワーク機能を最大化し、かつ新規市場での容量を過剰に消費しないことを目指す企業にとって、最も理にかなった方法です。

Microsoft の Azure ドキュメントには、近接配置グループに関する追加のベストプラクティスが掲載されています。高速ネットワークで機能を拡張するために、レイテンシとインテリジェント ネットワーキングに真剣に取り組んでいるネットワーク担当者には特にお勧めです。

Network as a Service で Azure 接続を高速化する

ネットワークの高速化については、これまで説明してきた Azure の手法が大きな効果を発揮しますが、まずは企業ネットワーク全体を検証することから始めるのがベストです。

パブリック インターネットを使用すると、ネットワークはトラフィック変動に翻弄され、速度やパフォーマンスに深刻な影響を与え、結果的にビジネスに損害を与えることになります。従来の通信事業者は問題のある選択肢になる可能性があり、ピーク時の需要に対応するために帯域幅を拡張できない場合、顧客は契約にしばられることを余儀なくされます。その結果、速度やネットワーク パフォーマンスの信頼性は低減し、IT 部門による継続的な障害軽減が必要となります。

Azure の接続方法として Network as a Service (NaaS) を利用することで、パブリック インターネットを回避し、プライベート ネットワークのパスに切り替えることができます。さらに、Megaport で NaaS 接続をプロビジョニングすると、次のような利点があります。

  • パフォーマンスの向上  –  インターネットのトラフィック変動に起因するボトルネックやダウンタイムを回避することができます。Megaport のプライベート バックボーンで AWS に接続することで、高速で安定した接続を実現します。
  • スケーラブルな帯域幅  – Megaport ポータル経由で接続をプロビジョニングし、オンデマンドで帯域幅 (場合によっては最大 100GB) を増やすことでピーク時に必要なパフォーマンスを提供します。不要になったら帯域幅を減らし、即座に節約を開始できます。
  • 「常時接続」の冗長性  – 世界中に 700 を超えるオンランプを擁し、100% を目指す Megaport のサービス可用性により、ダウンタイムから保護されます。
  • Megaport Cloud Router (MCR)  Megaport の仮想ルーティング サービスは、レイヤー 3 でのオンデマンド プライベート接続を提供し、オンプレミス環境との間でヘアピンのないハイパフォーマンスなクラウド間ルーティングを実現します。
  • Megaport Virtual Edge (MVE)  低レイテンシ ネットワークのメリットをエッジにまで広げるには、Megaport の Network Functions Virtualization (NFV) サービスである MVE を利用して、ブランチからクラウドまで直接プライベート接続を行い、ミッションクリティカルなアプリケーションのレイテンシやジッターを低減します。

このようなツールを 1 つ、またはすべて使用して、Azure でツールを自由に組み合わせて活用することで、ネットワークのレイテンシを低減できます。Megaport のような NaaS があれば、エンドツーエンドでより高速なネットワークの恩恵を受けることができ、さらに高いビジネスの生産性と収益を実現できます。

関連記事

SD-WAN がエンタープライズ ネットワークを向上させる仕組み

SD-WAN がエンタープライズ ネットワークを向上させる仕組み

SD-WAN 市場は 2025 年に 40 億米ドルを超える見込みです。ここでは、テクノロジーがどのようにエンタープライズ ネットワークの将来を支えるかを検討します。

続きを読む
Microsoft Azure プライベート ピアリングに ExpressRoute Local を使用するタイミング

Microsoft Azure プライベート ピアリングに ExpressRoute Local を使用するタイミング

ExpressRoute Local の使用は、Microsoft Azure 上で最もコスト効率の高いプライベート接続オプションの 1 つです。いくつかの例とともに、お客様にとって適切なタイミングを判断するチェックリストをご紹介します。

続きを読む
ゼロ トラスト ネットワーク アーキテクチャを採用すべきか?

ゼロ トラスト ネットワーク アーキテクチャを採用すべきか?

ゼロトラスト ネットワーク アクセスとは何か、その仕組みはどうなっているかを考察しながら、貴社がゼロ トラスト アーキテクチャを採用すべきかどうかついて見ていきます。 組織がリモート ワークをサポートするプロセスやモデルへと移行する際は、セキュリティを最優先事項とすべきです。そこで登場するのが、安全が確認されるまですべてのユーザーを潜在的な脅威と見なす「ゼロ トラスト」アプローチです。ゼロ トラスト ネットワーク アクセス (ZTNA) は、このトレンドの中核を担う機能です。 Gartner® は次のように述べています。「2024 年末までに、企業の 10% が、自社所有のキャンパス LAN でネットワーク アクセス制御 (NAC) や組み込み型スイッチング セキュリティ機能を ZTNA に切り替えることが予想される。これは 2021 年のほぼゼロ パーセントからの増加となる。」1 Gartner® による 2022 年予測の詳細については、当社のブログ記事をご覧ください。 クラウド業界において急速に大きな話題となっているのがゼロトラストです。ZTNA を使いこなしたいという場合は、以下で ZTNA の仕組みと、ゼロ トラスト アーキテクチャの採用を検討すべきかどうかについてご覧ください。 ZTNA とは? ゼロ トラスト ネットワーク アクセス (ZTNA) とは、企業のアプリケーションの周りに、アイデンティティやコンテキストに基づいた論理的なアクセス境界を作成するプロダクトまたはサービスです。簡単に言えば、すべてのエンドポイントを敵対的なものとして取り扱うネットワーク設定です。この設定は、アプリケーションが検知されないように保護し、アクセスを許可された限定的なエンティティ (通常は組織のリモート従業員) に制限するものです。 トラスト ブローカーがこれらの制限を制御し、アクセスが許可される前に各エンティティのアイデンティティ、コンテキスト、ポリシー遵守状況を確認します。さらに、これらのエンティティは、サイバー脅威に対するネットワークの露出を最小限に抑えるために、セッション中に許可されたアプリケーションからネットワーク内の別の場所に移動することを禁止されています。 ZTNA を実現するために、企業のネットワークチームは、ほとんどのネットワーク スイッチングや管理機能セットで見られるフィルタリング、プロファイリング、エンドツーエンド セグメンテーションなどのセキュリティ機能を組み込まずに企業ネットワークを編成します。その代わりに、こうした機能をクラウド サービスに置き換え、そこからアプリケーション認証と承認のリクエストをパブリック クラウドの Points of Presence (PoP) に送信します。つまり、セキュリティ管理プロセスがクラウドに移管されるということです。ZTNA がネットワークに与える負荷の増大によって生じる、アプリの可用性、帯域幅、パフォーマンスの低下の可能性を軽減する役割は、ローカル ゲートウェイが担います。 企業のネットワークに ZTNA アプローチを採用することは、アダプティブ トラスト モデルと呼ばれる、条件付きではくケースごとに信頼性が付与されるモデルにつながります。このアプローチにより、特にハイブリッド型やリモートワーク型の職場では、サイバー攻撃の可能性が大幅に低減されます。

続きを読む