Azure のレイテンシの問題を解決する方法

Azure のレイテンシの問題を解決する方法

人気のクラウド サービス プロバイダーのレイテンシを低減し、ネットワーク パフォーマンスを向上させる方法を紹介します。

企業は、クラウド ネットワークを必ずしも最大限に活用しているとは限りません。ニーズが容量を上回り、ネットワークにレイテンシの問題が生じることがあります。このブログの読者の方は、レイテンシの問題がビジネスにとっていかに重要であるか、また、その非効率性がすぐに収益の損失につながることを理解されていると思います。Gartner の最近のレポートによると、ダウンタイムが企業にもたらすコストは 1 分あたり平均 5,600 米ドルで、信頼性の低いレイテンシがその主な要因となっています。では、ネットワークのニーズがネットワーク容量を上回っている場合、どのようにしてレイテンシの問題を回避し、維持すればよいのでしょうか。

幸いなことに、クラウド ネットワーキングを Microsoft Azure に依存している企業の 70% にとって、コストを増やさずレイテンシを低減する簡単な方法があり、ほとんどのケースで既存のアセットを最大限に活用できます。ここでは、Azure のレイテンシを低減し、ネットワーク パフォーマンスを向上させる 3 つの主な方法を紹介します。

方法 1: 高速ネットワーク

高速ネットワークは、シングル ルート I/O 仮想化 (SR-IOV) とも呼ばれ、レイテンシを低減するための最も一般的な方法です。高速ネットワークとは、わかりやすく言うと、A-B 間の最短ネットワーク パスを見つけることです。

問題は、多くのクラウド セットアップが管理用のホストに過度に依存していることです。しかし、高速ネットワークでは、トラフィックは仮想マシン (VM) のネットワーク インターフェイスから直接流れ、ホストと仮想スイッチを経由することはなくなります。その結果、最も要求の厳しいワークロードのレイテンシ、ジッター、CPU 使用率が低減します。

高速ネットワークが重要なのは、不要なネットワークの複雑さを排除するためです (以前のブログで、この推測を行ったことがあります)。高速ネットワークがない場合、VM に出入りするトラフィックはホストと仮想スイッチを通過する必要があります。高速ネットワークによって、トラフィックが宛先に到達するまでのジャンプ回数が削減されます。

適正に実行すると、仮想スイッチは、アクセス制御やネットワーク セキュリティなど、従来はホストが行っていたすべてのポリシー適用を提供します。

その典型的なユース ケースが障害復旧です。これはネットワークの専門家にとって悪夢であり、企業にとってはコストがかかる出来事です。このような状況で指針となるのが、高速ネットワークのような手法です。セントラル ホストが選択肢ではなくなり、仮想スイッチがその役割を担う必要が生じたときに、ネットワーク運用を復旧させるために何ができるかを示してくれるからです。

Microsoft には、このユース ケースに関する広範なドキュメントがあります。レイテンシだけでなくクラウド ネットワーク全体の健全性について真剣に考えている方は、ぜひ目を通してください。技術的にさらに掘り下げたいという場合は、Microsoft の高速ネットワークの説明が必見です

Azure を使用することで、高額なエグレス料金がかかっていませんか。コストを下げる 4 つの方法についてのブログをご覧ください。

方法 2: Receive Side Scaling (RSS)

当然ながら、高速ネットワークは万人向けではありません。VM が高速ネットワークと互換性のあるシナリオに適合しない組織では、Receive Side Scaling (RSS) が、レイテンシを含むネットワーク全体のパフォーマンスの問題を低減させる最善の方法となります。RSS では、A-B 間の最短パスを見つけることが主な目標です。ただし、ホストを迂回するのではなく、複数の CPU にまたがるネットワーク処理の最も効率的な配分を見つけることができる点が異なります。

RSS は、ネットワークの「交通整理」の役割を果たします。ある特定のトラフィックを通過させ、他のトラフィックの優先順位を低くします。RSS がなければ、ネットワークは単一のネットワークパスを通してトラフィックを処理しようとし、すべてが同時に起ころうとすることによる当然の帰結としてレイテンシが発生します。

Azure は RSS を簡単に実装する方法を提供します。管理者は、ネットワーク インターフェイス カード (NIC) とミニ ポート ドライバーを構成するだけで、他のプロセッサの遅延プロシージャ呼び出し (DPC) を受信できます。その他の利点として、RSS では、特定の接続に関連する処理が、割り当てられた CPU に留まることが保証されます。ネットワーク担当者は、一度設定を行えば残りは NIC が処理してくれるため、他の作業に移ることができます。

RSS は、NIC からの受信処理を複数の CPU にルーティングすることで、処理遅延を軽減する非常に有用な方法です。ここでの目標は、単にレイテンシを低減することではなく、より優れたネットワーク インテリジェンスを構築することで、ある CPU がリクエストで圧倒され、他の CPU がアイドル状態にならないようにすることです。

この方法は、ブローカー ディーラーや e コマース プロバイダーなど、大容量ネットワークを扱う企業や、瞬時に高いネットワーク容量を必要とする企業にとって、特に朗報と言えます。高速ネットワーク同様、Microsoft では、組織が RSS を迅速かつ効率的に展開できるように役に立つドキュメントを提供しています。

Microsoft Azure のプライベート接続を、AWS や Google Cloud と比較したガイドをご覧ください。

方法 3: 近接配置グループ

近接配置グループは、最も簡単なレイテンシ低減手法で、基本的にはコロケーションを指します。しかし、この場合、コロケーションという用語は単にネットワーク アセットを同じホスティング施設でホストすることではなく、Azure のコンピュート リソース間の距離を縮めてネットワーク全体のレイテンシを低減させるという、より広範な意味で使っています。

近接配置グループは、オンプレミスの VM、複数のロケーションにある VM (可用性セット)、複数のネットワーク グループ (スケール セット) 間のレイテンシを低減することができます。当然のことながら、アセット同士の距離が離れるほど、レイテンシなどの問題が発生する可能性は高くなります。近接配置グループの目標は、物理的な距離が最も短いアセットを使って、ネットワーク タスクをどのようにルーティングするかを考えることです。

この手法にインテリジェンスを組み込むために、Microsoft では近接配置グループと高速ネットワークを組み合わせることを推奨しています。ここでの意図は、近接配置グループの最初の仮想マシンを要求するときに、データ センターが自動的に選択されるようにすることです。

唯一の注意点は、エラスティックなワークロードの場合、配置グループに制約がかかるほど、割り当てエラーが発生する可能性が高くなり、レイテンシが発生する可能性が高くなることです。高速ネットワークがトラフィックを処理する場合でも、ネットワーク管理者は常に注意を怠らないようしてください。例えば、VM を停止 (割り当て解除) した場合、容量は維持されません。

近接配置グループは、ホーム リージョンでのネットワーク機能を最大化し、かつ新規市場での容量を過剰に消費しないことを目指す企業にとって、最も理にかなった方法です。

Microsoft の Azure ドキュメントには、近接配置グループに関する追加のベストプラクティスが掲載されています。高速ネットワークで機能を拡張するために、レイテンシとインテリジェント ネットワーキングに真剣に取り組んでいるネットワーク担当者には特にお勧めです。

Network as a Service で Azure 接続を高速化する

ネットワークの高速化については、これまで説明してきた Azure の手法が大きな効果を発揮しますが、まずは企業ネットワーク全体を検証することから始めるのがベストです。

パブリック インターネットを使用すると、ネットワークはトラフィック変動に翻弄され、速度やパフォーマンスに深刻な影響を与え、結果的にビジネスに損害を与えることになります。従来の通信事業者は問題のある選択肢になる可能性があり、ピーク時の需要に対応するために帯域幅を拡張できない場合、顧客は契約にしばられることを余儀なくされます。その結果、速度やネットワーク パフォーマンスの信頼性は低減し、IT 部門による継続的な障害軽減が必要となります。

Azure の接続方法として Network as a Service (NaaS) を利用することで、パブリック インターネットを回避し、プライベート ネットワークのパスに切り替えることができます。さらに、Megaport で NaaS 接続をプロビジョニングすると、次のような利点があります。

  • パフォーマンスの向上  –  インターネットのトラフィック変動に起因するボトルネックやダウンタイムを回避することができます。Megaport のプライベート バックボーンで AWS に接続することで、高速で安定した接続を実現します。
  • スケーラブルな帯域幅  – Megaport ポータル経由で接続をプロビジョニングし、オンデマンドで帯域幅 (場合によっては最大 100GB) を増やすことでピーク時に必要なパフォーマンスを提供します。不要になったら帯域幅を減らし、即座に節約を開始できます。
  • 「常時接続」の冗長性  – 世界中に 700 を超えるオンランプを擁し、100% を目指す Megaport のサービス可用性により、ダウンタイムから保護されます。
  • Megaport Cloud Router (MCR)  Megaport の仮想ルーティング サービスは、レイヤー 3 でのオンデマンド プライベート接続を提供し、オンプレミス環境との間でヘアピンのないハイパフォーマンスなクラウド間ルーティングを実現します。
  • Megaport Virtual Edge (MVE)  低レイテンシ ネットワークのメリットをエッジにまで広げるには、Megaport の Network Functions Virtualization (NFV) サービスである MVE を利用して、ブランチからクラウドまで直接プライベート接続を行い、ミッションクリティカルなアプリケーションのレイテンシやジッターを低減します。

このようなツールを 1 つ、またはすべて使用して、Azure でツールを自由に組み合わせて活用することで、ネットワークのレイテンシを低減できます。Megaport のような NaaS があれば、エンドツーエンドでより高速なネットワークの恩恵を受けることができ、さらに高いビジネスの生産性と収益を実現できます。

関連記事

Twilio Interconnect、エンタープライズ グレードのパフォーマンス強化に Megaport を使用

Twilio Interconnect、エンタープライズ グレードのパフォーマンス強化に Megaport を使用

プライベート接続は、Twilio の製品の安全性とパフォーマンスを強化します。Twilio Interconnect により、顧客によるプライベート クラウドの選択がこれまでになく簡単になりました。 Twilio は、主要なカスタマー エンゲージメント プラットフォームのひとつで、音声、SMS、および E メールをカスタマー サービスに統合する強力な API を開発者に提供していることは、おそらくご存じでしょう。公開 (NYSE:TWLO) 会社の製品は、Stripe、Airbnb、Lyft、Coca-Cola、その他多くの企業により、パーソナライズされたやりとりおよびグローバル コミュニケーションを強化するために使用されています。しかし、企業が Twilio ネットワークに直接接続して、Twilio の製品のエンタープライズ グレードを確保できる、会社のインフラストラクチャ ソリューション、Twilio Interconnect についてはご存じないかと思います。Twilio Interconnect では、物理的なクロス コネクトまたは暗号化された VPN トンネルを使用して、接続することができます。また、Megaport’s Network as a Service (NaaS) など、サード パーティのエクスチェンジを使用することもできます。 プライベート接続に関する顧客リクエストへの対応 2016 年 Twilio は、規制およびネットワーク パフォーマンスを理由にプライベート接続を求める企業顧客と通信事業者のリクエストに応えて、Twilio Interconnect の最初のバージョンを設計しました。発端の一部は、顧客と通信事業者による Megaport を使用して、Twilio のネットワークにプライベート接続して欲しいという依頼でした。 Twilio の Super Network のディレクターであるアレックス・セバー氏は、次のように述べています。「Twilio へのオンボーディングはできるだけシンプルにしたいと思います。そのため、お客様とは一般的に遠隔でつながります。」 「サード パーティ エクスチェンジに関しては、Megaport が優先プロバイダーのひとつと言えます。なぜなら、彼らの顧客ベースが当社のものととても良く合っているからです。クラウド ネイティブに関しては…すぐに拡張したいです。ロータッチ モデルのようなもので。」 Twilio は、わずか 7 つの Points of Presence (PoP) を使用して、100 をかなり上回る数々の国で運用しています。また、世界の利用者に迅速かつ簡単に接続する機能を拡張するために、Megaport のような企業と提携しています。

続きを読む
Q-in-Q に関するよくある質問:パート 2

Q-in-Q に関するよくある質問:パート 2

前回の記事 (http://www.megaport.com/blog/q-in-q-questions-answered-part-1/) では、VLAN 二重タグ (Q-in-Q) のコンセプトについて説明しました。引き続きパート 2 では、Azure パブリック クラウド環境に直接接続をもたらす Microsoft Azure および ExpressRoute プロダクトについて具体的な例を挙げて説明します。Microsoft ExpressRoute for Azure の実装を検討中で、Megaport を接続ソリューション プロバイダーとしてお考えの方に、この投稿では、小規模な開発/テストから高可用性の本番ワークロードまで、実際の顧客実例をいくつかご紹介します。 質問:Megaport を介して ExpressRoute 接続をプロビジョニングするにはどうすればよいですか? 下の図は、全体のプロセスをいくつかの簡単なステップにまとめたものです。 質問:Microsoft Azure ExpressRoute キー (サービス キー) をリクエスト/生成するにはどうすればよいですか? 最新の開発では、Azure Resource Manager (ARM) ポータル経由でサービス キーをリクエストすることになっています。当社では、サービス キーを生成するために必要なステップを詳しく説明するビデオ (こちらをクリック) を制作しました。PowerShell を使用して一部の機能をスクリプト化または自動化したいという場合は、Azure ドキュメント (https://azure.microsoft.com/en-us/documentation/articles/expressroute-howto-circuit-arm/) を参照するか、PowerShell (クラシック) のセットアップ プロセスに関する当社のビデオをご覧ください。最近の変更により、ASM (クラシック) と ARM VNet の両方を 1 本の ER 回線に接続できるようになりました。ガイド (https://azure.microsoft.com/en-us/documentation/articles/expressroute-howto-move-arm/) の「Enable an ExpressRoute circuit for both deployment models’ section (両方の構築モデルに対して ExpressRoute 回線アクセスを有効化する)」セクションにあるステップを参照してください。

続きを読む
ゼロ トラスト ネットワーク アーキテクチャを採用すべきか?

ゼロ トラスト ネットワーク アーキテクチャを採用すべきか?

ゼロトラスト ネットワーク アクセスとは何か、その仕組みはどうなっているかを考察しながら、貴社がゼロ トラスト アーキテクチャを採用すべきかどうかついて見ていきます。 組織がリモート ワークをサポートするプロセスやモデルへと移行する際は、セキュリティを最優先事項とすべきです。そこで登場するのが、安全が確認されるまですべてのユーザーを潜在的な脅威と見なす「ゼロ トラスト」アプローチです。ゼロ トラスト ネットワーク アクセス (ZTNA) は、このトレンドの中核を担う機能です。 Gartner® は次のように述べています。「2024 年末までに、企業の 10% が、自社所有のキャンパス LAN でネットワーク アクセス制御 (NAC) や組み込み型スイッチング セキュリティ機能を ZTNA に切り替えることが予想される。これは 2021 年のほぼゼロ パーセントからの増加となる。」1 Gartner® による 2022 年予測の詳細については、当社のブログ記事をご覧ください。 クラウド業界において急速に大きな話題となっているのがゼロトラストです。ZTNA を使いこなしたいという場合は、以下で ZTNA の仕組みと、ゼロ トラスト アーキテクチャの採用を検討すべきかどうかについてご覧ください。 ZTNA とは? ゼロ トラスト ネットワーク アクセス (ZTNA) とは、企業のアプリケーションの周りに、アイデンティティやコンテキストに基づいた論理的なアクセス境界を作成するプロダクトまたはサービスです。簡単に言えば、すべてのエンドポイントを敵対的なものとして取り扱うネットワーク設定です。この設定は、アプリケーションが検知されないように保護し、アクセスを許可された限定的なエンティティ (通常は組織のリモート従業員) に制限するものです。 トラスト ブローカーがこれらの制限を制御し、アクセスが許可される前に各エンティティのアイデンティティ、コンテキスト、ポリシー遵守状況を確認します。さらに、これらのエンティティは、サイバー脅威に対するネットワークの露出を最小限に抑えるために、セッション中に許可されたアプリケーションからネットワーク内の別の場所に移動することを禁止されています。 ZTNA を実現するために、企業のネットワークチームは、ほとんどのネットワーク スイッチングや管理機能セットで見られるフィルタリング、プロファイリング、エンドツーエンド セグメンテーションなどのセキュリティ機能を組み込まずに企業ネットワークを編成します。その代わりに、こうした機能をクラウド サービスに置き換え、そこからアプリケーション認証と承認のリクエストをパブリック クラウドの Points of Presence (PoP) に送信します。つまり、セキュリティ管理プロセスがクラウドに移管されるということです。ZTNA がネットワークに与える負荷の増大によって生じる、アプリの可用性、帯域幅、パフォーマンスの低下の可能性を軽減する役割は、ローカル ゲートウェイが担います。 企業のネットワークに ZTNA アプローチを採用することは、アダプティブ トラスト モデルと呼ばれる、条件付きではくケースごとに信頼性が付与されるモデルにつながります。このアプローチにより、特にハイブリッド型やリモートワーク型の職場では、サイバー攻撃の可能性が大幅に低減されます。

続きを読む