JP2018504008A - コアネットワーク要素における最適なリソース管理 - Google Patents

コアネットワーク要素における最適なリソース管理 Download PDF

Info

Publication number
JP2018504008A
JP2018504008A JP2017528180A JP2017528180A JP2018504008A JP 2018504008 A JP2018504008 A JP 2018504008A JP 2017528180 A JP2017528180 A JP 2017528180A JP 2017528180 A JP2017528180 A JP 2017528180A JP 2018504008 A JP2018504008 A JP 2018504008A
Authority
JP
Japan
Prior art keywords
computing resources
load
active
random number
core network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017528180A
Other languages
English (en)
Other versions
JP6487045B2 (ja
Inventor
イスタヴァン バコス
イスタヴァン バコス
ギュラ ボドグ
ギュラ ボドグ
アッティラ ガボール ヒルト
アッティラ ガボール ヒルト
ラスズロ ヤノシ
ラスズロ ヤノシ
ガボール ヤロ
ガボール ヤロ
Original Assignee
ノキア ソリューションズ アンド ネットワークス オサケユキチュア
ノキア ソリューションズ アンド ネットワークス オサケユキチュア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア ソリューションズ アンド ネットワークス オサケユキチュア, ノキア ソリューションズ アンド ネットワークス オサケユキチュア filed Critical ノキア ソリューションズ アンド ネットワークス オサケユキチュア
Publication of JP2018504008A publication Critical patent/JP2018504008A/ja
Application granted granted Critical
Publication of JP6487045B2 publication Critical patent/JP6487045B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/54Store-and-forward switching systems 
    • H04L12/56Packet switching systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0895Configuration of virtualised networks or elements, e.g. virtualised network function or OpenFlow elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/60Software-defined switches
    • H04L49/602Multilayer or multiprotocol switching, e.g. IP switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/54Store-and-forward switching systems 
    • H04L12/56Packet switching systems
    • H04L12/5601Transfer mode dependent, e.g. ATM
    • H04L2012/5629Admission control
    • H04L2012/5631Resource management and allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2213/00Indexing scheme relating to selecting arrangements in general and for multiplex systems
    • H04Q2213/13164Traffic (registration, measurement,...)
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2213/00Indexing scheme relating to selecting arrangements in general and for multiplex systems
    • H04Q2213/13349Network management

Abstract

本発明は、コアネットワーク要素において分散型システム内でリソース管理を行う方法、装置及びコンピュータプログラム製品に関するもので、コアネットワーク要素のコンピューティングリソースをセットへと編成し、第1セットは、常に、アクティブであり;前記セットの負荷に対して上限スレッシュホールド及び下限スレッシュホールドを設定し、動作中のセットは、動作中のセットの平均負荷が上限スレッシュホールドに到達する限り負荷が掛けられ、そして上限スレッシュホールドを越えると、新たなセットがアクチベートされ、一方、その負荷が下限スレッシュホールドより下がると、最後にアクチベートされたセットがデアクチベートされ;プライオリティ数を各セットに指定し;要求配布をランダム化するためのランダム数のインターバルを、アクティブなセットのコンピューティングリソースに割り当てられるサブインターバルでセグメント化し、各サブインターバルの長さは、各コンピューティングリソースのセットのプライオリティ数に基づいて決定され;及び前記インターバルからのランダム数を到来する要求に割り当て、そして前記割り当てられたランダム数を含むサブインターバルに属するコンピューティングリソースに前記要求を転送する;ことを含む。【選択図】 図5

Description

本発明は、一般的に、有線及び無線通信ネットワークに関するもので、より詳細には、分散型システムにおける改善された水平スケーリングのために、改善された負荷バランシング、特に、コアネットワーク要素における最適なリソース管理を可能にする方法、装置及びコンピュータプログラム製品に関する。
コストを節減するため、テレコミュニケーション運営者は、インフラストラクチャーの売主から無線及びコアネットワークコンポーネントのバーチャル化をしばしば要求する。実際に、全てのコアネットワークコンポーネントは、同じクラウドインフラストラクチャーにおいて実行できねばならない。例えば、全てのコアネットワークコンポーネントに対する均一ハードウェア(HW)に関する支出によるコストを節減する他に、運営者は、バーチャルネットワーク要素のようなコンピューティングリソースが、例えば、クラウドの利益も利用し、従って、入手可能なハードウェアリソースの利用を更に最適化することを希望する。そのような利益の1つは、クラウドにおけるバーチャルアプライアンスのスケールイン/アウトとしても知られている水平スケーラビリティの可能性である。
例えば、クラウドにおける普通の(バーチャル)アプライアンスとして、コアネットワーク要素は、そのような水平スケーリング振舞いをサポートしなければならない。実際には、これは、バーチャルマシン(VM)のような(スケールイン)コンピューティングリソースを(バーチャル)アプライアンス(ここではコアネットワーク要素)から除去するか又は(スケールアウト)コンピューティングリソースをそこに追加することができねばならないことを意味する。これは、高トラフィック期間(例えば、昼間の時間)中の容量ニーズに基づいて、バーチャルマシンVMのような新たなコンピューティングリソースを動的に追加しながら、低トラフィック(例えば、夜間の時間)中のトラフィックを取り扱うために必要なコンピューティングリソースの数を「縮小」する能力を与える。
厳密な予想サービスグレードを伴うテレコミュニケーションネットワーク要素に関しては、スケールイン手順におけるコンピューティングリソース除去がサービス障害を生じてはならない。本発明により取り扱われるネットワーク要素の場合には、提供される主たるサービスが加入者間のコールの取り扱いである。即ち、例えば、移動交換センターサーバー(MSS)又はテレコミュニケーションアプリケーションサーバー(TAS)からのコンピューティングリソースの除去が進行中のコール設定又は進行中のアクティブフェーズコールを妨げてはならない。換言すれば、VMのようなコンピューティングリソースの除去は、率直なものでなければならない。データセッションのためのそのような率直なスケールイン手順が要求される対応ネットワーク要素は、例えば、SGSN/MMEである。
ネットワーク要素のコンピューティングリソースのこのスケーリングを外界から隠すために、良く知られた習慣は、ネットワーク要素の縁で負荷バランサーを利用することである。負荷バランサー(LB)は、外界からのトラフィックを終了させ、そして到来するトラフィックをネットワーク要素の内部コンピューティングリソース間に配布する。このように、負荷バランサーを使用して、特定のアクティブなコンピューティングリソースが新たなコール要求を受け取るかどうか決定することができ、或いは内部コンピューティングリソースが率直な遮断に対してマークされる場合には、そのマークされたコンピューティングリソースが新たなコール要求を受け取ってはならず、当然、そのコンピューティングリソースに関する進行中セッションのトラフィックが依然としてそのコンピューティングリソースに向けられねばならない。
従って、このロジックでは、コンピューティングリソースにより取り扱われる進行中セッションが関係者により終了されると、コンピューティングリソースは、暫くして「空」になることが明らかである。
他方、一般的に、コールの長さは予想できないことが明らかである。即ち、進行中のアクティブフェーズコールが関係者によっていつ終了されるかは、予想できない。これは、幾つかの少数の非常に長いコールセッションのためにVMのようなコンピューティングリソースを遮断できない状態が生じ得ることを意味する。
本明細書は、水平スケーリングと称されるスケールイン及びスケールアウトに関するものである。
基本的に、スケールアウト機能は、増加したトラフィックを取り扱うためにコンピューティングリソースを追加することにより機能的ユニット(FU)容量を増加できるようにする。逆に、スケールイン機能は、トラフィックからコンピューティングリソースを除去することにより機能的ユニット容量を減少できるようにする。水平スケーリングは、既に、全ての装置売主により対処されねばならない事実上の運営者の要求事項となっている。
以上の序文から明らかなように、コールの長さを一般的に予想できないという問題がある。従って、一般的な負荷バランサーロジックに従い、且つ内部コンピューティングリソース間の到来するトラフィックが、全てのコンピューティングリソースが同じCPU負荷及びメモリ消費量を有するように共有される場合、それは、低トラフィック時間にコンピューティングリソースを率直に遮断することが望まれるとき、遮断のために選択されないコンピューティングリソースと同じ量のコールを取り扱うことができ、即ち長いコールは、他のコンピューティングリソースの場合と同じ確率でそのコンピューティングリソースに現われることを意味する。この確率を下げるためには、改善された負荷バランサーロジックが要望される。
それ故、従来技術の欠点を克服するため、本発明の基礎的な目的は、改善された負荷バランシングを可能にすることである。
特に、本発明の目的は、クラウドベース環境又は非クラウド環境のいずれかにおいて構成されて、コアネットワーク要素における最適なリソース管理を与えるための方法、装置及びコンピュータプログラム製品を提供することである。
本発明の第1の観点によれば、コアネットワーク要素における分散型システム内のリソース管理方法において、コアネットワーク要素のコンピューティングリソースをセットへと編成し、第1セットは、常に、アクティブであり;前記セットの負荷に対して上限スレッシュホールド及び下限スレッシュホールドを設定し、動作中のセットは、動作中のセットの平均負荷が上限スレッシュホールドに到達する限り負荷が掛けられ、そして上限スレッシュホールドを越えると、新たなセットがアクチベートされ、一方、最後にアクチベートされたセットの負荷が下限スレッシュホールドより下がると、最後にアクチベートされたセットがデアクチベートされ;プライオリティ数を各セットに指定し;要求配布をランダム化するためのランダム数のインターバルをアクティブなセットのコンピューティングリソースに割り当てられるサブインターバルでセグメント化し、各サブインターバルの長さは、各コンピューティングリソースのセットのプライオリティ数に基づいて決定され;及び前記インターバルからのランダム数を到来する要求に割り当てそしてその割り当てられたランダム数を含むサブインターバルに属するコンピューティングリソースにその要求を転送する;ことを含む方法が提供される。
本発明の第2の観点によれば、コアネットワーク要素における分散型システム内のリソース管理装置において、少なくとも1つのプロセッサ、及び該プロセッサにより実行されるべきインストラクションを記憶するための少なくとも1つのメモリを備え、その少なくとも1つのメモリ及びインストラクションは、少なくとも1つのプロセッサとで、装置が、少なくとも、コアネットワーク要素のコンピューティングリソースをセットへと編成し、第1セットは、常に、アクティブであり;前記セットの負荷に対して上限スレッシュホールド及び下限スレッシュホールドを設定し、動作中のセットは、動作中のセットの平均負荷が上限スレッシュホールドに到達する限り負荷が掛けられ、そして上限スレッシュホールドを越えると、新たなセットがアクチベートされ、一方、最後にアクチベートされたセットの負荷が下限スレッシュホールドより下がると、最後にアクチベートされたセットがデアクチベートされ;プライオリティ数を各セットに指定し;要求配布をランダム化するためのランダム数のインターバルをアクティブなセットのコンピューティングリソースに割り当てられるサブインターバルでセグメント化し、各サブインターバルの長さは、各コンピューティングリソースのセットのプライオリティ数に基づいて決定され;及び前記インターバルからのランダム数を到来する要求に割り当て、そしてその割り当てられたランダム数を含むサブインターバルに属するコンピューティングリソースにその要求を転送する;ことを行うようにさせるよう構成された装置が提供される。
本発明の第3の観点によれば、プログラムが実行されるときに、コアネットワーク要素のコンピューティングリソースをセットへと編成し、第1セットは、常に、アクティブであり;前記セットの負荷に対して上限スレッシュホールド及び下限スレッシュホールドを設定し、動作中のセットは、動作中のセットの平均負荷が上限スレッシュホールドに到達する限り負荷が掛けられ、そして上限スレッシュホールドを越えると、新たなセットがアクチベートされ、一方、最後にアクチベートされたセットの負荷が下限スレッシュホールドより下がると、最後にアクチベートされたセットがデアクチベートされ;プライオリティ数を各セットに指定し;要求配布をランダム化するためのランダム数のインターバルをアクティブなセットのコンピューティングリソースに割り当てられるサブインターバルでセグメント化し、各サブインターバルの長さは、各コンピューティングリソースのセットのプライオリティ数に基づいて決定され;及び前記インターバルからのランダム数を到来する要求に割り当て、そしてその割り当てられたランダム数を含むサブインターバルに属するコンピューティングリソースにその要求を転送する;というステップを実行するように構成されたコンピュータ実行可能なコンポーネントを含むコンピュータプログラム製品が提供される。
本発明の前記規範的観点の好都合な更なる開発又は変更は、従属請求項に規定される。
本発明のある実施形態によれば、プライオリティ数が大きいほど、サブインターバルの長さが長くなる。
更に、本発明のある実施形態によれば、コンピューティングリソースのセットがインアクティブな状態にあるか又は既にスケールインされたときには、そのプライオリティ数がゼロプライオリティを指示する。
更に、本発明のある実施形態によれば、単一セットの負荷が上限スレッシュホールドに到達する場合に、そのプライオリティ数が最大となり、そのセットが、最高プライオリティの到来要求を受け取ることを指示する。
更に、本発明のある実施形態によれば、新たなセットがロードされる場合には、そのプライオリティ数が、リアルタイムトラフィックに基づいて、プリセット出発値から、その最大値まで、動的に変化することができる。
更に、本発明のある実施形態によれば、コアネットワーク要素は、テレコミュニケーションアプリケーションサーバー(TAS)、移動交換サーバーMSS、移動管理エンティティMME、サービングGPRSサポートノードSGSNであってもよいし、或いはコールセッションコントロールファンクションCSCF、ホーム加入者サーバーHSS、ゲートウェイGPRSサポートノードGGSN、等のいずれでもよい。
本発明の規範的実施形態をより完全に理解するため、添付図面を参照して以下に詳細に説明する。
本発明のある実施形態による方法を示す。 本発明のある実施形態による装置を概略的に示す。 FUがセットに編成される本発明のある実施形態によるネットワーク要素構成を概略的に示す。 本発明のある実施形態によるランダム化アルゴリズムの概念図である。 本発明のある実施形態によるアルゴリズムのシグナリングチャートを示す。 新たなセットをスケールアウトできるときの負荷状態において本発明のある実施形態による管理を概略的に示す(オーバーフロー)。 最後の(アクティブな)セットのプライオリティ数を増加できるときの負荷状態において本発明のある実施形態による管理を概略的に示す(オーバーフロー)。 最後の(アクティブな)セットのプライオリティ数を減少できるときの負荷状態において本発明のある実施形態による管理を概略的に示す(バックフロー)。 最後の(アクティブな)セットをスケールインできるときの負荷状態において本発明のある実施形態による管理を概略的に示す(バックフロー)。 図7a及び7bで構成され、本発明のある実施形態によるフローチャートを示す。
本発明の規範的観点を以下に説明する。より詳細には、本発明の規範的観点は、特定の非限定例、及び本発明の想像し得る実施形態と現在考えられるものを参照して以下に説明する。当業者であれば、本発明は、それらの例に限定されず、より広く適用できることが明らかであろう。
本発明及びその実施形態の以下の説明は、主として、ある規範的ネットワーク構成及び配備に対して非限定例として使用される仕様を参照することに注意されたい。即ち、本発明及びその実施形態は、主として、例えば、ある規範的ネットワーク構成及び配備に対して非限定例として使用される3GPP仕様に関して説明する。従って、ここに述べる規範的実施形態の説明は、それに直接関連した用語を特に参照する。そのような用語は、ここに述べる非限定例の文脈にのみ使用されるもので、当然、本発明を何ら限定するものではない。むしろ、他のネットワーク構成又はシステム配備、等も、ここに述べる特徴に適合する限り使用できる。
以下、本発明の種々の実施形態及び具現化、並びにその観点又は実施形態は、多数の代替物を使用して説明する。一般的に、あるニーズ及び制約に基づき、ここに述べる全ての代替物は、単独で与えられてもよいし、又は想像可能な組み合せ(種々の代替物の個々の特徴の組み合せも含めて)で与えられてもよいことに注意されたい。
特に、以下の例、態様及び実施形態は、例示に過ぎないことを理解されたい。本明細書は、多数の位置で、「一」、「1つの」又は「幾つかの」規範的態様又は実施形態を参照するが、これは、そのような各参照が同じ規範的態様又は実施形態に対するものであるか又は特徴が単一の規範的態様又は実施形態のみに適用されることを必ずしも意味していない。又、異なる実施形態の単一の特徴を結合して他の実施形態を形成してもよい。更に、「備える(comprising)」及び「含む(including)」という語は、ここに述べる実施形態を、ここに述べた特徴のみで構成されるように限定するものでなく、且つそのような規範的態様及び実施形態は、特にここに述べない特徴、構造、ユニット、モジュール、等も含むことを理解しなければならない。
一般的に、テレコミュニケーションネットワークは、複数のネットワーク要素、例えば、ベースステーションBTS、進化型NodeB(eNB、即ち、LTE環境におけるベースステーション)、ユーザ装置UE(例えば、移動電話、スマートホン、コンピュータ、等)、コントローラ、インターフェイス、等、及び特に、テレコミュニケーションサービスの提供に使用される装置を備えている。
更に、ここに述べるコアネットワーク要素は、例えば、テレコミュニケーションアプリケーションサーバー(TAS)、移動交換サーバー(MSS)、移動管理エンティティ(MME)、サービングGPRSサポートノード(SGSN)、又はコール処理ノードであるが、これに限定されないことに注意されたい。
ここに述べる要素の一般的な機能及び相互接続は、実際のネットワークタイプにもよるが、当業者に良く知られ且つ対応仕様に規定されたものであり、従って、その詳細は、ここでは省略する。しかしながら、多数の付加的なネットワーク要素及びシグナリングリンクは、以下に詳細に述べるものの他に、ベースステーション及び通信ネットワークへの又はそれらからの通信に使用できることに注意されたい。
既に述べたように、現在の負荷バランスアルゴリズムは、VMのような幾つかのコンピューティングリソースをプライオリティ決めしなければならないことを伴うロジックはサポートしない。しかしながら、そのようなアルゴリズムは、高次のコンピューティングリソースに負荷を掛け、そしてそれら高次のコンピューティングリソースが所与の負荷レベルに到達した場合だけ他の低次のコンピューティングリソースへトラフィックをオーバーフローさせることができる。そのようなアルゴリズムは、多数の状況において役立つ。例えば、クラウドベースの環境では、システムは、VMのような幾つかのコンピューティングリソースに負荷を集中させ、そして必要なときだけ、VMのような他のコンピューティングリソースへ負荷をオーバーフローさせることができ、これは、クラウドにおいてより顕著な動的リソース管理を可能にし、不必要なコンピューティングリソース(CR)を他の目的で使用できるか又はそれらを遮断することもできる。
又、そのようなアルゴリズムは、セッションの長さ(例えば、コール時間巾)に作用を及ぼすことができずに、長いセッションがシステムからのコンピューティングリソースの率直な除去を妨げる状況においても役立つ。そのような新たなアルゴリズムは、長いセッションがそれら低次のコンピューティングリソースに低い確率で維持されることを意味する。というのは、コンピューティングリソースの除去のために非常に長いコールを強制的に切断することは望ましくないからである。
更に、クラウド環境が本発明の1つのアプリケーションフィールドであっても、本発明は、クラウド環境のみに限定されず、非クラウド環境にも適用できることに注意されたい。更に、バーチャルマシン(VM)は、本発明の幾つかの観点によるコンピューティングリソースの一例であるが、本発明は、それに限定されない。
図1は、本開示の幾つかの規範的態様による方法を示す。
ステップS11において、コアネットワーク要素のコンピューティングリソースがセットへと編成され、第1セット(即ち、基本的増分)は、常に、アクティブである。
次いで、ステップS12において、セットの負荷に対して上限スレッシュホールド及び下限スレッシュホールドが設定され、動作中のセットは、動作中のセットの平均負荷が上限スレッシュホールドに到達する限り負荷が掛けられ、そして上限スレッシュホールドを越えると、新たなセットがアクチベートされ、一方、最後にアクチベートされたセットの負荷が下限スレッシュホールドより下がると、最後にアクチベートされたセットがデアクチベートされる。
更に、ステップS13において、プライオリティ数が各セットに指定される。この指定されるプライオリティ数は、各セットに対する最大の実現可能なプライオリティでなければならない。
更に、ステップS14において、要求配布をランダム化するためのランダム数のインターバルが、アクティブなセットのコンピューティングリソースに割り当てられるサブインターバルでセグメント化され、各サブインターバルの長さは、各コンピューティングリソースのセットのプライオリティ数に基づいて決定される。
更に、ステップS15において、前記インターバルからのランダム数が到来する要求に割り当てられ、そして前記割り当てられたランダム数を含むサブインターバルに属するコンピューティングリソースに前記要求が転送される。
図2は、本開示の幾つかの規範的態様による(テレ)コミュニケーションネットワーク要素に含まれる要素の構成を示す図で、この要素は、本開示の規範的態様の幾つかに関連して述べるようにクラウドベース環境においてコアネットワーク要素のリソース管理を実施するよう構成される。この実施形態は、ネットワーク要素において又はネットワーク要素により具現化される。ネットワーク要素は、チップセット、チップ、モジュール、等の要素又は機能を含み、これは、ネットワーク要素の一部分であってもよいし、或いは個別の要素としてネットワーク要素、バーチャルマシン、等にアタッチされてもよい。各ブロック及びその組み合せは、種々の手段又はそれらの組み合せ、例えば、ハードウェア、ソフトウェア、ファームウェア、1つ以上のプロセッサ及び/又は回路により実施されてもよいことを理解されたい。
図2に示すネットワーク要素は、処理機能、制御ユニット又はプロセッサ21、例えば、CPU、等を含み、これは、ネットワーク要素制御手順に関連したプログラム等により与えられるインストラクションを実行するのに適したものである。
プロセッサ21は、クラウドベース環境におけるコアネットワーク要素の前記リソース管理に関連した処理を実行するように構成される。特に、プロセッサ21は、コアネットワーク要素のコンピューティングリソースをセットへと編成するように構成された編成ユニットとしてサブ部分210を備え、ここで、第1セットは、常に、アクティブである。この部分210は、図1のS11による処理を遂行するように構成される。更に、プロセッサ21は、前記セットの負荷に対して上限スレッシュホールド及び下限スレッシュホールドを設定するように構成された設定ユニットとして使用可能なサブ部分211を備え、動作中のセットは、動作中のセットの平均負荷が上限スレッシュホールドに到達する限り負荷が掛けられ、そして上限スレッシュホールドを越えると、新たなセットがアクチベートされ、一方、その負荷が下限スレッシュホールドより下がると、その最後にアクチベートされたセットがデアクチベートされる。この部分211は、図1のS12による処理を遂行するように構成される。更に、プロセッサ21は、プライオリティ数を各セットに指定するように構成された指定ユニットとして使用可能なサブ部分212を備えている。この部分212は、図1のS13による処理を遂行するように構成される。更に、プロセッサ21は、要求配布をランダム化するためのランダム数のインターバルを、アクティブなセットのコンピューティングリソースに割り当てられるサブインターバルでセグメント化するように構成されたセグメント化ユニットとして使用可能なサブ部分213を備え、各サブインターバルの長さは、各コンピューティングリソースのセットのプライオリティ数に基づいて決定される。この部分213は、図1のS14による処理を遂行するように構成される。更に、プロセッサ21は、前記インターバルからのランダム数を到来する要求に割り当て、そしてその割り当てられたランダム数を含むサブインターバルに属するコンピューティングリソースにその要求を転送するように構成された処理ユニットとして使用可能なサブ部分214を備えている。この部分214は、図1のS15による処理を遂行するように構成される。
参照符号22及び23は、プロセッサ21に接続されたトランシーバ又は入力/出力(I/O)ユニット(インターフェイス)を表わす。I/Oユニット22は、例えば、ネットワーク要素と通信するために使用される。I/Oユニット23は、例えば、管理アプリケーションと通信するために使用される。参照符号24は、例えば、プロセッサ21により実行されるべきプログラム及びデータを記憶するために使用可能な、及び/又はプロセッサ21のワーキングストレージとしても使用可能なメモリを表わす。
本発明の幾つかの実施形態によれば、先ず、コンピューティングリソースがセットへと編成される。そのようなセットは、理論的に、いかなる数のコンピューティングリソースを含んでもよいが、せいぜい、完全に利用可能な程度である。しかしながら、実際には、本発明の範囲を限定することなく、基本的増分は、最小値が2であり、他の増分は、少なくとも1つのFUを有する。一方では、新たにアクチベートされたコンピューティングリソースが、コンピューティングリソースをセットへと編成することで直ちに(スケールアウト後に)過負荷となる機会を最小にすることができる。他方では、一度により多くのCPUリソースを管理することができる。
基本的増分とは、常に存在し且つ常にアクティブであるセットである。
この種の構成が図3に示されている。特に、図3は、コンピューティングリソース(CR)がバーチャル化コアネットワーク要素においてセットS1からSnへと編成され、それらセットが複数の負荷バランサー、例えば、LB−0からLB−mに接続された本発明の幾つかの実施形態によるネットワーク要素構成を概略的に示す。LBは、例えば、マルチレイヤサイトスイッチにより切り換えることができる。
第2のステップは、セットの負荷の上限スレッシュホールド(例えば、LUT=60%)を固定する。その目標は、平均負荷が所与の上限スレッシュホールド(LUT)に到達する限りアクティブなセットに負荷がかかるようにすることである。これは、非常に有用である。というのは、新たなセットは、アクティブなセットの平均負荷に関してこの所与の上限を越えた場合及びその場合だけアクティブな状態に入れられるからである。
同様に、セットの負荷の下限スレッシュホールド(例えば、LLT=10又は20%)を設定する。これも非常に有用である。というのは、最後の(アクティブな)セットは、その最後のセットの負荷がこの所与の下限スレッシュホールドより低い場合及びその場合だけインアクティブな状態に入れられるからである。
更に、全てのセットにはプライオリティ数が与えられる。従って、次の条件の少なくとも1つを満足しなければならない。第1に、各コンピューティングリソースは、そのセット内に同じプライオリティ数を有するが、コンピューティングリソースのプライオリティ数は、リアルタイムトラフィックに基づいて動的に変化可能でもある。コンピューティングリソースのプライオリティ数が大きいほど、そのコンピューティングリソースに要求を指定する確率が高くなる。従って、CRのセットがインアクティブ状態にあるか又は既にスケールインされた場合には、このプライオリティ数がゼロとなる。あるセットが下限に到達し、即ち下限スレッシュホールドより下がる場合には、そのセットがデアクチベートされることになり、即ちそのセットにはそれ以上の負荷が向けられないことを意味する。更に、単一セットの負荷が上限スレッシュホールド(LUT)に到達する場合には、そのプライオリティ数が最大Mとなる(ここで、Mは、既にLUTに到達した全てのセットに共通である)。Mは、構成可能なパラメータである。更に、新たなセットに負荷がかかる場合には、そのプライオリティ数が(リアルタイムトラフィックに基づき)Mまで動的に変化可能である。ここに示す実施形態の場合には、プライオリティ数の出発値がM/3であるが、必要に応じて調整することができる。
即ち、プライオリティ数は、必要に応じて調整することができ、例えば、異なるスケールを使用することができる。ここに示す実施形態では、最大Mが所与の上限スレッシュホールドに基づいて60に設定される。
最後に、要求配布がランダム化される。本発明の幾つかの実施形態によるランダム化プロセスが図4に示されている。
図4において、最上行は、到来する要求を示す。インターバルのそのような細分化、例えば、[0、1]は、図4の下部に見ることができ、各サブインターバルは、異なるコンピューティングリソース(CR)に属する。CRの各陰影は、それらが属するセットを指示する。
サブインターバルの長さは、次の式によりリアルタイムで決定される。


即ち、CRのプライオリティ数が大きいほど、それに対応するサブインターバルが大きくなる。到来する要求は、ランダムに配布される。というのは、各要求が、例えば、[0、1]からランダム数を得るからである。要求は、割り当てられたランダム数を含むサブインターバルに属するCRへ転送される。
以上を要約すると、アルゴリズムの理論的なシグナリングチャートを図5に見ることができる。
ステップ1において、到来する要求、例えば、SIP招待メッセージは、負荷バランサーの外部インターフェイスへ転送される。
負荷バランサープロセスにおいて次のステップが実行される。特に、ステップ2では、その要求に対するランダム数が発生される。次いで、ステップ3において、その発生された数を含むサブインターバルが選択される。ステップ4において、その選択されたサブインターバルに属するCRが選択される。その後、ステップ5において、負荷バランサーの内部インターフェイスからその選択されたCRへ要求が転送される。最後に、ステップ6において、その選択されたCRにより要求が取り扱われる。
以上に基づき、幾つかの実施形態による本発明は、図6aないし6dに示す次のような負荷状態を管理することができる。
図6aは、新たなセットをスケールアウトできるときの負荷状態において本発明の幾つかの実施形態による管理を概略的に示す(オーバーフロー)。特に、図7aに見られるように、全てのアクティブなセットS1ないしSkの負荷が所与の上限スレッシュホールドLUTに到達し、それ故、新たなセットへのオーバーフロートラフィックが遂行される。即ち、スレッシュホールドを越えるトラフィックは、新たなセットSk+1へ流し込まねばならない。
図6bは、最後の(アクティブな)セットのプライオリティ数を増加できるときの負荷状態において本発明の幾つかの実施形態による管理を概略的に示す(オーバーフロー)。特に、図7bに示す場合には、負荷が増加し(L↑)、それ故、最後のセットのプライオリティ(数)を増加することができる。即ち、最後のセットは、より多くのトラフィックを管理しなければならない。
図6cは、最後の(アクティブな)セットのプライオリティ数を減少できるときの負荷状態において本発明の幾つかの実施形態による管理を概略的に示す(バックフロー)。特に、図7cに示す場合から明らかなように、負荷が減少し(L↓)、それ故、最後のセットのプライオリティ(数)を減少することができる。即ち、最後のセットは、少ないトラフィックを管理すればよい。
図6dは、最後の(アクティブな)セットをスケールインできるときの負荷状態において本発明の幾つかの実施形態による管理を概略的に示す(バックフロー)。即ち、最後のアクティブなセットの負荷は、所与の下限スレッシュホールドLLTより低く、それ故、最後のセットSk+1は、デアクチベートすることができる。
図6aないし6dに示すこの方法は、両方向性の変形リーキーバケット(leaky bucket)モデルのように考えることができる。負荷をオーバーフローさせそして同様にバックフローさせられることに注意するのが非常に重要である。又、到来する要求は、アクティブなセット間に均一に配布されないことにも触れる価値がある。最後のセットは、典型的に、僅かな要求しか取り扱わず、それ故、最後のセットは、スケールインする(速く空にする)ことが明らかな目標である。
図7a及び7bより成る図7は、本発明のある実施形態によるフローチャートである。
手順を開始した後に、基本的増分がアクチベートされる。ステップ1において、全てのアクティブなセットのリソースの利用が監視される。ステップ2において、基本的増分だけがアクティブであるかどうか決定される。基本的増分のみがアクティブである(S2がイエス)ときには、ステップ3において、基本的セットのリソースの利用が上限スレッシュホールドに到達したかどうか決定される。もしそうでなければ(S3がノー)、プロセスは、ステップ1へ戻り、一方、スレッシュホールドに到達した(S3がイエス)場合には、ステップ4において、プライオリティ数(pn)M/3をもつ新たなセットがアクチベートされ、そしてプロセスは、ステップ1へ戻る。又、他のセットがアクティブであるときには(S2がノー)、ステップ5において、全てのアクティブなセットのリソースの利用が上限スレッシュホールドに到達したかどうか決定される。その場合には(S5がイエス)、ステップS6において、依然アクチベートできる新たなセットが更にあるかどうか決定される。もしそうであれば(S6がイエス)、プロセスは、ステップ4へ進む。さもなければ、アクチベートできるセットが他になければ(S6がノー)、全てのセットが既にアクチベートされている。ステップ7において、上限スレッシュホールドを最大設計スレッシュホールドへ増加され、そしてシステムが最大容量に到達したというアラームが発せられる。プロセスは、ステップ1へ戻る。
ステップ5において「ノー」が決定された場合には、ここで図7bを参照すれば、ステップ8において、セットのリソースの利用が上限スレッシュホールドに到達するかどうか決定される。そのような場合には(S8がイエス)、ステップ9において、最後にアクチベートされたセットのプライオリティ数がM/6で増加され、そしてプロセスは、ステップ1へ戻る。さもなければ(S8がノー)、ステップ10において、最後にアクチベートされたセットのリソースの利用が下限スレッシュホールドより下であるかどうか決定される。そのような場合には(S10がイエス)、最後にアクチベートされたセットがステップ11においてデアクチベートされ、そしてプロセスは、ステップ1へ戻る。さもなければ(S10がノー)、ステップ12において、リソースの利用が減少しているかどうか決定される。もしそうであれば(S12がイエス)、ステップ13において、最後にアクチベートされたセットのプライオリティ数がM/6で減少され、そしてプロセスは、ステップ1へ戻る。さもなければ(S12がノー)、プロセスは、直ちにステップ1へ戻る。
本発明は、分散型構造をもつ全てのネットワーク要素へ拡張することができる。即ち、多数のコンピュータリソースを備えた分散型システムに適用することができる。
基本的に、本発明によるアルゴリズムを使用する主要な効果がある。一方では、既存のリソースの良好な利用が考えられる。更に、スイッチオフ不要のコンピューティングリソースによりエネルギーを節約できるか、又は空きコンピューティングリソースを他の処理に割り当てることができる。更に、タスクの取り扱いは、よりコスト効率の良いものにすることができる。
最大の効果は、必要量のリソースしか使用しないことである。低負荷時にシステムからコンピューティングリソース(コンピューティングリソースのセット)を除去することが決定されると、低次のコンピューティングリソースは、高次のコンピューティングリソースより取り扱うトラフィックが少ないことが保証される。従って、最も低次のコンピューティングリソースは、率直な仕方でより速く空にすることができ、これは、サービスの継続性を許す。
本発明の実施形態は、ソフトウェア、ハードウェア、アプリケーションロジック又はそれらの組み合せにおいて回路として実施されることに注意されたい。規範的実施形態において、アプリケーションロジック、ソフトウェア又はインストラクションセットは、種々の従来のコンピュータ読み取り可能な媒体のいずれか1つに維持される。この文書の文脈において、「コンピュータ読み取り可能な媒体」は、インストラクション実行システム、装置又はデバイス、例えば、コンピュータ又はスマートホン又はユーザ装置により又はそれに関連して使用するためのインストラクションを含み、記憶し、通信し、伝播し或いは搬送することのできる媒体又は手段である。
本出願で使用される「回路」という語は、次の全てを指す。(a)ハードウェアのみの回路実施(例えば、アナログ及び/又はデジタル回路のみでの実施);(b)回路及びソフトウェア(及び/又はファームウェア)の組み合せ、例えば、(該当するもの)(i)プロセッサの組み合せ又は(ii)プロセッサ/ソフトウェアの部分(デジタル信号プロセッサを含む)、ソフトウェア、及びメモリで、一緒に働いて、移動電話又はサーバーのような装置が種々の機能を遂行するようにさせるもの;及び(c)マイクロプロセッサ又はマイクロプロセッサの一部分のような回路で、ソフトウェア又はファームウェアが物理的に存在しなくても動作のためにソフトウェア又はファームウェアを要求するもの。「回路」のこの定義は、特許請求の範囲も含めて本出願におけるこの用語の全ての使用に適用される。又、更に別の例として、本出願で使用される「回路」という語は、単なるプロセッサ(又は多数のプロセッサ)或いはプロセッサの一部分及びそれに(又はそれらに)付随するソフトウェア及び/又はファームウェアも網羅する。又、「回路」という語は、例えば、請求項の特定の要素に適用する場合には、基本帯域集積回路、又は移動電話のためのアプリケーションプロセッサ集積回路、或いはサーバーにおける同様の集積回路、又はセルラーネットワーク装置、又は他のネットワーク装置も網羅する。
本発明は、特に、移動通信、例えば、GSM(登録商標)、3G、LTETM又はLTA−アドバンストのもとの環境に関連するが、これに限定されず、そしてコントローラ、ベースステーション、ユーザ装置、又はスマートホン、或いはそのようなネットワークに接続可能なコンピュータにおいて効果的に実施することができる。即ち、例えば、接続される装置へのチップセットとして/チップセットにおいて実施することができる。
要望があれば、ここに述べる異なる機能が異なる順序で及び/又は互いに同時に遂行されてもよい。更に、要望があれば、上述した機能の1つ以上は、任意でもよいし、結合されてもよい。
本発明の種々の観点は、独立請求項に規定するが、本発明の他の観点は、単に請求項に明示的に規定する組み合せではなく、ここに述べる実施形態及び/又は従属請求項からの特徴と、独立請求項の特徴との他の組み合せも包含する。
又、本発明の規範的実施形態を上述したが、それらの説明は、限定の感覚で考えてはならないことにも注意されたい。むしろ、特許請求の範囲に規定された本発明の範囲から逸脱せずに多数の変更や修正がなされ得る。
本明細書で使用する略語の意味は、次の通りである。
CPU:中央処理ユニット
CR:コンピューティングリソース(例えば、ネットワーク要素又はバーチャルマシンの機能的ユニット)
HW:ハードウェア
IP:インターネットプロトコル
IP BB:IPバックボーン
L:負荷
LB:負荷バランサー
LT:下限負荷スレッシュホールド
UT:上限負荷スレッシュホールド
NE:ネットワーク要素
MGW:メディアゲートウェイ
MSC:移動交換センター
MSS:MSCサーバー
TAS:テレコミュニケーション(電話とも称される)アプリケーションサーバー
i:i番目のセット
SR:サイトルーター
VM:バーチャルマシン
更に、次の用語は、本明細書に使用されるもので、次のように理解される。
プール:コンピューティングリソースのグループで、ここでは、「セット」という語が使用される
pn:プライオリティ数
セット:コンピューティングリソースのグループ
アクティブなセット:要求を受け取りそしてコールを取り扱えるCRのセット
インアクティブなセット:進行中のコールだけは取り扱えるが、新たな要求を受け容れることが許されないCRのセット
20:ネットワーク要素
21:プロセッサ
22、23:I/Oユニット
210、211、212、213、214:サブ部分

Claims (14)

  1. コアネットワーク要素における分散型システム内のリソース管理方法において、
    コアネットワーク要素のコンピューティングリソースをセットへと編成し、第1セットは、常に、アクティブであり;
    前記セットの負荷に対して上限スレッシュホールド及び下限スレッシュホールドを設定し、動作中のセットは、動作中のセットの平均負荷が上限スレッシュホールドに到達する限り負荷が掛けられ、そして上限スレッシュホールドを越えると、新たなセットがアクチベートされ、一方、最後にアクチベートされたセットの負荷が下限スレッシュホールドより下がると、最後にアクチベートされたセットがデアクチベートされ;
    プライオリティ数を各セットに指定し;
    要求配布をランダム化するためのランダム数のインターバルを、アクティブなセットのコンピューティングリソースに割り当てられるサブインターバルでセグメント化し、各サブインターバルの長さは、各コンピューティングリソースのセットのプライオリティ数に基づいて決定され;及び
    前記インターバルからのランダム数を到来する要求に割り当て、そして前記割り当てられたランダム数を含むサブインターバルに属するコンピューティングリソースに前記要求を転送する;
    ことを含む方法。
  2. プライオリティ数が大きいほど、サブインターバルの長さが長い、請求項1に記載の方法。
  3. コンピューティングリソースのセットがインアクティブ状態であるか又は既にスケールインされたときには、そのプライオリティ数がゼロプライオリティを指示する、請求項1又は2に記載の方法。
  4. 単一セットの負荷が上限スレッシュホールドに到達する場合には、そのプライオリティ数が最大となり、そのセットが、最も高いプライオリティの到来要求を受け取ることを指示する、請求項1から3のいずれかに記載の方法。
  5. 新たなセットに負荷がかかる場合には、そのプライオリティ数が、リアルタイムトラフィックに基づいて、プリセット出発値からその最大値まで動的に変化する、請求項1から4のいずれかに記載の方法。
  6. 前記コアネットワーク要素は、テレコミュニケーションアプリケーションサーバー、移動交換サーバー、移動管理エンティティ、サービングGPRSサポートノード、又はコール処理ノードである、請求項1から5のいずれかに記載の方法。
  7. コアネットワーク要素における分散型システム内のリソース管理装置において、
    少なくとも1つのプロセッサ、及び
    前記プロセッサにより実行されるべきインストラクションを記憶するための少なくとも1つのメモリ、
    を備え、前記少なくとも1つのメモリ及びインストラクションは、少なくとも1つのプロセッサとで、装置が、少なくとも、
    コアネットワーク要素のコンピューティングリソースをセットへと編成し、第1セットは、常に、アクティブであり;
    前記セットの負荷に対して上限スレッシュホールド及び下限スレッシュホールドを設定し、動作中のセットは、動作中のセットの平均負荷が上限スレッシュホールドに到達する限り負荷が掛けられ、そして上限スレッシュホールドを越えると、新たなセットがアクチベートされ、一方、最後にアクチベートされたセットの負荷が下限スレッシュホールドより下がると、最後にアクチベートされたセットがデアクチベートされ;
    プライオリティ数を各セットに指定する;
    ことを行うようにさせるよう構成され、更に、
    要求配布をランダム化するためのランダム数のインターバルをアクティブなセットのコンピューティングリソースに割り当てられるサブインターバルでセグメント化するように構成されたセグメント化ユニットを備え、各サブインターバルの長さは、各コンピューティングリソースのセットのプライオリティ数に基づいて決定され;及び
    前記インターバルからのランダム数を到来する要求に割り当て、そして前記割り当てられたランダム数を含むサブインターバルに属するコンピューティングリソースに前記要求を転送する;
    ことを行うようにさせるよう構成された装置。
  8. プライオリティ数が大きいほど、サブインターバルの長さが長い、請求項7に記載の装置。
  9. コンピューティングリソースのセットがインアクティブ状態であるか又は既にスケールインされたときには、そのプライオリティ数がゼロプライオリティを指示する、請求項7又は8に記載の装置。
  10. 単一セットの負荷が上限スレッシュホールドに到達する場合には、そのプライオリティ数が最大となり、そのセットが、最も高いプライオリティの到来要求を受け取ることを指示する、請求項7から9のいずれかに記載の装置。
  11. 新たなセットに負荷がかかる場合には、そのプライオリティ数が、リアルタイムトラフィックに基づいて、プリセット出発値からその最大値まで動的に変化する、請求項7から10のいずれかに記載の装置。
  12. 前記コアネットワーク要素は、テレコミュニケーションアプリケーションサーバー、移動交換サーバー、移動管理エンティティ、サービングGPRSサポートノード、又はコール処理ノードである、請求項7から11のいずれかに記載の装置。
  13. コンピュータのためのコンピュータプログラム製品において、その製品がコンピュータで実行されるときに、
    コアネットワーク要素のコンピューティングリソースをセットへと編成し、第1セットは、常に、アクティブであり;
    前記セットの負荷に対して上限スレッシュホールド及び下限スレッシュホールドを設定し、動作中のセットは、動作中のセットの平均負荷が上限スレッシュホールドに到達する限り負荷が掛けられ、そして上限スレッシュホールドを越えると、新たなセットがアクチベートされ、一方、最後にアクチベートされたセットの負荷が下限スレッシュホールドより下がると、最後にアクチベートされたセットがデアクチベートされ;
    プライオリティ数を各セットに指定し;
    要求配布をランダム化するためのランダム数のインターバルをアクティブなセットのコンピューティングリソースに割り当てられるサブインターバルでセグメント化し、各サブインターバルの長さは、各コンピューティングリソースのセットのプライオリティ数に基づいて決定され;及び
    前記インターバルからのランダム数を到来する要求に割り当て、そして前記割り当てられたランダム数を含むサブインターバルに属するコンピューティングリソースに前記要求を転送する;
    というステップを遂行するためのソフトウェアコード部分を含むコンピュータプログラム製品。
  14. 前記コンピュータプログラム製品は、前記ソフトウェアコード部分が記憶されるコンピュータ読み取り可能な媒体を含み、
    前記コンピュータ読み取り可能な媒体は、コンピュータの内部メモリに直接ロード可能であり、及び/又はアップロード、ダウンロード、及びプッシュ手順の少なくとも1つによりネットワークを経て送信可能である、請求項13に記載のコンピュータプログラム製品。
JP2017528180A 2014-11-25 2014-11-25 コアネットワーク要素における最適なリソース管理 Expired - Fee Related JP6487045B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2014/075539 WO2016082866A1 (en) 2014-11-25 2014-11-25 Optimized resource management in core network elements

Publications (2)

Publication Number Publication Date
JP2018504008A true JP2018504008A (ja) 2018-02-08
JP6487045B2 JP6487045B2 (ja) 2019-03-20

Family

ID=51999414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017528180A Expired - Fee Related JP6487045B2 (ja) 2014-11-25 2014-11-25 コアネットワーク要素における最適なリソース管理

Country Status (7)

Country Link
US (1) US10374832B2 (ja)
EP (1) EP3224985B1 (ja)
JP (1) JP6487045B2 (ja)
KR (1) KR20170088407A (ja)
CN (1) CN107210925B (ja)
PL (1) PL3224985T3 (ja)
WO (1) WO2016082866A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11374876B2 (en) * 2019-10-04 2022-06-28 Samsung Electronics Co., Ltd. Intelligent cloud platform to host resource efficient edge network function

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000092052A (ja) * 1998-09-08 2000-03-31 Fujitsu Ltd ネットワークサーバ負荷検出装置、割当装置および方法
JP2002251344A (ja) * 2001-02-22 2002-09-06 Fujitsu Ltd サービス管理装置
JP2006301749A (ja) * 2005-04-18 2006-11-02 Hitachi Information Technology Co Ltd サーバ装置
WO2010050041A1 (ja) * 2008-10-31 2010-05-06 株式会社日立製作所 計算機システム
EP2570922A1 (en) * 2011-09-13 2013-03-20 Alcatel Lucent Method and system for managing an elastic server farm

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8024736B1 (en) * 2005-01-28 2011-09-20 Hewlett-Packard Development Company, L.P. System for controlling a distribution of unutilized computer resources
ES2376385T3 (es) * 2008-04-16 2012-03-13 Telecom Italia S.P.A. Procedimiento y sistema para configurar din�?micamente una red de telecomunicaciones.
CN102415068B (zh) * 2009-03-02 2015-09-02 特维里奥公司 用于多租户电话网络的方法和系统
US20110078303A1 (en) * 2009-09-30 2011-03-31 Alcatel-Lucent Usa Inc. Dynamic load balancing and scaling of allocated cloud resources in an enterprise network
CN102547851B (zh) * 2010-12-15 2016-08-03 国网山东省电力公司烟台供电公司 一种无线资源管理方法及系统
CN102143484A (zh) * 2010-12-20 2011-08-03 华为技术有限公司 资源分配处理方法、装置和网络服务系统
US8885586B2 (en) * 2011-03-02 2014-11-11 Blackbird Technology Holdings, Inc. Method and apparatus for query-based congestion control
US20120233313A1 (en) * 2011-03-11 2012-09-13 Hironobu Fukami Shared scaling server system
US9251033B2 (en) 2011-07-07 2016-02-02 Vce Company, Llc Automatic monitoring and just-in-time resource provisioning system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000092052A (ja) * 1998-09-08 2000-03-31 Fujitsu Ltd ネットワークサーバ負荷検出装置、割当装置および方法
JP2002251344A (ja) * 2001-02-22 2002-09-06 Fujitsu Ltd サービス管理装置
JP2006301749A (ja) * 2005-04-18 2006-11-02 Hitachi Information Technology Co Ltd サーバ装置
WO2010050041A1 (ja) * 2008-10-31 2010-05-06 株式会社日立製作所 計算機システム
EP2570922A1 (en) * 2011-09-13 2013-03-20 Alcatel Lucent Method and system for managing an elastic server farm

Also Published As

Publication number Publication date
PL3224985T3 (pl) 2019-07-31
EP3224985B1 (en) 2019-01-16
EP3224985A1 (en) 2017-10-04
JP6487045B2 (ja) 2019-03-20
US10374832B2 (en) 2019-08-06
KR20170088407A (ko) 2017-08-01
US20170264463A1 (en) 2017-09-14
WO2016082866A1 (en) 2016-06-02
CN107210925B (zh) 2020-07-14
CN107210925A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
CN112867050B (zh) 一种upf网元管理方法及系统
US20190253930A1 (en) Resource management apparatus, resource management method, and program
CN111052787A (zh) 基于5g环境中的利用水平的功能选择
WO2022093319A1 (en) Methods, systems, and computer readable media for rank processing for network function selection
US11044729B2 (en) Function scheduling method, device, and system
TWI634799B (zh) 資料流之負載平衡
WO2015133124A1 (ja) サーバ、制御装置、管理装置、通信システム、通信方法、制御方法、管理方法およびプログラム
WO2015133126A1 (ja) サーバ、制御装置、管理装置、通信システム、通信方法、制御方法、管理方法およびプログラム
US20160021572A1 (en) Method and system for optimized load balancing across distributed data plane processing entities for mobile core network
JP2017041868A (ja) ワイヤレス通信ネットワークにおけるx2リンク管理のための方法及びシステム
WO2017032203A1 (zh) 控制载波聚合ca下载速率的方法及基站
WO2012106906A1 (zh) 多核处理器的流分发方法及装置
CN112703774A (zh) 网络切片管理
WO2016202121A1 (zh) 一种负载均衡的方法及相关设备
JP7132950B2 (ja) 共有ranでのリソース制御
CN112753250A (zh) 网络切片注册管理
Papagianni et al. Rethinking service chain embedding for cellular network slicing
CN106792923B (zh) 一种配置QoS策略的方法及装置
WO2015133125A1 (ja) サーバ、制御装置、管理装置、通信システム、通信方法、制御方法、管理方法およびプログラム
JP6487045B2 (ja) コアネットワーク要素における最適なリソース管理
US9912559B2 (en) Method and apparatus for load-balancing gateway elements
WO2016010526A1 (en) Avoiding congestion in a cellular network via preemptive traffic management
JP2017147526A (ja) 帯域制御装置及び方法
WO2016000173A1 (zh) 一种管理网络的方法、mme及基站设备
JP6178748B2 (ja) ネットワーク選択システム及び方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180808

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190220

R150 Certificate of patent or registration of utility model

Ref document number: 6487045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees