JP2021083058A - 制御装置、制御方法、及びプログラム - Google Patents

制御装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP2021083058A
JP2021083058A JP2019211712A JP2019211712A JP2021083058A JP 2021083058 A JP2021083058 A JP 2021083058A JP 2019211712 A JP2019211712 A JP 2019211712A JP 2019211712 A JP2019211712 A JP 2019211712A JP 2021083058 A JP2021083058 A JP 2021083058A
Authority
JP
Japan
Prior art keywords
learning model
learning
performance
parameter
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019211712A
Other languages
English (en)
Other versions
JP7197460B2 (ja
Inventor
スンイル ムン
Seung Il Moon
スンイル ムン
優 塚本
Masaru Tsukamoto
優 塚本
忍 難波
Shinobu Nanba
忍 難波
晴久 平山
Haruhisa Hirayama
晴久 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Research Inc
Original Assignee
KDDI Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Research Inc filed Critical KDDI Research Inc
Priority to JP2019211712A priority Critical patent/JP7197460B2/ja
Publication of JP2021083058A publication Critical patent/JP2021083058A/ja
Application granted granted Critical
Publication of JP7197460B2 publication Critical patent/JP7197460B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)

Abstract

【課題】スライスの構成が動的に変更されるネットワークにおいて、複数の学習モデルを効率的に組み合わせて適用したアドミッション制御を実現する。【解決手段】アドミッションコントローラ42は、ネットワーク環境情報をモニタリングする。学習コントローラ42は、ネットワーク環境情報に基づいて、スライスのアドミッション制御用の第1学習モデル(AF)及び第2学習モデル(DRLF)の性能を解析して、それぞれの性能指標を求める。学習コントローラ42は、AFの性能指標についての前回の更新時からの改善量とDRLFの性能指標についての前回の更新時からの改善量とに応じて、それぞれの学習モデルに対応するパラメータptAF及びptDRLFを更新し、それらに応じて学習モデルを選択する。アドミッションコントローラ41は、選択された学習モデルを適用してアドミッション制御を行う。【選択図】図4

Description

本発明は、ネットワーク上に設定されるスライスのアドミッション制御を行う制御装置、制御方法及びプログラムに関するものである。
第3世代パートナーシッププロジェクト(3GPP)で規格化されている第5世代(5G)移動通信システムでは、要件が異なるサービスを経済的かつ柔軟に提供するために、ネットワークスライシングが検討されている。ネットワークスライシングが適用されるネットワークでは、スライス(ネットワークスライス)の構成が動的に変更される場合がありうる。この場合に、複数のスライスがそれぞれ要求されるサービス品質を満たせるように、十分な無線リソースを各スライスに対して確保する必要がある。これを実現するために、スライスのアドミッション制御が必要となる。
RAN(無線アクセスネットワーク)では、一般に、スライスに確保すべき無線リソースは、要求されるサービス品質、基地局機能の配置、セルのタイプ等に依存する。このため、スライスのアドミッション制御を実現するためには、短時間に膨大な量のデータを処理する必要がある。そこで、ネットワークスライシングが適用されるネットワークにおけるアドミッション制御及びリソース管理に対して、機械学習を適用する検討が行われている(非特許文献1〜4)。また、O−RAN Alliance(Open Radio Access Network Alliance)では、AI(人工知能)/ML(機械学習)を5Gのネットワークの様々なユースケースに適用するために、AI/MLの汎用的なワークフローやフレームワークを定義している。
Bin Han, et al., "A Markov Model of Slice Admission Control", IEEE Networking Letters, Vol. 1, No. 1, March 2019. Bin Han, et al., "A Utility-Driven Multi-Queue Admission Control Solution for Network Slicing", IEEE INFOCOM 2019 - IEEE Conference on Computer Communications, April 29-May 2, 2019. Mu Yan, et al., "Intelligent Resource Scheduling for 5G Radio Access Network Slicing", IEEE Trancactransactions on Vehicular Technology, VOL. 68, NO. 8, August, 2019. Muhammad Rehan Raza, et al., "Reinforcement Learning for Slicing in a 5G Flexible RAN", Journal of Lightwave Technology (Volume: 37, Issue: 20, October 15, 2019).
上述のアドミッション制御やO−RANでの検討では、ユースケースに応じて機械学習を適用することが想定されている。即ち、ユースケースごとに、当該ユースケースに適した学習モデル(MLモデル)が用いられている。例えば、あるユースケースでは、マルコフ近似等の収束性の高い学習モデルが適用される。この場合、必要となるトレーニング時間は短いものの、高い性能(例えば、無線リソースの使用率)を期待することはできない。一方、別のユースケースでは、深層強化学習(DRL)等の収束性は低いが性能の高い学習モデルが適用される。この場合、高い性能は期待できるものの、必要となるトレーニング時間が長くなる。しかし、スライスの構成が動的に変更されるネットワークにおいて、アドミッション制御の性能を向上させつつ、学習モデルに基づく学習に要する時間を短くするためには、より適切に学習モデルを選択する必要がある。
本発明は、上述の課題に鑑みてなされたものである。本発明は、スライスの構成が動的に変更されるネットワークにおいて、複数の学習モデルを効率的に組み合わせて適用したアドミッション制御を実現する技術を提供することを目的としている。
本発明の一態様の係る制御装置は、1つ以上の基地局を含むネットワーク上に設定されるスライスのアドミッション制御を行う制御装置であって、ネットワーク環境情報をモニタリングするモニタリング手段と、前記モニタリングにより得られた前記ネットワーク環境情報に基づいて、スライスのアドミッション制御用の第1学習モデル及び第2学習モデルの性能をそれぞれ解析することで、前記第1学習モデルの性能を示す第1性能指標と前記第2学習モデルの性能を示す第2性能指標とを求める解析手段と、前記解析手段により求められた前記第1性能指標についての前回の更新時からの改善量と前記第2性能指標についての前回の更新時からの改善量とに応じて、前記第1学習モデルに対応する第1パラメータと前記第2学習モデルに対応する第2パラメータとを更新する更新手段と、前記更新手段により更新された前記第1パラメータ及び前記第2パラメータに応じて、前記第1学習モデル又は前記第2学習モデルを選択する選択手段と、前記選択手段により選択された学習モデルを適用して前記アドミッション制御を行う制御手段と、を備えることを特徴とする。
本発明の他の一態様に係る制御装置は、1つ以上の基地局を含むネットワーク上に設定されるスライスのアドミッション制御を行う制御装置であって、ネットワーク環境情報をモニタリングするモニタリング手段と、前記モニタリングにより得られた前記ネットワーク環境情報に基づいて、スライスのアドミッション制御用の複数の学習モデルの性能をそれぞれ解析することで、前記複数の学習モデルのそれぞれの性能を示す性能指標を求める解析手段と、前記解析手段により求められた、前記複数の学習モデルに対応する複数の性能指標のそれぞれについての前回の更新時からの改善量に応じて、前記複数の学習モデルにそれぞれ対応する複数のパラメータを更新する更新手段と、前記更新手段により更新された前記複数のパラメータに応じて、前記複数の学習モデルのうちのいずれか1つを選択する選択手段と、前記選択手段により選択された学習モデルを適用して前記アドミッション制御を行う制御手段と、を備えることを特徴とする。
本発明によれば、スライスの構成が動的に変更されるネットワークにおいて、複数の学習モデルを効率的に組み合わせて適用したアドミッション制御を実現することが可能になる。
通信システムの構成例を示す図 基地局の構成例を示す図 RICのハードウェア構成例を示すブロック図 RICの機能構成例を示すブロック図 スライスアドミッション制御の手順を示すフローチャート 学習モデルの選択処理の手順を示すフローチャート 学習モデルの性能の解析処理(S63)の手順を示すフローチャート スライスアドミッション制御に関連する通信シーケンス図 学習モデルの選択用パラメータの時間遷移の例を示す図
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一又は同様の構成には同一の参照番号を付し、重複した説明は省略する。
<通信システムの構成>
図1は、本発明の実施形態に係る通信システムの構成例を示す図である。本実施形態では、3GPP規格による、NR(New Radio)と称される5G移動通信システムを想定しているが、本発明は他の通信規格による移動通信システムに適用されてもよい。図1に示すように、本実施形態の通信システムは、RIC(RAN Intelligent Controller)10と1つ以上の基地局(BS)20(本例ではBS#1〜#3)とを含む。RICは、1つ以上のBS20を含む無線アクセスネットワーク(RAN)に対する制御装置として機能する。
BS20は、当該BSにより形成されるセル内の1つ以上の無線端末(UE:User Equipment)と無線通信を行うことで、各UEにサービスを提供する。各UEは、BS20を介してコアネットワーク(CN)にアクセスできるとともに、CNを介して外部ネットワーク(インターネット等)にアクセスできる。
本実施形態では、RIC10は、O−RAN Alliance(Open Radio Access Network Alliance)のRICとして構成され、CNに配置される。なお、RIC10は、CN内以外の位置(例えば、RAN内)に配置されてもよい。5G規格では、CNは、5Gコアネットワーク(5GC:5G Core)とも称され、基地局20は、gNBとも称される。
本実施形態では、BS20は、複数のスライス(サービス)を提供可能な基地局であり、即ち、複数のスライスによってBS20が共有される。例えば、サービスタイプとしてmMTC、URLLC及びeMBBに対応する複数のスライスが生成され、基地局20により形成されるセル内でそれらのスライスが提供されてもよい。
図2は、サービスタイプとしてmMTC、URLLC及びeMBBに対応するスライス1〜3が生成された、基地局20(基地局システム)の基本的な構成例を示す図である。本実施形態の基地局システムは、基地局機能の分割のために、複数のCU(Central Unit)、複数のDU(Distributed Unit)、及び1つのRU(Radio Unit)で構成されており、スライスごとに個別のCU及びDUが設けられている。基地局20は、スライスごとに設けられた、CNのデータ処理機能群であるUPF(User Plane Function)に接続される。基地局20は更に、CNの制御機能群であるCPF(Control Plane Function)に接続される。
CU及びDUは、RIC10によって制御及び管理がなされ、各スライスは、RIC10によって生成される。各DUは、基地局の機能のうちの無線リソースのスケジューリング機能(例えば、High MACの機能)を少なくとも有する。各CUは、接続された当該1つのDUが有する機能よりも上位レイヤの機能(例えば、SDAP/RRC及びPDCPの機能)を有する。RUは、基地局の機能のうちの電波の送受信機能(例えば、RFの機能)を少なくとも有する。図2の構成例では、RUは、スライス1〜3で共有されているが、スライスごとに個別にRUが設けられてもよい。また、各CUは、1つ以上のスライスに対応していてもよく、各DUも、1つ以上のスライスに対応していてもよい。
図2の構成例では、スライス(サービス)に応じて、対応するCU及びDUの配置が異なっている。CU及びDUの配置に依存して、基地局間連携(セル間協調)の性能、アプリケーションに与える遅延量、及びネットワークの利用効率等が異なる。このため、図2の構成例では、スライス(サービス)ごとに適したCU及びDUの配置がなされている。
スライス1(mMTCスライス)については、対応するCUは、CNが配置されているデータセンタに配置され、対応DUは、アンテナサイトに配置される。これは、統計多重効果によりデータセンタのコンピューティングリソースを効率的に利用可能にするためである。スライス2(URLLCスライス)については、対応するCUは、地方収容局に配置され、対応するDUは、アンテナサイトに配置される。これにより、低遅延サービスを提供するためのアプリケーションを有するエッジサーバであるEdge App(Edge Application Server)によるMEC(Multi-Access Edge Computing)を導入可能にしている。Edge Appは、対応するCUが配置される地方収容局に配置されてもよい。スライス3(eMBBスライス)については、対応するCU及びDUのいずれも、地方収容局に配置される。これにより、対応するDUを、それぞれ異なるアンテナサイトに配置される複数のRUと接続可能になり、接続されたRU間のセル間協調(例えば、CoMP(Coordinated Multi-Point Transmission/reception))が可能になる。
本実施形態では、RIC10は、RAN上の基地局20と通信可能に接続される。RIC10は、基地局20を構成する複数のCU及び複数のDUに対して、サービス要件に対応したスライス(図2の例ではスライス1〜3)を設定(生成)する。また、RIC10は、1つ以上の基地局20を含むネットワーク上に設定されるスライスのアドミッション制御を行うためのアドミッション制御モジュール11を有している。
<RICのハードウェア構成>
RIC10は、一例として、図3に示されるようなハードウェア構成を有する。具体的には、RIC10は、CPU101、ROM102、RAM103、HDD等の外部記憶デバイス104、及び通信デバイス105を有する。
RIC10では、例えばROM102、RAM103及び外部記憶デバイス104のいずれかに格納された、RIC10の各機能を実現するプログラムがCPU101によって実行される。なお、CPU101は、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、DSP(デジタルシグナルプロセッサ)等の1つ以上のプロセッサによって置き換えられてもよい。
通信デバイス105は、CPU101による制御下で、制御対象の基地局20等の外部装置との通信を行うための通信インタフェースである。RIC10は、それぞれ接続先が異なる複数の通信デバイス105を有していてもよい。
なお、RIC10は、後述する各機能を実行する専用のハードウェアを備えてもよいし、一部をハードウェアで実行し、プログラムを動作させるコンピュータでその他の部分を実行してもよい。また、全機能がコンピュータとプログラムにより実行されてもよい。
また、基地局20も、図3に示されるようなハードウェア構成を有しうる。基地局20は、通信デバイス105として、CNのUPF及びRIC10等の外部装置との通信のための通信インタフェースの他に、UEとの無線通信のための無線通信インタフェースも備えうる。
<RICの機能構成>
図4は、RIC10の機能構成例として、RIC10に実装されるアドミッション制御モジュール11の構成例を示すブロック図である。本実施形態では、アドミッション制御モジュール11は、CPU101による制御プログラムの実行によりCPU101上で実現されるが、アドミッション制御モジュール11の機能を実現する専用のハードウェアが設けられてもよい。
本実施形態のアドミッション制御モジュール11は、アドミッションコントローラ41及び学習コントローラ42を含む。アドミッションコントローラ41は、学習コントローラ42により学習(トレーニング)された学習済モデルを用いて、スライスのアドミッション制御を行うモジュールである。学習コントローラ42は、アドミッションコントローラ41から入力されるネットワーク環境情報に基づいてスライスのアドミッション制御用の学習済モデルを生成するための、機械学習ベースの学習を行うモジュールである。
アドミッションコントローラ41は、アドミッション制御機能411、セットアップ機能412、リソース管理機能413、及びリソースモニタ414を含む。アドミッション制御機能411は、スライスの管理(例えば、無線リソースの割り当て、割り当て解除又は変更)に関連する要求(スライス設定要求)についての判定を行う機能を有する。セットアップ機能412は、スライス設定要求に従って、スライスのセットアップ処理を行う機能を有する。リソース管理機能413は、設定された1つ以上のスライスに割り当てられる無線リソースを管理する機能を有する。リソースモニタ414は、設定されている1つ以上のスライスについて、ネットワーク環境情報をモニタリング(例えば、割り当てられている無線リソースの使用をモニタリング)する機能を有する。
学習コントローラ42は、学習エージェント421及び環境情報データベース(DB)422を含む。学習エージェント421は、スライスアドミッション制御のために、複数の学習モデル(MLモデル)を組み合わせて学習(アンサンブル学習)を行うように構成される。本実施形態では、複数の学習モデルとして、一例として、マルコフ近似による学習モデル及び深層強化学習(DRL)による学習モデルを想定している。
学習エージェント421は、近似フレームワーク(AF)及びDRLフレームワーク(DRLF)を有する。AFは、マルコフ近似による学習モデルを使用して準最適解を発見するためのフレームワークであり、第1学習モデルの一例である。DRLFは、DRLによる学習モデルを使用して準最適解を発見するためのフレームワークであり、第2学習モデルの一例である。本実施形態において、マルコフ近似による学習モデル(AF)は、DRLによる学習モデル(DRLF)よりもトレーニング時間が短い学習モデルに相当する。また、DRLによる学習モデル(DRLF)は、マルコフ近似による学習モデル(AF)よりも性能が高い学習モデルに相当する。
学習エージェント421は、更に、ML性能解析部、MLモデル選択部、及びMLモデルデータベース(DB)を有する。ML性能解析部は、アンサンブル学習に使用される学習モデル(MLモデル)の性能の解析(評価又は予測)を行う機能を有する。MLモデル選択部は、後述するようにML性能解析部により更新されるパラメータ(pt AF,pt DRLF)に基づいて、スライスアドミッション制御に適用するMLモデルを選択する機能を有する。MLモデルDBには、ML性能解析部及びMLモデル選択部により使用される各種パラメータ、MLモデル選択部により選択されたMLモデル(選択MLモデル)を示す情報、及びアンサンブル学習により更新される学習済モデル等が格納される。
環境情報DB422には、アドミッションコントローラ41から入力されるネットワーク環境情報が格納される。なお、MLモデルDB及び環境情報DB422は、例えば、RAM103又は外部記憶デバイス104の記憶領域に格納された状態で、学習コントローラ42(学習エージェント421)によって保持される。
<スライスアドミッション制御>
次に、図5乃至図9を参照して、本実施形態においてRIC10によって行われるスライスアドミッション制御について説明する。本実施形態では、RIC10は、学習コントローラ42による機械学習を、スライスアドミッション制御に対して適用することで、各スライスに対して無線リソースを効率的に割り当てられるようにする。具体的には、上り回線及び下り回線のそれぞれにおいて、特定の性能指標を基準として用いて、当該性能指標がより改善されるように複数のMLモデルを選択的にアドミッション制御に適用する。特定の性能指標として、例えば、物理リソースブロック(PRB)等の無線リソースの使用率が用いられる。
本実施形態のRIC10は、上述のように、特定の性能指標を用いて、AF及びDRLFを組み合わせたアンサンブル学習を行う。即ち、確率的に性能指標(例えば、無線リソースの使用率)の値が高くなるように、AF及びDRLFを選択的に適用する。これにより、例えば、初期段階では、AFの適用により、DRLFよりも性能は劣るとしても、必要となるトレーニング時間を短くすることを可能にする。また、時間の経過とともにDRLFを適用することで、性能をより改善することを可能にする。
<制御手順>
図5は、RIC10においてアドミッションコントローラ41によって実行されるスライスアドミッション制御の手順を示すフローチャートである。まずS51で、アドミッションコントローラ41は、時間スロットt及びネットワーク環境情報を初期化する。なお、本実施形態では、時間スロットtはスロット番号(0以上の整数)を表す。ネットワーク環境情報は、学習エージェント421による制御対象のネットワーク(1つ以上のBS20を含むネットワーク)の状態(State)として、アドミッションコントローラ41によって収集(モニタリング)され、学習コントローラ42へ提供される情報である。
次にS52で、アドミッションコントローラ41は、図6及び図7を用いて後述するように学習コントローラ42(学習エージェント421)による学習モデル(MLモデル)の選択結果を示す情報を、学習エージェント421から取得する。このMLモデルの選択結果を示す情報は、例えば、学習エージェント421のMLモデルDBから読み出すことによって取得される。これにより、アドミッションコントローラ41は、保持している情報のうち、選択されたMLモデル(選択MLモデル)に関する情報を更新する。なお、学習エージェント421によるMLモデルの選択は、学習エージェント421による行動(Action)に相当する。
選択MLモデルに関する情報の更新が完了すると、S53で、アドミッションコントローラ41は、スライスアドミッション制御を行う必要があるか否かを判定する。例えば、アドミッションコントローラ41は、UE(ユーザ)によるサービス要求が行われ(BS20がUEからサービス要求を受信し)、当該サービス要求に起因してスライスの構成を変更する必要がある場合に、スライスアドミッション制御を行う。また、サービスプロバイダ(例えば通信事業者)が、提供するサービスに基づいてスライスの構成を変更すべきことを要求した場合に、アドミッションコントローラ41はスライスアドミッション制御を行う。なお、スライスの構成変更は、例えば、新たなスライスの設定(生成)、設定済みのスライスの削除、又は設定済みのスライスについての設定変更(スライスの拡大若しくは縮小)である。
アドミッションコントローラ41は、S53において、スライスアドミッション制御を行う必要がないと判定した場合にはS53からS56へ処理を進め、必要があると判定した場合にはS53からS54へ処理を進める。
S54で、アドミッションコントローラ41は、スライスアドミッション制御として、スライスのセットアップ処理を実行する。具体的には、アドミッションコントローラ41は、学習エージェント421(MLモデル選択部)により選択されたMLモデル(選択MLモデル)を適用してスライスアドミッション制御を行う。
スライスアドミッション制御は、学習エージェント421によって保持されている、アドミッション制御用の学習済モデルのうち、選択MLモデルに対応する学習済モデルを用いて行われる。この学習済モデルは、学習エージェント421から取得される。学習エージェント421は、ネットワーク環境情報に基づくAFによる学習で更新される学習済モデルと、ネットワーク環境情報に基づくDRLFによる学習で更新される学習済モデルとを、MLモデルDBに保持している。
スライスアドミッション制御では、具体的には以下のような処理が行われる。
●新たなスライスを設定(生成)する場合には、BS20において使用可能な無線リソースブロック(RRB)のうち、割り当てに使用可能なRRBの容量がスライス設定要求(例えば、UEからのサービス要求に基づくスライス設定要求、又はサービスプロバイダからのスライス設定要求)に基づいて必要となるRRBの容量を上回っていれば、当該要求を受け入れ、そうでなければ、当該要求を拒否する。
●設定済みのスライスを削除する場合には、スライスの削除後に当該スライスに対して割り当てられていたRRBを解放する(使用可能なRRBに戻す)。
●設定済みのスライスについての設定変更を行う場合には、対象となるスライスに対して割り当てられるRRBの量を変更する。
このように、本実施形態のアドミッション制御(スライスアドミッション制御)には、新たなスライスの設定、設定済みのスライスの削除、及び設定済みのスライスについての設定変更に伴う、各スライスに割り当てられる無線リソースの制御が含まれる。アドミッションコントローラ41は、選択MLモデルに対応する学習済モデルを用いて、各スライスに割り当てられる無線リソースの制御を行う。
その後S55で、アドミッションコントローラ41は、スライスアドミッション制御の結果に従って、制御対象の1つ以上のBS20における各スライス用に使用する無線リソースを更新するよう、各BS20に指示する。その後、アドミッションコントローラ41は、S56へ処理を進める。
S56で、アドミッションコントローラ41は、ネットワーク環境情報をモニタリングする。ネットワーク環境情報には、例えば、ネットワーク構成に関する情報(例えば、基地局数)、スライス設定に関する情報(例えば、スライス数)、無線リソースの割り当てに関する情報(例えば、使用可能なRRB数)、ネットワークの動作状況に関する情報(例えば、送信電力、スライス又は基地局に接続しているユーザ(UE)数)のうちの1つ以上が含まれる。アドミッションコントローラ41は、制御対象の1つ以上のBS20から取得される情報等に基づいて、ネットワーク環境情報のモニタリングを行う。
その後S57で、アドミッションコントローラ41は、取得したネットワーク環境情報を学習コントローラ42の環境情報DB422に格納するとともに、時間スロットtを更新し(次の時間スロットに更新し)、S52へ処理を戻す。このようにして、アドミッションコントローラ41は、時間スロットtを更新しながら、S52〜S57の処理を繰り返し実行する。
<学習モデルの選択処理>
次に、図6を参照して、本実施形態においてRIC10によって行われる学習モデル(MLモデル)の選択処理について説明する。図5は、RIC10において学習コントローラ42によって実行されるMLモデルの選択処理の手順を示すフローチャートである。
まずS61で、学習コントローラ42は、時間スロットt、及びMLモデルの選択用パラメータ(Ut AF,Ut DRLF,pt AF,pt DRLF,wt AF,wt DRLF)を初期化する。ここで、上記の各パラメータは以下のとおりである。
●Ut AFは、時間スロットtにおける、AF(第1学習モデル)の性能を示す第1性能指標を表すパラメータである。
●Ut DRLFは、時間スロットtにおける、DRLF(第2学習モデル)の性能を示す第2性能指標を表すパラメータである。
●pt AFは、時間スロットtにおける、MLモデル選択部によりAFが選択される確率を表すパラメータである。
●pt DRLFは、時間スロットtにおける、MLモデル選択部によりDRLFが選択される確率を表すパラメータである。
●wt AFは、時間スロットtにおける、AFに対して適用される重みを表すパラメータである。
●wt DRLFは、時間スロットtにおける、DRLFに対して適用される重みを表すパラメータである。
次にS62で、学習コントローラ42(MLモデル選択部)は、MLモデルの選択用のパラメータであるpt AF及びpt DRLFに基づいて、AF及びDRLFのいずれかのMLモデルを選択する。なお、pt AF及びpt DRLFは、後述するS63においてパラメータwt AF,wt DRLFを用いて時間スロットtごとに繰り返し更新される。
本実施形態では、学習コントローラ42は、パラメータpt AF及びpt DRLFのうち、値が大きい方のパラメータに対応するMLモデルを選択する。具体的には、学習コントローラ42は、パラメータpt DRLFの値よりもパラメータpt AFの値の方が大きければ、AF(第1学習モデル)を選択し、パラメータpt AFの値よりもパラメータpt DRLFの値の方が大きければ、DRLF(第2学習モデル)を選択する。
その後S63で、学習コントローラ42(ML性能解析部)は、図7に示す手順に従って、MLモデルの性能の解析処理を行う。具体的には、まずS71で、学習コントローラ42は、環境情報DB422に格納されているネットワーク環境情報に基づいて、各MLモデル(AF及びDRLF)の性能指標(Ut AF,Ut DRLF)を計算する。
より具体的には、学習コントローラ42は、Ut AFとして、時間スロットtにおける、AFを適用してアドミッション制御を行った場合の、制御対象のネットワークにおける無線リソースの使用率を計算する。また、学習コントローラ42は、Ut DRLFとして、時間スロットtにおける、DRLFを適用してアドミッション制御を行った場合の、制御対象のネットワークにおける無線リソースの使用率を計算する。その際、学習コントローラ42は、AF及びDRLFのうち、S62における(前回の)選択時に選択されたMLモデルについては、ネットワーク環境情報に基づいて性能の評価を行う。また。学習コントローラ42は、AF及びDRLFのうち、S62における(前回の)選択時に選択されなかったMLモデルについては、ネットワーク環境情報に基づいて性能の予測(シミュレーション)を行って、予測値を性能指標として計算する。
このようにして、学習コントローラ42は、モニタリングにより得られたネットワーク環境情報に基づいて、スライスのアドミッション制御用のAF及びDRLFの性能をそれぞれ解析することで、第1性能指標(Ut AF)と第2性能指標(Ut DRLF)とを求める。これらの性能指標は、学習エージェント421による、各MLモデルに基づく学習において必要となる報酬(Reward)としても使用される。
その後、S72〜S74で、学習コントローラ42は、第1性能指標(Ut AF)についての前回の更新時からの改善量と第2性能指標(Ut DRLF)についての前回の更新時からの改善量とに応じて、pt AF(AFに対応する第1パラメータ)とpt DRLF(DRLFに対応する第2パラメータ)とを更新する処理を行う。
具体的には、S72で、学習コントローラ42は、各MLモデルの性能指標(Ut AF,Ut DRLF)についての前回の更新時からの変化(ΔUt AF,ΔUt DRLF)を計算する。これは、次式のように計算される。
ΔUt AF=Ut AF−Ut-1 AF
ΔUt DRLF=Ut DRLF−Ut-1 DRLF
ここで、ΔUt AFは、第1性能指標(Ut AF)についての前回の更新時からの改善量に相当し、ΔUt DRLFは、第2性能指標(Ut DRLF)についての前回の更新時からの改善量に相当する。
パラメータpt AF及びpt DRLFは、以下で説明するように、第1性能指標(Ut AF)についての前回の更新時からの改善量ΔUt AFと、第2性能指標(Ut DRLF)についての前回の更新時からの改善量ΔUt DRLFとの差分に応じて更新される。
具体的には、S73で、学習コントローラ42は、各MLモデルに対する重み(wt AF,wt DRLF)を計算する。これは、次式のように計算される。
t AF=(ΔUt AF−ΔUt DRLF)/2
t DRLF=(ΔUt DRLF−ΔUt AF)/2
S73における重みの計算により、AFとDRLFとの間でMLモデルの性能の比較が行われる。
その後S74で、学習コントローラ42は、S73で計算(更新)した重み(wt AF,wt DRLF)を用いて、パラメータpt AF及びpt DRLFを更新する。具体的には、次式のようにパラメータの更新が行われる。
t AF=pt-1 AF+wt AF
t DRLF=pt-1 DRLF+wt DRLF
このように、学習コントローラ42は、第2性能指標(Ut DRLF)についての改善量(ΔUt DRLF)に対する第1性能指標(Ut AF)についての改善量(ΔUt AF)の差分に応じた重み(wt AF)を用いて、第1パラメータpt AFを更新する。また、学習コントローラ42は、第1性能指標(Ut AF)についての改善量(ΔUt AF)に対する第2性能指標(Ut DRLF)についての改善量(ΔUt DRLF)の差分に応じた重みを用いて、第2パラメータpt DRLFを更新する。
最後にS75で、学習コントローラ42は、更新されたパラメータ(Ut AF,Ut DRLF,pt AF,pt DRLF,wt AF,wt DRLF)を、MLモデルDBに保存し、図7に示す手順によるS63の処理を終了する。その後、学習コントローラ42は、S64へ処理を進める。
S64で、学習コントローラ42は、時間スロットtを更新し(次の時間スロットに更新し)、処理をS62に戻す。このようにして、学習コントローラ42は、時間スロットtを更新しながら、S62〜S64の処理を繰り返し実行する。このようにして、学習コントローラ42による、各MLモデルの性能の解析(S63)、パラメータpt AF及びpt DRLFの更新(S63)、及び当該パラメータに応じたMLモデルの選択(S62)は、所定の時間間隔で(時間スロットtごとに)繰り返し実行される。
ここで、図9は、MLモデルの選択用の各パラメータの時間遷移の例を示す図である。図9に示すように、MLモデルの選択処理の開始時(t=0)に、Ut AF,Ut DRLF,pt AF,pt DRLF,wt AF,wt DRLFはそれぞれ0に初期化されている。学習コントローラ42によるアンサンブル学習の初期段階では、DRLFよりもAFの方が収束性が高いことに起因して、pt DRLFの値よりもpt AFの値が高くなる(pt DRLF<pt AF)。即ち、本実施形態のアンサンブル学習の初期段階では、AFがアドミッション制御に適用される。
その後、ある程度の時間が経過すると、AFよりもDRLFの方が性能が高くなることで、pt AFの値よりもpt DRLFの値が高くなる(pt DRLF>pt AF)。即ち、AFに代えてDRLFがアドミッション制御に適用されるようになる。このように、本実施形態のアンサンブル学習を適用した場合、必要となるトレーニング時間を短くしつつ、アドミッション制御についての性能を改善することを実現できる。即ち、複数のMLモデル(AF及びDRLF)を効率的に組み合わせてアドミッション制御に適用することが可能になる。
<通信シーケンス>
次に、図8を参照して、上述のスライスアドミッション制御に関連する通信シーケンスの例について説明する。なお、図8は、UEからのサービスに起因して、スライスアドミッション制御が実行される例を示している。
まず、BS20は、S81で、無線リソースブロック(RRB)グリッドを生成し、S82で、生成したRRBグリッドを示すRRBグリッド情報をRIC10へ送信する。RIC10は、S83で、受信したRRBグリッド情報に基づいて、ネットワーク環境情報を更新し、S84で、AF及びDRLFによるアンサンブル学習に基づくMLモデルの選択処理(図6及び図7)における選択結果に基づいて選択MLモデルを更新する。
一方、S85で、UEにおいてユーザによる要求が発生すると、UEは、S86で、サービス要求をBS20へ送信する。BS20は、S87で、受信したサービス要求に基づく判定を行う。具体的には、BS20は、サービス要求に基づいて、例えばスライスを新規に設定(生成)する必要が生じたと判定した場合には、S88で、当該判定結果をRIC10へ送信することで、RIC10にスライスアドミッション制御の実行を要求する。
RIC10は、BS20からの判定結果の受信に応じて、S89で、選択MLモデルに基づくスライスアドミッション制御を行う。その後、RIC10は、S90で、アドミッション制御の実行結果として、スライスのセットアップ情報をBS20へ送信する。BS20は、S91で、受信したセットアップ情報に基づいて、スライスのセットアップ及びスライスへの無線リソースの割り当ての更新を行う。BS20は、S92及びS93で、そのセットアップ結果を、UE及びRIC10へそれぞれ送信する。
RIC10は、BS20からのセットアップ結果の受信に応じて、ネットワーク環境情報をモニタリングし、モニタリングしたネットワーク環境情報を環境情報DB422に保存する。更に、S95で、RIC10は、図6及び図7を用いて上述した手順により、AF及びDRLFによるアンサンブル学習に基づくMLモデルの選択処理を実行することで、MLモデルを選択する。その後、S96で、時間スロットtを更新する。
以上説明したように、本実施形態のRIC10において、アドミッションコントローラ42は、ネットワーク環境情報をモニタリングする。学習コントローラ42(学習エージェント42)は、モニタリングにより得られたネットワーク環境情報に基づいて、スライスのアドミッション制御用の第1学習モデル(AF)及び第2学習モデル(DRLF)の性能をそれぞれ解析することで、第1学習モデルの性能を示す第1性能指標(Ut AF)と第2学習モデルの性能を示す第2性能指標(Ut DRLF)とを求める。学習コントローラ42は、第1性能指標についての前回の更新時からの改善量(ΔUt AF)と第2性能指標についての前回の更新時からの改善量(ΔUt DRLF)とに応じて、第1学習モデルに対応する第1パラメータpt AFと第2学習モデルに対応する第2パラメータpt DRLFとを更新する。学習コントローラ42は、更新された第1パラメータ及び第2パラメータに応じて、第1学習モデル又は第2学習モデルを選択する。アドミッションコントローラ41は、選択された学習モデルを適用してアドミッション制御を行う。
本実施形態によれば、複数の学習モデルを効率的に組み合わせるアンサンブル学習の適用により、必要となるトレーニング時間を短くしつつ、アドミッション制御についての性能を改善することを実現できる。また、本実施形態のMLモデルの選択処理は低複雑度の処理により行われるため、アンサンブル学習における適切なMLモデルの選択を容易に実現することが可能である。即ち、複数のMLモデルを効率的に組み合わせてアドミッション制御に適用することが可能になる。
なお、上述の実施形態では、2つのMLモデルを組み合わせてアンサンブル学習を行う構成例について説明したが、3つ以上のMLモデルを組み合わせることも可能である。その場合、学習コントローラ42(学習エージェント42)は、モニタリングにより得られたネットワーク環境情報に基づいて、スライスのアドミッション制御用の複数の学習モデルの性能をそれぞれ解析することで、当該複数の学習モデルのそれぞれの性能を示す性能指標を求める。学習コントローラ42は、解析により求められた、複数の学習モデルに対応する複数の性能指標のそれぞれについての前回の更新時からの改善量に応じて、当該複数の学習モデルにそれぞれ対応する複数のパラメータを更新する。更に、学習コントローラ42は、更新された複数のパラメータに応じて、複数の学習モデルのうちのいずれか1つを選択する。このようにして、3つ以上のMLモデルを効率的に組み合わせてアドミッション制御に適用することが可能になる。
[その他の実施形態]
上述の実施形態に係る制御装置(RIC)は、コンピュータを制御装置として機能させるためのコンピュータプログラムにより実現することができる。当該コンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて配布が可能なもの、又は、ネットワーク経由で配布が可能なものである。
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
10:RIC、20:基地局、11:アドミッション制御モジュール、41:アドミッションコントローラ、42:学習コントローラ、421:学習エージェント、422:環境情報DB

Claims (19)

  1. 1つ以上の基地局を含むネットワーク上に設定されるスライスのアドミッション制御を行う制御装置であって、
    ネットワーク環境情報をモニタリングするモニタリング手段と、
    前記モニタリングにより得られた前記ネットワーク環境情報に基づいて、スライスのアドミッション制御用の第1学習モデル及び第2学習モデルの性能をそれぞれ解析することで、前記第1学習モデルの性能を示す第1性能指標と前記第2学習モデルの性能を示す第2性能指標とを求める解析手段と、
    前記解析手段により求められた前記第1性能指標についての前回の更新時からの改善量と前記第2性能指標についての前回の更新時からの改善量とに応じて、前記第1学習モデルに対応する第1パラメータと前記第2学習モデルに対応する第2パラメータとを更新する更新手段と、
    前記更新手段により更新された前記第1パラメータ及び前記第2パラメータに応じて、前記第1学習モデル又は前記第2学習モデルを選択する選択手段と、
    前記選択手段により選択された学習モデルを適用して前記アドミッション制御を行う制御手段と、
    を備えることを特徴とする制御装置。
  2. 前記解析手段は、
    前記第1学習モデルを適用して前記アドミッション制御を行った場合の前記ネットワークにおける無線リソースの使用率を、前記第1性能指標として求め、
    前記第2学習モデルを適用して前記アドミッション制御を行った場合の前記ネットワークにおける無線リソースの使用率を、前記第2性能指標として求める
    ことを特徴とする請求項1に記載の制御装置。
  3. 前記更新手段は、前記第1性能指標についての前記改善量と前記第2性能指標についての前記改善量との差分に応じて、前記第1パラメータ及び前記第2パラメータを更新する
    ことを特徴とする請求項1又は2に記載の制御装置。
  4. 前記更新手段は、
    前記第2性能指標についての前記改善量に対する前記第1性能指標についての前記改善量の差分に応じた重みを用いて、前記第1パラメータを更新し、
    前記第1性能指標についての前記改善量に対する前記第2性能指標についての前記改善量の差分に応じた重みを用いて、前記第2パラメータを更新する
    ことを特徴とする請求項1から3のいずれか1項に記載の制御装置。
  5. 前記更新手段は、前記選択手段により前記第1学習モデルが選択される確率を表すパラメータを、前記第1パラメータとして使用し、前記第2学習モデルが選択される確率を表すパラメータを、前記第2パラメータとして使用する
    ことを特徴とする請求項1から4のいずれか1項に記載の制御装置。
  6. 前記選択手段は、前記第2パラメータの値よりも前記第1パラメータの値の方が大きければ、前記第1学習モデルを選択し、前記第1パラメータの値よりも前記第2パラメータの値の方が大きければ、前記第2学習モデルを選択する
    ことを特徴とする請求項5に記載の制御装置。
  7. 前記解析手段による前記解析、前記更新手段による前記更新、及び前記選択手段による前記選択は、所定の時間間隔で繰り返し実行される
    ことを特徴とする請求項1から6のいずれか1項に記載の制御装置。
  8. 前記解析手段は、前記第1学習モデル及び前記第2学習モデルのうち、前記選択手段による前回の選択時に選択された学習モデルについては、前記ネットワーク環境情報に基づいて性能の評価を行い、前記選択手段による前回の選択時に選択されなかった学習モデルについては、前記ネットワーク環境情報に基づいて性能の予測を行う
    ことを特徴とする請求項1から7のいずれか1項に記載の制御装置。
  9. 前記アドミッション制御は、新たなスライスの設定、設定済みのスライスの削除、及び設定済みのスライスについての設定変更に伴う、各スライスに割り当てられる無線リソースの制御を含む
    ことを特徴とする請求項1から8のいずれか1項に記載の制御装置。
  10. 前記解析手段、前記更新手段、及び前記選択手段を含む学習手段を更に備え、
    前記学習手段は、前記ネットワーク環境情報に基づく前記第1学習モデルによる学習で更新される、前記アドミッション制御用の学習済モデルと、前記ネットワーク環境情報に基づく前記第2学習モデルによる学習で更新される、前記アドミッション制御用の学習済モデルとを保持しており、
    前記制御手段は、前記学習手段によって保持されている学習済モデルのうち、前記選択手段により選択された学習モデルに対応する学習済モデルを用いて前記アドミッション制御を行う
    ことを特徴とする請求項1から9のいずれか1項に記載の制御装置。
  11. 前記ネットワーク環境情報は、ネットワーク構成に関する情報、スライス設定に関する情報、及び無線リソースの割り当てに関する情報、ネットワークの動作状況に関する情報のうちの1つ以上を含む
    ことを特徴とする請求項1から10のいずれか1項に記載の制御装置。
  12. 前記第1学習モデルは、前記第2学習モデルよりもトレーニング時間が短い学習モデルであり、
    前記第2学習モデルは、前記第1学習モデルよりも性能が高い学習モデルである
    ことを特徴とする請求項1から11のいずれか1項に記載の制御装置。
  13. 前記第1学習モデルは、マルコフ近似による学習モデルであり、
    前記第2学習モデルは、深層強化学習による学習モデルである
    ことを特徴とする請求項12に記載の制御装置。
  14. 前記制御装置は、前記1つ以上の基地局と通信可能に接続される
    ことを特徴とする請求項1から13のいずれか1項に記載の制御装置。
  15. 前記制御装置は、O−RAN Alliance(Open Radio Access Network Alliance)のRIC(RAN Intelligent Controller)である
    ことを特徴とする請求項14に記載の制御装置。
  16. 1つ以上の基地局を含むネットワーク上に設定されるスライスのアドミッション制御を行う制御装置であって、
    ネットワーク環境情報をモニタリングするモニタリング手段と、
    前記モニタリングにより得られた前記ネットワーク環境情報に基づいて、スライスのアドミッション制御用の複数の学習モデルの性能をそれぞれ解析することで、前記複数の学習モデルのそれぞれの性能を示す性能指標を求める解析手段と、
    前記解析手段により求められた、前記複数の学習モデルに対応する複数の性能指標のそれぞれについての前回の更新時からの改善量に応じて、前記複数の学習モデルにそれぞれ対応する複数のパラメータを更新する更新手段と、
    前記更新手段により更新された前記複数のパラメータに応じて、前記複数の学習モデルのうちのいずれか1つを選択する選択手段と、
    前記選択手段により選択された学習モデルを適用して前記アドミッション制御を行う制御手段と、
    を備えることを特徴とする制御装置。
  17. 1つ以上の基地局を含むネットワーク上に設定されるスライスのアドミッション制御を行う制御装置によって実行される制御方法であって、
    ネットワーク環境情報をモニタリングするモニタリング工程と、
    前記モニタリングにより得られた前記ネットワーク環境情報に基づいて、スライスのアドミッション制御用の第1学習モデル及び第2学習モデルの性能をそれぞれ解析することで、前記第1学習モデルの性能を示す第1性能指標と前記第2学習モデルの性能を示す第2性能指標とを求める解析工程と、
    前記解析工程で求められた前記第1性能指標についての前回の更新時からの改善量と前記第2性能指標についての前回の更新時からの改善量とに応じて、前記第1学習モデルに対応する第1パラメータと前記第2学習モデルに対応する第2パラメータとを更新する更新工程と、
    前記更新工程で更新された前記第1パラメータ及び前記第2パラメータに応じて、前記第1学習モデル又は前記第2学習モデルを選択する選択工程と、
    前記選択工程で選択された学習モデルを適用して前記アドミッション制御を行う制御工程と、
    を含むことを特徴とする制御方法。
  18. 1つ以上の基地局を含むネットワーク上に設定されるスライスのアドミッション制御を行う制御装置によって実行される制御方法であって、
    ネットワーク環境情報をモニタリングするモニタリング工程と、
    前記モニタリングにより得られた前記ネットワーク環境情報に基づいて、スライスのアドミッション制御用の複数の学習モデルの性能をそれぞれ解析することで、前記複数の学習モデルのそれぞれの性能を示す性能指標を求める解析工程と、
    前記解析工程で求められた、前記複数の学習モデルに対応する複数の性能指標のそれぞれについての前回の更新時からの改善量に応じて、前記複数の学習モデルにそれぞれ対応する複数のパラメータを更新する更新工程と、
    前記更新工程で更新された前記複数のパラメータに応じて、前記複数の学習モデルのうちのいずれか1つを選択する選択工程と、
    前記選択工程で選択された学習モデルを適用して前記アドミッション制御を行う制御工程と、
    を含むことを特徴とする制御方法。
  19. 制御装置が備えるコンピュータに、請求項17又は18に記載の制御方法の各工程を実行させるためのプログラム。
JP2019211712A 2019-11-22 2019-11-22 制御装置、制御方法、及びプログラム Active JP7197460B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019211712A JP7197460B2 (ja) 2019-11-22 2019-11-22 制御装置、制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019211712A JP7197460B2 (ja) 2019-11-22 2019-11-22 制御装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021083058A true JP2021083058A (ja) 2021-05-27
JP7197460B2 JP7197460B2 (ja) 2022-12-27

Family

ID=75965529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019211712A Active JP7197460B2 (ja) 2019-11-22 2019-11-22 制御装置、制御方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7197460B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023100385A1 (ja) 2021-12-03 2023-06-08 楽天モバイル株式会社 仮想化基盤および無線アクセスネットワークノードによる無線アクセスネットワーク制御
WO2023233470A1 (ja) * 2022-05-30 2023-12-07 楽天モバイル株式会社 ネットワークの異常の原因推定
WO2023233471A1 (ja) * 2022-05-30 2023-12-07 楽天モバイル株式会社 ネットワークの異常の原因推定
WO2023238437A1 (ja) * 2022-06-06 2023-12-14 Kddi株式会社 通信サービスの要求に基づく通信制御を行う基地局装置、制御方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017200172A (ja) * 2016-04-27 2017-11-02 株式会社東芝 無線アクセスネットワークにおける無線リソーススライシング
US20180317133A1 (en) * 2017-04-28 2018-11-01 NEC Laboratories Europe GmbH Method and system for network slice allocation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017200172A (ja) * 2016-04-27 2017-11-02 株式会社東芝 無線アクセスネットワークにおける無線リソーススライシング
US20180317133A1 (en) * 2017-04-28 2018-11-01 NEC Laboratories Europe GmbH Method and system for network slice allocation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023100385A1 (ja) 2021-12-03 2023-06-08 楽天モバイル株式会社 仮想化基盤および無線アクセスネットワークノードによる無線アクセスネットワーク制御
KR20240039222A (ko) 2021-12-03 2024-03-26 라쿠텐 모바일 가부시키가이샤 가상화 기반 및 무선 액세스 네트워크 노드에 의한 무선 액세스 네트워크 제어
WO2023233470A1 (ja) * 2022-05-30 2023-12-07 楽天モバイル株式会社 ネットワークの異常の原因推定
WO2023233471A1 (ja) * 2022-05-30 2023-12-07 楽天モバイル株式会社 ネットワークの異常の原因推定
WO2023238437A1 (ja) * 2022-06-06 2023-12-14 Kddi株式会社 通信サービスの要求に基づく通信制御を行う基地局装置、制御方法、及びプログラム

Also Published As

Publication number Publication date
JP7197460B2 (ja) 2022-12-27

Similar Documents

Publication Publication Date Title
JP7197460B2 (ja) 制御装置、制御方法、及びプログラム
D’Oro et al. Orchestran: Network automation through orchestrated intelligence in the open ran
Wang et al. Joint computation offloading and interference management in wireless cellular networks with mobile edge computing
Dhillon et al. Fundamentals of heterogeneous cellular networks with energy harvesting
CN104053203B (zh) 用于在接入终端中作出切换决定的方法和装置
Matoussi et al. 5G RAN: Functional split orchestration optimization
Mollahasani et al. Dynamic CU-DU selection for resource allocation in O-RAN using actor-critic learning
Papa et al. User-based quality of service aware multi-cell radio access network slicing
CN109996248A (zh) 用于无线通信的电子设备和方法以及计算机可读存储介质
Alsuhli et al. Mobility load management in cellular networks: A deep reinforcement learning approach
WO2023172292A9 (en) Zero-touch deployment and orchestration of network intelligence in open ran systems
González et al. A novel multiobjective framework for cell switch-off in dense cellular networks
Gebremariam et al. Resource pooling via dynamic spectrum-level slicing across heterogeneous networks
Qazzaz et al. Machine learning-based xApp for dynamic resource allocation in O-RAN networks
Yang et al. Opportunistic sharing scheme for spectrum allocation in wireless virtualization
Błaszczyszyn et al. Performance analysis of cellular networks with opportunistic scheduling using queueing theory and stochastic geometry
Fajjari et al. Optimized resource allocation and RRH attachment in experimental SDN based cloud-RAN
Alavirad et al. O-RAN architecture, interfaces, and standardization: Study and application to user intelligent admission control
CN107006005A (zh) 用于处理无线电频谱中的信道的方法和模块
Lopes et al. Deep reinforcement learning-based scheduling for multiband massive MIMO
Cui et al. An intelligent coordinator design for network slicing in service-oriented vehicular networks
Chatterjee et al. On optimal orchestration of virtualized cellular networks with downlink rate coverage probability constraints
Robledo et al. Parameterizable mobile workloads for adaptable base station optimizations
Muñoz et al. Capacity self-planning in small cell multi-tenant 5G networks
Öhmann et al. Transient flow level models for interference-coupled cellular networks

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221215

R150 Certificate of patent or registration of utility model

Ref document number: 7197460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150