JP7259978B2 - 制御装置、方法及びシステム - Google Patents

制御装置、方法及びシステム Download PDF

Info

Publication number
JP7259978B2
JP7259978B2 JP2021550731A JP2021550731A JP7259978B2 JP 7259978 B2 JP7259978 B2 JP 7259978B2 JP 2021550731 A JP2021550731 A JP 2021550731A JP 2021550731 A JP2021550731 A JP 2021550731A JP 7259978 B2 JP7259978 B2 JP 7259978B2
Authority
JP
Japan
Prior art keywords
network
learning
action
control
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021550731A
Other languages
English (en)
Other versions
JPWO2021064766A1 (ja
JPWO2021064766A5 (ja
Inventor
亜南 沢辺
孝法 岩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021064766A1 publication Critical patent/JPWO2021064766A1/ja
Publication of JPWO2021064766A5 publication Critical patent/JPWO2021064766A5/ja
Application granted granted Critical
Publication of JP7259978B2 publication Critical patent/JP7259978B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • H04L41/5019Ensuring fulfilment of SLA
    • H04L41/5025Ensuring fulfilment of SLA by proactively reacting to service quality change, e.g. by reconfiguration after service quality degradation or upgrade
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

本発明は、制御装置、方法及びシステムに関する。
通信技術、情報処理技術の進展に伴い様々なサービスがネットワーク上にて提供される状況にある。例えば、ネットワーク上のサーバから動画データが配信され、端末にて当該動画データを再生することや、サーバから工場等に設置されたロボット等を遠隔制御することが行われている。
上記のようなネットワーク上で提供されるサービス、アプリケーションにおいて、エンドユーザが感じ取る品質(QoE;Quality of Experience)や制御品質(QoC;Quality of Control)を高める取り組みがなされている。
例えば、特許文献1には、個別のwebページの影響が除去された表示待ち時間の品質の推定を可能とする、と記載されている。特許文献1に記載された技術では、任意のエリア及び時間帯におけるトラフィック計測データに基づき当該エリア及び時間帯におけるwebページの表示待ち時間の品質を推定している。
特開2019-075030号公報
上記特許文献1に開示された技術では、SVM(Support Vector Machine)と称される機械学習が用いられている。ここで、近年、深層学習(ディープラーニング)に代表される機械学習に関する技術が進展し、種々の分野への機械学習の適用が検討されている。
例えば、チェス等のゲームやロボット等の制御に機械学習を適用することが検討されている。ゲームの運用に機械学習を適用する場合には、ゲーム内のスコアの最大化が報酬に設定され、機械学習の性能が評価される。また、ロボットの制御では、目標動作の実現が報酬に設定され、機械学習の性能が評価される。通常、機械学習(強化学習)では、即時報酬及びエピソード単位の報酬の総和により学習の性能が議論される。
しかし、ネットワークの制御に機械学習を適用する場合には何を報酬に設定するのかが問題となる。例えば、ネットワークの制御では、ゲームに機械学習を適用する場合のように最大化するスコアの存在を観念することができない。例えば、ネットワークに含まれる通信機器におけるスループットを最大化することを報酬に設定したとしてもサービス、アプリケーションによっては適切な設定とはいえない。
本発明は、機械学習を用いた効率的なネットワークの制御を実現することに寄与する、制御装置、方法及びシステムを提供することを主たる目的とする。
本発明の第1の視点によれば、ネットワークを制御するための行動を学習する、学習部と、前記学習部が生成した学習情報を記憶する、記憶部と、を備え、前記学習部は、前記ネットワークに対して行われた行動の報酬を、前記行動が行われた後のネットワークの定常性に基づき定める、制御装置が提供される。
本発明の第2の視点によれば、ネットワークを制御するための行動を学習するステップと、前記学習により生成された学習情報を記憶するステップと、を含み、前記学習するステップは、前記ネットワークに対して行われた行動の報酬を、前記行動が行われた後のネットワークの定常性に基づき定める、方法が提供される。
本発明の第3の視点によれば、ネットワークを制御するための行動を学習する、学習手段と、前記学習手段が生成した学習情報を記憶する、記憶手段と、を含み、前記学習手段は、前記ネットワークに対して行われた行動の報酬を、前記行動が行われた後のネットワークの定常性に基づき定める、システムが提供される。
本発明の各視点によれば、機械学習を用いた効率的なネットワークの制御を実現することに寄与する、制御装置、方法及びシステムが提供される。なお、本発明により、当該効果の代わりに、又は当該効果と共に、他の効果が奏されてもよい。
一実施形態の概要を説明するための図である。 一実施形態に係る制御装置の動作の一例を示すフローチャートである。 第1の実施形態に係る通信ネットワークシステムの概略構成の一例を示す図である。 Qテーブルの一例を示す図である。 ニューラルネットワークの構成の一例を示す図である。 強化学習により得られる重みの一例を示す図である。 第1の実施形態に係る制御装置の処理構成の一例を示す図である。 特徴量とネットワークの状態を対応付ける情報の一例を示す図である。 行動と制御内容を対応付けたテーブル情報の一例を示す図である。 特徴量の時系列データの一例を示す図である。 第1の実施形態に係る制御装置の制御モード時の動作の一例を示すフローチャートである。 第1の実施形態に係る制御装置の学習モード時の動作の一例を示すフローチャートである。 強化学習実行部の動作を説明するための図である。 スループットの時系列データの一例を示す図である。 報酬の与え方を説明するための図である。 制御装置のハードウェア構成の一例を示す図である。
はじめに、一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。なお、本明細書及び図面において、同様に説明されることが可能な要素については、同一の符号を付することにより重複説明が省略され得る。
一実施形態に係る制御装置100は、学習部101と記憶部102を含む(図1参照)。学習部101は、ネットワークを制御するための行動を学習する。記憶部102は、学習部101が生成した学習情報を記憶する。学習部101は、ネットワークに対して行動をする(図2のステップS01)。学習部101は、ネットワークに対して行われた行動の報酬を、行動が行われた後のネットワークの定常性に基づき定め、ネットワークを制御するための行動を学習する(図2のステップS02)。
ネットワークにより提供されるサービスやアプリケーションでは、「ネットワークの安定性」が重要視される。制御装置100は、ネットワークに対して行った行動(制御パラメータの変更)により得られる状態の定常性に基づき報酬を定める。即ち、制御装置100は、機械学習(強化学習)の際にネットワークの状態が安定している収束状態に価値が高いものと捉え、そのような状況の場合に高い報酬を与えネットワークを制御するための学習を行う。その結果、機械学習を用いた効率的なネットワークの制御が実現される。
以下に具体的な実施形態について、図面を参照してさらに詳しく説明する。
[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
図3は、第1の実施形態に係る通信ネットワークシステムの概略構成の一例を示す図である。図3を参照すると、通信ネットワークシステムは、端末10と、制御装置20と、サーバ30と、を含んで構成される。
端末10は、通信機能を有する装置である。端末10には、WEB(ウェブ)カメラ、監視カメラ、ドローン、スマートフォン、ロボット等が例示される。但し、端末10を上記WEBカメラ等に限定する趣旨ではない。端末10は、通信機能を備える任意の装置とすることができる。
端末10は、制御装置20を介してサーバ30と通信する。端末10とサーバ30により様々なアプリケーション、サービスが提供される。
例えば、端末10がWEBカメラの場合には、サーバ30が当該WEBカメラからの画像データを解析し、工場等の資材管理が行われる。例えば、端末10がドローンの場合には、サーバ30からドローンに制御コマンドが送信され、ドローンが荷物等を搬送する。例えば、端末10がスマートフォンの場合には、サーバ30からスマートフォンに向けて動画が配信され、ユーザはスマートフォンを用いて動画を視聴する。
制御装置20は、例えば、プロキシサーバやゲートウェイ等の通信機器であり、端末10とサーバ30からなるネットワークを制御する装置である。制御装置20は、TCP(Transmission Control Protocol)のパラメータ群やバッファ制御に関するパラメータ群の値を変更し、ネットワークを制御する。
例えば、TCPパラメータの制御としては、フローウィンドウサイズの変更が例示される。バッファ制御としては、複数バッファのキュー管理において、最低保証帯域、RED(Random Early Detection)のロス率、ロス開始キュー長、バッファ長に関するパラメータの変更が例示される。
なお、以降の説明において、上記TCPパラメータやバッファ制御に関するパラメータ等、端末10とサーバ30の間の通信(トラヒック)に影響を与えるパラメータを「制御パラメータ」と表記する。
制御装置20は、制御パラメータを変更することで、ネットワークを制御する。制御装置20によるネットワークの制御は、自装置(制御装置20)のパケット転送時に行われてもよいし、端末10やサーバ30に制御パラメータの変更を指示することにより行われてもよい。
TCPセッションが制御装置20により終端される場合には、例えば、制御装置20は、端末10との間で形成されるTCPセッションのフローウィンドウサイズを変更することで、ネットワークを制御する。制御装置20は、サーバ30から受信したパケットを格納するバッファのサイズを変更したり、当該バッファからパケットを読み出す周期を変更したりしてネットワークを制御してもよい。
制御装置20は、ネットワークの制御に「機械学習」を用いる。より具体的には、制御装置20は、強化学習により得られる学習モデルに基づきネットワークを制御する。
強化学習には、種々のバリエーションが存在するが、例えば、制御装置20は、Q学習と称される強化学習の結果得られる学習情報(Qテーブル)に基づきネットワークを制御してもよい。
[Q学習]
以下、Q学習について概説する。
Q学習では、与えられた「環境」における「価値」を最大化するように、「エージェント」を学習させる。当該Q学習をネットワークシステムに適用すると、端末10やサーバ30を含むネットワークが「環境」であり、ネットワークの状態を最良にするように、制御装置20を学習させる。
Q学習では、状態(ステート)s、行動(アクション)a、報酬(リワード)rの3要素が定義される。
状態sは、環境(ネットワーク)がどのような状態にあるかを示す。例えば、通信ネットワークシステムの場合には、トラヒック(例えば、スループット、平均パケット到着間隔等)が状態sに該当する。
行動aは、エージェント(制御装置20)が環境(ネットワーク)に対して取り得る行動を示す。例えば、通信ネットワークシステムの場合には、TCPパラメータ群の設定の変更や機能のオン/オフ等が行動aとして例示される。
報酬rは、ある状態sにおいてエージェント(制御装置20)が行動aを実行した結果、どの程度の評価が得られるかを示す。例えば、通信ネットワークシステムの場合には、制御装置20が、TCPパラメータ群の一部を変更した結果、スループットが上昇すれば正の報酬、スループットが下降すれば負の報酬の様に定められる。
Q学習では、現在時点で得られる報酬(即時報酬)を最大化するのではなく、将来に亘る価値を最大化するように学習が進められる(Qテーブルが構築される)。Q学習におけるエージェントの学習は、ある状態sにおける行動aを採用した時の価値(Q値、状態行動価値)を最大化するように行われる。
Q値(状態行動価値)は、Q(s、a)と表記される。Q学習では、エージェントが行動することによって価値の高い状態に遷移させる行動は、遷移先と同程度の価値を持つことを前提としている。このような前提により、現時点tにおけるQ値は、次の時点t+1のQ値により表現することができる(式(1)参照)。
Figure 0007259978000001
なお、式(1)においてrt+1は即時報酬、Est+1は状態St+1に関する期待値、Eat+1は行動at+1に関する期待値を示す。γは割引率である。
Q学習では、ある状態sにおいて行動aを採用した結果によりQ値を更新する。具体的には、下記の式(2)に従いQ値を更新する。
Figure 0007259978000002
式(2)において、αは学習率と称されるパラメータであり、Q値の更新を制御する。また、式(2)における「max」は状態St+1の取り得る行動aのうち最大値を出力する関数である。なお、エージェント(制御装置20)が行動aを選択する方式には、ε-greedyと称される方式を採用することができる。
ε-greedy方式では、確率εでランダムに行動を選択し、確率1-εで最も価値の高い行動を選択する。Q学習の実行により、図4に示すようなQテーブルが生成される。
[DQNによる学習]
制御装置20は、DQN(Deep Q Network)と称される深層学習(ディープラーニング)を使った強化学習の結果得られる学習モデルに基づきネットワークを制御してもよい。Q学習では、Qテーブルにより行動価値関数を表現しているが、DQNでは、ディープラーニングにより行動価値関数を表現する。DQNでは、最適行動価値関数を、ニューラルネットワークを使った近似関数により算出する。
なお、最適行動価値関数とは、ある状態s時にある行動aを行うことの価値を出力する関数である。
ニューラルネットワークは、入力層、中間層(隠れ層)、出力層を備える。入力層は、状態sを入力する。中間層の各ノードのリンクには、対応する重みが存在する。出力層は、行動aの価値を出力する。
例えば、図5に示すようなニューラルネットワークの構成を考える。図5に示すニューラルネットワークを通信ネットワークシステムに適用すると、入力層のノードは、ネットワークの状態S1~S3に相当する。入力層に入力されたネットワークの状態は、中間層にて重み付けされ、出力層に出力される。
出力層のノードは、制御装置20が取り得る行動A1~A3に相当する。出力層のノードは、行動A1~A3のそれぞれに対応する行動価値関数Q(s、a)の値を出力する。
DQNでは、上記行動価値関数を出力するノード間の結合パラメータ(重み)を学習する。具体的には、下記の式(3)に示す誤差関数E(s、a)を設定しバックプロパゲーションにより学習を行う。
Figure 0007259978000003
DQNによる強化学習の実行により、用意されたニューラルネットワークの中間層の構成に対応した学習情報(重み)が生成される(図6参照)。
ここで、制御装置20の動作モードには、2つの動作モードが含まれる。
第1の動作モードは、学習モデルを算出する学習モードである。制御装置20が「Q学習」を実行することで、図4に示すようなQテーブルが算出される。あるいは、制御装置20が「DQN」による強化学習を実行することで、図6に示すような重みが算出される。
第2の動作モードは、学習モードにて算出された学習モデルを用いてネットワークを制御する制御モードである。具体的には、制御モードの制御装置20は、現在のネットワークの状態sを算出し、当該状態sの場合に取り得る行動aのうち最も価値の高い行動aを選択する。制御装置20は、当該選択された行動aに対応する動作(ネットワークの制御)を実行する。
図7は、第1の実施形態に係る制御装置20の処理構成(処理モジュール)の一例を示す図である。図7を参照すると、制御装置20は、パケット転送部201と、特徴量算出部202と、ネットワーク制御部203と、強化学習実行部204と、記憶部205と、を含んで構成される。
パケット転送部201は、端末10やサーバ30から送信されたパケットを受信し、当該受信したパケットを対向する装置に転送する手段である。パケット転送部201は、ネットワーク制御部203からの通知された制御パラメータに従い、パケット転送を行う。
例えば、ネットワーク制御部203からフローウィンドウサイズの設定値が通知されると、パケット転送部201は当該通知されたフローウィンドウサイズにてパケット転送を行う。
パケット転送部201は、受信したパケットの複製を特徴量算出部202に引き渡す。
特徴量算出部202は、端末10とサーバ30の間の通信トラヒックを特徴付ける特徴量を算出する手段である。特徴量算出部202は、取得したパケットからネットワーク制御の対象となるトラヒックフローを抽出する。なお、ネットワーク制御の対象となるトラヒックフローは、送信元IP(Internet Protocol)アドレス、宛先IPアドレス、ポート番号等が同一のパケットからなるグループである。
特徴量算出部202は、抽出したトラヒックフローから上記特徴量を算出する。例えば、特徴量算出部202は、スループット、平均パケット到着間隔、パケットロス率、ジッター等を特徴量として算出する。特徴量算出部202は、算出した特徴量を算出時刻と共に記憶部205に格納する。なお、スループット等の算出については既存の技術を用いることができ、且つ、当業者にとって明らかであるのでその詳細な説明を省略する。
ネットワーク制御部203は、強化学習実行部204が生成した学習モデルから得られる行動に基づき、ネットワークを制御する手段である。ネットワーク制御部203は、強化学習の結果得られる学習モデルに基づきパケット転送部201に通知する制御パラメータを決定する。ネットワーク制御部203は、主に制御モード時に動作するモジュールである。
ネットワーク制御部203は、記憶部205から最新の(現在時刻の)特徴量を読み出す。ネットワーク制御部203は、当該読み出した特徴量から制御対象となっているネットワークの状態を推定(算出)する。
例えば、ネットワーク制御部203は、特徴量Fとネットワークの状態を対応付けたテーブル(図8参照)を参照し、現在の特徴量Fに対応するネットワークの状態を算出する。なお、トラヒックは端末10とサーバ30の間の通信により生じるものであるから、ネットワークの状態は「トラヒックの状態」と捉えることもできる。即ち、本願開示において、「トラヒックの状態」と「ネットワークの状態」は相互に読み替えが可能である。
Q学習により学習モデルが構築された場合には、ネットワーク制御部203は、記憶部205に格納されたQテーブルを参照し、現在のネットワーク状態に対応する各行動(アクション)のうち価値Qが最も高い行動を取得する。例えば、図4の例では、算出されたトラヒックの状態が「状態S1」であり、価値Q(S1、A1)、Q(S1、A2)、Q(S1、A3)のうち価値Q(S1、A1)が最大であれば、行動A1が読み出される。
あるいは、DNQにより学習モデルが構築された場合には、ネットワーク制御部203は、図5に示すようなニューラルネットワークに現在のネットワーク状態を入力し、取り得る行動のうち最も価値の高い行動を取得する。
ネットワーク制御部203は、取得した行動に応じて制御パラメータを決定し、パケット転送部201に設定(通知)する。なお、記憶部205には、行動と制御内容を対応付けたテーブル(図9参照)が格納され、ネットワーク制御部203は、当該テーブルを参照してパケット転送部201に設定する制御パラメータを決定する。
例えば、図9に示すように、制御パラメータの変更内容(更新内容)が制御内容として記載されている場合には、ネットワーク制御部203は、当該変更内容に応じた制御パラメータをパケット転送部201に通知する。
強化学習実行部204は、ネットワークを制御するための行動(制御パラメータ)を学習する手段である。強化学習実行部204は、上記説明したQ学習やDQNによる強化学習を実行し、学習モデルを生成する。強化学習実行部204は、主に学習モード時に動作するモジュールである。
強化学習実行部204は、記憶部205に格納された特徴量から現在時刻tのネットワークの状態sを算出する。強化学習実行部204は、算出した状態sの取り得る行動aのなかから上記ε-greedy方式のような方法で行動aを選択する。強化学習実行部204は、当該選択した行動に対応する制御内容(制御パラメータの更新値)をパケット転送部201に通知する。強化学習実行部204は、上記行動に応じたネットワークの変化に応じて報酬を定める。その際、強化学習実行部204は、ネットワークに対して行われた行動の報酬を、行動が行われた後のネットワークの定常性に基づき定める。
具体的には、強化学習実行部204は、行動aを起こした結果、ネットワークが定常状態にあるか否かに基づき報酬を決定する。強化学習実行部204は、式(2)や式(3)に記載された報酬rt+1を定める際、ネットワークが定常状態であれば(ネットワークが安定していれば)、正の報酬を与える。対して、ネットワークの状態が非定常状態であれば(ネットワークが不安定であれば)、強化学習実行部204は、負の報酬を与える。
強化学習実行部204は、ネットワークに対して行動を起こしたことにより変動するネットワークの状態に関する時系列データに対して統計処理を実施することで、ネットワークの定常性を判定する。
具体的には、強化学習実行部204は、上記ε-greedy方式のような方法で選択された行動aに対応するネットワークの制御を実行後の次の時刻t+1から所定期間前までの特徴量(特徴量の時系列データ)を読み出す。強化学習実行部204は、当該読み出された特徴量の時系列データに対して統計処理を施すことで、ネットワークの状態が定常状態か否かを示す評価指標を算出する。
具体的には、強化学習実行部204は、上記時系列データを自己回帰(Autoregressive model;AR)モデルによりモデル化する。ARモデルは、時系列データx1、x2、・・・、xNを下記の式(4)に示すように、現在時刻の値を、重みが付けられた過去の値の加算(線形和)により表現するものである。
Figure 0007259978000004
式(4)において、x(t)は特徴量、ε(t)はノイズ(ホワイトノイズ)、cは時刻により変化しない定数、wは重みを示す。iは過去の時刻を指定するためのサフィックスであり、pは上記所定期間前を指定する整数である。
強化学習実行部204は、上記式(4)に示される重みwを記憶部205から読み出した時系列データを用いて推定する。具体的には、強化学習実行部204は、最尤法、ユールウォーカー等のパラメータ推定手法により重みwを推定する。なお、最尤法、ユールウォーカー等のパラメータ推定手法は公知の技術を用いることができるのでその詳細な説明を省略する。
次に、強化学習実行部204は、時系列データから得られたARモデルに対して単位根検定を実施する。単位根検定を実施することで、強化学習実行部204は、時系列データの定常度(定常度合い)を得る。強化学習実行部204は、単位根検定の実行により、「非定常」に対する「定常」の割合を算出することができる。単位根検定は既存のアルゴリズムにより実現でき、且つ、当業者にとって明らかであるのでその詳細な説明を省略する。
強化学習実行部204は、単位根検定により得られた定常度に対して閾値処理(例えば、取得した値が閾値以上または未満であるかを判定する処理)を実行し、ネットワークの状態が定常状態にあるか否かを判定する。つまり、強化学習実行部204は、ネットワークの状態が、定常状態に向かう過渡的な「非定常状態」にあるのか、又は、特定の値を中心に収束している「定常状態」にあるのか判定する。
具体的には、強化学習実行部204は、定常度が閾値以上であればネットワークの状態は「定常」と判定する。強化学習実行部204は、定常度が閾値よりも小さければネットワークの状態は「非定常」と判定する。
図10は、特徴量の時系列データの一例を示す図である。図10Aに示す時系列データに対して、強化学習実行部204が単位根検定を実施すると、ネットワークの状態は「非定常」と判定される。
この場合、強化学習実行部204は、式(2)や式(3)の報酬rt+1に負の報酬(例えば、-1)を与え、Qテーブルや重みを更新する。対して、図10Bに示す時系列データに対して、強化学習実行部204が単位根検定を実施すると、ネットワークの状態は「定常」と判定される。この場合、強化学習実行部204は、式(2)や式(3)の報酬rt+1に正の報酬(例えば、+1)を与え、Qテーブルや重みを更新する。
第1の実施形態に係る制御装置20の制御モード時の動作をまとめると図11に示すフローチャートのとおりとなる。
制御装置20は、パケットを取得し、特徴量を算出する(ステップS101)。制御装置20は、当該算出された特徴量に基づきネットワークの状態を特定する(ステップS102)。制御装置20は、学習モデルを用いて、ネットワークの状態に応じた最も価値の高い行動によりネットワークを制御する(ステップS103)。
第1の実施形態に係る制御装置20の学習モード時の動作をまとめると図12に示すフローチャートのとおりとなる。
制御装置20は、パケットを取得し、特徴量を算出する(ステップS201)。制御装置20は、当該算出された特徴量に基づきネットワークの状態を特定する(ステップS202)。制御装置20は、ε-greedy方式等により現在のネットワーク状態にて取り得る行動を選択する(ステップS203)。制御装置20は、当該選択された行動によりネットワークを制御する(ステップS204)。制御装置20は、特徴量の時系列データを用いてネットワークの定常性を判定する(ステップS205)。制御装置20は、判定結果により報酬を定め(ステップS206)、学習情報(Qテーブル、重み)を更新する(ステップS207)。
続いて、端末10の種類ごとに制御装置20の動作について具体的に説明する。
[端末がドローンの場合]
端末10がドローンの場合、ネットワークの状態を示す指標(特徴量)として、例えば、ドローンからサーバ30へ向けて送信されるパケットの平均パケット到着間隔が選択される。サーバ30は、ドローンに対して制御パケット(制御コマンドを含むパケット)を送信する。当該制御パケットに対するドローンからの応答パケット(肯定応答、否定応答)の平均パケット到着間隔が特徴量として選択される。
制御装置20は、サーバ30とドローンの間のパケット送受信の間隔が安定するように、制御パラメータを決定しネットワークの制御を行う。端末10がドローンの場合の取り得る行動(変更可能な制御パラメータ)としては、サーバ30から取得した制御パケットを格納するバッファからのパケット読み出し間隔(パケット送信間隔)が考えられる。
強化学習実行部204は、ドローンからサーバ30に送信される応答パケットの平均パケット到着間隔が安定するように、バッファから制御パケットを読み出すパラメータを学習する。サーバ30がドローン(制御対象)を遠隔制御するアプリケーションでは、ドローンとサーバ30間で送受信されるパケット(制御パケット、応答パケット)が安定して相手側に届くことが重視される。
ここで、制御パケットや応答パケットのパケットサイズはあまり大きくない。そのため、サーバ30からのスループットが高いが、パケットの送受信が安定しない状況(一度に多くの情報を送れるがパケットの到着にばらつきがある状況)よりも、スループットは低いがパケットの送受信が安定する状況の方が、ドローンの制御では価値が高い。
第1の実施形態に係る制御装置20は、ネットワークの状態(トラヒックの状態)を特徴付ける特徴量を適切に選択(例えば、平均パケット到着間隔を選択)することで、ドローンの遠隔制御というアプリケーションに適したネットワーク制御を実現できる。
[端末がWEBカメラの場合]
上記説明では、報酬rt+1を決定する条件(基準)としてネットワークの定常性を用いる場合について説明したが、上記定常性に他の基準を加えて報酬rt+1を決定してもよい。ここでは、端末10がWEBカメラである場合を例に取り、報酬rt+1の決定に「ネットワークの定常性」以外の項目を考慮する場合について説明する。
端末10がWEBカメラの場合、ネットワークの状態を示す指標(特徴量)として、例えば、WEBカメラからサーバ30に流れるトラヒックのスループットが選択される。強化学習実行部204は、WEBカメラからサーバ30へのスループットが目標値の近傍で安定するように、学習モデルを算出する。
例えば、端末10、サーバ30との間で形成されるTCPセッションのフローウィンドウサイズが制御パラメータに設定され、上記目標(スループットが目標値で安定)を実現するような行動が学習される。強化学習実行部204は、特徴量算出部202が算出した特徴量(スループット)の時系列データを用いてネットワークの定常性を判定する。
続いて、強化学習実行部204は、特徴量(スループット)の範囲に応じて報酬rt+1を決定する。例えば、目標値が閾値TH21以上、且つ、閾値TH22以下とすれば、強化学習実行部204は、図13に示すような方針(ポリシ)にて報酬rt+1を決定する。このような報酬の与え方により得られた学習モデルを用いることで、WEBカメラからのスループットが目標とする値近傍で安定するようにネットワークは制御される。
具体的には、制御装置20によるネットワーク制御により、図14Aに示すようなネットワークの状態(スループットが目標値近辺で安定)を実現できる。換言すれば、スループットの範囲を考慮して報酬rt+1を決定することで、図14Bに示すようなネットワークの状態に陥ることが回避される。図14Bでは、最終的にネットワークの状態が安定しているが、定常時のスループットは目標値から大きく乖離している。
なお、図13には、スループットが所定の範囲内であれば正の報酬を与える場合を記載したが、スループットが所定の値以上の場合に正の報酬を与えてもよい(図15参照)。図14Bの状況とは逆に、目標値から遠く離れた高い値でスループットが安定することが許容できる場合には、図15に示すように報酬rt+1が決定されてもよい。
スループットに設ける制限に関しては、制御装置20のリソース(通信リソース)を考慮して決定すればよい。例えば、制御パラメータにフローウィンドウサイズを選択した場合、当該ウィンドウサイズを大きくすればスループットは高い値で安定すると考えられる。しかしながら、大きなフローウィンドウサイズを用意するためにはメモリ(リソース)の消費が大きくなり、他の端末10に割り当て可能なリソースが減少してしまう。制御装置20は、上記のようなメリット、デメリットを考慮してテーブル更新ポリシを決定すればよい。
[端末がスマートフォンの場合]
上記では、1つの特徴量によりネットワークの定常性を判定したりする場合について説明したが、複数の特徴量によりネットワークの定常性の判定等が行われてもよい。以下、端末10がスマートフォンである場合を例に取り、ネットワークの定常性が複数の特徴量により判定される場合について説明する。
ここでは、サーバ30から動画が配信され、スマートフォン(端末10)にて当該動画が再生される場合を想定する。特徴量算出部202は、サーバ30からスマートフォンに流れるトラヒックのスループットと平均パケット到着間隔を算出する。
強化学習実行部204は、当該2つの特徴量からネットワークの定常性を判定する。具体的には、強化学習実行部204は、スループットの時系列データに基づきスループットが安定しているか否かを判定する。同様に、強化学習実行部204は、平均パケット到着間隔の時系列データに基づき平均パケット到着間隔が安定しているか否かを判定する。
強化学習実行部204は、スループット及び平均パケット到着間隔が共に定常状態にある場合に、ネットワークが定常状態にあると判定し、報酬rt+1に正の報酬を与え、他の場合には負の報酬を与える。
以上のように、第1の実施形態に係る制御装置20は、ネットワークの状態を、ネットワークに流れるトラヒックを特徴付ける特徴量を用いて推定する。制御装置20は、ネットワークに対して行った行動(制御パラメータの変更)により得られる状態の時系列変化に応じて、当該行動に対する報酬を定める。そのため、ネットワークにて提供されるサービスやアプリケーションレベルで求められる、「ネットワークの安定性」に高い報酬が与えられ、アプリケーション等に適したネットワーク品質の向上が実現できる。即ち、本願開示では、強化学習の際にネットワークの状態が安定している収束状態に価値が高いものと捉え、そのような状況の場合に学習器が環境(ネットワーク)に適応できていると考える、報酬を決定している。
[第2の実施形態]
続いて、第2の実施形態について図面を参照して詳細に説明する。
第1の実施形態では、ネットワークに流されるトラヒックを特徴付ける特徴量(例えば、スループット)によりネットワークの状態を推定している。第2の実施形態では、端末10におけるQoE(ユーザ体感品質)やQoC(制御品質)に基づきのネットワークの状態を決定する場合について説明する。
例えば、端末10がスマートフォンであって、動画再正アプリケーションが動作している場合を考える。この場合、端末10は、再生動画の画質、ビットレート、途絶回数(バッファが空となった回数)、フレームレート等を制御装置20に通知する。あるいは、端末10は、ITU(International Telecommunication Union)-T勧告P.1203に規定されたMOS(Mean Opinion Score)値を制御装置20に送信してもよい。
あるいは、スマートフォンにてWEBページの閲覧(ブラウザが動作)が行われている場合には、端末10は、ページ表示までの初期待機時間を制御装置20に通知してもよい。
例えば、端末10がロボットである場合には、ロボットは、制御コマンドの受信間隔、作業完了時間、作業成功回数等を制御装置20に通知してもよい。
あるいは、端末10が監視カメラである場合には、監視カメラは、監視対象(例えば、人の顔、物体等)の認証率、認証回数等を制御装置20に通知してもよい。
制御装置20は、端末10から当該端末10におけるQoEを示す値(例えば、上記初期待機時間等)を取得し、当該値に基づきネットワークの定常性を判定し、報酬rt+1を決定してもよい。その際、制御装置20は、第1の実施形態にて説明した方法と同様にして、端末10から取得したQoEの時系列データに対して単位根検定を実施し、ネットワークの定常性を評価すればよい。
あるいは、制御装置20は、端末10とサーバ30の間に流れるトラヒックから上記QoEを示す値を推定してもよい。例えば、制御装置20は、スループットからビットレートを推定し、当該推定値に基づきネットワークの定常性を判定してもよい。なお、スループットからビットレートを推定する際には、以下の参考文献1に記載された方法を用いればよい。
[参考文献1]:国際公開第2019/044065号
以上のように、第2の実施形態に係る制御装置20は、ネットワークの状態を、ユーザ体感品質(QoE)や制御品質(QoC)から推定し、ユーザ体感品質等が安定している場合に高い報酬を与えても良い。例えば、ユーザが端末を使用して動画を視聴する場合を考える。この場合、本願開示では、フレームレートが頻繁に変わるネットワーク環境(フレームレートが安定しない環境)よりも、低いフレームレートであっても一定しているネットワーク環境の方が、ネットワーク品質が高いと判断している。換言すれば、制御装置20は、このような高いネットワーク品質を実現する制御パラメータを強化学習により学習する。
続いて、通信ネットワークシステムを構成する各装置のハードウェアについて説明する。図16は、制御装置20のハードウェア構成の一例を示す図である。
制御装置20は、情報処理装置(所謂、コンピュータ)により構成可能であり、図16に例示する構成を備える。例えば、制御装置20は、プロセッサ311、メモリ312、入出力インターフェイス313及び通信インターフェイス314等を備える。上記プロセッサ311等の構成要素は内部バス等により接続され、相互に通信可能に構成されている。
但し、図16に示す構成は、制御装置20のハードウェア構成を限定する趣旨ではない。制御装置20は、図示しないハードウェアを含んでもよいし、必要に応じて入出力インターフェイス313を備えていなくともよい。また、制御装置20に含まれるプロセッサ311等の数も図16の例示に限定する趣旨ではなく、例えば、複数のプロセッサ311が制御装置20に含まれていてもよい。
プロセッサ311は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)等のプログラマブルなデバイスである。あるいは、プロセッサ311は、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等のデバイスであってもよい。プロセッサ311は、オペレーティングシステム(OS;Operating System)を含む各種プログラムを実行する。
メモリ312は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等である。メモリ312は、OSプログラム、アプリケーションプログラム、各種データを格納する。
入出力インターフェイス313は、図示しない表示装置や入力装置のインターフェイスである。表示装置は、例えば、液晶ディスプレイ等である。入力装置は、例えば、キーボードやマウス等のユーザ操作を受け付ける装置である。
通信インターフェイス314は、他の装置と通信を行う回路、モジュール等である。例えば、通信インターフェイス314は、NIC(Network Interface Card)等を備える。
制御装置20の機能は、各種処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ312に格納されたプログラムをプロセッサ311が実行することで実現される。また、当該プログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transitory)なものとすることができる。即ち、本発明は、コンピュータプログラム製品として具現することも可能である。また、上記プログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。
なお、端末10、サーバ30も制御装置20と同様に情報処理装置により構成可能であり、その基本的なハードウェア構成は制御装置20と相違する点はないので説明を省略する。
[変形例]
なお、上記実施形態にて説明した通信ネットワークシステムの構成、動作等は例示であって、システムの構成等を限定する趣旨ではない。例えば、制御装置20は、ネットワークを制御する装置と学習モデルを生成する装置に分離されていてもよい。あるいは、学習情報(学習モデル)を記憶する記憶部205は、外部のデータベースサーバ等により実現されてもよい。即ち、本願開示は、学習手段、制御手段、記憶手段等を含むシステムとして実施されてもよい。
上記実施形態では、特徴量の時系列データに対して単位根検定を実施することとで、ネットワークの定常度を算出している。しかし、ネットワークの定常度は他の指標により算出されてもよい。例えば、強化学習実行部204は、データのばらつき度合いを示す標準偏差を計算し、「平均-標準偏差」が閾値以上の場合にネットワークは定常状態であると判定してもよい。
上記実施形態では、1つの閾値を用いてネットワークの定常性(安定性)を判定しているが、複数の閾値を用いてより細かくネットワークの定常度合いが算出されてもよい。例えば、「極めて安定」、「安定」、「不安定」、「極めて不安定」のように4段階でネットワークの定常性が判定されてもよい。この場合、ネットワークの定常度合いに応じて報酬が決められていてもよい。
なお、端末10はセンサ装置である場合がある。センサ装置は、オン/オフモデルに従う通信パターン(通信トラヒック)を発生する。つまり、端末10がセンサ装置等であれば、データ(パケット)がネットワークに流れる場合と流れない場合(無通信状態)が生じ得る。そのため、制御装置20が、トラヒック(特徴量)の時系列データそのものを使って定常性判定(単位根検定)を実施するのではなく、変動パターンにより定常性が判定されてもよい。制御装置20は、特徴量が上下する時間間隔に関する時系列データを用いてネットワークの定常性を判定してもよい。あるいは、制御装置20は、事前にオン/オフモデルに従うアプリケーションを把握している場合には、無通信状態は報酬に反映しない等の対応を行ってもよい。即ち、制御装置20は、ネットワークの状態が「通信状態」にある場合に強化学習の報酬を与えるようにしてもよい。
上記実施形態では、制御装置20は、トラヒックフローを制御の対象(制御単位)とする場合について説明した。しかし、制御装置20は、端末10単位、又は、複数の端末10をまとめたグループを制御の対象としてもよい。つまり、同じ端末10であってもアプリケーションが異なればポート番号等が異なり、異なるフローとして扱われる。制御装置20は、同じ端末10から送信されるパケットには同じ制御(制御パラメータの変更)を適用してもよい。あるいは、制御装置20は、例えば、同じ種類の端末10を1つのグループとして扱い、同じグループに属する端末10から送信されるパケットに対して同じ制御を適用してもよい。
上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、例えば各処理を並行して実行する等、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
ネットワークを制御するための行動を学習する、学習部(101、204)と、
前記学習部(101、204)が生成した学習情報を記憶する、記憶部(102、205)と、を備え、
前記学習部(101、204)は、
前記ネットワークに対して行われた行動の報酬を、前記行動が行われた後のネットワークの定常性に基づき定める、制御装置(20、100)。
[付記2]
前記学習部(101、204)は、
前記行動が行われた後のネットワークが定常状態であれば、前記ネットワークに対して行われた行動に正の報酬を与え、
前記行動が行われた後のネットワークが非定常状態であれば、前記ネットワークに対して行われた行動に負の報酬を与える、付記1に記載の制御装置(20、100)。
[付記3]
前記学習部(101、204)は、
前記ネットワークに対して行動を起こしたことにより変動するネットワークの状態に関する時系列データに基づいて前記ネットワークの定常性を判定する、付記1又は2に記載の制御装置(20、100)。
[付記4]
前記学習部(101、204)は、前記ネットワークの状態を、前記ネットワークに流れるトラヒックを特徴付ける特徴量、ユーザ体感品質及び制御品質のうち少なくとも1つから推定する、付記3に記載の制御装置(20、100)。
[付記5]
前記学習部(101、204)が生成した学習モデルから得られる行動に基づき、前記ネットワークを制御する、制御部(203)をさらに備える、付記1乃至4のいずれか一つに記載の制御装置(20、100)。
[付記6]
ネットワークを制御するための行動を学習するステップと、
前記学習により生成された学習情報を記憶するステップと、
を含み、
前記学習するステップは、
前記ネットワークに対して行われた行動の報酬を、前記行動が行われた後のネットワークの定常性に基づき定める、方法。
[付記7]
前記学習するステップは、
前記行動が行われた後のネットワークが定常状態であれば、前記ネットワークに対して行われた行動に正の報酬を与え、
前記行動が行われた後のネットワークが非定常状態であれば、前記ネットワークに対して行われた行動に負の報酬を与える、付記6に記載の方法。
[付記8]
前記学習するステップは、
前記ネットワークに対して行動を起こしたことにより変動するネットワークの状態に関する時系列データに基づいて前記ネットワークの定常性を判定する、付記6又は7に記載の方法。
[付記9]
前記学習するステップは、前記ネットワークの状態を、前記ネットワークに流れるトラヒックを特徴付ける特徴量、ユーザ体感品質及び制御品質のうち少なくとも1つから推定する、付記8に記載の方法。
[付記10]
前記学習するステップにより生成された学習モデルから得られる行動に基づき、前記ネットワークを制御するステップをさらに含む、付記6乃至9のいずれか一つに記載の方法。
[付記11]
ネットワークを制御するための行動を学習する、学習手段(101、204)と、
前記学習手段が生成した学習情報を記憶する、記憶手段(102、205)と、を含み、
前記学習手段(101、204)は、
前記ネットワークに対して行われた行動の報酬を、前記行動が行われた後のネットワークの定常性に基づき定める、システム。
[付記12]
前記学習手段(101、204)は、
前記行動が行われた後のネットワークが定常状態であれば、前記ネットワークに対して行われた行動に正の報酬を与え、
前記行動が行われた後のネットワークが非定常状態であれば、前記ネットワークに対して行われた行動に負の報酬を与える、付記11に記載のシステム。
[付記13]
前記学習手段(101、204)は、
前記ネットワークに対して行動を起こしたことにより変動するネットワークの状態に関する時系列データに基づいて前記ネットワークの定常性を判定する、付記11又は12に記載のシステム。
[付記14]
前記学習手段(101、204)は、前記ネットワークの状態を、前記ネットワークに流れるトラヒックを特徴付ける特徴量、ユーザ体感品質及び制御品質のうち少なくとも1つから推定する、付記13に記載のシステム。
[付記15]
前記学習手段(101、204)が生成した学習モデルから得られる行動に基づき、前記ネットワークを制御する、制御手段(203)をさらに備える、付記11乃至14のいずれか一つに記載のシステム。
[付記16]
コンピュータ(311)に、
ネットワークを制御するための行動を学習する処理と、
前記学習により生成された学習情報を記憶する処理と、
を実行させ、
前記学習する処理は、
前記ネットワークに対して行われた行動の報酬を、前記行動が行われた後のネットワークの定常性に基づき定める、プログラム。
なお、引用した上記の先行技術文献の各開示は、本書に引用をもって繰り込むものとする。以上、本発明の実施形態を説明したが、本発明はこれらの実施形態に限定されるものではない。これらの実施形態は例示にすぎないということ、及び、本発明のスコープ及び精神から逸脱することなく様々な変形が可能であるということは、当業者に理解されるであろう。
10 端末
20、100 制御装置
30 サーバ
101 学習部
102、205 記憶部
201 パケット転送装置
202 特徴量算出部
203 ネットワーク制御部
204 強化学習実行部
311 プロセッサ
312 メモリ
313 入出力インターフェイス
314 通信インターフェイス

Claims (10)

  1. ネットワークを制御するための行動を学習する、学習手段と、
    前記学習手段が生成した学習情報を記憶する、記憶手段と、を備え、
    前記学習手段は、
    前記ネットワークに対して行われた行動の報酬を、前記行動が行われた後のネットワークを介して提供されたアプリケーションの定常性に基づき定める、制御装置。
  2. ネットワークを制御するための行動を学習するステップと、
    前記学習により生成された学習情報を記憶するステップと、
    を含み、
    前記学習するステップは、
    前記ネットワークに対して行われた行動の報酬を、前記行動が行われた後のネットワークを介して提供されたアプリケーションの定常性に基づき定める、方法。
  3. 前記学習するステップは、
    前記行動が行われた後のネットワークを介して提供された前記アプリケーションが定常状態であれば、前記ネットワークに対して行われた行動に正の報酬を与え、
    前記行動が行われた後のネットワークを介して提供された前記アプリケーションが非定常状態であれば、前記ネットワークに対して行われた行動に負の報酬を与える、請求項2に記載の方法。
  4. 前記学習するステップは、
    前記ネットワークに対して行動を起こしたことにより変動するネットワークを介して提供された前記アプリケーションの状態に関する時系列データに基づいて前記ネットワークを介して提供された前記アプリケーションの定常性を判定する、請求項2又は3に記載の方法。
  5. 前記学習するステップは、前記ネットワークを介して提供された前記アプリケーションの状態を、前記ネットワークに流れるトラヒックを特徴付ける特徴量、ユーザ体感品質及び制御品質のうち少なくとも1つから推定する、請求項4に記載の方法。
  6. 前記学習するステップにより生成された学習モデルから得られる行動に基づき、前記ネットワークを制御するステップをさらに含む、請求項2乃至5のいずれか一項に記載の方法。
  7. ネットワークを制御するための行動を学習する、学習手段と、
    前記学習手段が生成した学習情報を記憶する、記憶手段と、を含み、
    前記学習手段は、
    前記ネットワークに対して行われた行動の報酬を、前記行動が行われた後のネットワークを介して提供されたアプリケーションの定常性に基づき定める、システム。
  8. 前記学習手段は、
    前記行動が行われた後のネットワークを介して提供された前記アプリケーションが定常状態であれば、前記ネットワークに対して行われた行動に正の報酬を与え、
    前記行動が行われた後のネットワークを介して提供された前記アプリケーションが非定常状態であれば、前記ネットワークに対して行われた行動に負の報酬を与える、請求項7に記載のシステム。
  9. 前記学習手段は、
    前記ネットワークに対して行動を起こしたことにより変動するネットワークを介して提供された前記アプリケーションの状態に関する時系列データに基づいて前記ネットワークを介して提供された前記アプリケーションの定常性を判定する、請求項7又は8に記載のシステム。
  10. 前記学習手段は、前記ネットワークを介して提供された前記アプリケーションの状態を、前記ネットワークに流れるトラヒックを特徴付ける特徴量、ユーザ体感品質及び制御品質のうち少なくとも1つから推定する、請求項9に記載のシステム。
JP2021550731A 2019-09-30 2019-09-30 制御装置、方法及びシステム Active JP7259978B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/038454 WO2021064766A1 (ja) 2019-09-30 2019-09-30 制御装置、方法及びシステム

Publications (3)

Publication Number Publication Date
JPWO2021064766A1 JPWO2021064766A1 (ja) 2021-04-08
JPWO2021064766A5 JPWO2021064766A5 (ja) 2022-06-07
JP7259978B2 true JP7259978B2 (ja) 2023-04-18

Family

ID=75336997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550731A Active JP7259978B2 (ja) 2019-09-30 2019-09-30 制御装置、方法及びシステム

Country Status (3)

Country Link
US (1) US20220337489A1 (ja)
JP (1) JP7259978B2 (ja)
WO (1) WO2021064766A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11875478B2 (en) * 2020-08-28 2024-01-16 Nvidia Corporation Dynamic image smoothing based on network conditions
WO2023228256A1 (ja) * 2022-05-23 2023-11-30 日本電信電話株式会社 体感品質劣化推定装置、機械学習方法、体感品質劣化推定方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009027303A (ja) 2007-07-18 2009-02-05 Univ Of Electro-Communications 通信装置および通信方法
JP2013106202A (ja) 2011-11-14 2013-05-30 Fujitsu Ltd パラメータ設定装置、コンピュータプログラム及びパラメータ設定方法
JP2019041338A (ja) 2017-08-28 2019-03-14 日本電信電話株式会社 無線通信システム、無線通信方法および集中制御局
US20190141113A1 (en) 2017-11-03 2019-05-09 Salesforce.Com, Inc. Simultaneous optimization of multiple tcp parameters to improve download outcomes for network-based mobile applications
WO2019176997A1 (ja) 2018-03-14 2019-09-19 日本電気株式会社 トラヒック分析装置、方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5772345B2 (ja) * 2011-07-25 2015-09-02 富士通株式会社 パラメータ設定装置、コンピュータプログラム及びパラメータ設定方法
CN109802924B (zh) * 2017-11-17 2022-05-17 华为技术有限公司 一种识别加密数据流的方法及装置
US11360757B1 (en) * 2019-06-21 2022-06-14 Amazon Technologies, Inc. Request distribution and oversight for robotic devices

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009027303A (ja) 2007-07-18 2009-02-05 Univ Of Electro-Communications 通信装置および通信方法
JP2013106202A (ja) 2011-11-14 2013-05-30 Fujitsu Ltd パラメータ設定装置、コンピュータプログラム及びパラメータ設定方法
JP2019041338A (ja) 2017-08-28 2019-03-14 日本電信電話株式会社 無線通信システム、無線通信方法および集中制御局
US20190141113A1 (en) 2017-11-03 2019-05-09 Salesforce.Com, Inc. Simultaneous optimization of multiple tcp parameters to improve download outcomes for network-based mobile applications
WO2019176997A1 (ja) 2018-03-14 2019-09-19 日本電気株式会社 トラヒック分析装置、方法及びプログラム

Also Published As

Publication number Publication date
WO2021064766A1 (ja) 2021-04-08
JPWO2021064766A1 (ja) 2021-04-08
US20220337489A1 (en) 2022-10-20

Similar Documents

Publication Publication Date Title
Jay et al. A deep reinforcement learning perspective on internet congestion control
Jay et al. Internet congestion control via deep reinforcement learning
Luo et al. Scaling geo-distributed network function chains: A prediction and learning framework
JP7259978B2 (ja) 制御装置、方法及びシステム
CN107846371B (zh) 一种多媒体业务QoE资源分配方法
CN112667400B (zh) 边缘自治中心管控的边云资源调度方法、装置及系统
Math et al. Reliable federated learning systems based on intelligent resource sharing scheme for big data internet of things
JP7251646B2 (ja) 制御装置、方法及びシステム
CN111211984B (zh) 优化cdn网络的方法、装置及电子设备
CN114281718A (zh) 一种工业互联网边缘服务缓存决策方法及系统
Tosounidis et al. Deep Q-learning for load balancing traffic in SDN networks
CN113778691A (zh) 一种任务迁移决策的方法、装置及系统
CN114090108A (zh) 算力任务执行方法、装置、电子设备及存储介质
GB2603852A (en) Performing network congestion control utilizing reinforcement learning
WO2023048609A1 (en) Device and method for scaling microservices
JP7251647B2 (ja) 制御装置、制御方法及びシステム
JP7347525B2 (ja) システム、方法及び制御装置
Donassolo et al. Online reconfiguration of IoT applications in the fog: the information-coordination trade-off
CN114706433B (zh) 设备控制方法、装置以及电子设备
Wang et al. Deep Reinforcement Learning Based Resource Allocation for Cloud Native Wireless Network
JP7231049B2 (ja) システム、方法及び制御装置
US20220019871A1 (en) Method for Adapting a Software Application Executed in a Gateway
Luo et al. A novel Congestion Control algorithm based on inverse reinforcement learning with parallel training
Çetinkaya et al. Offline Reinforcement Learning for Bandwidth Estimation in RTC Using a Fast Actor and Not-So-Furious Critic
CN117793805B (zh) 动态用户随机接入的移动边缘计算资源分配方法与系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R151 Written notification of patent or utility model registration

Ref document number: 7259978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151