WO2023242926A1 - 学習管理装置、学習管理方法、及びプログラム - Google Patents

学習管理装置、学習管理方法、及びプログラム Download PDF

Info

Publication number
WO2023242926A1
WO2023242926A1 PCT/JP2022/023689 JP2022023689W WO2023242926A1 WO 2023242926 A1 WO2023242926 A1 WO 2023242926A1 JP 2022023689 W JP2022023689 W JP 2022023689W WO 2023242926 A1 WO2023242926 A1 WO 2023242926A1
Authority
WO
WIPO (PCT)
Prior art keywords
task
learning
unit
past
learning management
Prior art date
Application number
PCT/JP2022/023689
Other languages
English (en)
French (fr)
Inventor
絵莉奈 竹下
友哉 小杉
友輝 山田
章弘 森田
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2022/023689 priority Critical patent/WO2023242926A1/ja
Publication of WO2023242926A1 publication Critical patent/WO2023242926A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • Non-Patent Document 4 suggests that the prediction accuracy may decrease as the number of tasks increases. As described above, there has been a need for a technique that improves the continuous learning method by using tasks divided an appropriate number of times.
  • An object of the present disclosure made in view of such circumstances, is to provide a technique for improving the continuous learning method by using tasks divided an appropriate number of times.
  • the learning management device learning management method, and program according to the present disclosure, it is possible to provide a technique for improving continuous learning methods using tasks divided an appropriate number of times.
  • the communication unit 13 includes one or more communication interfaces connected to the network 30.
  • the communication interface corresponds to, for example, a mobile communication standard, a wired LAN standard, or a wireless LAN standard, but is not limited to these and may correspond to any communication standard.
  • the communication unit 13 receives information used for the operation of the learning management device 10 and transmits information obtained by the operation of the learning management device 10.
  • the input unit 14 includes at least one input interface.
  • the input interface is, for example, a physical key, a capacitive key, a pointing device, a touch screen integrated with the display, or a microphone.
  • the input unit 14 receives an operation for inputting information used for the operation of the learning management device 10.
  • the input unit 14 may be connected to the learning management device 10 as an external input device instead of being included in the learning management device 10.
  • any method such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), or Bluetooth (registered trademark) can be used.
  • the output unit 15 includes at least one output interface.
  • the output interface is, for example, a display or a speaker.
  • the display is, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display.
  • the output unit 15 outputs information obtained by the operation of the learning management device 10.
  • the output unit 15 may be connected to the learning management device 10 as an external output device instead of being included in the learning management device 10.
  • any method such as USB, HDMI (registered trademark), or Bluetooth (registered trademark) can be used.
  • the control unit 11 includes a log acquisition unit 111, a determination unit 112, a task generation unit 113, a deletion unit 114, and a learning prediction unit 115.
  • the learning management device 10 is provided with each section, but a configuration may be adopted in which a device separate from the learning management device 10 is provided with each section.
  • a first device separate from the learning management device 10 may be configured to have the continuous learning function of the learning prediction unit 115, and a further separate second device may be configured to have the prediction function of the learning prediction unit 115. .
  • the determining unit 112 determines whether a change in the trend of network parameters has occurred based on the log information.
  • a change in trend refers to a change in the rate of increase or decrease in traffic flow rate over a predetermined period of time. Any method may be used to determine whether there is a change in trend.
  • the determining unit 112 may determine that there is a change in the trend based on a method using a moving average, seasonal difference, etc. that is commonly used in time series analysis.
  • the average value of time-series data over a predetermined period is plotted as the average value at that point, and a moving average line is generated by smoothing the time-series data.
  • the seasonal difference refers to, for example, the difference from the same period of the previous year, and using the seasonal difference with period p is a method that allows you to visualize changes in time-series data from which seasonal fluctuations have been removed. Since the moving average and the seasonal difference are well-known techniques, detailed explanations thereof will be omitted.
  • the determination unit 112 attaches a moving average line to the acquired log information using a moving average method.
  • FIG. 4 shows log information with a moving average line attached.
  • the determining unit 112 determines whether there is a change in the trend of the traffic flow log based on the log information in FIG. 4 .
  • the determining unit 112 determines that there is a trend change in traffic flow rate between the logs before time A and the logs after time A based on the moving average line shown in FIG.
  • the determining unit 112 determines that there is a change in trend between the logs before time B and the logs after time B, and the difference between the logs before time C and the logs after time C.
  • the timing at which the determining unit 112 determines a change in trend may be freely set.
  • the determination unit 112 may be set to determine a change in the trend every few hours, or the determination unit 112 may be set to determine a change in the trend every few days.
  • the conditions under which the determining unit 112 determines a change in trend may be set, for example, according to the amount of network communication that can be used during a predetermined period contracted by each of a plurality of users using the network 30. For example, the determining unit 112 may determine that there is a change in the trend when the contracted upper limit of network traffic is exceeded. In this manner, the determining unit 112 can determine whether the amount of network communication under the contract is excessive or insufficient relative to the user's demand as a change in the trend.
  • the task generation unit 113 divides the subsequent log information into a new task from the past task. For example, assume that the determination unit 112 determines that a change in the trend of the traffic flow log has occurred at time A based on the log information in FIG. In this case, the task generation unit 113 divides the log information after time A into a new task from the past logs from the time when log acquisition started until time A, as shown in FIG. It is assumed that the past log is called task A. Similarly, assume that the determining unit 112 determines that there is a change in the trend of the traffic flow log at times B and C.
  • the task generation unit 113 divides the log from time A to time B, and further divides the log from time B onward to time C. Assume that the log from time A to time B is called task B, and the log from time B to time C is called task C. In this way, the task generation unit 113 generates task A, task B, and task C. Similarly, when it is determined that there is a change in the trend for logs after time C, the task generation unit 113 divides the subsequent log information from past tasks and generates tasks.
  • the task generation unit 113 stores past tasks in the storage unit 12.
  • the task generation unit 113 also outputs the generated new task to the deletion unit 114.
  • Past tasks may exist for the period during which the log acquisition unit 111 acquired logs. For example, at time B, the task generation unit 113 stores task A as a past task in the storage unit 12, and outputs task B as a generated task to the deletion unit 114. Then, at time C, the task generation unit 113 stores task B in the storage unit 12 in addition to task A as a past task, and outputs task C as the generated task to the deletion unit 114.
  • the deletion unit 114 first determines whether the output task and past tasks are similar. Specifically, the deletion unit 114 reads the past task from the storage unit 12 and compares it with the new task output from the task generation unit 113. For example, assume that task generation section 113 outputs task C to deletion section 114 as a new task at time C. At this point, the storage unit 12 has stored task A and task B in the storage unit 12. The deletion unit 114 reads task A and task B from the storage unit 12 and compares them with task C output from the task generation unit 113.
  • deletion unit 114 can use dynamic time warping (DTW) to determine whether tasks are similar.
  • DTW dynamic time warping
  • the dynamic time warping method calculates the similarity between two waveform patterns.
  • the dynamic time warping method multiple arbitrary points are taken on each of two temporal waveform patterns, the distance (cost) between the points is calculated by brute force, and the total value of the elements that make up the cost path is calculated. is calculated as the DTW distance. The smaller the value of the DTW distance, the greater the similarity between the two patterns, and the larger the value of the DTW distance, the smaller the similarity. Since the dynamic time warping method is a known technique, detailed explanation will be omitted.
  • the deletion unit 114 may calculate the degree of similarity between tasks using the degree of similarity that is set in advance as a stepwise value according to the value of the DTW distance. For example, when the dynamic time warping method is used for two tasks, the deletion unit 114 calculates the degree of similarity as "large” when the value of the DTW distance is less than the first predetermined value, and the value of the DTW distance is calculated as "large”.
  • the degree of similarity may be calculated as “medium,” and if it is greater than or equal to the second predetermined value, the degree of similarity may be calculated as “small.” If the degree of similarity is "high” or "medium”, the deletion unit 114 may determine that the output task is similar to a past task.
  • the deletion unit 114 compares task A, which is a past task shown in FIG. 6, with the output task C, and calculates that the degree of similarity is "high.” In this case, the deletion unit 114 determines that task A and task C are similar. Assume that the deletion unit 114 further compares task B and task C, which are past tasks, and calculates that the degree of similarity is "small.” In this case, the deletion unit 114 determines that task B and task C are not similar.
  • the deletion unit 114 is not limited to the above, and may be able to determine whether two tasks are similar using an arbitrary correlation function.
  • the deletion unit 114 deletes the past task. In this embodiment, the deletion unit 114 determines that past task A and output task C are similar. Therefore, the deletion unit 114 deletes the task A from the storage unit 12. Additionally, the deletion unit 114 stores task C in the storage unit 12.
  • the deletion unit 114 deletes the past task.
  • the deletion unit 114 calculates the degree of similarity between the new task and the past task using a dynamic time warping method.
  • the learning prediction unit 115 performs continuous learning using the tasks stored in the storage unit 12 and predicts future network parameters.
  • Continuous learning refers to performing relearning to generate a new model by using a trained model and data subsequent to the learning data used when the trained model was generated as new learning data.
  • Continuous learning can regenerate a learning model by following changes in learning data and reviewing a trained learning model. Any machine learning method such as a neural network or deep learning may be used for continuous learning.
  • the learning prediction unit 115 reads out task B and task C that have not been deleted from the storage unit 12, and uses them as learning data to generate a new learning model that outputs future network parameters. .
  • This new learning model recognizes tasks with changing trends and logs that are clearly not similar as separate tasks and uses them as training data, so it can be used more accurately when there is a similar trend to these tasks. Allows prediction.
  • the learning model is generated using only the minimum necessary tasks without using similar tasks as training data, it is less effective than when multiple similar tasks are used as training data. , it is possible to suppress a decline in prediction accuracy.
  • the learning prediction unit 115 applies the newly generated learning model to predict future network parameters. Predictions made using the new learning model can more accurately predict trends in network parameters observed in the sections of task A and task B.
  • ⁇ Program> In order to function as the learning management device 10 described above, it is also possible to use a computer that can execute program instructions.
  • the computer may be a general-purpose computer, a dedicated computer, a workstation, a PC (Personal Computer), an electronic notepad, or the like.
  • Program instructions may be program code, code segments, etc. to perform necessary tasks.
  • the program may be recorded on a computer-readable recording medium. Using such a recording medium, it is possible to install a program on a computer.
  • the recording medium on which the program is recorded may be a non-transitory recording medium.
  • the non-transitory recording medium is not particularly limited, and may be, for example, a CD-ROM, a DVD-ROM, a USB memory, or the like. Further, this program may be downloaded from an external device via a network.
  • step S1 the log acquisition unit 111 of the learning management device 10 acquires time-series log information used for continuous learning, showing logs of network parameters that occur at predetermined time intervals.
  • the log acquisition unit 111 is.
  • the log information is acquired by receiving log information from the network parameter collection device N via the communication unit 13.
  • the log acquisition unit 111 outputs the acquired log information to the determination unit 112.
  • step S6 if the new task is similar to a past task stored in the storage unit 12, the deletion unit 114 deletes the past task. In this example, it is determined that task C and task A are similar. Therefore, the deletion unit 114 deletes the task A from the storage unit 12. Additionally, the deletion unit 114 stores task C in the storage unit 12.
  • step S7 the learning prediction unit 115 generates a new learning model that outputs future network parameters.
  • the learning prediction unit 115 reads out task B and task C that have not been deleted from the storage unit 12, and uses them as learning data to create a new learning model that outputs future network parameters. generate.
  • FIG. 12 shows an example in which tasks are divided at a single time interval without using changes in trends in network parameters as a criterion for division as in this embodiment.
  • tasks A' to C' are divided and generated at times A' to C'.
  • task B' includes logs of network parameters with different trends. If you try to generate a new learning model B' by performing continuous learning using trained model A' and the relevant task B' as learning data as a new task, task B' will contain data of multiple trends. Therefore, model B' may not be able to learn each trend well.
  • the deletion unit 114 calculates the degree of similarity between a new task and a past task using the dynamic time warping method.
  • the network parameter is the traffic flow rate.
  • the present embodiment it is possible to generate a learning model with higher accuracy regarding the traffic flow rate, which is largely related to the contents of a user's communication service contract, among network parameters.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本開示に係る学習管理装置(10)は、所定の時間間隔で発生したネットワークパラメータのログを示し、継続学習に用いられる時系列のログ情報を取得するログ取得部(111)と、ログ情報に基づいて、ネットワークパラメータのトレンドの変化が生じたか否かを判断する判断部(112)と、トレンドの変化が生じた場合には、後続するログ情報を新たな1つのタスクとして過去のタスクと分割するタスク生成部(113)と、タスクを記憶する記憶部(22)と、新たなタスクが記憶部に記憶された過去のタスクと類似している場合には、該過去のタスクを削除する削除部(114)と、を備える。

Description

学習管理装置、学習管理方法、及びプログラム
 本開示は、学習管理装置、学習管理方法、及びプログラムに関する。
 従来、複数の転送装置を介して複数のエンド端末間の通信が行われる通信ネットワークNWを有する通信システムNSであって、当該通信ネットワークの性能を表すパラメータ(本明細書において、ネットワークパラメータと呼ぶ。)のデータを収集するネットワークデータベースNDBと、機械学習の技術を用いて将来のネットワークパラメータを予測する予測機能部LMとを有する通信システムが存在する。図8は、当該通信システムNSの概略を示す。通信システムNSでは、転送装置T1からT4を介して、エンド端末ET1とエンド端末ET2との通信が行われる。図9のグラフは、縦軸が収集されたネットワークパラメータとしてのトラフィック流量を、横軸が時間を表す。通信システムNSでは、図9の矢印で示す時点において、過去のトラフィック流量を学習データとして用いて任意の機械学習を行って学習モデルが作成され、該学習モデルを用いて、将来のトラフィック流量を予測機能部LMが予測できる。このように、将来のネットワークパラメータを予測する手法が考案されている。
 例えば非特許文献1では、過去のネットワークパラメータを用いて、将来のネットワークパラメータを予測する技術が開示されている。学習モデルの生成に用いる学習データは、過去のネットワークパラメータの他、関連する設定データも含まれることもある。例えば非特許文献2においては、ネットワークパラメータの他、ユーザ特徴データを用いて機械学習を行い、生成した学習モデルに基づいて将来のネットワークパラメータを予測することが開示されている。
 ネットワークパラメータの変化に追従するため、機械学習は定期的に繰り返される。図10を参照して繰り返して行われる機械学習の例について説明する。図10は、縦軸がトラフィック流量、横軸が時間を表すグラフを示す。まず時刻A以前のトラフィック流量の変動である「学習分A」を学習データとして用いて機械学習が行われ、学習モデルAが生成される。当該学習モデルAを用いて、時刻Aから時刻Bまでのトラフィック流量が予測される。学習モデルAは、時刻A以前のトラフィック流量の変動を学習しており、将来同様の変動があったとしても予測が可能である。時刻Bより前とB以降とでは、トラフィック流量の変動のトレンドが変化しているため、時刻Bより前のトラフィック流量の変動である「学習分B」を用いて再度機械学習が行われ、学習モデルBが生成される。ここで、学習分Bのトラフィック流量は、学習分Aと一部重複している。生成された学習モデルBは、時刻B以前のトラフィック流量の変動を学習しており、将来同様の変動があったとしても予測が可能であるとされる。
 繰り返して行う機械学習として、例えば非特許文献3には、学習データとしてのタスクを随時追加で学習する継続学習が開示されている。非特許文献3では、過去のタスクを忘却せずに新しいタスクを学習することが開示されている。さらに非特許文献4では、過去の学習済みモデルと新しいタスクとを用いて新たに機械学習を行うことが開示されている。図11を参照して継続学習の例について説明する。図11は、縦軸がトラフィック流量、横軸が時間を表す。継続学習ではまず、時刻A以前のトラフィック流量である学習分A、すなわちタスクAを学習データとして用いて学習モデルAが生成される。時刻Aから時刻Bまでのトラフィック流量であるタスクBと、学習モデルAとを用いて学習モデルBが生成される。以降同様にしてタスクが追加的に学習データとして用いられ、継続的に機械学習が行われていく。
R. Vinayakumar, K. P. Soman and P. Poornachandran, "Applying deep learning approaches for network traffic prediction," 2017 International Conference on Advances in Computing, Communications and Informatics (ICACCI), 2017 A. Azari, P. Papapetrou, S. Denic, and G. Peters, "User traffic prediction for proactive resource management: Learning-powered approaches," in 2019 IEEE Global Communications Conference (GLOBECOM), pp. 1-6, 2019 Kirkpatrick, James, et al. "Overcoming catastrophic forgetting in neural networks." Proceedings of the national academy of sciences 114.13 (2017): 3521-3526 Masana, Marc, et al. "Class-incremental learning: survey and performance evaluation on image classification." arXiv preprint arXiv:2010.15277 (2020)
 将来のネットワークパラメータを予測する学習モデルの生成に継続学習を導入する場合、過去のネットワークパラメータをタスクに分割する基準が重要となる。一方、非特許文献4では、タスクが増えると予測精度が下がる可能性が示唆されている。このように、適切な回数で分割したタスクを用いて継続学習の手法を改善する技術が望まれていた。
 かかる事情に鑑みてなされた本開示の目的は、適切な回数で分割したタスクを用いて継続学習の手法を改善する技術を提供することにある。
 上記課題を解決するため、本開示に係る学習管理装置は、所定の時間間隔で発生したネットワークパラメータのログを示し、継続学習に用いられる時系列のログ情報を取得するログ取得部と、前記ログ情報に基づいて、前記ネットワークパラメータのトレンドの変化が生じたか否かを判断する判断部と、前記トレンドの変化が生じた場合には、後続するログ情報を新たな1つのタスクとして過去のタスクと分割するタスク生成部と、前記タスクを記憶する記憶部と、前記新たなタスクが前記記憶部に記憶された前記過去のタスクと類似している場合には、該過去のタスクを削除する削除部と、を備える。
 また、上記課題を解決するため、本開示に係る学習管理方法は、記憶部を備える学習管理装置が実行する学習管理方法であって、所定の時間間隔で発生したネットワークパラメータのログを示し、継続学習に用いられる時系列のログ情報を取得するログ取得ステップと、前記ログ情報に基づいて、前記ネットワークパラメータのトレンドの変化が生じたか否かを判断する判断ステップと、前記トレンドの変化が生じた場合には、後続するログ情報を新たな1つのタスクとして過去のタスクと分割するタスク生成ステップと、前記タスクを前記記憶部に記憶する記憶ステップと、前記新たなタスクが前記記憶部に記憶された前記過去のタスクと類似している場合には、該過去のタスクを削除する削除ステップと、を含む。
 上記課題を解決するため、本開示に係るプログラムは、コンピュータを、本開示に係る学習管理装置として機能させる。
 本開示に係る学習管理装置、学習管理方法、及びプログラムによれば、適切な回数で分割したタスクを用いて継続学習の手法を改善する技術を提供することができる。
本実施形態に係るシステムの概略構成を示す図である。 本実施形態に係る学習管理装置の構成例を示す図である。 ログ情報の例を示す図である。 ネットワークパラメータのトレンドの変化を説明するための図である。 分割されるタスクを説明するための図である。 新たなタスクが過去のタスクと類似するか否かの判断を説明するための図である。 本実施形態に係る学習管理装置の動作の一例を示すフローチャートである。 本実施形態に係る学習管理装置の動作の一例を示すフローチャートである。 従来の通信システムを示す概略図である。 従来のネットワークパラメータの予測をする技術を説明するための図である。 従来の繰り返して行われる機械学習の例を説明するための図である。 従来の継続学習の例を説明するための図である。 本実施形態に係る学習管理装置を用いない場合の例を説明するための図である。
 以下、本開示の実施形態について適宜図面を参照しながら説明する。各図面中、同一又は相当する部分には、同一符号を付している。本実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。以下に説明する実施形態は本開示の構成の例であり、本発明は、以下の実施形態に制限されるものではない。
 <システム1の概略構成>
 図1は、本実施形態に係るシステム1の構成を示す図である。図1に示すように、システム1は、ネットワークパラメータ収集装置Nと、学習管理装置10とを備える。各装置は、例えばインターネット及び移動体通信網等を含むネットワーク30と有線又は無線により通信可能に接続される。各装置間で情報を送受信するための通信方法は、特に限定されない。各装置は一体化されていてもよい。つまり、例えば、学習管理装置10が、ネットワークパラメータ収集装置Nの機能を備えていても良い。各装置は、ネットワーク30を介して、互いに通信する。
 ネットワークパラメータ収集装置Nと学習管理装置10とは、クラウドコンピューティングシステム又はその他のコンピューティングシステムに属するサーバ等のコンピュータである。
 ネットワーク30は、インターネット、少なくとも1つWAN(Wide Area Network)、少なくとも1つのMAN(Metropolitan Area Network)、又はこれらの任意の組合せを含む。ネットワーク30は、少なくとも1つの無線ネットワーク、少なくとも1つの光ネットワーク、又はこれらの任意の組合せを含んでもよい。無線ネットワークは、例えば、アドホックネットワーク、セルラーネットワーク、無線LAN(local area network)、衛星通信ネットワーク、又は地上マイクロ波ネットワークである。
 ネットワークパラメータ収集装置Nは、メモリ、コントローラ、及び通信インターフェースを備えるコンピュータによって構成される。メモリは、HDD(Hard Disk Drive)、SSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)及びRAM(Random Access Memory)等によって構成されてもよい。コントローラは、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等の専用のハードウェアによって構成されてもよいし、プロセッサによって構成されてもよいし、双方を含んで構成されてもよい。通信インターフェースには、例えば、イーサネット(登録商標)、FDDI(Fiber Distributed Data Interface)、Wi-Fi(登録商標)等の規格が用いられてもよい。
 ネットワークパラメータ収集装置Nは、ネットワーク30内の、ネットワークの性能を表すパラメータであるネットワークパラメータを収集する。ネットワークパラメータとは,インターフェースごと又はフローごと等、任意の単位で、任意の時間間隔で収集されるパラメータのことである。ネットワークパラメータは、例えば平均送信トラフィック流量、転送装置におけるリソース利用率、遅延時間を含む。本実施形態において、ネットワークパラメータは平均送信トラフィック流量を指す。ネットワークパラメータ収集装置Nは、収集したネットワークパラメータのログを示すログ情報を、学習管理装置10へ送信する。
 学習管理装置10は、以下で説明するようにログ情報に基づいて学習データとしてのタスクを生成し、当該タスクを用いて継続学習を行う。学習管理装置10は、将来のネットワークパラメータの予測値を出力する学習モデルを生成し、当該学習モデルを用いて将来のネットワークパラメータを予測できる。
 <学習管理装置10の構成>
 図2を参照して、学習管理装置10について説明する。学習管理装置10は制御部11、記憶部12、通信部13、入力部14、及び出力部15を備える。
 記憶部12は、1つ以上のメモリを含み、例えば半導体メモリ、磁気メモリ、光メモリなどを含んでもよい。記憶部12に含まれる各メモリは、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部12は、学習管理装置10の動作に用いられる任意の情報を記憶する。記憶部12は、必ずしも学習管理装置10が内部に備える必要はなく、学習管理装置10の外部に備える構成としてもよい。記憶部12は、以下で説明するように生成されたタスクを記憶する。
 通信部13は、ネットワーク30に接続する1つ以上の通信用インターフェースを含む。当該通信用インターフェースは、例えば移動通信規格、有線LAN規格、又は無線LAN規格に対応するが、これらに限られず、任意の通信規格に対応してもよい。通信部13は、学習管理装置10の動作に用いられる情報を受信し、また学習管理装置10の動作によって得られる情報を送信する。
 入力部14には、少なくとも1つの入力用インターフェースが含まれる。入力用インターフェースは、例えば、物理キー、静電容量キー、ポインティングデバイス、ディスプレイと一体的に設けられたタッチスクリーン、又はマイクである。入力部14は、学習管理装置10の動作に用いられる情報を入力する操作を受け付ける。入力部14は、学習管理装置10に備えられる代わりに、外部の入力機器として学習管理装置10に接続されてもよい。接続方式としては、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、又はBluetooth(登録商標)等の任意の方式を用いることができる。
 出力部15には、少なくとも1つの出力用インターフェースが含まれる。出力用インターフェースは、例えば、ディスプレイ又はスピーカである。ディスプレイは、例えば、LCD(Liquid Crystal Display)又は有機EL(Electro Luminescence)ディスプレイである。出力部15は、学習管理装置10の動作によって得られる情報を出力する。出力部15は、学習管理装置10に備えられる代わりに、外部の出力機器として学習管理装置10に接続されてもよい。接続方式としては、例えば、USB、HDMI(登録商標)、又はBluetooth(登録商標)等の任意の方式を用いることができる。
 制御部11は、制御演算回路(コントローラ)により実現される。該制御演算回路は、ASIC、FPGA等の専用のハードウェアによって構成されてもよいし、プロセッサによって構成されてもよいし、双方を含んで構成されてもよい。制御部11は、学習管理装置10の各部を制御しながら、学習管理装置10の動作に関わる処理を実行する。制御部11は、外部装置との情報の送受信を、通信部13及びネットワーク30を介して行うことができる。
 制御部11は、ログ取得部111と、判断部112と、タスク生成部113と、削除部114と、学習予測部115とを備える。
 なお、以下の説明では、学習管理装置10が各部を備えるものとしたが、学習管理装置10とは別個の装置が各部を備える構成としてもよい。例えば学習管理装置10とは別個の第1の装置が学習予測部115の継続学習の機能を備え、さらに別個の第2の装置が学習予測部115の予測機能を備えるように構成されてもよい。
 ログ取得部111は、所定の時間間隔で発生したネットワークパラメータのログを示し、継続学習に用いられる時系列のログ情報を取得する。ログ情報の例を図3に示す。図3において横軸は時間を、縦軸はトラフィック流量を示す。所定の時間間隔は任意に設定されてよく、例えば数ミリ秒、数分等の間隔であってよい。本実施形態ではネットワークパラメータのログは、所定のネットワーク上のトラフィック流量のログであるが、これに限られず、所定の時間間隔ごとの転送装置におけるリソース利用率、遅延時間等であってもよい。ログ情報の形式はグラフに限られず、表形式等任意の形式であってよい。ログ取得部111は取得したログ情報を判断部112に出力する。
 判断部112は、ログ情報に基づいて、ネットワークパラメータのトレンドの変化が生じたか否かを判断する。本実施形態では、トレンドの変化とは所定時間におけるトラフィック流量の増加率又は低減率の変動をいう。トレンドの変化があるかの判断には任意の手法が採用されてよい。例えば判断部112は、時系列分析で一般的に用いられる移動平均、季節階差等を用いた手法に基づいてトレンドの変化があることを判断してよい。
 移動平均を用いた手法においては、所定の期間上の時系列のデータの平均値を、その時点での平均値としてプロットし、時系列のデータを滑らかにした移動平均線が生成される。季節階差とは例えば前年同期との差のことをいい、周期pの季節階差を用いると、季節変動を除去した時系列のデータの変動を可視化できる手法である。移動平均及び季節階差については公知の技術であるため詳細な説明を省略する。
 本実施形態では、判断部112が、取得したログ情報に対し移動平均の手法を用いて移動平均線を付す。移動平均線が付されたログ情報を図4に示す。判断部112は、図4のログ情報に基づいて、判断部112がトラフィック流量のログのトレンドの変化があるか否かを判断する。判断部112は、図4で示す移動平均線に基づき、時刻Aより前のログと、時刻A以降のログとの間でトラフィック流量がトレンドの変化があると判断する。同様にして判断部112は、時刻Bより前のログと、時刻B以降のログとの間でトレンドの変化があると判断し、時刻Cより前のログと、時刻C以降のログとの間でもトレンドの変化があるとさらに判断する。
 判断部112がトレンドの変化を判断するタイミングは自由に設定されてよい。例えば数時間ごとに判断部112がトレンドの変化を判断するよう設定されてもよいし、数日ごとに判断部112がトレンドの変化を判断するよう設定されてもよい。
 判断部112がトレンドの変化を判断する条件は、例えばネットワーク30を利用する複数のユーザのそれぞれが契約する、所定期間中に利用可能なネットワーク通信量に応じて設定されてもよい。例えば判断部112は、契約されているネットワーク通信量の上限値を超えた場合にトレンドの変化があると判断してもよい。このように判断部112は、ユーザの需要に対する契約中のネットワーク通信量の過不足をトレンドの変化として判断できる。
 タスク生成部113は、トレンドの変化が生じた場合には、後続するログ情報を新たな1つのタスクとして過去のタスクと分割する。例えば判断部112が、図4のログ情報に基づき、時刻Aにおいてトラフィック流量のログのトレンドの変化が生じたと判断したとする。この場合、タスク生成部113は、図5に示すように、時刻A以降のログ情報を新たなタスクとして、ログの取得を開始した時刻以降から時刻Aまでの過去のログと分割する。当該過去のログをタスクAと呼ぶとする。同様に、判断部112が時刻B及びCにおいてトラフィック流量のログのトレンドの変化があると判断したとする。この場合タスク生成部113は、時刻Aから時刻Bまでのログを分割し、さらに時刻B以降から時刻Cまでのログを分割する。時刻Aから時刻BまでのログをタスクBと呼び、時刻Bから時刻CまでのログをタスクCと呼ぶとする。このようにしてタスク生成部113はタスクA、タスクB、及びタスクCを生成する。タスク生成部113は、時刻C以降のログについても同様に、トレンドの変化があると判断された場合、後続するログ情報を過去のタスクと分割してタスクを生成していく。
 タスク生成部113は、過去のタスクを記憶部12に格納する。タスク生成部113はまた、生成した新たなタスクを削除部114に出力する。過去のタスクはログ取得部111がログを取得した期間分存在してよい。例えば時刻Bの時点では、タスク生成部113は、過去のタスクとしてタスクAを記憶部12に格納し、生成したタスクとしてタスクBを削除部114に出力する。そして時刻Cの時点において、タスク生成部113は、過去のタスクとしてタスクAに追加してタスクBを記憶部12に格納し、生成したタスクとしてタスクCを削除部114に出力する。
 削除部114はまず、出力されたタスクと過去のタスクとが類似するか否かを判断する。具体的には削除部114は、記憶部12から過去のタスクを読み出し、タスク生成部113から出力された新たなタスクと比較する。例えば時刻Cの時点において、タスク生成部113から新たなタスクとしてタスクCが削除部114に出力されたとする。この時点で、記憶部12はタスクAとタスクBとを記憶部12に格納している。削除部114は、記憶部12からタスクAとタスクBとを読み出し、タスク生成部113から出力されたタスクCと比較する。
 類似するか否かの判断には任意の手法が採用されてよい。例えば削除部114は、動的時間伸縮法(DTW; Dynamic Time Warping)を用いて、タスク同士が類似するか否かを判断できる。
 動的時間伸縮法は、2つの波形パターンの類似度を算出するものである。動的時間伸縮法では、2つの経時的な波形パターン上にそれぞれ任意の点を複数とり、当該点同士の距離(コスト)の値を総当たりで計算し、コストパスを構成する要素の合計値をDTW距離として算出する。当該DTW距離の値が小さい程2つのパターンの類似度が大きく、DTW距離の値が大きい程類似度が小さい。動的時間伸縮法は既知の技術であるため、詳細な説明を省略する。
 削除部114は、当該DTW距離の値に応じて予め段階的な値として設定された類似度を用いて、タスク同士の類似度を算出してよい。例えば削除部114は、2つのタスクについて動的時間伸縮法を用いた場合の、DTW距離の値が第1の所定値未満の場合は類似度「大」と算出し、DTW距離の値が第1の所定値以上であって第2の所定値未満の場合は類似度を「中」と算出し、第2の所定値以上の場合は類似度を「小」と算出してよい。削除部114は、類似度が「大」又は「中」の場合は、出力されたタスクが過去のタスクと類似すると判断してよい。
 本実施形態では、削除部114が、図6で示す過去のタスクであるタスクAと、出力されたタスクCとを比較し、類似度が「大」であると算出したとする。この場合削除部114はタスクAとタスクCとが類似すると判断する。削除部114はさらに、過去のタスクであるタスクBとタスクCとを比較し、類似度が「小」であると算出したとする。この場合削除部114はタスクBとタスクCとが類似しないと判断する。
 上述に限られず、削除部114は、任意の相関関数により2つのタスクが類似するか否かを判断できてもよい。
 削除部114は、新たなタスクが記憶部12に記憶された過去のタスクと類似している場合には、該過去のタスクを削除する。本実施形態では、削除部114は過去のタスクAと出力されたタスクCとが類似すると判断している。よって削除部114は、当該タスクAを記憶部12から削除する。また削除部114は、タスクCを記憶部12に格納する。
 上述のように、削除部114は、新たなタスクが記憶部12に記憶された過去のタスクと類似している場合には、該過去のタスクを削除する。削除部114は、動的時間伸縮法を用いて新たなタスクと過去のタスクとの類似度を算出する。
 学習予測部115は、記憶部12に記憶されたタスクを用いて継続学習を行い、将来のネットワークパラメータを予測する。継続学習とは、学習済みモデルと、当該学習済みモデルを生成したときに用いた学習データ以降のデータを新たな学習データとして用いて、再学習を行い、新たなモデルを生成することである。継続学習は、学習データの変化に追従して、学習済みの学習モデルを見直すように、再度学習モデルを生成し直すことができる。継続学習には、ニューラルネットワーク、深層学習等の任意の機械学習手法が用いられてよい。
 本実施形態では学習予測部115は、記憶部12から削除されずに残されているタスクBとタスクCとを読み出し、学習データとして用いて将来のネットワークパラメータを出力する新たな学習モデルを生成する。当該新たな学習モデルは、トレンドが変化し、明確に類似しないログを有するタスクを別個のタスクとして認識して学習データとして用いているため、これらのタスクと同様の傾向があったときにより精度よく予測することを可能にする。また、類似するタスクは学習データとして用いずに、必要最低限のタスクのみを用いて生成される学習モデルであるため、類似する複数のタスクを重複して学習データとして用いた場合と比較して、予測の精度の低下を抑制できる。
 学習予測部115は新たに生成した学習モデルを適用して、将来のネットワークパラメータを予測する。当該新たな学習モデルによる予測は、タスクA及びタスクBの区間において見られたネットワークパラメータのトレンドをより精度よく予測できるものである。
<プログラム>
 上述した学習管理装置10として機能させるために、プログラム命令を実行可能なコンピュータを用いることも可能である。ここで、コンピュータは、汎用コンピュータ、専用コンピュータ、ワークステーション、PC(Personal Computer)、電子ノートパッドなどであってもよい。プログラム命令は、必要なタスクを実行するためのプログラムコード、コードセグメントなどであってもよい。
 コンピュータは、プロセッサと、記憶部と、入力部と、出力部と、通信インターフェースとを備える。プロセッサは、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、SoC(System on a Chip)等であり、同種又は異種の複数のプロセッサにより構成されてもよい。プロセッサは、記憶部からプログラムを読み出して実行することで、上記各構成の制御及び各種の演算処理を行う。なお、これらの処理内容の少なくとも一部をハードウェアで実現することとしてもよい。入力部は、ユーザの入力操作を受け付けてユーザの操作に基づく情報を取得する入力インターフェースであり、ポインティングデバイス、キーボード、マウスなどである。出力部は、情報を出力する出力インターフェースであり、ディスプレイ、スピーカなどである。通信インターフェースは、外部の装置と通信するためのインターフェースである。
 プログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。このような記録媒体を用いれば、プログラムをコンピュータにインストールすることが可能である。ここで、プログラムが記録された記録媒体は、非一過性(non-transitory)の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROM、DVD-ROM、USBメモリなどであってもよい。また、このプログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
<システム1の動作>
 次に、図7A及び図7Bを参照して、本実施形態に係る学習管理装置10の動作について説明する。学習管理装置10の動作は、本実施形態に係る学習管理方法に相当する。
 ステップS1において、学習管理装置10のログ取得部111は、所定の時間間隔で発生したネットワークパラメータのログを示し、継続学習に用いられる時系列のログ情報を取得する。本実施形態ではログ取得部111は。ネットワークパラメータ収集装置Nからログ情報を通信部13を介して受信することで取得する。ログ取得部111は取得したログ情報を判断部112に出力する。
 ステップS2において、判断部112は、ログ情報に基づいて、ネットワークパラメータのトレンドの変化が生じたか否かを判断する。トレンドの変化があるかの判断には任意の手法が採用されてよい。判断部112がネットワークパラメータのログのトレンドの変化がないと判断した場合、学習管理装置10の処理はステップS1に戻る。判断部112がネットワークパラメータのログのトレンドの変化があると判断した場合、学習管理装置10の処理はステップS3に進む。
 ステップS3において、タスク生成部113は、後続するログ情報を新たな1つのタスクとして過去のタスクと分割する。本例では、タスク生成部113は、図4のログ情報に基づき、時刻Aにおいてトラフィック流量のログのトレンドの変化が生じたと判断したとする。この場合、タスク生成部113は、図5に示すように、時刻A以降のログ情報を新たなタスクとして、ログの取得を開始した時刻以降から時刻Aまでの過去のログと分割する。当該過去のログをタスクAと呼ぶとする。同様に、判断部112が時刻B及びCにおいてトラフィック流量のログのトレンドの変化があると判断したとする。この場合タスク生成部113は、時刻Aから時刻Bまでのログを分割し、さらに時刻B以降から時刻Cまでのログを分割する。時刻Aから時刻BまでのログをタスクBと呼び、時刻Bから時刻CまでのログをタスクCと呼ぶとする。このようにしてタスク生成部113は、トレンドの変化が生じた場合には、後続するログ情報を新たな1つのタスクとして過去のタスクと分割する。
 ステップS4において、タスク生成部113は、過去のタスクを記憶部12に格納し、生成した新たなタスクを削除部114に出力する。本例では、時刻Cの時点において、タスク生成部113は、過去のタスクとしてタスクAに追加してタスクBを記憶部12に格納し、生成したタスクとしてタスクCを削除部114に出力する。
 ステップS5において、削除部114は出力されたタスクと過去のタスクとが類似するか否かを判断する。類似するか否かの判断には任意の手法が採用されてよい。例えば削除部114は、動的時間伸縮法を用いて、タスク同士が類似するか否かを判断できる。タスク同士が類似すると判断した場合、学習管理装置10の処理はステップS6へ進む。類似しないと判断した場合、学習管理装置10の処理はステップS7へ進む。本例では削除部114は、図6で示すように、出力されたタスクCと過去のタスクAとが類似するか否かを判断し、出力されたタスクCと過去のタスクBとが類似するか否かをそれぞれ判断する。
 ステップS6において、削除部114は、新たなタスクが記憶部12に記憶された過去のタスクと類似している場合には、該過去のタスクを削除する。本例では、タスクCとタスクAとが類似すると判断している。よって削除部114は、当該タスクAを記憶部12から削除する。また削除部114は、タスクCを記憶部12に格納する。
 ステップS5とステップS6とに示すように、削除部114は、新たなタスクが記憶部12に記憶された過去のタスクと類似している場合には、該過去のタスクを削除する。削除部114は、動的時間伸縮法を用いて新たなタスクと過去のタスクとの類似度を算出する。
 ステップS7において、学習予測部115は、将来のネットワークパラメータを出力する新たな学習モデルを生成する。本実施形態では学習予測部115は、記憶部12から削除されずに残されているタスクBとタスクCとを読み出し、これらを学習データとして用いて将来のネットワークパラメータを出力する新たな学習モデルを生成する。
 ステップS8において、学習予測部115は、ステップS8で新たに生成した学習モデルを適用して、将来のネットワークパラメータを予測する。その後、システム1の動作は終了する。
 上述したように、本実施形態の学習管理装置10は、所定の時間間隔で発生したネットワークパラメータのログを示し、継続学習に用いられる時系列のログ情報を取得するログ取得部111と、ログ情報に基づいて、ネットワークパラメータのトレンドの変化が生じたか否かを判断する判断部112と、トレンドの変化が生じた場合には、後続するログ情報を新たな1つのタスクとして過去のタスクと分割するタスク生成部113と、タスクを記憶する記憶部12と、新たなタスクが記憶部12に記憶された過去のタスクと類似している場合には、該過去のタスクを削除する削除部114とを備える。
 本実施形態によれば、新たに生成されたタスクが過去のタスクと類似しないと判断された場合のみ、当該新たに生成されたタスクが過去のタスクとして記憶部12に格納され、類似すると判断された場合は過去のタスクが削除される。よって互いに類似しないタスクのみが記憶部12に残り、当該タスクを学習データとして用いて継続学習が行われる。
 本実施形態のように、ネットワークパラメータのトレンドの変化を分割の基準として用いずに、単一の時間間隔でタスクを分割した場合の例を図12に示す。図12では、A’からC’の時刻でタスクA’からC’を分割して生成している。本実施形態に係る図5と比較すると、タスクB’には、異なるトレンドのネットワークパラメータのログが混在していることがわかる。学習済みモデルA’と、当該タスクB’とを新しいタスクとして学習データとして用いて継続学習を行って学習モデルB’を新たに生成しようとすると、タスクB’には複数のトレンドのデータが含まれるため、モデルB’では各トレンドに対する学習がうまくできない可能性がある。
 一方で、本実施形態のようにトレンドの変化によってタスクを分割する場合、タスクBには同じトレンドのネットワークパラメータのログのみ存在するようになる。よって学習済みモデルである学習モデルAとタスクBとを用いて生成した学習モデルBは、タスクBに含まれるトレンドを精度よく学習することができる。これにより、今後タスクBに含まれるトレンドと同様のトレンドのデータが現れたとき、精度の高い予測を達成することができる。
 このように、本実施形態ではトレンドの変化という有効な基準によってタスクを最適な回数で分割するため、タスクの数が多いことによる学習モデルの予測の精度の低下を防ぎ、機械学習の負荷も抑えることができる。よって、適切な回数で分割したタスクを用いて継続学習の手法を改善する技術を提供することができる。
 上述したように、本実施形態の学習管理装置10は、記憶部12に記憶されたタスクを用いて継続学習を行い、将来のネットワークパラメータを予測する学習予測部115をさらに備える。
 本実施形態によれば、学習予測部115は、削除部114によって削除されずに残された、過去のタスクと類似しないタスクのみを用いて効率的に継続学習を行うことができる。学習予測部115は、トレンドの変化が生じる度に追加的に継続学習を行い、新たに学習モデルを生成し、当該新たに生成した学習モデルを用いてネットワークパラメータの将来の予測をより精度よく行うことができる。よって、適切な回数で分割したタスクを用いて継続学習の手法を改善する技術を提供することができる。
 上述したように、本実施形態の学習管理装置10において、削除部114は、動的時間伸縮法を用いて新たなタスクと過去のタスクとの類似度を算出する。
 本実施形態によれば、削除部114は、ログの長さが異なり時間軸上にずれがある場合でも、2つのタスク間の類似度を精度よく決定できる。よって、適切な回数で分割したタスクを用いて継続学習の手法を改善する技術を提供することができる。
 上述したように、本実施形態の学習管理装置10において、ネットワークパラメータはトラフィック流量である。
 本実施形態によれば、ネットワークパラメータのうち、ユーザの通信サービスの契約内容に大きく関わるトラフィック流量について、より精度のよい学習モデルの生成が可能となる。
 以上の実施形態に関し、更に以下の付記を開示する。
 [付記項1]
 メモリと、前記メモリに接続された制御部と、を備え、
 前記制御部は、
  所定の時間間隔で発生したネットワークパラメータのログを示し、継続学習に用いられる時系列のログ情報を取得し、
  前記ログ情報に基づいて、前記ネットワークパラメータのトレンドの変化が生じたか否かを判断し、
  前記トレンドの変化が生じた場合には、後続するログ情報を新たな1つのタスクとして過去のタスクと分割し、
  前記新たなタスクが前記メモリに記憶された前記過去のタスクと類似している場合には、該過去のタスクを削除し、
 前記メモリは、前記タスクを記憶する、
学習管理装置。
 [付記項2]
 前記制御部は、前記メモリに記憶された前記タスクを用いて継続学習を行い、将来のネットワークパラメータを予測する、付記項1に記載の学習管理装置。
 [付記項3]
 前記制御部は、動的時間伸縮法を用いて前記新たなタスクと前記過去のタスクとの類似度を算出する、付記項1又は2に記載の学習管理装置。
 [付記項4]
 前記ネットワークパラメータはトラフィック流量である、付記項1から3のいずれか一項に記載の学習管理装置。
 [付記項5]
 メモリを備える学習管理装置が実行する学習管理方法であって、
 所定の時間間隔で発生したネットワークパラメータのログを示し、継続学習に用いられる時系列のログ情報を取得するログ取得ステップと、
 前記ログ情報に基づいて、前記ネットワークパラメータのトレンドの変化が生じたか否かを判断する判断ステップと、
 前記トレンドの変化が生じた場合には、後続するログ情報を新たな1つのタスクとして過去のタスクと分割するタスク生成ステップと、
 前記タスクを前記メモリに記憶する記憶ステップと、
 前記新たなタスクが前記メモリに記憶された前記過去のタスクと類似している場合には、該過去のタスクを削除する削除ステップと、
を含む、学習管理方法。
 [付記項6]
 前記メモリに記憶された前記タスクを用いて継続学習を行い、将来のネットワークパラメータを予測する学習予測ステップをさらに含む、付記項5に記載の学習管理方法。
 [付記項7]
 前記削除ステップは、動的時間伸縮法を用いて前記新たなタスクと前記過去のタスクとの類似度を算出するステップを含む、付記項5又は6に記載の学習管理方法。
 [付記項8]
 コンピュータによって実行可能なプログラムを記憶した非一時的記憶媒体であって、
 前記コンピュータを、付記項1から4のいずれか一項に記載の学習管理装置として機能させるプログラムを記憶した非一時的記憶媒体。
 上述の実施形態は代表的な例として説明したが、本開示の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、請求の範囲から逸脱することなく、種々の変形又は変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。
1 システム
10 学習管理装置
11 制御部
12 記憶部
13 通信部
14 入力部
15 出力部
30 ネットワーク
111 ログ取得部
112 判断部
113 タスク生成部
114 削除部
115 学習予測部

Claims (8)

  1.  所定の時間間隔で発生したネットワークパラメータのログを示し、継続学習に用いられる時系列のログ情報を取得するログ取得部と、
     前記ログ情報に基づいて、前記ネットワークパラメータのトレンドの変化が生じたか否かを判断する判断部と、
     前記トレンドの変化が生じた場合には、後続するログ情報を新たな1つのタスクとして過去のタスクと分割するタスク生成部と、
     前記タスクを記憶する記憶部と、
     前記新たなタスクが前記記憶部に記憶された前記過去のタスクと類似している場合には、該過去のタスクを削除する削除部と、
    を備える学習管理装置。
  2.  前記記憶部に記憶された前記タスクを用いて継続学習を行い、将来のネットワークパラメータを予測する学習予測部をさらに備える、請求項1に記載の学習管理装置。
  3.  前記削除部は、動的時間伸縮法を用いて前記新たなタスクと前記過去のタスクとの類似度を算出する、請求項1又は2に記載の学習管理装置。
  4.  前記ネットワークパラメータはトラフィック流量である、請求項1又は2に記載の学習管理装置。
  5.  記憶部を備える学習管理装置が実行する学習管理方法であって、
     所定の時間間隔で発生したネットワークパラメータのログを示し、継続学習に用いられる時系列のログ情報を取得するログ取得ステップと、
     前記ログ情報に基づいて、前記ネットワークパラメータのトレンドの変化が生じたか否かを判断する判断ステップと、
     前記トレンドの変化が生じた場合には、後続するログ情報を新たな1つのタスクとして過去のタスクと分割するタスク生成ステップと、
     前記タスクを前記記憶部に記憶する記憶ステップと、
     前記新たなタスクが前記記憶部に記憶された前記過去のタスクと類似している場合には、該過去のタスクを削除する削除ステップと、
    を含む、学習管理方法。
  6.  前記記憶部に記憶された前記タスクを用いて継続学習を行い、将来のネットワークパラメータを予測する学習予測ステップをさらに含む、請求項5に記載の学習管理方法。
  7.  前記削除ステップは、動的時間伸縮法を用いて前記新たなタスクと前記過去のタスクとの類似度を算出するステップを含む、請求項5又は6に記載の学習管理方法。
  8.  コンピュータを、請求項1又は2に記載の学習管理装置として機能させるためのプログラム。
PCT/JP2022/023689 2022-06-13 2022-06-13 学習管理装置、学習管理方法、及びプログラム WO2023242926A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/023689 WO2023242926A1 (ja) 2022-06-13 2022-06-13 学習管理装置、学習管理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/023689 WO2023242926A1 (ja) 2022-06-13 2022-06-13 学習管理装置、学習管理方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2023242926A1 true WO2023242926A1 (ja) 2023-12-21

Family

ID=89192617

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/023689 WO2023242926A1 (ja) 2022-06-13 2022-06-13 学習管理装置、学習管理方法、及びプログラム

Country Status (1)

Country Link
WO (1) WO2023242926A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108283A (ja) * 2008-10-30 2010-05-13 Nec Corp 予測システム、予測方法および予測プログラム
WO2022079280A1 (en) * 2020-10-16 2022-04-21 Craft.Ai Devices and processes for data sample selection for power consumption management

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108283A (ja) * 2008-10-30 2010-05-13 Nec Corp 予測システム、予測方法および予測プログラム
WO2022079280A1 (en) * 2020-10-16 2022-04-21 Craft.Ai Devices and processes for data sample selection for power consumption management

Similar Documents

Publication Publication Date Title
JP6952058B2 (ja) メモリ使用量判断技術
US10460241B2 (en) Server and cloud computing resource optimization method thereof for cloud big data computing architecture
JP5218390B2 (ja) 自律制御サーバ、仮想サーバの制御方法及びプログラム
WO2017045472A1 (zh) 资源预测方法、系统和容量管理装
JP6493400B2 (ja) サービスチェーン管理装置、サービスチェーン管理システム、サービスチェーン管理方法、及び、プログラム
US20190294978A1 (en) Inferring digital twins from captured data
JP5388924B2 (ja) 交通量予測装置、交通量予測方法およびプログラム
KR101990411B1 (ko) 클라우드 시스템에서의 우선 순위 기반 자원 스케일링 시스템, 장치 및 방법
JP6937330B2 (ja) 機械学習モデル圧縮システム、機械学習モデル圧縮方法及びプログラム
JP7171471B2 (ja) 学習モデル生成支援装置、及び学習モデル生成支援方法
JP2014164568A (ja) 端末装置、分散処理方法、分散処理プログラムおよび分散処理システム
JP2012050241A (ja) 需要予測システム及び需要予測方法
KR20200052403A (ko) 에지 컴퓨팅 기반 데이터 분석 시스템 및 그 방법
JP2019101490A (ja) 時系列データ予測装置、時系列データ予測方法およびコンピュータプログラム
CN110601978A (zh) 流量分发控制方法和装置
WO2017033443A1 (ja) 渋滞予測システム、渋滞予測方法、及び、記録媒体
US20180060458A1 (en) Using the information of a dependent variable to improve the performance in learning the relationship between the dependent variable and independent variables
WO2023242926A1 (ja) 学習管理装置、学習管理方法、及びプログラム
CN109791638B (zh) 所在人数预测装置、设备管理系统以及记录介质
JP2017034307A (ja) 情報収集管理装置、方法、及び情報収集システム
WO2023242927A1 (ja) データ管理装置、データ管理方法、及びプログラム
US20220358375A1 (en) Inference of machine learning models
WO2016151639A1 (ja) 人数予測システム、人数予測方法および人数予測プログラム
KR20220078243A (ko) 시계열 네트워크 데이터에 대한 예측 장치 및 그 방법
JP6816824B2 (ja) 分散システム、データ管理装置、データ管理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22946746

Country of ref document: EP

Kind code of ref document: A1