JP2020144849A - Device and method for training meta learning network - Google Patents

Device and method for training meta learning network Download PDF

Info

Publication number
JP2020144849A
JP2020144849A JP2020011815A JP2020011815A JP2020144849A JP 2020144849 A JP2020144849 A JP 2020144849A JP 2020011815 A JP2020011815 A JP 2020011815A JP 2020011815 A JP2020011815 A JP 2020011815A JP 2020144849 A JP2020144849 A JP 2020144849A
Authority
JP
Japan
Prior art keywords
network
loss
task
learning
meta
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020011815A
Other languages
Japanese (ja)
Inventor
ヤン・ミン
Ming Yang
シ・ズチアン
Ziqiang Shi
俊 孫
Shun Son
俊 孫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2020144849A publication Critical patent/JP2020144849A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

To provide a meta learning network training device and method.SOLUTION: A device acquires a plurality of network examples of a task neural network; acquires loss of each task network example; samples the loss; calculates generalization loss reflecting a total loss; calculates an inclination of a weight parameter of the task network example corresponding to each loss of a plurality of losses after sampling; inputs the inclination to one meta learning network and acquires update value of the weight parameter; updates the weight parameter of the task network example on the basis of the update value; includes a unit training the meta learning network on the basis of the generalization loss when a prescribed condition is satisfied, and repeatedly performs processing of the unit by the updated meta learning network until a first repetition termination condition is satisfied.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理分野に関し、特に、メタ学習ネットワークを訓練する装置及び方法、並びに、訓練により得られたメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う装置及び方法に関する。 The present invention relates to the field of information processing, and more particularly to an apparatus and method for training a meta-learning network, and an apparatus and method for training a neural network using the meta-learning network obtained by the training.

ニューラルネットワークが学術界及び産業界で幅広く応用されている。時効性があり及びサンプルが少ない応用シナリオにおいて如何にニューラルネットワークの重みパラメータを有効に学習するかが注目されている。 Neural networks are widely applied in academia and industry. Attention is being paid to how to effectively learn the weight parameters of neural networks in application scenarios that are aging and have few samples.

本発明の目的は、従来技術における1つ又は複数の欠点を解決し得るメタ学習ネットワークを訓練する装置及び方法、並びに、訓練により得られたメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う装置及び方法を提供することにある。 An object of the present invention is to train a neural network using a device and a method for training a meta-learning network that can solve one or more drawbacks in the prior art, and a meta-learning network obtained by the training. The purpose is to provide equipment and methods.

本発明の一側面によれば、メタ学習ネットワークを訓練する装置が提供され、それは、
異なるタスク(task)のための複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークについて、該タスクニューラルネットワークの複数のタスクネットワーク実例(instance)を得るタスクネットワーク実例取得ユニットであって、そのうち、前記異なるタスクが類似性を有するタスクネットワーク実例取得ユニット;
訓練データを用いて、それぞれ、各タスクニューラルネットワークの各タスクネットワーク実例の損失を取得する損失取得ユニット;
前記損失に対してサンプリングを行ってサンプリング後の複数の損失を取得するサンプリングユニット;
前記サンプリング後の複数の損失に基づいて、前記サンプリング後の複数の損失の総損失を反映する汎化損失を計算する汎化損失計算ユニット;
前記汎化損失の、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータに対応する勾配(gradient)を計算する勾配計算ユニット;
前記勾配を少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークにそれぞれ入力し、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータの更新値をそれぞれ取得する学習ユニットであって、そのうち、前記メタ学習ネットワークが勾配に対して学習を行うニューラルネットワークである学習ユニット;
前記更新値に基づいて、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータを更新する第一更新ユニット;及び
前記損失取得ユニット、前記サンプリングユニット、前記汎化損失計算ユニット、前記勾配計算ユニット、前記学習ユニット、及び前記第一更新ユニットの処理を反復して行い、所定条件が満足されるときに、前記所定条件が満足されるときの前記汎化損失に基づいて、タスクネットワーク実例の損失がより小さい方向に向けて前記少なくとも1つのメタ学習ネットワークを訓練し、更新後の少なくとも1つのメタ学習ネットワークを得る第二更新ユニットを含み、
前記第二更新ユニットの更新後の少なくとも1つのメタ学習ネットワークに基づいて、前記損失取得ユニット、前記サンプリングユニット、前記汎化損失計算ユニット、前記勾配計算ユニット、前記学習ユニット、前記第一更新ユニット、及び前記第二更新ユニットの処理を、第一反復終了条件が満足されるまで反復して行う。
According to one aspect of the invention, a device for training a meta-learning network is provided.
A task network example acquisition unit that obtains a plurality of task network instances of the task neural network for each task neural network among a plurality of task neural networks for different tasks, among which the different tasks are obtained. Task network example acquisition unit with similar tasks;
A loss acquisition unit that acquires the loss of each task network example of each task neural network using training data;
A sampling unit that performs sampling on the loss and acquires a plurality of losses after sampling;
A generalization loss calculation unit that calculates a generalization loss that reflects the total loss of the plurality of losses after sampling based on the plurality of losses after sampling;
A gradient calculation unit that calculates the gradient corresponding to the weight parameter of the task network example corresponding to each loss of the generalized loss among the plurality of losses after sampling;
The gradient is input to one meta-learning network of at least one meta-learning network, and the updated value of the weight parameter of the task network example corresponding to each loss of the plurality of losses after sampling is acquired. A learning unit that is a neural network in which the meta-learning network learns with respect to a gradient;
The first update unit that updates the weight parameter of the task network example corresponding to each loss of the plurality of losses after the sampling based on the update value; and the loss acquisition unit, the sampling unit, and the generalized loss. The processing of the calculation unit, the gradient calculation unit, the learning unit, and the first update unit is repeated, and when the predetermined conditions are satisfied, based on the generalization loss when the predetermined conditions are satisfied. A second update unit is included that trains the at least one meta-learning network in a direction in which the loss of the task network example is smaller and obtains at least one meta-learning network after the update.
Based on at least one meta-learning network after the update of the second update unit, the loss acquisition unit, the sampling unit, the generalized loss calculation unit, the gradient calculation unit, the learning unit, the first update unit, And the processing of the second update unit is repeated until the first iteration end condition is satisfied.

本発明の他の側面によれば、メタ学習ネットワークを訓練する方法が提供され、それは、
異なるタスクのための複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークについて、該タスクニューラルネットワークの複数のタスクネットワーク実例を得るタスクネットワーク実例取得ステップであって、そのうち、前記異なるタスクが類似性を有するタスクネットワーク実例取得ステップ;
訓練データを用いて、それぞれ、各タスクニューラルネットワークの各タスクネットワーク実例の損失を取得する損失取得ステップ;
前記損失に対してサンプリングを行ってサンプリング後の複数の損失を取得するサンプリングステップ;
前記サンプリング後の複数の損失に基づいて、前記サンプリング後の複数の損失の総損失を反映する汎化損失を計算する汎化損失計算ステップ;
前記汎化損失の、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータに対応する勾配を計算する勾配計算ステップ;
前記勾配をそれぞれ少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークに入力し、それぞれ前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータの更新値を得る学習ステップであって、そのうち、前記メタ学習ネットワークが勾配に対して学習を行うニューラルネットワークである学習ステップ;
前記更新値に基づいて、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータを更新する第一更新ステップ;及び
前記損失取得ステップ、前記サンプリングステップ、前記汎化損失計算ステップ、前記勾配計算ステップ、前記学習ステップ、及び前記第一更新ステップの処理を反復して行い、所定条件が満足されるときに、前記所定条件が満足されるときの前記汎化損失に基づいて、使得タスクネットワーク実例の損失がより小さい方向に向けて前記少なくとも1つのメタ学習ネットワークを訓練し、更新後の少なくとも1つのメタ学習ネットワークを得る第二更新ステップを含み、
更新後の少なくとも1つのメタ学習ネットワークに基づいて、前記損失取得ステップ、前記サンプリングステップ、前記汎化損失計算ステップ、前記勾配計算ステップ、前記学習ステップ、前記第一更新ステップ、及び前記第二更新ステップの処理を、第一反復終了条件が満足されるまで反復して行う。
According to another aspect of the invention, a method of training a meta-learning network is provided.
For each task neural network among a plurality of task neural networks for different tasks, a task network example acquisition step for obtaining a plurality of task network examples of the task neural network, wherein the different tasks have similarities. Task network example acquisition step;
Loss acquisition step to acquire the loss of each task network example of each task neural network using the training data;
A sampling step in which sampling is performed on the loss to obtain a plurality of losses after sampling;
A generalization loss calculation step that calculates a generalization loss that reflects the total loss of the plurality of losses after sampling based on the plurality of losses after sampling;
Gradient calculation step to calculate the gradient corresponding to the weight parameter of the task network example corresponding to each loss of the generalized loss among the plurality of losses after sampling;
Learning to input the gradient into one meta-learning network of at least one meta-learning network and obtain the updated value of the weight parameter of the task network example corresponding to each loss of the plurality of losses after sampling. A learning step, which is a neural network in which the meta-learning network learns with respect to a gradient;
The first update step of updating the weight parameter of the task network example corresponding to each loss of the plurality of losses after the sampling based on the update value; and the loss acquisition step, the sampling step, and the generalization loss. The calculation step, the gradient calculation step, the learning step, and the first update step are repeatedly performed, and when the predetermined condition is satisfied, based on the generalization loss when the predetermined condition is satisfied. Including a second update step of training the at least one meta-learning network in a direction in which the loss of the profitable task network example is smaller and obtaining at least one meta-learning network after the update.
The loss acquisition step, the sampling step, the generalized loss calculation step, the gradient calculation step, the learning step, the first update step, and the second update step based on at least one meta-learning network after the update. Is repeated until the first iteration end condition is satisfied.

本発明の他の側面によれば、上述のメタ学習ネットワークを訓練する装置の訓練により得られたメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う装置が提供され、それは、
訓練データを用いて、訓練待ちのニューラルネットワークの損失を得る第二損失取得ユニット;
前記損失の、前記訓練待ちのニューラルネットワークの重みパラメータに対する勾配を計算する第二勾配計算ユニット;
前記勾配を、第一反復終了条件が満足されるときに取得された訓練済みの前記少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークにそれぞれ入力し、前記訓練待ちのニューラルネットワークの重みパラメータの更新値を得る第二学習ユニット;及び
前記更新値に基づいて、前記訓練待ちのニューラルネットワークの重みパラメータを更新する第三更新ユニットを含み、
前記第二損失取得ユニット、前記第二勾配計算ユニット、前記第二学習ユニット、及び前記第三更新ユニットの処理を、第二反復終了条件が満足されるまで反復して実行する。
According to another aspect of the present invention, there is provided an apparatus for training a neural network using the meta-learning network obtained by training the apparatus for training the meta-learning network described above.
A second loss acquisition unit that uses training data to obtain the loss of a neural network awaiting training;
A second gradient calculation unit that calculates the gradient of the loss with respect to the weight parameter of the neural network awaiting training;
The gradient is input to one of the trained at least one meta-learning networks acquired when the first iteration end condition is satisfied, and the weight parameter of the neural network awaiting training is input. A second learning unit that obtains the update value of; and a third update unit that updates the weight parameter of the neural network awaiting training based on the update value.
The processing of the second loss acquisition unit, the second gradient calculation unit, the second learning unit, and the third update unit is repeatedly executed until the second iteration end condition is satisfied.

本発明の他の側面によれば、さらに、本発明による上述の方法を実現するためのコンピュータプログラムコード及びコンピュータプログラムプロダクトが提供される。 According to another aspect of the present invention, computer program code and a computer program product for realizing the above-mentioned method according to the present invention are further provided.

本発明の実施例におけるメタ学習ネットワーク訓練装置の構成ブロック図である。It is a block diagram of the composition of the meta-learning network training apparatus in the Example of this invention. 本発明の実施例におけるタスクニューラルネットワークの構成ブロック図である。It is a block diagram of the task neural network in the Example of this invention. 本発明の実施例におけるメタ学習ネットワーク訓練装置が実行する処理の例示的なアーキテクチャ図である。It is an exemplary architecture diagram of the process performed by the meta-learning network training apparatus in the embodiment of the present invention. 本発明の実施例におけるメタ学習ネットワークが実行する処理の一例を示す図である。It is a figure which shows an example of the process executed by the meta-learning network in the Example of this invention. 本発明の実施例におけるマルチタスクネットワーク実例の勾配情報に基づくメタ学習ネットワーク及び伝統のデータに基づくタスクネットワークのシングルタスクに対する2次元損失曲面の上面図である。It is a top view of the two-dimensional loss curved surface for a single task of a meta-learning network based on gradient information and a task network based on traditional data in an example of a multitasking network in the embodiment of the present invention. 本発明の実施例におけるメタ学習ネットワーク訓練方法の例示的なフローチャートである。It is an exemplary flowchart of the meta-learning network training method in the embodiment of the present invention. 訓練済みのメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う装置の構成ブロック図である。It is a block diagram of a device which trains a neural network using a trained meta-learning network. 訓練済みのメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う方法の例示的なフローチャートである。It is an exemplary flowchart of a method of training a neural network using a trained meta-learning network. 本発明の実施例で採用され得る汎用コンピュータの例示的な構成ブロック図である。It is an exemplary block diagram of a general-purpose computer that can be adopted in the examples of the present invention.

以下、添付した図面を参照しながら、本発明を実施するための好適な形態を詳細に説明する。なお、このような実施形態は、例示に過ぎず、本発明を限定するものでない。 Hereinafter, preferred embodiments for carrying out the present invention will be described in detail with reference to the attached drawings. It should be noted that such an embodiment is merely an example and does not limit the present invention.

まず、図1に基づいて、本発明の実施例におけるメタ学習ネットワーク訓練装置100の機能ブロック図を説明する。図1は、本発明の実施例におけるメタ学習ネットワーク訓練装置100の構成ブロック図である。図1に示すように、本発明の実施例におけるメタ学習ネットワーク訓練装置100は、タスクネットワーク実例取得ユニット102、損失取得ユニット104、サンプリングユニット106、汎化損失計算ユニット108、勾配計算ユニット110、学習ユニット112、第一更新ユニット114、及び第二更新ユニット116を含む。 First, a functional block diagram of the meta-learning network training device 100 according to the embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram of the configuration of the meta-learning network training device 100 according to the embodiment of the present invention. As shown in FIG. 1, the meta-learning network training device 100 in the embodiment of the present invention includes a task network example acquisition unit 102, a loss acquisition unit 104, a sampling unit 106, a generalized loss calculation unit 108, a gradient calculation unit 110, and learning. Includes unit 112, first update unit 114, and second update unit 116.

タスクネットワーク実例取得ユニット102は、異なるタスクのための複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークについて、該タスクニューラルネットワークの複数のタスクネットワーク実例を取得し、そのうち、異なるタスクは、類似性を有する。 The task network example acquisition unit 102 acquires a plurality of task network examples of the task neural network for each task neural network among the plurality of task neural networks for different tasks, among which different tasks have similarities. Have.

一例として、複数のタスクニューラルネットワークのうちの1つのタスクニューラルネットワークが、英語認識タスクのためのニューラルネットワークであっても良く、複数のタスクニューラルネットワークのうちのもう1つのタスクニューラルネットワークが、フランス語認識タスクのためのニューラルネットワークであっても良く、英語認識タスク及びフランス語認識タスクは、類似性を有する。 As an example, one task neural network of a plurality of task neural networks may be a neural network for an English recognition task, and another task neural network of a plurality of task neural networks recognizes French. It may be a neural network for the task, and the English recognition task and the French recognition task have similarities.

一例として、複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークがすべて、情感(emotion)を分類するためのニューラルネットワークシステムである。 As an example, each task neural network among a plurality of task neural networks is a neural network system for classifying emotions.

一例として、複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークがすべて、ユーザにウェブサイトにおける品物リストを推薦するためのニューラルネットワーク推薦システムである。例えば、品物リストは、商品リストを含んでも良い。 As an example, each task neural network among a plurality of task neural networks is a neural network recommender system for recommending a list of goods on a website to a user. For example, the goods list may include a goods list.

一例として、複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークがすべて、ユーザに映画・テレビウェブサイトの番組リストを推薦するためのニューラルネットワーク推薦システムである。 As an example, each task neural network among a plurality of task neural networks is a neural network recommender system for recommending a program list of a movie / television website to a user.

また、一例として、複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークがすべて、ユーザにショッピングウェブサイトの品物リストを推薦するためのニューラルネットワーク推薦システムである。 Also, as an example, each task neural network among a plurality of task neural networks is a neural network recommender system for recommending a list of goods on a shopping website to a user.

図2は、本発明の実施例におけるタスクニューラルネットワークの構成ブロック図である。 FIG. 2 is a block diagram of a task neural network according to an embodiment of the present invention.

図2では、Q1:n-1=[Q1,Q2,…,Qn-1]がコンテクスト基本ユニット索引シーケンスであり、各Qi(i=1,2,…,n-1)が基本ユニットの索引番号を表し、そのうち、タスクニューラルネットワークがユーザにショッピングウェブサイトの品物リストを推薦するための推薦ニューラルネットワークである場合、コンテクスト基本ユニットは、閲覧の品物の名称である。嵌入層が基本ユニット索引番号を低次元連続非スパースワード(non-sparse word)ベクトルに変換する。回帰型ニューラルネットワーク(一例として、回帰型ニューラルネットワークが長・短期記憶ネットワークLSTMであっても良い)がコンテクスト基本ユニット索引シーケンスに対応するワードベクトルシーケンスを入力とし、ループ展開により、Qn-1に対応するn-1の位置のコンテクスト特徴hn-1を出力し、そのうち、h0が初期特徴である。アフィン層がhn-1を基本ユニット辞典と同じ次元のベクトルOn-1に変換する。そのうち、現在のタスクニューラルネットワークの重みパラメータ下のOn-1が推薦の品物に対応し、次の1つの基本ユニット(Qnに対応するユニット)のワンホットベクトルベクトルがリアルな閲覧の品物に対応する。 In Figure 2, Q 1: n-1 = [Q 1 , Q 2 ,…, Q n-1 ] is the contextual basic unit index sequence, and each Q i (i = 1,2,…, n-1). Represents the index number of the basic unit, of which the context basic unit is the name of the item viewed, where the task neural network is the recommended neural network for recommending the user a list of items on the shopping website. The inset layer transforms the base unit index number into a low-dimensional continuous non-sparse word vector. A recurrent neural network (for example, the recurrent neural network may be a long / short-term memory network LSTM) takes a word vector sequence corresponding to the context basic unit index sequence as an input, and loop unrolls to Q n-1 . The context feature h n-1 at the corresponding n-1 position is output, of which h 0 is the initial feature. The affine layer transforms h n-1 into a vector O n-1 of the same dimensions as the basic unit dictionary. Of these, On -1 under the weight parameter of the current task neural network corresponds to the recommended item, and the one-hot vector vector of the next one basic unit (unit corresponding to Q n ) becomes a realistic browsing item. Correspond.

一例として、異なるタスクが類似性を有するとは、タスクのビジネスシーンが相似していることを指し、例えば、異なるタスクのタスクニューラルネットワークの入力が相似しており、及び/又は、異なるタスクのタスクニューラルネットワークの出力が相似しており、或いは、異なるタスクのタスクニューラルネットワークの構成が相似している。 As an example, the similarity of different tasks means that the business scenes of the tasks are similar, for example, the inputs of the task neural network of different tasks are similar and / or the tasks of different tasks. The output of the neural network is similar, or the configuration of the task neural network of different tasks is similar.

図3は、本発明の実施例におけるメタ学習ネットワーク訓練装置100が実行する処理の示例的なアーキテクチャ図である。 FIG. 3 is an exemplary architectural diagram of the processing performed by the meta-learning network training apparatus 100 in the embodiment of the present invention.

図3に示すように、N個のタスク、即ち、タスク1、タスク2、……、タスクNがあるとする。そのうち、タスク1、タスク2、……、タスクNは、類似性を有する。 As shown in FIG. 3, it is assumed that there are N tasks, that is, task 1, task 2, ..., Task N. Of these, task 1, task 2, ..., and task N have similarities.

各タスクニューラルネットワークについて複数のタスクネットワーク実例を得ることで、ニューラルネットワークのサンプルが少ない問題を有効に解決しており、後述のメタ学習ネットワークに、より多くの入力サンプルを提供することができる。 By obtaining a plurality of task network examples for each task neural network, the problem that the number of neural network samples is small can be effectively solved, and more input samples can be provided to the meta-learning network described later.

好ましくは、タスクネットワーク実例取得ユニット102は、複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークに対してランダム初期化を行うことで、各タスクニューラルネットワークの複数のタスクネットワーク実例を取得するように構成され得る。 Preferably, the task network example acquisition unit 102 is configured to acquire a plurality of task network examples of each task neural network by performing random initialization for each task neural network among the plurality of task neural networks. Can be done.

一例として、タスクニューラルネットワークがユーザにショッピングウェブサイトの品物リストを推薦するための推薦ニューラルネットワークシステムである場合、各タスクニューラルネットワークの複数のタスクネットワーク実例は、推薦ニューラルネットワークシステムの実例である。 As an example, when the task neural network is a recommended neural network system for recommending a list of goods on a shopping website to a user, a plurality of task network examples of each task neural network are examples of the recommended neural network system.

図3に示すように、タスク1のためのニューラルネットワークのネットワークパラメータに対してランダム初期化を行うことで、タスク1のためのニューラルネットワークの複数のタスクネットワーク実例を取得することができ;タスク2のためのニューラルネットワークのネットワークパラメータに対してランダム初期化を行うことで、タスク2のためのニューラルネットワークの複数のタスクネットワーク実例を取得することができ;及び、タスクNのためのニューラルネットワークのネットワークパラメータに対してランダム初期化を行うことで、タスクNのためのニューラルネットワークの複数のタスクネットワーク実例を取得することができる。図3では、便宜のため、各タスクのためのニューラルネットワークがそれぞれ3個のタスクネットワーク実例を有することが示されている。なお、当業者が理解すべきは、各タスクのためのニューラルネットワークが他の数の複数のタスクネットワーク実例を有しても良いということである。 As shown in Figure 3, by performing random initialization on the network parameters of the neural network for task 1, it is possible to obtain multiple task network examples of the neural network for task 1; task 2 By performing random initialization on the network parameters of the neural network for, we can obtain multiple task network examples of the neural network for task 2; and the network of the neural network for task N. By performing random initialization on the parameters, it is possible to obtain multiple task network examples of the neural network for task N. Figure 3 shows that, for convenience, each neural network for each task has three task network examples. It should be noted that those skilled in the art should understand that the neural network for each task may have a plurality of other task network examples.

損失取得ユニット104は、訓練データを用いて、それぞれ、各タスクニューラルネットワークの各タスクネットワーク実例の損失を取得するように構成され得る。 The loss acquisition unit 104 may be configured to acquire the loss of each task network example of each task neural network, respectively, using the training data.

一例として、タスクニューラルネットワークがユーザにショッピングウェブサイトの品物リストを推薦するための推薦ニューラルネットワークシステムである場合、損失取得ユニット104は、各推薦ニューラルネットワークシステムの実例の損失を取得するように構成され得る。 As an example, if the task neural network is a recommended neural network system for recommending a list of goods on a shopping website to the user, the loss acquisition unit 104 is configured to acquire the actual loss of each recommended neural network system. obtain.

一例として、損失取得ユニット104では、各タスクニューラルネットワークの訓練集合中の訓練データを用いて、この分野における通常の損失計算関数、例えば、softmaxなどにより、それぞれ、各タスクニューラルネットワークの各タスクネットワーク実例の損失を取得することができる。 As an example, in the loss acquisition unit 104, each task network example of each task neural network is used by a normal loss calculation function in this field, for example, softmax, using the training data in the training set of each task neural network. You can get the loss of.

各タスクのためのタスクニューラルネットワークがそれぞれ同じ数のタスクネットワーク実例を有する場合、すべてのタスクネットワーク実例の損失により1つの損失行列を構成することができ、この行列は、列の数がタスクの個数であり、行の数がタスクニューラルネットワークの実例の個数である。 If the task neural network for each task has the same number of task network examples, then the loss of all task network examples can form one loss matrix, which is the number of columns in the number of tasks. And the number of rows is the number of examples of task neural networks.

図3に示す例では、“損失”がつくキューブ(方塊)がそれぞれ各タスクネットワーク実例の損失を表し、これらの損失は、1つの損失行列を構成し、行列の列の数は、タスクの個数Nであり、行の数は、各タスクニューラルネットワークの実例の個数、即ち、3である。 In the example shown in FIG. 3, each cube (square block) with "loss" represents the loss of each task network example, these losses constitute one loss matrix, and the number of columns in the matrix is the number of tasks. N, the number of rows is the number of examples of each task neural network, i.e. 3.

サンプリングユニット106は、損失に対してサンプリングを行うことで、サンプリング後の複数の損失を取得するように構成され得る。 The sampling unit 106 may be configured to acquire a plurality of losses after sampling by sampling the losses.

一例として、タスクニューラルネットワークがユーザにショッピングウェブサイトの品物リストを推薦するための推薦ニューラルネットワークシステムである場合、サンプリングユニット106は、推薦ニューラルネットワークシステムの実例の損失に対してサンプリングを行うように構成され得る。 As an example, if the task neural network is a recommendation neural network system for recommending a list of goods on a shopping website to a user, the sampling unit 106 is configured to sample for the loss of an example of the recommendation neural network system. Can be done.

後述のように、サンプリング後の複数の損失に対応するタスクネットワーク実例の勾配を後述のメタ学習ネットワークの入力とし、この場合、損失に対してサンプリングを行うことは、メタ学習ネットワークのメタ情報としての勾配に対して選択的フィルタリングを行うことに相当し、これにより、メタ学習ネットワークのロバストネスを大幅に向上させることができる。 As will be described later, the gradient of the task network example corresponding to a plurality of losses after sampling is used as the input of the meta-learning network described later, and in this case, sampling for the loss is used as meta information of the meta-learning network. It is equivalent to performing selective filtering on the gradient, which can greatly improve the robustness of the meta-learning network.

好ましくは、サンプリングユニット106は、ランダム選択操作により損失に対してサンプリングを行うことで、前記サンプリング後の複数の損失を取得するように構成され得る。そのうち、サンプリング後の複数の損失の数が、選択操作の保持確率パラメータにより制御される。 Preferably, the sampling unit 106 may be configured to acquire a plurality of losses after the sampling by sampling the losses by a random selection operation. Of these, the number of losses after sampling is controlled by the retention probability parameter of the selection operation.

一例として、ランダム選択操作が当業者に周知のdropout操作であっても良く、サンプリング後の複数の損失の数がdropout操作の保持確率パラメータにより制御される。 As an example, the random selection operation may be a dropout operation well known to those skilled in the art, and the number of multiple losses after sampling is controlled by the retention probability parameter of the dropout operation.

ランダム選択操作、例えば、dropout操作により損失に対してサンプリングを行うことは、メタ学習ネットワークのメタ情報としての勾配に対してランダムな選択性フィルタリングを行うことに相当し、これにより、メタ学習ネットワークのロバストネスをさらに向上させることができる。 Sampling the loss by a random selection operation, for example a dropout operation, is equivalent to performing random selectivity filtering on the gradient as meta information of the meta-learning network, thereby causing the meta-learning network. Robustness can be further improved.

図3では、“ランダム選択操作”に対応する損失の図示において、灰色キューブでサンプリング後の複数の損失を示し、白色キューブでサンプリングされない(即ち、選択されない)損失を示す。 In FIG. 3, in the illustration of the loss corresponding to the “random selection operation”, the gray cube shows the plurality of losses after sampling, and the white cube shows the loss not sampled (that is, not selected).

汎化損失計算ユニット108は、サンプリング後の複数の損失に基づいて、サンプリング後の複数の損失の総損失を反映する汎化損失を計算するように構成され得る。 The generalization loss calculation unit 108 may be configured to calculate the generalization loss that reflects the total loss of the plurality of losses after sampling, based on the plurality of losses after sampling.

一例として、タスクニューラルネットワークがユーザにショッピングウェブサイトの品物リストを推薦するための推薦ニューラルネットワークシステムである場合、汎化損失計算ユニット108は、推薦ニューラルネットワークシステムの実例のサンプリング後の損失の汎化損失を計算するように構成され得る。 As an example, if the task neural network is a recommendation neural network system for recommending a list of goods on a shopping website to a user, the generalization loss calculation unit 108 generalizes the loss after sampling of an example of the recommendation neural network system. It can be configured to calculate the loss.

好ましくは、汎化損失計算ユニット108は、さらに、サンプリング後の複数の損失に対して平均化を行い、平均化後の損失を汎化損失とするように構成され得る。複数のタスクネットワーク実例の損失を計算する時間長に差がある。一例として、さらに、損失を計算する時間が最も短いタスクネットワーク実例の損失を汎化損失とすることができる。なお、当業者が理解すべきは、サンプリング後の複数の損失に対して他の処理を行った後の結果を汎化損失としても良いということであるが、ここでは、詳しい説明を省略する。 Preferably, the generalization loss calculation unit 108 can be further configured to perform averaging on a plurality of losses after sampling and to make the loss after averaging the generalization loss. There is a difference in the time length to calculate the loss of multiple task network examples. As an example, the loss of the task network example with the shortest time to calculate the loss can be further referred to as the generalized loss. It should be noted that those skilled in the art should understand that the result after performing other processing on a plurality of losses after sampling may be regarded as a generalization loss, but detailed description thereof will be omitted here.

勾配計算ユニット110は、汎化損失の、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータに対する勾配を計算するように構成され得る。 The gradient calculation unit 110 may be configured to calculate the gradient of the generalized loss with respect to the weight parameter of the task network example corresponding to each of the multiple losses after sampling.

具体的には、汎化損失の、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータに関する偏導(partial derivative)を求めた結果を勾配とする。 Specifically, the gradient is the result of obtaining the partial derivative of the weight parameter of the task network example corresponding to each loss of the plurality of losses after sampling of the generalized loss.

タスクネットワーク実例学習プロセスが、本質的に、タスクネットワーク実例の重みパラメータを連続して更新することで、汎化損失をできるだけ小さくするプロセスである。上述の勾配は、タスクネットワーク実例の重みパラメータの更新の方向を制御するために用いされても良く、また、上述の勾配は、さらに、タスクネットワーク実例の重みパラメータの更新の幅を制御するもできる。 The task network example learning process is essentially a process that minimizes generalization loss by continuously updating the weight parameters of the task network example. The above-mentioned gradient may be used to control the direction of updating the weight parameter of the task network example, and the above-mentioned gradient can also control the width of updating the weight parameter of the task network example. ..

好ましくは、勾配計算ユニット110は、汎化損失の、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例における各ネットワーク層の重みパラメータに対する勾配を計算するように構成され得る。 Preferably, the gradient calculation unit 110 can be configured to calculate the gradient of the generalized loss for the weight parameter of each network layer in the task network example corresponding to each loss of the plurality of post-sampling losses.

一例として、タスクニューラルネットワークが複数のネットワーク層を含んでも良く(例えば、タスクニューラルネットワークが畳み込みニューラルネットワークである場合、畳み込みニューラルネットワークは、複数の畳み込み層、複数の全結合層などを含んでも良い)、これにより、タスクネットワーク実例も、それ相応に、複数のネットワーク層を含む。タスクネットワーク実例の重みパラメータの学習とは、タスクネットワーク実例における各ネットワーク層の重みパラメータを学習することである。よって、勾配計算ユニット110は、汎化損失の、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例における各ネットワーク層の重みパラメータに対する勾配を計算する必要がある。 As an example, the task neural network may include a plurality of network layers (for example, when the task neural network is a convolutional neural network, the convolutional neural network may include a plurality of convolutional layers, a plurality of fully connected layers, and the like). As a result, the task network example also includes a plurality of network layers accordingly. Learning the weight parameter of the task network example is to learn the weight parameter of each network layer in the task network example. Therefore, the gradient calculation unit 110 needs to calculate the gradient of the generalization loss with respect to the weight parameter of each network layer in the task network example corresponding to each loss among the plurality of losses after sampling.

好ましくは、勾配計算ユニット110は、複数のタスクニューラルネットワークについて取得されたすべてのタスクネットワーク実例のうち、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例以外のタスクネットワーク実例の各ネットワーク層の重みパラメータの勾配をゼロ(zero)に設定するように構成され得る。 Preferably, the gradient calculation unit 110 is used for each of the task network examples other than the task network example corresponding to each loss of the plurality of losses after sampling among all the task network examples acquired for the plurality of task neural networks. It can be configured to set the gradient of the network layer weight parameter to zero.

図3では、“勾配”に対応するキューブのうち、灰色キューブが、汎化損失の、サンプリング後の損失に対応するタスクネットワーク実例における或る層の重みパラメータに対する勾配を示し、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例以外のタスクネットワーク実例の各ネットワーク層の重みパラメータの勾配をゼロに設定し、また、値がゼロである勾配は、白色キューブで示される。 In FIG. 3, among the cubes corresponding to the “gradient”, the gray cube shows the gradient of the generalization loss with respect to the weight parameter of a certain layer in the task network example corresponding to the loss after sampling. The gradient of the weight parameter of each network layer of the task network example other than the task network example corresponding to each loss of the loss is set to zero, and the gradient having a value of zero is shown by a white cube.

学習ユニット112は、勾配を少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークにそれぞれ入力することで、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータの更新値をそれぞれ取得するように構成され得る。そのうち、メタ学習ネットワークは、勾配に対して学習を行うニューラルネットワークである。 The learning unit 112 updates the weight parameters of the task network example corresponding to each loss of the plurality of losses after sampling by inputting the gradient to each of the meta learning networks of at least one meta learning network. It can be configured to get each value. Among them, the meta-learning network is a neural network that learns with respect to the gradient.

上述のように、タスクネットワーク実例学習プロセスは、タスクネットワーク実例の各ネットワーク層の重みパラメータを連続して更新することで汎化損失をできるだけ小さくするプロセスとして具現化することができる。 As described above, the task network example learning process can be embodied as a process that minimizes generalization loss by continuously updating the weight parameters of each network layer of the task network example.

タスクネットワーク実例における1つのネットワーク層の重みパラメータの更新が、Wi+1=WiWと記され得る。そのうち、Wiは、該ネットワーク層の更新前の重みパラメータであり、Wi+1は、該ネットワーク層の更新後の重みパラメータであり、ΔWは、該ネットワーク層の重みパラメータの更新値である。 The update of the weight parameter of one network layer in the task network example can be written as W i + 1 = W i + Δ W. Among them, W i is a weight parameter before the update of the network layer, W i + 1 is a weight parameter after the update of the network layer, and ΔW is an update value of the weight parameter of the network layer. ..

重みパラメータの更新値ΔWが、ΔW=λ*gradと表され得る。そのうち、λは、学習率であり、重みパラメータの更新の幅を制御するために用いられ、例えば、経験値、又は、実験により確定されるパラメータであり、gradは、汎化損失の、該ネットワーク層の重みパラメータに対する勾配であり、重みパラメータの更新の方向を制御するために用いられ、また、gradは、さらに、重みパラメータの更新の幅を制御するもできる。上述の公式より分かるように、更新値ΔWは、タスクネットワーク実例学習スピードに直接影響する。 The update value ΔW of the weight parameter can be expressed as ΔW = λ * grad. Among them, λ is the learning rate, which is used to control the update width of the weight parameter, and is, for example, an empirical value or a parameter determined by an experiment, and grad is the network of generalization loss. It is a gradient with respect to the weight parameter of the layer and is used to control the direction of updating the weight parameter, and grad can also control the width of updating the weight parameter. As can be seen from the above formula, the update value ΔW directly affects the learning speed of the task network example.

本発明の実施例におけるメタ学習ネットワークは、勾配に対して学習を行うニューラルネットワークである。サンプリング後の複数の損失に対応するタスクネットワーク実例の各ネットワーク層の勾配gradをメタ学習ネットワークにそれぞれ入力し、メタ学習ネットワークは、該層の重みパラメータの更新値ΔWを出力することができる。 The meta-learning network in the embodiment of the present invention is a neural network that learns with respect to the gradient. The gradient grad of each network layer of the task network example corresponding to the plurality of losses after sampling is input to the meta-learning network, and the meta-learning network can output the updated value ΔW of the weight parameter of the layer.

好ましくは、メタ学習ネットワークは、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の各ネットワーク層の重みパラメータの前回の更新の状態に基づいて、該層の重みパラメータの更新値を出力することができる。 Preferably, the meta-learning network is based on the state of the last update of the weight parameter of each network layer of the task network example corresponding to each loss of the multiple losses after sampling, and the update value of the weight parameter of that layer. Can be output.

具体的には、メタ学習ネットワークは、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の各ネットワーク層の重みパラメータの勾配、及び、該層の重みパラメータの前回の更新により生成された状態ベクトル(初期の状態ベクトルがゼロベクトルである)に基づいて、該層の重みパラメータの更新値、及び、該層の重みパラメータの今回の更新により生成された状態ベクトルを出力する。これで分かるように、前の重みパラメータの更新結果が後の重みパラメータの更新結果に影響を与えることがあるから、重みパラメータの更新は、後効果を有する。 Specifically, the meta-learning network is generated by the gradient of the weight parameter of each network layer of the task network example corresponding to each loss of the plurality of losses after sampling, and the previous update of the weight parameter of the layer. Based on the obtained state vector (the initial state vector is a zero vector), the updated value of the weight parameter of the layer and the state vector generated by this update of the weight parameter of the layer are output. As can be seen, the update of the weight parameter has a post-effect because the update result of the previous weight parameter may affect the update result of the later weight parameter.

図4は、本発明の実施例におけるメタ学習ネットワークが実行する処理の一例を示す図である。 FIG. 4 is a diagram showing an example of processing executed by the meta-learning network in the embodiment of the present invention.

図4では、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例における1つのネットワーク層の重みパラメータの勾配gradをメタ学習ネットワークに入力し、そのうち、gradは、1つの2次元行列である。 In FIG. 4, the gradient grad of the weight parameter of one network layer in the task network example corresponding to each loss among the plurality of losses after sampling is input to the meta-learning network, of which grad is one two-dimensional matrix. Is.

メタ学習ネットワークでは、まず、前処理操作により2次元行列のgradを行の方向に1次元ベクトルの前処理勾配ベクトルに展開する。 In the meta-learning network, first, the grad of the two-dimensional matrix is expanded in the row direction into the preprocessing gradient vector of the one-dimensional vector by the preprocessing operation.

回帰型ニューラルネットワークを用いて重みパラメータの更新の後効果を表すことができ、図4に示すように、複数の回帰型ニューラルネットワーク、例えば、“1”、“2”“3”、“4”、“5”、“6”がつく回帰型ニューラルネットワークが存在するとする。図4では、回帰型ニューラルネットワークが長・短期記憶ネットワークLSTMであることが示されているが、当業者が理解すべきは、回帰型ニューラルネットワークは、さらに、長・短期記憶ネットワーク以外のネットワークであっても良いということである。前処理勾配ベクトル及び回帰型ニューラルネットワークの前回の状態ベクトル(それは、上述の、タスクネットワーク実例の重みパラメータの前回の更新により生成された状態ベクトルに対応し、図4において“前回更新状態”の中の“前回更新状態ベクトル”である)が回帰型ニューラルネットワーク層の入力とされ、一連の回帰型ニューラルネットワークの出力ベクトル(図4において“LSTM出力ベクトル”がつくものである)が出力され、そのうち、回帰型ニューラルネットワークの状態ベクトルがゼロベクトルと統一初期化される。そのうち、前処理勾配ベクトルの各要素が、回帰型ニューラルネットワーク層の重みパラメータをシェアする。なお、同じ類型のネットワーク層のサイズが異なることが原因で、回帰型ニューラルネットワークの内部の入力重みをシェアすることができなくなることがあり、サイズが異なる問題を解決するために、回帰型ニューラルネットワークでは、マルチベクトルにおける各スカラー要素のループ展開及び重みシェアのポリシーを採用している。展開の中間状態(例えば、図4中の斜線を含む小さいブロック(小塊))を保存する必要がなく、展開の最後の1つの位置の状態の出力のみを、今回の更新により生成された状態ベクトル(即ち、図4における“今回更新状態”の中の“今回更新状態ベクトル”である)として保存する必要がある。 Recurrent neural networks can be used to represent the post-effect of updating weight parameters, and as shown in FIG. 4, multiple recurrent neural networks, such as "1", "2", "3", "4". Suppose there is a recurrent neural network with, "5" and "6". Although FIG. 4 shows that the recurrent neural network is a long / short-term memory network LSTM, those skilled in the art should understand that the recurrent neural network is a network other than the long / short-term memory network. It is okay to have it. The preprocessed gradient vector and the previous state vector of the recurrent neural network (which corresponds to the state vector generated by the previous update of the weight parameter of the task network example described above, and is in the “last updated state” in FIG. (The last updated state vector) is the input of the recurrent neural network layer, and the output vector of a series of recurrent neural networks (the one with the “LSTM output vector” in Fig. 4) is output. , The state vector of the recurrent neural network is unified and initialized with the zero vector. Among them, each element of the preprocessing gradient vector shares the weight parameter of the recurrent neural network layer. Note that the input weights inside the recurrent neural network may not be shared due to the different sizes of the network layers of the same type, and in order to solve the problem of different sizes, the recurrent neural network Has adopted the policy of loop unrolling and weight sharing of each scalar element in the multi-vector. It is not necessary to save the intermediate state of the expansion (for example, a small block (small block) including the diagonal line in Fig. 4), and only the output of the state at the last one position of the expansion is the state generated by this update. It needs to be saved as a vector (that is, the "currently updated state vector" in the "currently updated state" in FIG. 4).

続いて、1つの線形変換層により、各回帰型ニューラルネットワークの出力ベクトルをスカラー要素に変換し、そして、すべてのスカラー要素を合併して最終出力ベクトルとする。 Subsequently, the output vector of each recurrent neural network is converted into a scalar element by one linear transformation layer, and all the scalar elements are merged into a final output vector.

最後に、後処理により、最終出力ベクトルを、gradのサイズと同じである行列に変換してΔWとする。 Finally, the post-processing converts the final output vector into a matrix that is the same size as the grad and gives it ΔW.

なお、図3では、“前回更新状態”がつくキューブが、それぞれ、各タスクネットワーク実例の前回の更新により生成された状態表し、また、図3では、“サンプリング後のタスクネットワーク実例の前回更新状態”がつくキューブのうち、灰色キューブが、サンプリング後の各タスクネットワーク実例の前回の更新により生成された状態を示し、白色キューブが、タスクネットワーク実例がサンプリングされないことを示す。 In addition, in FIG. 3, the cubes with the “last updated state” represent the state generated by the previous update of each task network example, and in FIG. 3, the “last updated state of the task network example after sampling” is shown. Of the cubes marked with ", the gray cube indicates the state generated by the previous update of each task network example after sampling, and the white cube indicates that the task network example is not sampled.

第一更新ユニット114は、更新値に基づいて、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータを更新するように構成され得る。 The first update unit 114 may be configured to update the weight parameter of the task network example corresponding to each loss of the plurality of losses after sampling based on the update value.

好ましくは、第一更新ユニット114は、更新値に基づいて、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例における各ネットワーク層の重みパラメータを更新するように構成され得る。 Preferably, the first update unit 114 may be configured to update the weight parameters of each network layer in the task network example corresponding to each loss of the plurality of losses after sampling based on the update value.

第二更新ユニット116は、損失取得ユニット104、サンプリングユニット106、汎化損失計算ユニット108、勾配計算ユニット110、学習ユニット112、及び第一更新ユニット114の処理を反復して実行し、所定条件が満足されるときに、前記所定条件が満足されるときの汎化損失に基づいて、タスクネットワーク実例の損失がより小さい方向に向けて前記少なくとも1つのメタ学習ネットワークを訓練することで、更新後の少なくとも1つのメタ学習ネットワークを得るように構成され得る。 The second update unit 116 repeatedly executes the processes of the loss acquisition unit 104, the sampling unit 106, the generalized loss calculation unit 108, the gradient calculation unit 110, the learning unit 112, and the first update unit 114, and the predetermined conditions are satisfied. After the update, by training the at least one meta-learning network in a direction in which the loss of the task network example is smaller, based on the generalized loss when the predetermined condition is satisfied, when satisfied. It may be configured to obtain at least one meta-learning network.

具体的には、上述の反復処理を行う前に、まず、前記少なくとも1つのメタ学習ネットワークの重みパラメータを初期化し、一例として、経験に基づいて前記少なくとも1つのメタ学習ネットワークの重みパラメータを初期化し、又は、前記少なくとも1つのメタ学習ネットワークの重みパラメータをランダム初期化し、又は、当業者が想到し得る他の方法で前記少なくとも1つのメタ学習ネットワークの重みパラメータを初期化しても良い。タスクネットワーク実例の重みパラメータを反復して更新するプロセスでは、前記少なくとも1つのメタ学習ネットワークの重みパラメータを固定する。 Specifically, before performing the above-mentioned iterative processing, first, the weight parameters of the at least one meta-learning network are initialized, and as an example, the weight parameters of the at least one meta-learning network are initialized based on experience. Alternatively, the weight parameters of the at least one meta-learning network may be randomly initialized, or the weight parameters of the at least one meta-learning network may be initialized by other methods conceivable by those skilled in the art. In the process of iteratively updating the weight parameters of the task network example, the weight parameters of at least one meta-learning network are fixed.

一例として、上述の所定条件は、所定の反復回数に達することであっても良い。一例として、タスクネットワーク実例の重みパラメータを反復して更新し、所定の反復回数に達したときに、前記複数のタスクネットワーク実例の重みパラメータを固定し、タスクネットワーク実例の損失がより小さい方向に向けて前記少なくとも1つのメタ学習ネットワークを訓練することで、少なくとも1つのメタ学習ネットワークの重みパラメータを更新することができる。 As an example, the predetermined condition described above may reach a predetermined number of repetitions. As an example, the weight parameters of the task network example are repeatedly updated, and when the predetermined number of iterations is reached, the weight parameters of the plurality of task network examples are fixed so that the loss of the task network example is reduced. By training the at least one meta-learning network, the weight parameters of the at least one meta-learning network can be updated.

上述のように、本発明の実施例におけるメタ学習ネットワークは、勾配に対して学習を行うニューラルネットワークである。以上に言及されているように、各タスクニューラルネットワークについて複数のタスクネットワーク実例を得ることでニューラルネットワークのサンプルが少ない問題を有効に解決しており、メタ学習ネットワークに、より多くのタスクネットワーク実例の勾配を提供することができる。これらの沢山のタスクネットワーク実例の勾配をメタ学習ネットワークのサンプルデータとしてメタ学習ネットワークに対して訓練を行い、訓練済みのメタ学習ネットワークは、タスクニューラルネットワークの学習更新規則を推定し、効率がより高いタスクニューラルネットワークの重みパラメータの最適化経路を予測し、より優れた重みパラメータの更新値ΔWを計算することで、タスクニューラルネットワークを学習するスピードを加速することができる。また、損失に対してサンプリングを行うことは、メタ学習ネットワークのメタ情報としての勾配に対して選択的フィルタリングを行うことに相当し、これにより、メタ学習ネットワークのロバストネスを大幅に向上させることができる。 As described above, the meta-learning network in the embodiment of the present invention is a neural network that learns with respect to the gradient. As mentioned above, by obtaining multiple task network examples for each task neural network, the problem of few neural network samples is effectively solved, and more task network examples can be added to the meta-learning network. A gradient can be provided. The gradients of these many task network examples are used as sample data of the meta-learning network to train the meta-learning network, and the trained meta-learning network estimates the learning update rules of the task neural network and is more efficient. By predicting the optimization path of the weight parameter of the task neural network and calculating the update value ΔW of the better weight parameter, the speed of learning the task neural network can be accelerated. In addition, sampling the loss is equivalent to performing selective filtering on the gradient of the meta-learning network as meta-information, which can greatly improve the robustness of the meta-learning network. ..

好ましくは、前記少なくとも1つのメタ学習ネットワークの数が、複数のタスクニューラルネットワークにおけるネットワーク層の類型の数と同じであり、また、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の各ネットワーク層の勾配が該層の類型に対応するメタ学習ネットワークに入力される。言い換えると、異なるメタ学習ネットワークをそれぞれ用いて、タスクネットワーク実例における異なる類型のネットワーク層の勾配情報をそれぞれ学習し、また、同じメタ学習ネットワークを用いて、タスクネットワーク実例における同じ類型のネットワーク層の勾配情報を学習する。一例として、タスクニューラルネットワークが畳み込みニューラルネットワークであり、且つ畳み込みニューラルネットワークが複数の畳み込み層及び複数の全結合層を含む場合、第一メタ学習ネットワークを採用して畳み込みニューラルネットワーク実例における前記複数の畳み込み層に関する勾配情報を学習し、また、第一メタ学習ネットワークとは異なる第二メタ学習ネットワークを採用して畳み込みニューラルネットワーク実例における前記複数の全結合層に関する勾配情報を学習する。 Preferably, the number of the at least one meta-learning network is the same as the number of network layer types in the plurality of task neural networks, and the task network example corresponding to each loss among the plurality of losses after sampling. The gradient of each network layer is input to the meta-learning network corresponding to the layer type. In other words, different meta-learning networks are used to learn the gradient information of different types of network layers in the task network example, and the same meta-learning network is used to learn the gradient information of the same type of network layer in the task network example. Learn information. As an example, when the task neural network is a convolutional neural network and the convolutional neural network includes a plurality of convolutional layers and a plurality of fully connected layers, the first meta-learning network is adopted to adopt the first meta-learning network and the plurality of convolutions in the convolutional neural network example. The gradient information about the layer is learned, and the gradient information about the plurality of fully connected layers in the convolutional neural network example is learned by adopting the second meta learning network different from the first meta learning network.

図5は、本発明の実施例におけるマルチタスクネットワーク実例の勾配情報に基づくメタ学習ネットワーク及び伝統のデータに基づくタスクネットワークのシングルタスクに対する2次元損失曲面の上面図である。 FIG. 5 is a top view of a two-dimensional loss curved surface for a single task of a meta-learning network based on gradient information and a task network based on traditional data in an example of a multitasking network in an embodiment of the present invention.

図5に示す損失曲面では、曲面の色が深いほど、その位置の損失値が小さく、各矢印付き線分が、一回のネットワーク層重みパラメータ更新後の損失降下の方向及びステップ長を表す。そのうち、白い矢印付き線分が構成した経路は、伝統のデータに基づくタスクネットワークの損失降下方式であり、点線枠に含まれる黒い矢印付き線分が構成した経路は、本発明の実施例におけるマルチタスクネットワーク実例の勾配情報に基づくメタ学習ネットワークの損失降下方式である。伝統のデータに基づくタスクネットワークでは、例えば、mini-batchランダム勾配降下法を用いたタスクネットワークでは、比較的小さい損失に収束する速度が往々にして遅い。その原因は、主に、ローカルbatchデータ上の損失に基づいて得られた更新勾配に偏ったものがあり、そのため、毎回のパラメータの更新の方向が必ずしも最適でなく(迂回する可能性がある)、一旦前の更新の偏差が大き過ぎると、収束の速度が遅くなり、収束せず、又は、ローカル最小損失が非常に良くないところに収束することを引き起こすことができる。図5から分かるように、黒色線分が損失の比較的低い点に到達するに必要な更新回数が、データに基づくタスクネットワークの更新回数よりも遥かに小さく、これにより、本発明の実施例におけるマルチタスクネットワーク実例の勾配情報に基づくメタ学習ネットワークは、効率がより高いタスクニューラルネットワークの重みパラメータの最適化経路を予測することできるため、タスクニューラルネットワークを学習するスピードを加速することができる。 In the loss curved surface shown in FIG. 5, the deeper the color of the curved surface, the smaller the loss value at that position, and each line segment with an arrow represents the direction and step length of the loss drop after one network layer weight parameter update. Among them, the route composed of the white arrowed line segment is the loss reduction method of the task network based on the traditional data, and the route composed of the black arrowed line segment included in the dotted frame is the multi in the embodiment of the present invention. It is a loss drop method of the meta-learning network based on the gradient information of the task network example. In traditional data-based task networks, for example, task networks using the mini-batch random gradient descent method, the rate of convergence to relatively small losses is often slow. The main reason for this is that it is biased towards the update gradient obtained based on the loss on the local batch data, so the direction of each parameter update is not always optimal (it may bypass). Once the deviation of the previous update is too large, it can slow down the convergence and cause it to not converge or to converge where the local minimum loss is not very good. As can be seen from FIG. 5, the number of updates required for the black line segment to reach the point where the loss is relatively low is much smaller than the number of updates of the task network based on the data, and thus in the embodiment of the present invention. A meta-learning network based on the gradient information of the multitasking network example can predict the optimization path of the weight parameter of the task neural network with higher efficiency, so that the speed of learning the task neural network can be accelerated.

本発明の実施例におけるメタ学習ネットワーク訓練装置100では、第二更新ユニット116の更新後の少なくとも1つのメタ学習ネットワークに基づいて、損失取得ユニット104、サンプリングユニット106、汎化損失計算ユニット108、勾配計算ユニット110、学習ユニット112、第一更新ユニット114、及び第二更新ユニット116の処理を、第一反復終了条件が満足されるまで反復して実行する。上述のように、更新後のメタ学習ネットワークにより、効率がより高いタスクニューラルネットワークの重みパラメータの最適化経路を予測し、より良い重みパラメータの更新値ΔWを計算することができるから、第二更新ユニット116の更新後の少なくとも1つのメタ学習ネットワークに基づいて、再び、タスクネットワーク実例の重みパラメータを反復して更新することで、タスクネットワーク実例を学習するスピードを加速することができる。上述のプロセスを繰り返し、即ち、前記複数のタスクネットワーク実例の重みパラメータ、及び、前記少なくとも1つのメタ学習ネットワークのパラメータを、第一反復終了条件が満足されるまで交替に更新する(上述のように、前記複数のタスクネットワーク実例の重みパラメータを反復して更新し、前記所定条件が満足されたときに、前記少なくとも1つのメタ学習ネットワークのパラメータを更新する)。一例として、第一反復終了条件は、所定の反復回数に達すること、汎化損失が収束すること、汎化損失降下がとても小さいこと、汎化損失が上昇することのうちの少なくとも1つであっても良い。第一反復終了条件が満足されるときに得られたメタ学習ネットワークは、新しいタスクニューラルネットワークの学習更新規則をより迅速且つ正確に推定することができ、これにより、新しいタスクニューラルネットワークの迅速な学習を指導するために用いることができる。 In the meta-learning network training device 100 in the embodiment of the present invention, the loss acquisition unit 104, the sampling unit 106, the generalized loss calculation unit 108, and the gradient are based on at least one meta-learning network after the update of the second update unit 116. The processing of the calculation unit 110, the learning unit 112, the first update unit 114, and the second update unit 116 is repeatedly executed until the first iteration end condition is satisfied. As described above, the updated meta-learning network can predict the optimization path of the weight parameter of the task neural network with higher efficiency and calculate the update value ΔW of the better weight parameter. Based on at least one meta-learning network after the update of unit 116, the weight parameter of the task network example can be iteratively updated again to accelerate the learning speed of the task network example. The above process is repeated, that is, the weight parameters of the plurality of task network examples and the parameters of the at least one meta-learning network are alternately updated until the first iteration end condition is satisfied (as described above). , The weight parameters of the plurality of task network examples are repeatedly updated, and when the predetermined conditions are satisfied, the parameters of the at least one meta-learning network are updated). As an example, the first iteration end condition is at least one of reaching a predetermined number of iterations, the generalization loss converging, the generalization loss decrease being very small, and the generalization loss increasing. You may. The meta-learning network obtained when the first iteration end condition is satisfied can estimate the learning update rules of the new task neural network more quickly and accurately, thereby rapidly learning the new task neural network. Can be used to teach.

従来のパラメータ更新値に基づいて推定されるメタ学習ネットワークでは、各タスク下で1つのタスクネットワーク実例を初期化し、その後、各タスク実例のパラメータ更新規則によりメタ学習ネットワークのパラメータを学習する。しかし、各タスク下で単一のネットワーク実例がタスク規則抽出の不充分を来すことがあり、これにより、マルチタスク下で訓練されたメタ学習ネットワークの、タスクネットワーク実例の重みパラメータに対しての更新値に指導偏差があることを誘発することができ、即ち、マルチタスク下で訓練されたメタ学習ネットワークがより良いタスクネットワーク実例パラメータの更新値を正確に予測できないことを引き起こし得る。例えば、複数のタスクニューラルネットワークがユーザにショッピングウェブサイトの品物リストを推薦するためのニューラルネットワーク推薦システムである場合、ユーザに現在の品物リストを正確に推薦できないことを引き起こす可能性がある。 In the meta-learning network estimated based on the conventional parameter update value, one task network example is initialized under each task, and then the parameters of the meta-learning network are learned according to the parameter update rule of each task example. However, a single network example under each task can lead to inadequate task rule extraction, which causes the weight parameters of the task network example of the meta-learning network trained under multitasking. It can be induced that there is a guidance deviation in the update value, that is, it can cause the meta-learning network trained under multitasking to be unable to accurately predict the update value of a better task network example parameter. For example, if multiple task neural networks are a neural network recommender system for recommending a shopping website item list to a user, it may cause the user to be unable to accurately recommend the current item list.

本発明の実施例におけるメタ学習ネットワーク訓練装置100では、各タスクニューラルネットワークについて複数のタスクネットワーク実例を取得することでニューラルネットワークのサンプルが少ない問題を有効に解決しており、メタ学習ネットワークに、より多くのタスクネットワーク実例の勾配を提供することができ、タスクネットワーク実例の損失に対してサンプリングを行うことでメタ情報としての勾配に対して選択的フィルタリングを行うことにより、メタ学習ネットワークのロバストネスを大幅に向上させることができ、また、該メタ学習ネットワークにより、効率がより高いタスクニューラルネットワークの重みパラメータの最適化経路を予測し、現在のより良いタスクネットワーク実例の重みパラメータの更新値を計算することで、新しいタスクニューラルネットワークの訓練スピードを加速することもできる。例えば、複数のタスクニューラルネットワークがユーザにショッピングウェブサイトの品物リストを推薦するためのニューラルネットワーク推薦システムである場合、ユーザの歴史閲覧記録に基づいて、ユーザに現在の品物リストを迅速且つ正確に推薦することができる。 In the meta-learning network training device 100 in the embodiment of the present invention, the problem that the number of neural network samples is small is effectively solved by acquiring a plurality of task network examples for each task neural network. It can provide gradients for many task network examples and significantly increase the robustness of the meta-learning network by sampling the loss of the task network examples to selectively filter the gradient as meta information. Also, the meta-learning network predicts the optimization path of the weight parameter of the task neural network with higher efficiency, and calculates the update value of the weight parameter of the current better task network example. You can also accelerate the training speed of new task neural networks. For example, if multiple task neural networks are a neural network recommender system for recommending a user a list of items on a shopping website, the user is quickly and accurately recommended the current item list based on the user's historical browsing records. can do.

上述のメタ学習ネットワーク訓練装置の実施例に対応して、本発明は、さらに、以下のようなメタ学習ネットワーク訓練方法の実施例を提供する。 Corresponding to the above-mentioned embodiment of the meta-learning network training apparatus, the present invention further provides an embodiment of the following meta-learning network training method.

図6は、本発明の実施例におけるメタ学習ネットワーク訓練方法500の例示的なフローチャートである。 FIG. 6 is an exemplary flowchart of the meta-learning network training method 500 in the embodiment of the present invention.

図6に示すように、本発明の実施例におけるメタ学習ネットワーク訓練方法500は、タスクネットワーク実例取得ステップS502、損失取得ステップS504、サンプリングステップS506、汎化損失計算ステップS508、勾配計算ステップS510、学習ステップS512、第一更新ステップS514、及び第二更新ステップS516を含む。 As shown in FIG. 6, the meta-learning network training method 500 in the embodiment of the present invention includes a task network example acquisition step S502, a loss acquisition step S504, a sampling step S506, a generalized loss calculation step S508, and a gradient calculation step S510. Includes step S512, first update step S514, and second update step S516.

タスクネットワーク実例取得ステップS502では、異なるタスクのための複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークについて、該タスクニューラルネットワークの複数のタスクネットワーク実例を取得し、そのうち、異なるタスクは、類似性を有する。 In the task network example acquisition step S502, for each task neural network among the plurality of task neural networks for different tasks, a plurality of task network examples of the task neural network are acquired, and among them, different tasks have similarities. Have.

タスクニューラルネットワーク及びタスクネットワーク実例の詳細な説明について、装置の実施例中のタスクネットワーク実例取得ユニット102に関する記載を参照することができるため、ここでは、重複記載を省略する。 For a detailed description of the task neural network and the task network example, the description of the task network example acquisition unit 102 in the embodiment of the apparatus can be referred to, and thus the duplicate description is omitted here.

損失取得ステップS504では、訓練データを用いて、それぞれ、各タスクニューラルネットワークの各タスクネットワーク実例の損失を取得する。 In the loss acquisition step S504, the loss of each task network example of each task neural network is acquired by using the training data.

一例として、各タスクニューラルネットワークの訓練集合中の訓練データを用いて、この分野における通常の損失計算関数、例えば、softmaxなどにより、それぞれ、各タスクニューラルネットワークの各タスクネットワーク実例の損失を取得することができる。 As an example, using the training data in the training set of each task neural network, the loss of each task network example of each task neural network can be obtained by a normal loss calculation function in this field, for example, softmax. Can be done.

サンプリングステップS506では、損失に対してサンプリングを行うことでサンプリング後の複数の損失を得る。 In the sampling step S506, a plurality of losses after sampling are obtained by sampling the losses.

サンプリング後の複数の損失に対応するタスクネットワーク実例の勾配をメタ学習ネットワークの入力し、この場合、損失に対してサンプリングを行うことは、メタ学習ネットワークのメタ情報としての勾配に対して選択的フィルタリングを行うことに相当し、これにより、メタ学習ネットワークのロバストネスを大幅に向上させることができる。 Entering the gradient of the task network example corresponding to multiple losses after sampling in the meta-learning network, in this case sampling for the loss is selective filtering for the gradient as meta-information in the meta-learning network. This is equivalent to doing this, which can greatly improve the robustness of the meta-learning network.

好ましくは、サンプリングステップS506では、ランダム選択操作により、損失に対してサンプリングを行うことで、前記サンプリング後の複数の損失を取得し、そのうち、サンプリング後の複数の損失の数が、選択操作の保持確率パラメータにより制御される。 Preferably, in sampling step S506, a plurality of losses after sampling are acquired by sampling the losses by a random selection operation, and the number of the plurality of losses after sampling is the retention of the selection operation. Controlled by stochastic parameters.

一例として、ランダム選択操作が当業者に周知のdropout操作であり、サンプリング後の複数の損失の数がdropout操作の保持確率パラメータにより制御される。 As an example, the random selection operation is a dropout operation well known to those skilled in the art, and the number of multiple losses after sampling is controlled by the retention probability parameter of the dropout operation.

ランダム選択操作、例えば、dropout操作により損失に対してサンプリングを行うことは、メタ学習ネットワークのメタ情報としての勾配に対してランダムな選択的フィルタリングを行うことに相当し、これにより、メタ学習ネットワークのロバストネスをさらに向上させることができる。 Sampling the loss by a random selection operation, for example a dropout operation, is equivalent to performing random selective filtering on the gradient as meta information of the meta-learning network, thereby causing the meta-learning network to perform random selective filtering. Robustness can be further improved.

汎化損失計算ステップS508では、サンプリング後の複数の損失に基づいて、サンプリング後の複数の損失の総損失を反映する汎化損失を計算する。 In the generalization loss calculation step S508, the generalization loss that reflects the total loss of the plurality of losses after sampling is calculated based on the plurality of losses after sampling.

好ましくは、汎化損失計算ステップS508では、サンプリング後の複数の損失に対して平均化を行い、そして、平均化後の損失を汎化損失とする。複数のタスクネットワーク実例の損失計算の時間長に差がある。一例として、さらに、損失計算の時間が最も短いタスクネットワーク実例の損失を汎化損失とする。なお、当業者が理解すべきは、サンプリング後の複数の損失に対して他の処理を行った後の結果を汎化損失としても良いということであるが、ここでは、詳しい説明を省略する。 Preferably, in the generalization loss calculation step S508, the plurality of losses after sampling are averaged, and the loss after averaging is defined as the generalization loss. There is a difference in the time length of loss calculation for multiple task network examples. As an example, let the loss of the task network example with the shortest loss calculation time be the generalized loss. It should be noted that those skilled in the art should understand that the result after performing other processing on a plurality of losses after sampling may be regarded as a generalization loss, but detailed description thereof will be omitted here.

勾配計算ステップS510では、汎化損失の、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータに対する勾配を計算する。 In the gradient calculation step S510, the gradient of the generalized loss with respect to the weight parameter of the task network example corresponding to each loss among the plurality of losses after sampling is calculated.

タスクネットワーク実例学習プロセスが本質的に、タスクネットワーク実例の重みパラメータを連続して更新することで汎化損失をできるだけ小さくするプロセスである。上述の勾配は、タスクネットワーク実例の重みパラメータの更新の方向を制御するために用いられさても良く、また、上述の勾配は、さらに、タスクネットワーク実例の重みパラメータの更新の幅を制御することもできる。 The task network example learning process is essentially a process that minimizes generalization loss by continuously updating the weight parameters of the task network example. The gradient described above may be used to control the direction of updating the weight parameters of the task network example, and the gradient described above may also control the width of updating the weight parameters of the task network example. it can.

好ましくは、勾配計算ステップS510では、汎化損失の、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例における各ネットワーク層の重みパラメータに対する勾配を計算する。 Preferably, in the gradient calculation step S510, the gradient of the generalization loss is calculated for the weight parameter of each network layer in the task network example corresponding to each loss among the plurality of losses after sampling.

一例として、タスクニューラルネットワークが複数のネットワーク層を含んでも良く(一例として、タスクニューラルネットワークが畳み込みニューラルネットワークである場合、畳み込みニューラルネットワークは、複数の畳み込み層、複数の全結合層などを含んでも良い)、これにより、タスクネットワーク実例も、それ相応に、複数のネットワーク層を含む。タスクネットワーク実例の重みパラメータの学習とは、タスクネットワーク実例における各ネットワーク層の重みパラメータを学習することである。よって、勾配計算ステップS510では、汎化損失の、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例における各ネットワーク層の重みパラメータに対する勾配を計算する必要がある。 As an example, the task neural network may include a plurality of network layers (for example, when the task neural network is a convolutional neural network, the convolutional neural network may include a plurality of convolutional layers, a plurality of fully connected layers, and the like. ), Thereby, the task network example also includes a plurality of network layers accordingly. Learning the weight parameter of the task network example is to learn the weight parameter of each network layer in the task network example. Therefore, in the gradient calculation step S510, it is necessary to calculate the gradient of the generalization loss with respect to the weight parameter of each network layer in the task network example corresponding to each loss among the plurality of losses after sampling.

好ましくは、勾配計算ステップS510では、複数のタスクニューラルネットワークについて取得されたすべてのタスクネットワーク実例のうち、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例以外のタスクネットワーク実例の各ネットワーク層の重みパラメータの勾配をゼロに設定する。 Preferably, in the gradient calculation step S510, among all the task network examples acquired for the plurality of task neural networks, each of the task network examples other than the task network example corresponding to each loss of the plurality of losses after sampling. Set the gradient of the network layer weight parameter to zero.

学習ステップS512では、勾配を少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークにそれぞれ入力し、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータの更新値をそれぞれ取得し、そのうち、メタ学習ネットワークは、勾配に対して学習を行うニューラルネットワークである。 In learning step S512, the gradient is input to each of the meta-learning networks of at least one meta-learning network, and the updated value of the weight parameter of the task network example corresponding to each loss of the plurality of losses after sampling is set. The meta-learning network is a neural network that learns the gradient.

好ましくは、メタ学習ネットワークは、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の各ネットワーク層の重みパラメータの前回の更新の状態に基づいて、該層の重みパラメータの更新値を出力する。 Preferably, the meta-learning network is based on the state of the last update of the weight parameter of each network layer of the task network example corresponding to each loss of the multiple losses after sampling, and the update value of the weight parameter of that layer. Is output.

メタ学習ネットワークの詳細な説明について、装置の実施例中の学習ユニット112に関する記載を参照することができるため、ここでは、重複記載を省略する。 For a detailed description of the meta-learning network, the description of the learning unit 112 in the embodiment of the apparatus can be referred to, and thus duplicate description will be omitted here.

第一更新ステップS514では、更新値に基づいて、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータを更新する。 In the first update step S514, the weight parameter of the task network example corresponding to each loss among the plurality of losses after sampling is updated based on the update value.

好ましくは、第一更新ステップS514では、更新値に基づいて、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例における各ネットワーク層の重みパラメータを更新する。 Preferably, in the first update step S514, the weight parameter of each network layer in the task network example corresponding to each loss among the plurality of losses after sampling is updated based on the update value.

第二更新ステップS516では、損失取得ステップS504、サンプリングステップS506、汎化損失計算ステップS508、勾配計算ステップS510、学習ステップS512、及び第一更新ステップS514の処理を反復し、所定条件が満足されるときに、前記所定条件が満足されるときの汎化損失に基づいて、タスクネットワーク実例の損失がより小さい方向に向けて前記少なくとも1つのメタ学習ネットワークを訓練することで、更新後の少なくとも1つのメタ学習ネットワークを得る。 In the second update step S516, the processes of the loss acquisition step S504, the sampling step S506, the generalized loss calculation step S508, the gradient calculation step S510, the learning step S512, and the first update step S514 are repeated, and the predetermined conditions are satisfied. Occasionally, at least one after update, by training the at least one meta-learning network in a direction in which the loss of the task network example is smaller, based on the generalization loss when the predetermined condition is satisfied. Get a meta-learning network.

具体的には、上述の反復処理を行う前に、まず、前記少なくとも1つのメタ学習ネットワークの重みパラメータを初期化し、一例として、経験に基づいて前記少なくとも1つのメタ学習ネットワークの重みパラメータを初期化し、又は、前記少なくとも1つのメタ学習ネットワークの重みパラメータをランダム初期化し、又は、当業者が想到し得る他の方法で前記少なくとも1つのメタ学習ネットワークの重みパラメータを初期化しても良い。タスクネットワーク実例の重みパラメータを反復して更新するプロセスでは、前記少なくとも1つのメタ学習ネットワークの重みパラメータを固定する。 Specifically, before performing the above-mentioned iterative processing, first, the weight parameters of the at least one meta-learning network are initialized, and as an example, the weight parameters of the at least one meta-learning network are initialized based on experience. Alternatively, the weight parameters of the at least one meta-learning network may be randomly initialized, or the weight parameters of the at least one meta-learning network may be initialized by other methods conceivable by those skilled in the art. In the process of iteratively updating the weight parameters of the task network example, the weight parameters of at least one meta-learning network are fixed.

一例として、上述の所定条件は、所定の反復回数に達することであっても良い。一例として、タスクネットワーク実例の重みパラメータを反復して更新し、所定の反復回数に達したときに、前記複数のタスクネットワーク実例のパラメータを固定し、タスクネットワーク実例の損失がより小さい方向に向けて前記少なくとも1つのメタ学習ネットワークを訓練することで、少なくとも1つのメタ学習ネットワークの重みパラメータを更新することができる。 As an example, the predetermined condition described above may reach a predetermined number of repetitions. As an example, the weight parameter of the task network example is repeatedly updated, and when the predetermined number of iterations is reached, the parameters of the plurality of task network examples are fixed so that the loss of the task network example is smaller. By training the at least one meta-learning network, the weight parameters of at least one meta-learning network can be updated.

上述のように、本発明の実施例におけるメタ学習ネットワークは、勾配に対して学習を行うニューラルネットワークである。各タスクニューラルネットワークについて複数のタスクネットワーク実例を得ることで、ニューラルネットワークのサンプルが少ない問題を有効に解決しており、メタ学習ネットワークに、より多くのタスクネットワーク実例の勾配を提供することができる。これらの沢山のタスクネットワーク実例の勾配をメタ学習ネットワークのサンプルデータとしてメタ学習ネットワークに対して訓練を行い、訓練済みのメタ学習ネットワークは、タスクニューラルネットワークの学習更新規則を推定し、効率がより高いタスクニューラルネットワークの重みパラメータの最適化経路を予測し、より優れた重みパラメータの更新値を計算することで、タスクニューラルネットワークを学習するスピードを加速することができる。また、損失に対してサンプリングを行うことは、メタ学習ネットワークのメタ情報としての勾配に対して選択的フィルタリングを行うことに相当し、これにより、メタ学習ネットワークのロバストネスを大幅に向上させることができる。 As described above, the meta-learning network in the embodiment of the present invention is a neural network that learns with respect to the gradient. By obtaining a plurality of task network examples for each task neural network, it is possible to effectively solve the problem of a small number of neural network samples, and to provide the meta-learning network with a gradient of more task network examples. The gradients of these many task network examples are used as sample data for the meta-learning network to train the meta-learning network, and the trained meta-learning network estimates the learning update rules of the task neural network and is more efficient. By predicting the optimization path of the weight parameter of the task neural network and calculating the updated value of the better weight parameter, the speed of learning the task neural network can be accelerated. In addition, sampling the loss is equivalent to performing selective filtering on the gradient of the meta-learning network as meta-information, which can greatly improve the robustness of the meta-learning network. ..

好ましくは、前記少なくとも1つのメタ学習ネットワークの数が、複数のタスクニューラルネットワークにおける層の類型の数と同じであり、また、サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の各ネットワーク層の勾配が該層の類型に対応するメタ学習ネットワークに入力される。言い換えると、異なるメタ学習ネットワークをそれぞれ採用してタスクネットワーク実例における異なる類型のネットワーク層の勾配情報をそれぞれ学習し、また、同じメタ学習ネットワークを採用してタスクネットワーク実例における同じ類型のネットワーク層の勾配情報を学習する。 Preferably, the number of at least one meta-learning network is the same as the number of layer types in the plurality of task neural networks, and the task network example corresponding to each loss of the plurality of losses after sampling. The gradient of each network layer is input to the meta-learning network corresponding to the layer type. In other words, different meta-learning networks are adopted to learn the gradient information of different types of network layers in the task network example, and the same meta-learning network is adopted to learn the gradient information of the same type of network layer in the task network example. Learn information.

本発明の実施例におけるメタ学習ネットワーク訓練方法500では、第二更新ステップS516で更新された後の少なくとも1つのメタ学習ネットワークに基づいて、損失取得ステップS504、サンプリングステップS506、汎化損失計算ステップS508、勾配計算ステップS510、学習ステップS512、第一更新ステップS514、及び第二更新ステップS516の処理を、第一反復終了条件が満足されるまで反復して実行する。上述のように、更新後のメタ学習ネットワークにより、効率がより高いタスクニューラルネットワークの重みパラメータの最適化経路を予測し、より良い重みパラメータの更新値を計算することができるから、第二更新ステップS516で更新された後の少なくとも1つのメタ学習ネットワークに基づいて、再びタスクネットワーク実例の重みパラメータを反復して更新することで、習タスクネットワーク実例を学習するスピードを加速することができる。上述のプロセスを繰り返し、即ち、前記複数のタスクネットワーク実例の重みパラメータ、及び、前記少なくとも1つのメタ学習ネットワークのパラメータを、第一反復終了条件が満足されるまで交替に更新する(上述のように、前記複数のタスクネットワーク実例の重みパラメータを反復して更新し、前記所定条件が満足されたときに、前記少なくとも1つのメタ学習ネットワークのパラメータを更新する)。一例として、第一反復終了条件は、所定の反復回数に達すること、汎化損失が収束すること、汎化損失の降下がとても小さいこと、汎化損失が上昇することのうちの少なくとも1つを含んでも良い。第一反復終了条件が満足されるときに得られたメタ学習ネットワークは、新しいタスクニューラルネットワークの学習更新規則をより迅速且つ正確に推定することができ、これにより、新しいタスクニューラルネットワークの迅速な学習を指導することができる。 In the meta-learning network training method 500 in the embodiment of the present invention, the loss acquisition step S504, the sampling step S506, and the generalized loss calculation step S508 are based on at least one meta-learning network after being updated in the second update step S516. , Gradient calculation step S510, learning step S512, first update step S514, and second update step S516 are repeatedly executed until the first iteration end condition is satisfied. As described above, the updated meta-learning network can predict the optimization path of the weight parameter of the task neural network with higher efficiency and calculate the update value of the better weight parameter. Therefore, the second update step. By iteratively updating the weight parameters of the task network example again based on at least one meta-learning network updated in S516, the speed of learning the learning task network example can be accelerated. The above process is repeated, that is, the weight parameters of the plurality of task network examples and the parameters of the at least one meta-learning network are alternately updated until the first iteration end condition is satisfied (as described above). , The weight parameters of the plurality of task network examples are repeatedly updated, and when the predetermined conditions are satisfied, the parameters of the at least one meta-learning network are updated). As an example, the condition for ending the first iteration is that at least one of reaching a predetermined number of iterations, the generalization loss converges, the generalization loss decrease is very small, and the generalization loss increases. May be included. The meta-learning network obtained when the first iteration end condition is satisfied can estimate the learning update rules of the new task neural network more quickly and accurately, thereby rapidly learning the new task neural network. Can be instructed.

本発明の実施例におけるメタ学習ネットワーク訓練方法500では、各タスクニューラルネットワークについて複数のタスクネットワーク実例を得ることで、ニューラルネットワークのサンプルが少ない問題を有効に解決しており、メタ学習ネットワークに、より多くのタスクネットワーク実例の勾配を提供することができ、タスクネットワーク実例の損失に対してサンプリングを行うことで、メタ情報としての勾配に対して選択的フィルタリングを行うことにより、メタ学習ネットワークのロバストネスを大幅に向上させることができ、また、該メタ学習ネットワークにより、効率がより高いタスクニューラルネットワークの重みパラメータの最適化経路を予測し、現在のより良いタスクネットワーク実例の重みパラメータの更新値を計算することで、新しいタスクニューラルネットワークの訓練スピードを加速することもできる。例えば、複数のタスクニューラルネットワークがユーザにショッピングウェブサイトの品物リストを推薦するためのニューラルネットワーク推薦システムである場合、ユーザの歴史閲覧記録に基づいて、ユーザ推薦に現在の品物リストを迅速且つ正確に推薦することができる。 In the meta-learning network training method 500 in the embodiment of the present invention, the problem of a small number of neural network samples is effectively solved by obtaining a plurality of task network examples for each task neural network. The gradient of many task network examples can be provided, and by sampling the loss of the task network example, the robustness of the meta-learning network can be improved by selectively filtering the gradient as meta information. It can be significantly improved, and the meta-learning network predicts the optimization path of the weight parameter of the more efficient task neural network and calculates the update value of the weight parameter of the current better task network example. This can also accelerate the training speed of new task neural networks. For example, if multiple task neural networks are a neural network recommender system for recommending a shopping website item list to a user, the current item list is quickly and accurately recommended to the user based on the user's history browsing record. Can be recommended.

本発明は、さらに、上述のメタ学習ネットワーク訓練装置100又はメタ学習ネットワーク訓練方法500の訓練により得られたメタ学習ネットワークを用いて、ニューラルネットワークに対して訓練を行う装置を提供する。図7は、メタ学習ネットワーク訓練装置100又はメタ学習ネットワーク訓練方法500の訓練により得られたメタ学習ネットワークを用いて、ニューラルネットワークに対して訓練を行う装置600の構成ブロック図である。図7に示すように、本発明の実施例における訓練済みのメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う装置600は、第二損失取得ユニット602、第二勾配計算ユニット604、第二学習ユニット606、及び第三更新ユニット608を含む。 The present invention further provides an apparatus for training a neural network using the meta-learning network obtained by training the meta-learning network training apparatus 100 or the meta-learning network training method 500 described above. FIG. 7 is a block diagram of a device 600 that trains a neural network using the meta-learning network obtained by training the meta-learning network training device 100 or the meta-learning network training method 500. As shown in FIG. 7, the apparatus 600 that trains the neural network using the trained meta-learning network in the embodiment of the present invention includes the second loss acquisition unit 602, the second gradient calculation unit 604, and the second. Includes learning unit 606 and third update unit 608.

第二損失取得ユニット602は、訓練データを用いて、訓練待ちのニューラルネットワークの損失を取得するように構成され得る。 The second loss acquisition unit 602 may be configured to acquire the loss of the neural network awaiting training using the training data.

一例として、第二損失取得ユニット602では、この分野における通常の損失計算関数、例えば、softmaxなどを用いて、訓練待ちのニューラルネットワークの損失を取得する。 As an example, the second loss acquisition unit 602 acquires the loss of the neural network awaiting training by using a normal loss calculation function in this field, for example, softmax.

第二勾配計算ユニット604は、損失の、訓練待ちのニューラルネットワークの重みパラメータに対しての勾配を計算するように構成され得る。 The second gradient calculation unit 604 may be configured to calculate the gradient of the loss relative to the weight parameter of the neural network awaiting training.

訓練待ちのニューラルネットワーク学習プロセスが本質的に、訓練待ちのニューラルネットワークの重みパラメータを連続して更新することで損失をできるだけ小さくするプロセスである。上述の勾配は、訓練待ちのニューラルネットワークの重みパラメータの更新の方向を制御するために用いられても良く、また、上述の勾配は、さらに、訓練待ちのニューラルネットワークの重みパラメータの更新の幅を制御することができる。 The training-waiting neural network learning process is essentially the process of continuously updating the weight parameters of the training-waiting neural network to minimize losses. The gradients described above may be used to control the direction of updates of the weight parameters of the neural network awaiting training, and the gradients described above further reduce the range of updates of the weight parameters of the neural network awaiting training. Can be controlled.

好ましくは、第二勾配計算ユニット604は、損失の、訓練待ちのニューラルネットワークにおける各ネットワーク層の重みパラメータに対する勾配を計算するように構成され得る。 Preferably, the second gradient calculation unit 604 can be configured to calculate the gradient of the loss with respect to the weight parameter of each network layer in the awaiting neural network.

一例として、訓練待ちのニューラルネットワークが複数のネットワーク層を含んでも良い(例えば、訓練待ちのニューラルネットワークが畳み込みニューラルネットワークである場合、該畳み込みニューラルネットワークは、複数の畳み込み層、複数の全結合層などを含んでも良い)。訓練待ちのニューラルネットワークの重みパラメータの学習とは、訓練待ちのニューラルネットワークにおける各ネットワーク層の重みパラメータを学習することである。よって、第二勾配計算ユニット604は、損失の、訓練待ちのニューラルネットワークにおける各ネットワーク層の重みパラメータに対する勾配を計算する必要がある。 As an example, a training-waiting neural network may include a plurality of network layers (for example, when the training-waiting neural network is a convolutional neural network, the convolutional neural network may include a plurality of convolutional layers, a plurality of fully connected layers, and the like. May be included). Learning the weight parameter of the neural network waiting for training is to learn the weight parameter of each network layer in the neural network waiting for training. Therefore, the second gradient calculation unit 604 needs to calculate the gradient of the loss with respect to the weight parameter of each network layer in the awaiting neural network.

第二学習ユニット606は、勾配を、前記第一反復終了条件が満足されるときに取得された訓練済みの前記少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークにそれぞれ入力し、訓練待ちのニューラルネットワークの重みパラメータの更新値を得るように構成され得る。 The second learning unit 606 inputs the gradient into one of the trained at least one meta-learning networks acquired when the first iteration end condition is satisfied, and waits for training. It can be configured to obtain updated values for the weight parameters of the neural network of.

本発明の実施例におけるメタ学習ネットワーク訓練装置100についての説明を参照し、本発明の実施例におけるメタ学習ネットワークは、勾配に対して学習を行うニューラルネットワークである。訓練待ちのニューラルネットワークの各ネットワーク層の勾配をメタ学習ネットワークにそれぞれ入力し、メタ学習ネットワークは、該層の重みパラメータの更新値を出力することができる。好ましくは、第二学習ユニット606は、訓練待ちのニューラルネットワークにおける各ネットワーク層の勾配を、前記少なくとも1つのメタ学習ネットワークのうち、該層の類型に対応する1つのメタ学習ネットワークにそれぞれ入力し、該層の重みパラメータの更新値を得るように構成され得る。 With reference to the description of the meta-learning network training device 100 in the embodiment of the present invention, the meta-learning network in the embodiment of the present invention is a neural network that learns with respect to the gradient. The gradient of each network layer of the neural network awaiting training is input to the meta-learning network, and the meta-learning network can output the updated value of the weight parameter of the layer. Preferably, the second learning unit 606 inputs the gradient of each network layer in the neural network waiting for training into one meta learning network corresponding to the type of the layer among the at least one meta learning network. It may be configured to obtain updated values for the weight parameters of the layer.

本発明の実施例におけるメタ学習ネットワーク訓練装置100についての説明を参照し、メタ学習ネットワークの数は、ニューラルネットワークにおける層の類型の数と同じである。一例として、訓練待ちのニューラルネットワークが畳み込みニューラルネットワークであり、且つ該畳み込みニューラルネットワークが複数の畳み込み層及び複数の全結合層を含む場合、第一メタ学習ネットワークを用いて畳み込みニューラルネットワークにおける前記複数の畳み込み層の勾配情報を学習し、また、第一メタ学習ネットワークとは異なる第二メタ学習ネットワークを用いて畳み込みニューラルネットワークにおける前記複数の全結合層の勾配情報を学習する。 With reference to the description of the meta-learning network training device 100 in the examples of the present invention, the number of meta-learning networks is the same as the number of layer types in the neural network. As an example, when the neural network awaiting training is a convolutional neural network, and the convolutional neural network includes a plurality of convolutional layers and a plurality of fully connected layers, the plurality of said above in the convolutional neural network using the first meta-learning network. The gradient information of the convolutional layer is learned, and the gradient information of the plurality of fully connected layers in the convolutional neural network is learned by using a second meta-learning network different from the first meta-learning network.

第三更新ユニット608は、更新値に基づいて、訓練待ちのニューラルネットワークの重みパラメータを更新するように構成され得る。 The third update unit 608 may be configured to update the weight parameters of the neural network awaiting training based on the update values.

好ましくは、第三更新ユニット608は、更新値に基づいて、訓練待ちのニューラルネットワークにおける各ネットワーク層の重みパラメータを更新するように構成され得る。 Preferably, the third update unit 608 may be configured to update the weight parameters of each network layer in the neural network awaiting training based on the update values.

好ましくは、メタ学習ネットワークは、訓練待ちのニューラルネットワークの各ネットワーク層の重みパラメータの前回の更新の状態に基づいて、該層の重みパラメータの更新値を出力する。 Preferably, the meta-learning network outputs the updated value of the weight parameter of each network layer of the neural network awaiting training based on the state of the previous update of the weight parameter of the layer.

本発明の実施例におけるメタ学習ネットワーク訓練装置100についての説明を参照し、メタ学習ネットワークは、訓練待ちのニューラルネットワークの重みパラメータの勾配、及び、該層の重みパラメータの前回の更新により生成された状態ベクトルに基づいて、該層の重みパラメータの更新値及び該層の重みパラメータの今回の更新により生成された状態ベクトルを出力する。 With reference to the description of the meta-learning network training device 100 in the examples of the present invention, the meta-learning network was generated by the gradient of the weight parameter of the neural network awaiting training and the previous update of the weight parameter of the layer. Based on the state vector, the updated value of the weight parameter of the layer and the state vector generated by this update of the weight parameter of the layer are output.

訓練済みのメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う装置600では、第二損失取得ユニット602、第二勾配計算ユニット604、第二学習ユニット606、及び第三更新ユニット608の処理を、第二反復終了条件が満足されるまで反復して実行する。一例として、第二反復終了条件は、所定の反復回数に達すること、訓練待ちのニューラルネットワークの損失が収束すること、訓練待ちのニューラルネットワークの損失降下がとても小さいこと、訓練待ちのニューラルネットワークの損失が上昇することのうちの少なくとも1つを含んでも良い。第二反復終了条件が満足されるときに、訓練待ちのニューラルネットワークの重みパラメータに対しての訓練を終了し、訓練待ちのニューラルネットワークの最終重みパラメータを得ることができる。 In the device 600 that trains the neural network using the trained meta-learning network, the processing of the second loss acquisition unit 602, the second gradient calculation unit 604, the second learning unit 606, and the third update unit 608 is performed. , The second iteration is repeated until the end condition is satisfied. As an example, the conditions for ending the second iteration are that the predetermined number of iterations is reached, the loss of the neural network awaiting training converges, the loss drop of the neural network awaiting training is very small, and the loss of the neural network awaiting training is lost. May include at least one of the rises. When the second iteration end condition is satisfied, the training for the weight parameter of the neural network waiting for training can be completed, and the final weight parameter of the neural network waiting for training can be obtained.

上述のメタ学習ネットワーク訓練装置100又はメタ学習ネットワーク訓練方法500の訓練により得られたメタ学習ネットワークがロバストネスを有し、また、該メタ学習ネットワークにより、効率がより高いタスクニューラルネットワークの重みパラメータの最適化経路を予測し、現在のより良いタスクネットワーク実例の重みパラメータの更新値を計算することができるので、本発明の実施例における、訓練済みのメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う装置600では、パフォーマンスが優れたニューラルネットワークを迅速且つ正確に訓練することができる。例えば、訓練待ちのニューラルネットワークがユーザにショッピングウェブサイトの品物リストを推薦するためのニューラルネットワーク推薦システムである場合、ユーザの歴史閲覧記録に基づいて、ユーザに現在の品物リストを迅速且つ正確に推薦することができる。 The meta-learning network obtained by training the above-mentioned meta-learning network training device 100 or meta-learning network training method 500 has robustness, and the meta-learning network allows the optimization of the weight parameter of the task neural network to be more efficient. Since it is possible to predict the transformation path and calculate the updated value of the weight parameter of the current better task network example, the trained meta-learning network in the embodiment of the present invention is used to train the neural network. In the device 600 to perform, a neural network with excellent performance can be trained quickly and accurately. For example, if a neural network awaiting training is a neural network recommender system for recommending a user a list of items on a shopping website, the current item list is recommended to the user quickly and accurately based on the user's historical browsing record. can do.

上述のメタ学習ネットワーク訓練装置100又はメタ学習ネットワーク訓練方法500の訓練により得られたメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う装置600の実施例に対応して、本発明は、さらに、メタ学習ネットワーク訓練装置100又はメタ学習ネットワーク訓練方法500の訓練により得られたメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う方法の実施例を提供する。 The present invention further corresponds to an embodiment of a device 600 that trains a neural network using the meta-learning network obtained by training the meta-learning network training device 100 or the meta-learning network training method 500 described above. , An example of a method of training a neural network using the meta-learning network obtained by training of the meta-learning network training device 100 or the meta-learning network training method 500 is provided.

図8は、訓練済みのメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う方法700の例示的なフローチャートである。 FIG. 8 is an exemplary flowchart of Method 700 training a neural network using a trained meta-learning network.

図8に示すように、本発明の実施例における訓練済みのメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う方法700は、第二損失取得ステップS702、第二勾配計算ステップS704、第二学習ステップS706、及び第三更新ステップS708を含む。 As shown in FIG. 8, the method 700 for training the neural network using the trained meta-learning network in the embodiment of the present invention includes a second loss acquisition step S702, a second gradient calculation step S704, and a second. Includes learning step S706 and third update step S708.

第二損失取得ステップS702では、訓練データを用いて、訓練待ちのニューラルネットワークの損失を取得する。 In the second loss acquisition step S702, the training data is used to acquire the loss of the neural network waiting for training.

一例として、第二損失取得ステップS702では、この分野における通常の損失計算関数、例えば、softmaxなどを用いて訓練待ちのニューラルネットワークの損失を得ることができる。 As an example, in the second loss acquisition step S702, the loss of the neural network awaiting training can be obtained by using a normal loss calculation function in this field, for example, softmax.

第二勾配計算ステップS704では、損失の、訓練待ちのニューラルネットワークの重みパラメータに対する勾配を計算する。 In the second gradient calculation step S704, the gradient of the loss with respect to the weight parameter of the neural network awaiting training is calculated.

訓練待ちのニューラルネットワーク学習プロセスが本質的に、訓練待ちのニューラルネットワークの重みパラメータを連続して更新することで損失をできるだけ小さくするプロセスである。上述の勾配は、訓練待ちのニューラルネットワークの重みパラメータの更新の方向を制御するために用いられても良く、また、上述の勾配は、さらに、訓練待ちのニューラルネットワークの重みパラメータの更新の幅を制御することができる。 The training-waiting neural network learning process is essentially the process of continuously updating the weight parameters of the training-waiting neural network to minimize losses. The gradients described above may be used to control the direction of updates of the weight parameters of the neural network awaiting training, and the gradients described above further reduce the range of updates of the weight parameters of the neural network awaiting training. Can be controlled.

好ましくは、第二勾配計算ステップS704では、損失の、訓練待ちのニューラルネットワークにおける各ネットワーク層の重みパラメータに対する勾配を計算することができる。 Preferably, in the second gradient calculation step S704, the gradient of the loss for each network layer weight parameter in the awaiting training neural network can be calculated.

一例として、訓練待ちのニューラルネットワークが複数のネットワーク層を含んでも良い(例えば、訓練待ちのニューラルネットワークが畳み込みニューラルネットワークである場合、該畳み込みニューラルネットワークは、複数の畳み込み層、複数の全結合層などを含んでも良い)。訓練待ちのニューラルネットワークの重みパラメータの学習とは、訓練待ちのニューラルネットワークにおける各ネットワーク層の重みパラメータを学習することである。よって、第二勾配計算ステップS704では、損失の、訓練待ちのニューラルネットワークにおける各ネットワーク層の重みパラメータ対する勾配を計算する必要がある。 As an example, a training-waiting neural network may include a plurality of network layers (for example, when the training-waiting neural network is a convolutional neural network, the convolutional neural network may include a plurality of convolutional layers, a plurality of fully connected layers, and the like. May be included). Learning the weight parameter of the neural network waiting for training is to learn the weight parameter of each network layer in the neural network waiting for training. Therefore, in the second gradient calculation step S704, it is necessary to calculate the gradient of the loss for the weight parameter of each network layer in the training-waiting neural network.

第二学習ステップS706では、勾配を、前記第一反復終了条件が満足されるときに取得された訓練済みの前記少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークにそれぞれ入力し、訓練待ちのニューラルネットワークの重みパラメータの更新値を取得する。 In the second learning step S706, the gradient is input to each one of the trained at least one meta-learning networks acquired when the first iteration end condition is satisfied, and awaiting training. Get the updated value of the weight parameter of the neural network of.

本発明の実施例におけるメタ学習ネットワーク訓練装置100についての説明を参照し、本発明の実施例におけるメタ学習ネットワークは、勾配に対して学習を行うニューラルネットワークである。訓練待ちのニューラルネットワークの各ネットワーク層の勾配をメタ学習ネットワークにそれぞれ入力し、メタ学習ネットワークは、該層の重みパラメータの更新値を出力することができる。 With reference to the description of the meta-learning network training device 100 in the embodiment of the present invention, the meta-learning network in the embodiment of the present invention is a neural network that learns with respect to the gradient. The gradient of each network layer of the neural network awaiting training is input to the meta-learning network, and the meta-learning network can output the updated value of the weight parameter of the layer.

好ましくは、第二学習ステップS706では、訓練待ちのニューラルネットワークにおける各ネットワーク層の勾配を、前記少なくとも1つのメタ学習ネットワークのうちの、該層の類型に対応する1つのメタ学習ネットワークにそれぞれ入力し、該層の重みパラメータの更新値を得ることができる。 Preferably, in the second learning step S706, the gradient of each network layer in the neural network waiting for training is input to one meta learning network corresponding to the type of the layer among the at least one meta learning network. , The updated value of the weight parameter of the layer can be obtained.

対本発明の実施例におけるメタ学習ネットワーク訓練装置100についての説明を参照し、メタ学習ネットワークの数は、ニューラルネットワーク中の層の類型の数と同じである。一例として、訓練待ちのニューラルネットワークが畳み込みニューラルネットワークであり、且つ該畳み込みニューラルネットワークが複数の畳み込み層及び複数の全結合層を含む場合、第一メタ学習ネットワークを用いて畳み込みニューラルネットワークにおける前記複数の畳み込み層の勾配情報を学習し、第一メタ学習ネットワークとは異なる第二メタ学習ネットワークを用いて畳み込みニューラルネットワーク中の前記複数の全結合層の勾配情報を学習する。 With reference to the description of the meta-learning network training device 100 in the embodiment of the present invention, the number of meta-learning networks is the same as the number of layer types in the neural network. As an example, when the neural network awaiting training is a convolutional neural network, and the convolutional neural network includes a plurality of convolutional layers and a plurality of fully connected layers, the plurality of said above in the convolutional neural network using the first meta-learning network. The gradient information of the convolutional layer is learned, and the gradient information of the plurality of fully connected layers in the convolutional neural network is learned using a second meta-learning network different from the first meta-learning network.

第三更新ステップS708では、更新値に基づいて、訓練待ちのニューラルネットワークの重みパラメータを更新する。 In the third update step S708, the weight parameter of the neural network waiting for training is updated based on the update value.

好ましくは、メタ学習ネットワークは、訓練待ちのニューラルネットワークの各ネットワーク層の重みパラメータの前回の更新の状態に基づいて、該層の重みパラメータの更新値を出力することができる。 Preferably, the meta-learning network can output the updated value of the weight parameter of each network layer of the neural network awaiting training based on the state of the previous update of the weight parameter of the layer.

本発明の実施例におけるメタ学習ネットワーク訓練装置100についての説明を参照し、メタ学習ネットワークは、訓練待ちのニューラルネットワークの重みパラメータの勾配、及び該層の重みパラメータの前回の更新により生成された状態ベクトルに基づいて、該層の重みパラメータの更新値、及び該層の重みパラメータの今回の更新により生成される状態ベクトルを出力することができる。 With reference to the description of the meta-learning network training device 100 in the embodiment of the present invention, the meta-learning network is a state generated by the gradient of the weight parameter of the neural network waiting for training and the previous update of the weight parameter of the layer. Based on the vector, the updated value of the weight parameter of the layer and the state vector generated by this update of the weight parameter of the layer can be output.

訓練済みのメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う方法700では、第二損失取得ステップS702、第二勾配計算ステップS704、第二学習ステップS706、及び第三更新ステップS708の処理を、第二反復終了条件が満足されるまで反復して実行する。一例として、第二反復終了条件は、所定の反復回数に達すること、訓練待ちのニューラルネットワークの損失が収束すること、訓練待ちのニューラルネットワークの損失降下がとても小さいこと、訓練待ちのニューラルネットワークの損失が上昇することのうちの少なくとも1つである。第二反復終了条件が満足されるときに、訓練待ちのニューラルネットワークの重みパラメータに対しての訓練を終了し、訓練待ちのニューラルネットワークの最終重みパラメータを得ることができる。 In the method 700 of training the neural network using the trained meta-learning network, the processing of the second loss acquisition step S702, the second gradient calculation step S704, the second learning step S706, and the third update step S708 is performed. , The second iteration is repeated until the end condition is satisfied. As an example, the conditions for ending the second iteration are that the predetermined number of iterations is reached, the loss of the neural network awaiting training converges, the loss drop of the neural network awaiting training is very small, and the loss of the neural network awaiting training is lost. Is at least one of the rises. When the second iteration end condition is satisfied, the training for the weight parameter of the neural network waiting for training can be completed, and the final weight parameter of the neural network waiting for training can be obtained.

上述のメタ学習ネットワーク訓練装置100又はメタ学習ネットワーク訓練方法500の訓練により得られたメタ学習ネットワークがロバストネスを有し、該メタ学習ネットワークにより、効率がより高いタスクニューラルネットワークの重みパラメータの最適化経路を予測し、現在のより優れたタスクネットワーク実例の重みパラメータの更新値を計算することができるから、本発明実施例における、訓練済みのメタ学習ネットワークを用いてニューラルネットワークに対して訓練を行う方法700では、パフォーマンスが良いニューラルネットワークを迅速且つ正確に訓練することができる。例えば、訓練待ちのニューラルネットワークがユーザにショッピングウェブサイトの品物リストを推薦するためのニューラルネットワーク推薦システムである場合、ユーザの歴史閲覧記録に基づいて、ユーザに現在の品物リストを迅速且つ正確に提供することができる。 The meta-learning network obtained by training the meta-learning network training device 100 or the meta-learning network training method 500 described above has robustness, and the meta-learning network allows the optimization path of the weight parameter of the task neural network to be more efficient. The method of training a neural network using a trained meta-learning network in the embodiment of the present invention because it is possible to predict and calculate the updated value of the weight parameter of the current better task network example. With the 700, you can train high-performance neural networks quickly and accurately. For example, if a neural network awaiting training is a neural network recommender system for recommending a user a list of items on a shopping website, the current item list is provided to the user quickly and accurately based on the user's historical browsing record. can do.

また、上述の一連の処理などは、ソフトウェア及び/又はファームウェアにより実現されても良い。ソフトウェア及び/又はファームウェアにより実現される場合、記憶媒体又はネットワークから、専用ハードウェア構造を有するコンピュータ、例えば、図9に示す汎用マシン800(例えば、コンピュータ)に、該ソフトウェアを構成するプログラムをインストールし、該コンピュータは、各種のプログラムがインストールされているときに、各種の機能などを実行することができる。 Further, the above-mentioned series of processes and the like may be realized by software and / or firmware. When implemented by software and / or firmware, install the programs that make up the software from a storage medium or network on a computer with a dedicated hardware structure, such as the general-purpose machine 800 (eg, computer) shown in FIG. , The computer can perform various functions and the like when various programs are installed.

図9は、本発明の実施例における方法や装置を実現し得る汎用マシン800の構成ブロック図である。汎用マシン800は、例えば、コンピュータシステムであっても良い。なお、汎用マシン800は、例示に過ぎず、本発明による方法及び装置の応用範囲又は機能について限定しない。また、汎用マシン800は、上述の方法及び装置における任意のモジュールやアセンブリなど又はその組み合わせに依存しない。 FIG. 9 is a block diagram of a general-purpose machine 800 that can realize the method and apparatus according to the embodiment of the present invention. The general-purpose machine 800 may be, for example, a computer system. The general-purpose machine 800 is merely an example, and does not limit the application range or function of the method and device according to the present invention. Further, the general-purpose machine 800 does not depend on any module, assembly, or a combination thereof in the above-mentioned method and device.

図9では、中央処理装置(CPU)801は、ROM 802に記憶されているプログラム又は記憶部808からRAM 803にロッドされているプログラムに基づいて各種の処理を行う。RAM 803では、ニーズに応じて、CPU 801が各種の処理を行うときに必要なデータなどを記憶することもできる。CPU 801、ROM 802及びRAM 803は、バス804を経由して互いに接続される。入力/出力インターフェース805もバス804に接続される。 In FIG. 9, the central processing unit (CPU) 801 performs various processes based on the program stored in the ROM 802 or the program rodged from the storage unit 808 to the RAM 803. The RAM 803 can also store data required when the CPU 801 performs various processes according to needs. CPU 801 and ROM 802 and RAM 803 are connected to each other via bus 804. The input / output interface 805 is also connected to the bus 804.

また、入力/出力インターフェース805には、さらに、次のような部品が接続され、即ち、キーボードなどを含む入力部806、液晶表示器(LCD)などのような表示器及びスピーカーなどを含む出力部807、ハードディスクなどを含む記憶部808、ネットワークインターフェースカード、例えば、LANカード、モデムなどを含む通信部809である。通信部809は、例えば、インターネット、LANなどのネットワークを経由して通信処理を行う。 Further, the following components are connected to the input / output interface 805, that is, an input unit 806 including a keyboard and the like, an output unit including a display such as a liquid crystal display (LCD), and a speaker. The 807 is a storage unit 808 including a hard disk and the like, and a communication unit 809 including a network interface card such as a LAN card and a modem. The communication unit 809 performs communication processing via a network such as the Internet or LAN.

ドライブ810は、ニーズに応じて、入力/出力インターフェース805に接続されても良い。取り外し可能な媒体811、例えば、半導体メモリなどは、必要に応じて、ドライブ810にセットされることにより、その中から読み取られたコンピュータプログラムを記憶部908にインストールすることができる。 Drive 810 may be connected to input / output interface 805, if desired. The removable medium 811 such as a semiconductor memory can be set in the drive 810 as needed, and the computer program read from the medium can be installed in the storage unit 908.

また、本発明は、さらに、マシン可読指令コードを含むプログラムプロダクトを提供する。このような指令コードは、マシンにより読み取られて実行されるときに、上述の本発明の実施形態における方法を実行することができる。それ相応に、このようなプログラムプロダクトをキャリー(carry)する、例えば、磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(CD-ROM及びDVDを含む)、光磁気ディスク(MD(登録商標)を含む)、及び半導体記憶器などの各種記憶媒体も、本発明に含まれる。 The present invention also provides a program product that includes a machine-readable command code. When such a command code is read and executed by the machine, the method according to the embodiment of the present invention described above can be executed. Correspondingly, carry such program products, such as magnetic disks (including floppy disks (registered trademarks)), optical disks (including CD-ROMs and DVDs), magneto-optical disks (MD (registered trademarks)). ), And various storage media such as semiconductor storage devices are also included in the present invention.

上述の記憶媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体記憶器などを含んでも良いが、これらに限定されない。 The above-mentioned storage medium may include, but is not limited to, for example, a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor storage device, and the like.

また、上述の方法における各操作(処理)は、各種のマシン可読記憶媒体に記憶されているコンピュータ実行可能なプログラムの方式で実現することもできる。 Further, each operation (process) in the above method can be realized by a method of a computer-executable program stored in various machine-readable storage media.

また、以上の実施例などに関し、さらに以下のように付記として開示する。 In addition, the above examples and the like will be further disclosed as additional notes as follows.

(付記1)
メタ学習ネットワーク訓練装置であって、
異なるタスクのための複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークについて、該タスクニューラルネットワークの複数のタスクネットワーク実例を得るタスクネットワーク実例取得ユニットであって、前記異なるタスクが類似性を有するタスクネットワーク実例取得ユニット;
訓練データを用いて、それぞれ、各タスクニューラルネットワークの各タスクネットワーク実例の損失を取得する損失取得ユニット;
前記損失に対してサンプリングを行ってサンプリング後の複数の損失を取得するサンプリングユニット;
前記サンプリング後の複数の損失に基づいて、前記サンプリング後の複数の損失の総損失を反映する汎化損失を計算する汎化損失計算ユニット;
前記汎化損失の、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータに対応する勾配を計算する勾配計算ユニット;
前記勾配を、それぞれ、少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークに入力し、それぞれ、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータの更新値を得る学習ユニットであって、前記メタ学習ネットワークが、勾配に対して学習を行うニューラルネットワークである学習ユニット;
前記更新値に基づいて、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータを更新する第一更新ユニット;及び
前記損失取得ユニット、前記サンプリングユニット、前記汎化損失計算ユニット、前記勾配計算ユニット、前記学習ユニット及び前記第一更新ユニットの処理を反復して実行し、所定条件が満足されるときに、前記所定条件が満足されるときの前記汎化損失に基づいて、タスクネットワーク実例の損失がより小さい方向に向けて前記少なくとも1つのメタ学習ネットワークを訓練することで、更新後の少なくとも1つのメタ学習ネットワークを得る第二更新ユニットを含み、
前記第二更新ユニットの更新後の少なくとも1つのメタ学習ネットワークに基づいて、前記損失取得ユニット、前記サンプリングユニット、前記汎化損失計算ユニット、前記勾配計算ユニット、前記学習ユニット、前記第一更新ユニット、及び前記第二更新ユニットの処理を、第一反復終了条件が満足されるまで反復して実行する、装置。
(Appendix 1)
A meta-learning network training device
A task network example acquisition unit for obtaining a plurality of task network examples of the task neural network for each task neural network among a plurality of task neural networks for different tasks, and the task network in which the different tasks have similarities. Example acquisition unit;
A loss acquisition unit that acquires the loss of each task network example of each task neural network using training data;
A sampling unit that performs sampling on the loss and acquires a plurality of losses after sampling;
A generalization loss calculation unit that calculates a generalization loss that reflects the total loss of the plurality of losses after sampling based on the plurality of losses after sampling;
A gradient calculation unit that calculates the gradient of the generalized loss corresponding to the weight parameter of the task network example corresponding to each loss of the plurality of losses after sampling;
Each of the gradients is input to one of the at least one meta-learning networks, and the updated value of the weight parameter of the task network example corresponding to each loss of the plurality of losses after sampling. A learning unit in which the meta-learning network is a neural network that learns with respect to a gradient;
The first update unit that updates the weight parameter of the task network example corresponding to each loss of the plurality of losses after the sampling based on the update value; and the loss acquisition unit, the sampling unit, and the generalized loss. The processing of the calculation unit, the gradient calculation unit, the learning unit, and the first update unit is repeatedly executed, and when the predetermined conditions are satisfied, based on the generalization loss when the predetermined conditions are satisfied. Including a second update unit that obtains at least one meta-learning network after the update by training the at least one meta-learning network in a direction in which the loss of the task network example is smaller.
Based on at least one meta-learning network after the update of the second update unit, the loss acquisition unit, the sampling unit, the generalized loss calculation unit, the gradient calculation unit, the learning unit, the first update unit, And an apparatus that repeatedly executes the processing of the second update unit until the first iteration end condition is satisfied.

(付記2)
付記1に記載の装置であって、
前記タスクニューラルネットワークは、ユーザにショッピングウェブサイトの品物リストを推薦するためのニューラルネットワーク推薦システムである、装置。
(Appendix 2)
The device described in Appendix 1
The task neural network is a device that is a neural network recommender system for recommending a list of goods on a shopping website to a user.

(付記3)
付記1に記載の装置であって、
前記タスクネットワーク実例取得ユニットは、前記複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークに対してランダム初期化を行うことで、各タスクニューラルネットワークの前記複数のタスクネットワーク実例を取得する、装置。
(Appendix 3)
The device described in Appendix 1
The task network example acquisition unit is a device that acquires the plurality of task network examples of each task neural network by performing random initialization on each task neural network among the plurality of task neural networks.

(付記4)
付記1に記載の装置であって、
前記サンプリングユニットは、ランダムな選択操作により前記損失に対してサンプリングを行うことで、前記サンプリング後の複数の損失を取得し、
前記サンプリング後の複数の損失の数が、前記選択操作の保持確率パラメータにより制御される、装置。
(Appendix 4)
The device described in Appendix 1
The sampling unit acquires a plurality of losses after the sampling by sampling the loss by a random selection operation.
A device in which the number of losses after the sampling is controlled by the retention probability parameter of the selection operation.

(付記5)
付記1に記載の装置であって、
前記汎化損失計算ユニットは、さらに、前記サンプリング後の複数の損失を平均化し、平均後の損失を前記汎化損失とする、装置。
(Appendix 5)
The device described in Appendix 1
The generalization loss calculation unit is an apparatus that further averages a plurality of losses after sampling, and sets the loss after averaging as the generalization loss.

(付記6)
付記1に記載の装置であって、
前記勾配計算ユニットは、前記汎化損失の、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例における各ネットワーク層の重みパラメータに対する勾配を計算する、装置。
(Appendix 6)
The device described in Appendix 1
The gradient calculation unit calculates the gradient of the generalized loss with respect to the weight parameter of each network layer in the task network example corresponding to each loss among the plurality of losses after sampling.

(付記7)
付記6に記載の装置であって、
前記勾配計算ユニットは、前記複数のタスクニューラルネットワークについて取得されたすべてのタスクネットワーク実例のうち、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例以外のタスクネットワーク実例の各ネットワーク層の重みパラメータの勾配をゼロに設定する、装置。
(Appendix 7)
The device described in Appendix 6
The gradient calculation unit is used for each network of the task network example other than the task network example corresponding to each loss of the plurality of losses after sampling among all the task network examples acquired for the plurality of task neural networks. A device that sets the gradient of a layer weight parameter to zero.

(付記8)
付記7に記載の装置であって、
前記メタ学習ネットワークは、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の各ネットワーク層の重みパラメータの前回の更新の状態に基づいて、該層の重みパラメータの更新値を出力する、装置。
(Appendix 8)
The device described in Appendix 7
The meta-learning network sets the updated value of the weight parameter of each network layer of the task network example corresponding to each loss of the plurality of losses after sampling based on the state of the previous update of the weight parameter of the layer. A device to output.

(付記9)
付記1に記載の装置であって、
前記少なくとも1つのメタ学習ネットワークの数が、前記複数のタスクニューラルネットワークにおける層の類型の数と同じであり、
前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の各ネットワーク層の勾配が、該層の類型に対応するメタ学習ネットワークに入力される、装置。
(Appendix 9)
The device described in Appendix 1
The number of at least one meta-learning network is the same as the number of layer types in the plurality of task neural networks.
A device in which the gradient of each network layer of a task network example corresponding to each loss of the plurality of losses after sampling is input to a meta-learning network corresponding to the type of the layer.

(付記10)
メタ学習ネットワーク訓練方法であって、
異なるタスクのための複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークについて、該タスクニューラルネットワークの複数のタスクネットワーク実例を得るタスクネットワーク実例取得ステップであって、前記異なるタスクが類似性を有するタスクネットワーク実例取得ステップ;
訓練データを用いて、それぞれ、各タスクニューラルネットワークの各タスクネットワーク実例の損失を取得する損失取得ステップ;
前記損失に対してサンプリングを行ってサンプリング後の複数の損失を取得するサンプリングステップ;
前記サンプリング後の複数の損失に基づいて、前記サンプリング後の複数の損失の総損失を反映する汎化損失を計算する汎化損失計算ステップ;
前記汎化損失の、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータに対応する勾配を計算する勾配計算ステップ;
前記勾配を、それぞれ、少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークに入力し、それぞれ、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータの更新値を得る学習ステップであって、前記メタ学習ネットワークが、勾配に対して学習を行うニューラルネットワークである学習ステップ;
前記更新値に基づいて、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータを更新する第一更新ステップ;及び
前記損失取得ステップ、前記サンプリングステップ、前記汎化損失計算ステップ、前記勾配計算ステップ、前記学習ステップ及び前記第一更新ステップの処理を反復して実行し、所定条件が満足されるときに、前記所定条件が満足されるときの前記汎化損失に基づいて、タスクネットワーク実例の損失がより小さい方向に向けて前記少なくとも1つのメタ学習ネットワークを訓練することで、更新後の少なくとも1つのメタ学習ネットワークを得る第二更新ステップを含み、
更新後の少なくとも1つのメタ学習ネットワークに基づいて、前記損失取得ステップ、前記サンプリングステップ、前記汎化損失計算ステップ、前記勾配計算ステップ、前記学習ステップ、前記第一更新ステップ、及び前記第二更新ステップの処理を、第一反復終了条件が満足されるまで反復して実行する、方法。
(Appendix 10)
A meta-learning network training method
For each task neural network among a plurality of task neural networks for different tasks, a task network example acquisition step for obtaining a plurality of task network examples of the task neural network, wherein the different tasks have similarities. Example acquisition step;
Loss acquisition step to acquire the loss of each task network example of each task neural network using the training data;
A sampling step in which sampling is performed on the loss to obtain a plurality of losses after sampling;
A generalization loss calculation step that calculates a generalization loss that reflects the total loss of the plurality of losses after sampling based on the plurality of losses after sampling;
Gradient calculation step to calculate the gradient corresponding to the weight parameter of the task network example corresponding to each loss of the generalized loss among the plurality of losses after sampling;
Each of the gradients is input to one of the at least one meta-learning networks, and the updated value of the weight parameter of the task network example corresponding to each loss of the plurality of losses after sampling. A learning step in which the meta-learning network is a neural network that learns with respect to a gradient;
The first update step of updating the weight parameter of the task network example corresponding to each loss of the plurality of losses after the sampling based on the update value; and the loss acquisition step, the sampling step, and the generalization loss. The processing of the calculation step, the gradient calculation step, the learning step, and the first update step is repeatedly executed, and when the predetermined condition is satisfied, based on the generalization loss when the predetermined condition is satisfied. Including a second update step to obtain at least one updated meta-learning network by training the at least one meta-learning network in a direction in which the loss of the task network example is smaller.
The loss acquisition step, the sampling step, the generalized loss calculation step, the gradient calculation step, the learning step, the first update step, and the second update step based on at least one meta-learning network after the update. A method of iterating through the process until the first iteration end condition is satisfied.

(付記11)
付記10に記載の方法であって、
前記タスクニューラルネットワークは、ユーザにショッピングウェブサイトの品物リストを推薦するためのニューラルネットワーク推薦システムである、方法。
(Appendix 11)
The method described in Appendix 10
The task neural network is a method, which is a neural network recommender system for recommending a list of goods on a shopping website to a user.

(付記12)
付記10に記載の方法であって、
前記タスクネットワーク実例取得ステップでは、前記複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークに対してランダム初期化を行うことで、各タスクニューラルネットワークの前記複数のタスクネットワーク実例を得る、方法。
(Appendix 12)
The method described in Appendix 10
In the task network example acquisition step, a method of obtaining the plurality of task network examples of each task neural network by performing random initialization for each task neural network among the plurality of task neural networks.

(付記13)
付記10に記載の方法であって、
前記サンプリングユニットでは、ランダムな選択操作により前記損失に対してサンプリングを行うことで、前記サンプリング後の複数の損失を取得し、
前記サンプリング後の複数の損失の数が、前記選択操作の保持確率パラメータにより制御される、方法。
(Appendix 13)
The method described in Appendix 10
In the sampling unit, a plurality of losses after the sampling are acquired by sampling the loss by a random selection operation.
A method in which the number of losses after the sampling is controlled by the retention probability parameter of the selection operation.

(付記14)
付記10に記載の方法であって、
前記汎化損失計算ステップでは、さらに、前記サンプリング後の複数の損失を平均化し、平均化後の損失を前記汎化損失とする、方法。
(Appendix 14)
The method described in Appendix 10
In the generalization loss calculation step, a method in which a plurality of losses after sampling are further averaged, and the loss after averaging is defined as the generalization loss.

(付記15)
付記10に記載の方法であって、
前記勾配計算ステップでは、前記汎化損失の、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例における各ネットワーク層の重みパラメータに対する勾配を計算する、方法。
(Appendix 15)
The method described in Appendix 10
In the gradient calculation step, a method of calculating the gradient of the generalized loss with respect to the weight parameter of each network layer in the task network example corresponding to each loss of the plurality of losses after sampling.

(付記16)
付記15に記載の方法であって、
前記勾配計算ステップでは、前記複数のタスクニューラルネットワークについて取得されたすべてのタスクネットワーク実例のうち、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例以外のタスクネットワーク実例の各ネットワーク層の重みパラメータの勾配をゼロに設定する、方法。
(Appendix 16)
The method described in Appendix 15
In the gradient calculation step, among all the task network examples acquired for the plurality of task neural networks, each network of the task network example other than the task network example corresponding to each loss of the plurality of losses after sampling. A method of setting the gradient of a layer weight parameter to zero.

(付記17)
付記16に記載の方法であって、
前記メタ学習ネットワークは、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の各ネットワーク層の重みパラメータの前回の更新の状態に基づいて、該層の重みパラメータの更新値を出力する、方法。
(Appendix 17)
The method described in Appendix 16
The meta-learning network sets the updated value of the weight parameter of each network layer of the task network example corresponding to each loss of the plurality of losses after sampling based on the state of the previous update of the weight parameter of the layer. How to output.

(付記18)
付記10に記載の方法であって、
前記少なくとも1つのメタ学習ネットワークの数が、前記複数のタスクニューラルネットワーク中の層の類型の数と同じであり、
前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の各ネットワーク層の勾配が、該層の類型に対応するメタ学習ネットワークに入力される、方法。
(Appendix 18)
The method described in Appendix 10
The number of at least one meta-learning network is the same as the number of layer types in the plurality of task neural networks.
A method in which the gradient of each network layer of a task network example corresponding to each loss of the plurality of losses after sampling is input to the meta-learning network corresponding to the layer type.

(付記19)
付記1〜9のうちの任意の1項に記載のメタ学習ネットワーク訓練装置の訓練により得られたメタ学習ネットワークを用いて、ニューラルネットワークに対して訓練を行う装置であって、
訓練データを用いて、訓練待ちのニューラルネットワークの損失を得る第二損失取得ユニット;
前記損失の、前記訓練待ちのニューラルネットワークの重みパラメータに対する勾配を計算する第二勾配計算ユニット;
前記勾配を、それぞれ、前記第一反復終了条件が満足されるときに取得された訓練済みの前記少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークに入力し、前記訓練待ちのニューラルネットワークの重みパラメータの更新値を得る第二学習ユニット;及び
前記更新値に基づいて、前記訓練待ちのニューラルネットワークの重みパラメータを更新する第三更新ユニットを含み、
前記第二損失取得ユニット、前記第二勾配計算ユニット、前記第二学習ユニット及び前記第三更新ユニットの処理を、第二反復終了条件が満足されるまで反復して実行する、装置。
(Appendix 19)
A device that trains a neural network using the meta-learning network obtained by training the meta-learning network training device according to any one of Appendix 1 to 9.
A second loss acquisition unit that uses training data to obtain the loss of a neural network awaiting training;
A second gradient calculation unit that calculates the gradient of the loss with respect to the weight parameter of the neural network awaiting training;
Each of the gradients is input to the meta-learning network of one of the trained at least one meta-learning networks acquired when the first iteration end condition is satisfied, and the neural network awaiting training A second learning unit that obtains an updated value of the weight parameter; and a third update unit that updates the weight parameter of the neural network awaiting training based on the updated value.
An apparatus that repeatedly executes the processes of the second loss acquisition unit, the second gradient calculation unit, the second learning unit, and the third update unit until the second iteration end condition is satisfied.

(付記20)
付記19に記載の装置であって、
前記訓練待ちのニューラルネットワークにおける各ネットワーク層の勾配が、前記少なくとも1つのメタ学習ネットワークのうち、該層の類型に対応するメタ学習ネットワークに入力される、装置。
(Appendix 20)
The device described in Appendix 19
A device in which the gradient of each network layer in the neural network awaiting training is input to the meta-learning network corresponding to the type of the layer among the at least one meta-learning network.

以上、本発明の好ましい実施形態を説明したが、本発明はこの実施形態に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は、本発明の技術的範囲に属する。 Although the preferred embodiment of the present invention has been described above, the present invention is not limited to this embodiment, and any modification to the present invention belongs to the technical scope of the present invention unless the gist of the present invention is abandoned.

Claims (10)

メタ学習ネットワーク訓練装置であって、
異なるタスクのための複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークについて、該タスクニューラルネットワークの複数のタスクネットワーク実例を得るタスクネットワーク実例取得ユニットであって、前記異なるタスクが類似性を有するタスクネットワーク実例取得ユニット;
訓練データを用いて、それぞれ、各タスクニューラルネットワークの各タスクネットワーク実例の損失を取得する損失取得ユニット;
前記損失に対してサンプリングを行ってサンプリング後の複数の損失を取得するサンプリングユニット;
前記サンプリング後の複数の損失に基づいて、前記サンプリング後の複数の損失の総損失を反映する汎化損失を計算する汎化損失計算ユニット;
前記汎化損失の、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータに対応する勾配を計算する勾配計算ユニット;
前記勾配を、それぞれ、少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークに入力し、それぞれ、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータの更新値を得る学習ユニットであって、前記メタ学習ネットワークが、勾配に対して学習を行うニューラルネットワークである学習ユニット;
前記更新値に基づいて、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータを更新する第一更新ユニット;及び
前記損失取得ユニット、前記サンプリングユニット、前記汎化損失計算ユニット、前記勾配計算ユニット、前記学習ユニット、及び前記第一更新ユニットの処理を反復して実行し、所定条件が満足されるときに、前記所定条件が満足されるときの前記汎化損失に基づいて、タスクネットワーク実例の損失がより小さい方向に向けて前記少なくとも1つのメタ学習ネットワークを訓練することで、更新後の少なくとも1つのメタ学習ネットワークを得る第二更新ユニットを含み、
前記第二更新ユニットの更新後の少なくとも1つのメタ学習ネットワークに基づいて、前記損失取得ユニット、前記サンプリングユニット、前記汎化損失計算ユニット、前記勾配計算ユニット、前記学習ユニット、前記第一更新ユニット、及び前記第二更新ユニットの処理を、第一反復終了条件が満足されるまで反復して実行する、装置。
A meta-learning network training device
A task network example acquisition unit for obtaining a plurality of task network examples of the task neural network for each task neural network among a plurality of task neural networks for different tasks, and the task network in which the different tasks have similarities. Example acquisition unit;
A loss acquisition unit that acquires the loss of each task network example of each task neural network using training data;
A sampling unit that performs sampling on the loss and acquires a plurality of losses after sampling;
A generalization loss calculation unit that calculates a generalization loss that reflects the total loss of the plurality of losses after sampling based on the plurality of losses after sampling;
A gradient calculation unit that calculates the gradient of the generalized loss corresponding to the weight parameter of the task network example corresponding to each loss of the plurality of losses after sampling;
Each of the gradients is input to one of the at least one meta-learning networks, and the updated value of the weight parameter of the task network example corresponding to each loss of the plurality of losses after sampling. A learning unit in which the meta-learning network is a neural network that learns with respect to a gradient;
The first update unit that updates the weight parameter of the task network example corresponding to each loss of the plurality of losses after the sampling based on the update value; and the loss acquisition unit, the sampling unit, and the generalized loss. The processing of the calculation unit, the gradient calculation unit, the learning unit, and the first update unit is repeatedly executed, and when the predetermined condition is satisfied, the generalization loss when the predetermined condition is satisfied is obtained. Based on this, the task network example includes a second update unit that obtains at least one updated meta-learning network by training the at least one meta-learning network in a direction in which the loss is smaller.
Based on at least one meta-learning network after the update of the second update unit, the loss acquisition unit, the sampling unit, the generalized loss calculation unit, the gradient calculation unit, the learning unit, the first update unit, And an apparatus that repeatedly executes the processing of the second update unit until the first iteration end condition is satisfied.
請求項1に記載の装置であって、
前記タスクニューラルネットワークは、ユーザにショッピングウェブサイトの品物リストを推薦するためのニューラルネットワーク推薦システムである、装置。
The device according to claim 1.
The task neural network is a device that is a neural network recommender system for recommending a list of goods on a shopping website to a user.
請求項1に記載の装置であって、
前記タスクネットワーク実例取得ユニットは、前記複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークに対してランダム初期化を行うことで、各タスクニューラルネットワークの前記複数のタスクネットワーク実例を取得する、装置。
The device according to claim 1.
The task network example acquisition unit is a device that acquires the plurality of task network examples of each task neural network by performing random initialization on each task neural network among the plurality of task neural networks.
請求項1に記載の装置であって、
前記サンプリングユニットは、ランダムな選択操作により前記損失に対してサンプリングを行うことで、前記サンプリング後の複数の損失を取得し、
前記サンプリング後の複数の損失の数が、前記選択操作の保持確率パラメータにより制御される、装置。
The device according to claim 1.
The sampling unit acquires a plurality of losses after the sampling by sampling the loss by a random selection operation.
A device in which the number of losses after the sampling is controlled by the retention probability parameter of the selection operation.
請求項1に記載の装置であって、
前記汎化損失計算ユニットは、さらに、前記サンプリング後の複数の損失を平均化し、平均後の損失を前記汎化損失とする、装置。
The device according to claim 1.
The generalization loss calculation unit is an apparatus that further averages a plurality of losses after sampling, and sets the loss after averaging as the generalization loss.
請求項1に記載の装置であって、
前記勾配計算ユニットは、前記汎化損失の、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例における各ネットワーク層の重みパラメータに対する勾配を計算する、装置。
The device according to claim 1.
The gradient calculation unit calculates the gradient of the generalized loss with respect to the weight parameter of each network layer in the task network example corresponding to each loss among the plurality of losses after sampling.
請求項6に記載の装置であって、
前記勾配計算ユニットは、前記複数のタスクニューラルネットワークについて取得されたすべてのタスクネットワーク実例のうち、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例以外のタスクネットワーク実例の各ネットワーク層の重みパラメータの勾配をゼロに設定する、装置。
The device according to claim 6.
The gradient calculation unit is used for each network of the task network example other than the task network example corresponding to each loss of the plurality of losses after sampling among all the task network examples acquired for the plurality of task neural networks. A device that sets the gradient of a layer weight parameter to zero.
請求項7に記載の装置であって、
前記メタ学習ネットワークは、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の各ネットワーク層の重みパラメータの前回の更新の状態に基づいて、該層の重みパラメータの更新値を出力する、装置。
The device according to claim 7.
The meta-learning network sets the updated value of the weight parameter of each network layer of the task network example corresponding to each loss of the plurality of losses after sampling based on the state of the previous update of the weight parameter of the layer. A device to output.
メタ学習ネットワーク訓練方法であって、
異なるタスクのための複数のタスクニューラルネットワークのうちの各タスクニューラルネットワークについて、該タスクニューラルネットワークの複数のタスクネットワーク実例を得るタスクネットワーク実例取得ステップであって、前記異なるタスクが類似性を有するタスクネットワーク実例取得ステップ;
訓練データを用いて、それぞれ、各タスクニューラルネットワークの各タスクネットワーク実例の損失を取得する損失取得ステップ;
前記損失に対してサンプリングを行ってサンプリング後の複数の損失を取得するサンプリングステップ;
前記サンプリング後の複数の損失に基づいて、前記サンプリング後の複数の損失の総損失を反映する汎化損失を計算する汎化損失計算ステップ;
前記汎化損失の、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータに対応する勾配を計算する勾配計算ステップ;
前記勾配を、それぞれ、少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークに入力し、それぞれ、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータの更新値を得る学習ステップであって、前記メタ学習ネットワークが、勾配に対して学習を行うニューラルネットワークである学習ステップ;
前記更新値に基づいて、前記サンプリング後の複数の損失のうちの各損失に対応するタスクネットワーク実例の重みパラメータを更新する第一更新ステップ;及び
前記損失取得ステップ、前記サンプリングステップ、前記汎化損失計算ステップ、前記勾配計算ステップ、前記学習ステップ及び前記第一更新ステップの処理を反復して実行し、所定条件が満足されるときに、前記所定条件が満足されるときの前記汎化損失に基づいて、タスクネットワーク実例の損失がより小さい方向に向けて前記少なくとも1つのメタ学習ネットワークを訓練することで、更新後の少なくとも1つのメタ学習ネットワークを得る第二更新ステップを含み、
更新後の少なくとも1つのメタ学習ネットワークに基づいて、前記損失取得ステップ、前記サンプリングステップ、前記汎化損失計算ステップ、前記勾配計算ステップ、前記学習ステップ、前記第一更新ステップ、及び前記第二更新ステップの処理を、第一反復終了条件が満足されるまで反復して実行する、方法。
A meta-learning network training method
For each task neural network among a plurality of task neural networks for different tasks, a task network example acquisition step for obtaining a plurality of task network examples of the task neural network, wherein the different tasks have similarities. Example acquisition step;
Loss acquisition step to acquire the loss of each task network example of each task neural network using the training data;
A sampling step in which sampling is performed on the loss to obtain a plurality of losses after sampling;
A generalization loss calculation step that calculates a generalization loss that reflects the total loss of the plurality of losses after sampling based on the plurality of losses after sampling;
Gradient calculation step to calculate the gradient corresponding to the weight parameter of the task network example corresponding to each loss of the generalized loss among the plurality of losses after sampling;
Each of the gradients is input to one of the at least one meta-learning networks, and the updated value of the weight parameter of the task network example corresponding to each loss of the plurality of losses after sampling. A learning step in which the meta-learning network is a neural network that learns with respect to a gradient;
The first update step of updating the weight parameter of the task network example corresponding to each loss of the plurality of losses after the sampling based on the update value; and the loss acquisition step, the sampling step, and the generalization loss. The processing of the calculation step, the gradient calculation step, the learning step, and the first update step is repeatedly executed, and when the predetermined condition is satisfied, based on the generalization loss when the predetermined condition is satisfied. Including a second update step to obtain at least one updated meta-learning network by training the at least one meta-learning network in a direction in which the loss of the task network example is smaller.
The loss acquisition step, the sampling step, the generalized loss calculation step, the gradient calculation step, the learning step, the first update step, and the second update step based on at least one meta-learning network after the update. A method of iterating through the process until the first iteration end condition is satisfied.
請求項1〜8のうちの任意の1項に記載のメタ学習ネットワーク訓練装置の訓練により得られたメタ学習ネットワークを用いて、ニューラルネットワークに対して訓練を行う装置であって、
訓練データを用いて、訓練待ちのニューラルネットワークの損失を得る第二損失取得ユニット;
前記損失の、前記訓練待ちのニューラルネットワークの重みパラメータに対する勾配を計算する第二勾配計算ユニット;
前記勾配を、それぞれ、前記第一反復終了条件が満足されるときに取得された訓練済みの前記少なくとも1つのメタ学習ネットワークのうちの1つのメタ学習ネットワークに入力し、前記訓練待ちのニューラルネットワークの重みパラメータの更新値を得る第二学習ユニット;及び
前記更新値に基づいて、前記訓練待ちのニューラルネットワークの重みパラメータを更新する第三更新ユニットを含み、
前記第二損失取得ユニット、前記第二勾配計算ユニット、前記第二学習ユニット、及び前記第三更新ユニットの処理を、第二反復終了条件が満足されるまで反復して実行する、装置。
A device that trains a neural network using the meta-learning network obtained by training the meta-learning network training device according to any one of claims 1 to 8.
A second loss acquisition unit that uses training data to obtain the loss of a neural network awaiting training;
A second gradient calculation unit that calculates the gradient of the loss with respect to the weight parameter of the neural network awaiting training;
Each of the gradients is input to the meta-learning network of one of the trained at least one meta-learning networks acquired when the first iteration end condition is satisfied, and the neural network awaiting training A second learning unit that obtains an updated value of the weight parameter; and a third update unit that updates the weight parameter of the neural network awaiting training based on the updated value.
An apparatus that repeatedly executes the processes of the second loss acquisition unit, the second gradient calculation unit, the second learning unit, and the third update unit until the second iteration end condition is satisfied.
JP2020011815A 2019-03-04 2020-01-28 Device and method for training meta learning network Pending JP2020144849A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910160129.1 2019-03-04
CN201910160129.1A CN111652364A (en) 2019-03-04 2019-03-04 Apparatus and method for training meta learning network

Publications (1)

Publication Number Publication Date
JP2020144849A true JP2020144849A (en) 2020-09-10

Family

ID=72346122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020011815A Pending JP2020144849A (en) 2019-03-04 2020-01-28 Device and method for training meta learning network

Country Status (2)

Country Link
JP (1) JP2020144849A (en)
CN (1) CN111652364A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116002A (en) * 2020-09-18 2020-12-22 北京旋极信息技术股份有限公司 Determination method, verification method and device of detection model
CN113128419A (en) * 2021-04-23 2021-07-16 京东鲲鹏(江苏)科技有限公司 Obstacle identification method and device, electronic equipment and storage medium
WO2022176481A1 (en) 2021-02-16 2022-08-25 オムロン株式会社 Machine learning data generation method, meta learning method, machine learning data generation device, and program
JP2023502817A (en) * 2020-10-26 2023-01-26 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method for Establishing Region Heat Prediction Model, Method and Apparatus for Region Heat Prediction
CN116150995A (en) * 2023-02-21 2023-05-23 东南大学 Rapid simulation method of switch arc model
JP7423694B2 (en) 2021-07-14 2024-01-29 楽天グループ株式会社 Machine learning methods, training methods, prediction systems, and non-transitory computer-readable media
JP7429260B2 (en) 2021-07-14 2024-02-07 楽天グループ株式会社 Machine learning methods, training methods, prediction systems, and non-transitory computer-readable media
JP7431890B2 (en) 2021-07-14 2024-02-15 楽天グループ株式会社 Machine learning methods, training methods, prediction systems, and non-transitory computer-readable media
JP7441270B2 (en) 2021-07-14 2024-02-29 楽天グループ株式会社 Machine learning methods, training methods, prediction systems, and non-transitory computer-readable media

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784781B (en) * 2021-01-28 2022-08-12 清华大学 Method and device for detecting forged faces based on difference perception meta-learning
CN113535953B (en) * 2021-07-15 2022-05-27 湖南大学 Meta learning-based few-sample classification method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116002A (en) * 2020-09-18 2020-12-22 北京旋极信息技术股份有限公司 Determination method, verification method and device of detection model
JP2023502817A (en) * 2020-10-26 2023-01-26 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method for Establishing Region Heat Prediction Model, Method and Apparatus for Region Heat Prediction
WO2022176481A1 (en) 2021-02-16 2022-08-25 オムロン株式会社 Machine learning data generation method, meta learning method, machine learning data generation device, and program
CN113128419A (en) * 2021-04-23 2021-07-16 京东鲲鹏(江苏)科技有限公司 Obstacle identification method and device, electronic equipment and storage medium
CN113128419B (en) * 2021-04-23 2023-12-05 京东鲲鹏(江苏)科技有限公司 Obstacle recognition method and device, electronic equipment and storage medium
JP7423694B2 (en) 2021-07-14 2024-01-29 楽天グループ株式会社 Machine learning methods, training methods, prediction systems, and non-transitory computer-readable media
JP7429260B2 (en) 2021-07-14 2024-02-07 楽天グループ株式会社 Machine learning methods, training methods, prediction systems, and non-transitory computer-readable media
JP7431890B2 (en) 2021-07-14 2024-02-15 楽天グループ株式会社 Machine learning methods, training methods, prediction systems, and non-transitory computer-readable media
JP7441270B2 (en) 2021-07-14 2024-02-29 楽天グループ株式会社 Machine learning methods, training methods, prediction systems, and non-transitory computer-readable media
CN116150995A (en) * 2023-02-21 2023-05-23 东南大学 Rapid simulation method of switch arc model
CN116150995B (en) * 2023-02-21 2023-07-25 东南大学 Rapid simulation method of switch arc model

Also Published As

Publication number Publication date
CN111652364A (en) 2020-09-11

Similar Documents

Publication Publication Date Title
JP2020144849A (en) Device and method for training meta learning network
JP7177653B2 (en) Improving font recognition using adversarial neural network training
US11829880B2 (en) Generating trained neural networks with increased robustness against adversarial attacks
Meng et al. Ar-net: Adaptive frame resolution for efficient action recognition
CN111581510B (en) Shared content processing method, device, computer equipment and storage medium
US10515295B2 (en) Font recognition using triplet loss neural network training
EP3711000B1 (en) Regularized neural network architecture search
US10459975B1 (en) Method and system for creating an automatic video summary
US10803231B1 (en) Performing tag-based font retrieval using combined font tag recognition and tag-based font retrieval neural networks
CN107609185B (en) Method, device, equipment and computer-readable storage medium for similarity calculation of POI
WO2022105108A1 (en) Network data classification method, apparatus, and device, and readable storage medium
US11335093B2 (en) Visual tracking by colorization
WO2022166115A1 (en) Recommendation system with adaptive thresholds for neighborhood selection
JP2020144852A (en) Device and method for mixed training meta learning network
US11030726B1 (en) Image cropping with lossless resolution for generating enhanced image databases
WO2020149971A2 (en) Robust and data-efficient blackbox optimization
WO2023077819A1 (en) Data processing system, method and apparatus, and device, storage medium, computer program and computer program product
US20210110299A1 (en) Interactive machine learning
CN114186084A (en) Online multi-mode Hash retrieval method, system, storage medium and equipment
Yuan et al. Deep learning from a statistical perspective
CN109614581B (en) Non-negative matrix factorization clustering method based on dual local learning
WO2023078009A1 (en) Model weight acquisition method and related system
US20230196067A1 (en) Optimal knowledge distillation scheme
US20220172048A1 (en) Method and system for learning representations less prone to catastrophic forgetting
CN115115966A (en) Video scene segmentation method and device, computer equipment and storage medium