JP7031741B2 - モデル学習装置、方法及びプログラム - Google Patents

モデル学習装置、方法及びプログラム Download PDF

Info

Publication number
JP7031741B2
JP7031741B2 JP2020523646A JP2020523646A JP7031741B2 JP 7031741 B2 JP7031741 B2 JP 7031741B2 JP 2020523646 A JP2020523646 A JP 2020523646A JP 2020523646 A JP2020523646 A JP 2020523646A JP 7031741 B2 JP7031741 B2 JP 7031741B2
Authority
JP
Japan
Prior art keywords
task
model
probability distribution
neural network
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020523646A
Other languages
English (en)
Other versions
JPWO2019235283A1 (ja
Inventor
崇史 森谷
義和 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2019235283A1 publication Critical patent/JPWO2019235283A1/ja
Application granted granted Critical
Publication of JP7031741B2 publication Critical patent/JP7031741B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Description

この発明は、音声、画像等を認識するために用いられるモデルを学習する技術に関する。
図1を参照して、一般的なニューラルネットワークモデルの学習方法を説明する。この学習方法を用いた、音声認識用のニューラルネットワーク型のモデルを学習する方法は、非特許文献1の”TRAINING DEEP NEURAL NETWORKS”の節に例えば記載されているものである。
図1のモデル学習装置は、中間特徴量計算部101と、出力確率分布計算部102と、モデル更新部103とを備えている。
事前に学習データの各サンプルから抽出した実数のベクトルである特徴量及び各特徴量に対応する正解ユニット番号のペアと、適当な初期モデルとを用意する。初期モデルとしては、各パラメタに乱数を割り当てたニューラルネットワークモデルや、既に別の学習データで学習済みのニューラルネットワークモデル等を利用することができる。
中間特徴量計算部101は、入力された特徴量から、出力確率分布計算部102において正解ユニットを識別しやすくするための中間特徴量を計算する。中間特徴量は、非特許文献1の式(1)により定義されるものである。計算された中間特徴量は、出力確率分布計算部102に出力される。
より具体的には、ニューラルネットワークモデルが1個の入力層、複数個の中間層及び1個の出力層で構成されているとして、中間特徴量計算部101は、入力層及び複数個の中間層のそれぞれで中間特徴量の計算を行う。中間特徴量計算部101は、複数個の中間層の中の最後の中間層で計算された中間特徴量を出力確率分布計算部102に出力する。
出力確率分布計算部102は、中間特徴量計算部101で最終的に計算された中間特徴量を現在のモデルの出力層に入力することにより、出力層の各ユニットに対応する確率を並べた出力確率分布を計算する。出力確率分布は、非特許文献1の式(2)により定義されるものである。計算された出力確率分布は、モデル更新部103に出力される。
モデル更新部103は、正解ユニット番号と出力確率分布に基づいて損失関数の値を計算し、損失関数の値を減少させるようにモデルを更新する。損失関数は、非特許文献1の式(3)により定義されるものである。モデル更新部103によるモデルの更新は、非特許文献1の式(4)によって行われる。
学習データの特徴量及び正解ユニット番号の各ペアに対して、上記の中間特徴量の抽出、出力確率分布の計算及びモデルの更新の処理を繰り返し、所定回数の繰り返しが完了した時点のモデルを学習済みモデルとして利用する。所定回数は、通常、数千万から数億回である。
非特許文献2には、最終的に解きたいメインのタスクに対する性能を向上させるために、メインのタスクとは別の複数のタスクと、メインのタスクとを同時に学習する方法が記載されている。この学習方法は、マルチタスク学習と呼ばれており、様々な分野で性能が改善されていることが報告されている。
図2を参照して、非特許文献2のマルチタスク学習を行うモデル学習装置について説明する。
図2のモデル学習装置は、図1のモデル学習装置と同様に、中間特徴量計算部101と、出力確率分布計算部102と、マルチタスク型モデル更新部201とを備えている。図2の中間特徴量計算部101及び出力確率分布計算部102の処理は、図1の中間特徴量計算部101及び出力確率分布計算部102の処理と同様であるため、重複説明を省略する。
マルチタスク型モデル更新部201には、Jを2以上の整数として、各タスクj∈1,…,Jの各特徴量の出力確率分布と、各特徴量に対応する正解ユニット番号と、ハイパーパラメタλjとが入力される。ハイパーパラメタλjは、タスクの重要度を表す重みのパラメタであり、手動で設定される。
マルチタスク型モデル更新部201は、各タスクj∈1,…,Jの各特徴量の出力確率分布と、各特徴量に対応する正解ユニット番号とから得られる各タスクの損失関数の値Ljにハイパーパラメタλj∈[0,1]を乗算したものの和Lを最小化するように学習を行う。
Figure 0007031741000001
このようにして、相互作用のあるタスクを同時に解くことで認識性能が向上することが期待される。
Geoffrey Hinton, Li Deng, Dong Yu, George E. Dahl, Abdel-rahman Mohamed, Navdeep Jaitly, Andrew Senior, Vincent Vanhoucke, Patrick Nguyen, Tara N. Sainath and Brian Kingsbury, "Deep Neural Networks for Acoustic Modeling in Speech Recognition," IEEE Signal Processing Magazine, Vol. 29, No.6, pp.82-97, 2012. Yanmin Qian, Tian Tan, Dong Yu, and Yu Zhang,"INTEGRATED ADAPTATION WITH MULTI-FACTOR JOINT-LEARNING FOR FAR-FIELD SPEECH RECOGNITION," ICASSP, pp. 5770-5774, 2016
非特許文献2では、各タスクの損失関数の値Lj 重みλj∈[0,1]を乗算したものの和Lを最小化するように学習が行われる。
Figure 0007031741000002
この和Lを最小化することで全体の損失を最小化するように学習できるが、Lは重み付き和のため個々のタスクを明示的に最小化するようには設計されていない。非特許文献2の技術はこの点において改善の余地があった。
この発明は、最終的に解きたいタスクに対する性能を従来よりも改善したモデルを学習するモデル学習装置、方法及びプログラムを提供することを目的とする。
この発明の一態様によるモデル学習装置によれば、Jを所定の2以上の整数とし、メインタスクをタスクJとし、メインタスクを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1とし、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算するモデル計算部と、各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,J-1に対応する計算された出力確率分布に基づいて計算される各タスクj∈1,…,J-1の損失関数の値をタスクごとに最小化するようにニューラルネットワークモデルのパラメタを更新した後に、タスクJに対応する特徴量に対応する正解ユニット番号及び計算された出力確率分布に基づいて計算されるタスクJの損失関数の値を最小化するようにニューラルネットワークモデルのパラメタを更新するマルチタスク型モデル更新部と、を備えている。
この発明の一態様によるモデル学習装置によれば、Jを所定の2以上の整数とし、タスクJを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1とし、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算するモデル計算部と、各タスクj∈1,…,Jに対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,Jに対応する計算された出力確率分布に基づいて計算される各タスクj∈1,…,Jの損失関数の値をタスクごとに最小化するようにニューラルネットワークモデルのパラメタを更新するマルチタスク型モデル更新部と、を備えている。
最終的に解きたいタスク以外のタスクの損失関数の値のそれぞれを明示的に最小化することで、最終的に解きたいタスクの性能を従来よりも改善することができる。
図1は、非特許文献1のモデル学習装置の機能構成の例を示す図である。 図2は、非特許文献2のモデル学習装置の機能構成の例を示す図である。 図3は、この発明のモデル学習装置の機能構成の例を示す図である。 図4は、この発明のマルチタスク型モデル更新部の機能構成の例を示す図である。 図5は、モデル学習方法の処理手続きの例を示す図である。 図6は、コンピュータの機能構成例を示す図である。
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
[モデル学習装置及び方法]
モデル学習装置は、図3に示すように、モデル計算部30と、マルチタスク型モデル更新部31とを例えば備えている。モデル計算部30は、中間特徴量計算部301と、出力確率分布計算部302とを例えば備えている。マルチタスク型モデル更新部31は、図4に示すように、損失選択部311と、モデル更新部312とを例えば備えている。
モデル学習方法は、モデル学習装置の各構成部が、以下に説明する及び図5に示すステップS30からステップS31の処理を行うことにより例えば実現される。
なお、以下に説明する処理を行う前に、メインタスクをタスクJとし、メインタスクを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1として、各タスク1,…,Jの学習データの各サンプルから抽出した実数のベクトルである特徴量及び各特徴量に対応する正解ユニット番号のペアと、適当な初期モデルのニューラルネットワークモデルとが用意されているとする。初期モデルのニューラルネットワークモデルとしては、各パラメタに乱数を割り当てたニューラルネットワークモデルや、既に別の学習データで学習済みのニューラルネットワークモデル等を例えば利用することができる。
メインタスクを行うために必要な少なくとも1個のサブタスクは、メインタスクに関連するタスクである。少なくとも1個のサブタスクは、互いに関連するタスクである。
メインタスク及び少なくとも1個のサブタスクの例は、メインタスク=単語の認識、サブタスク1=モノフォンの認識、サブタスク2=トライフォンの認識、サブタスク3=カタカナの認識である。
メインタスク及び少なくとも1個のサブタスクの他の例は、メインタスク=文字認識を含む画像認識、サブタスク1=文字のみの画像に基づく文字認識である。
以下、モデル学習装置の各構成部について説明する。
<モデル計算部30>
モデル計算部30には、各タスクj∈1,…,Jに対応する特徴量が入力される。
モデル計算部30は、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算する。
計算された出力確率分布は、マルチタスク型モデル更新部31に出力される。
以下、モデル計算部30の処理を詳細に説明するために、モデル計算部30の中間特徴量計算部301及び出力確率分布計算部302について説明する。
以下に説明する中間特徴量計算部301及び出力確率分布計算部302の処理は、各タスクj∈1,…,Jに対応する各特徴量に対して行われる。これにより、各タスクj∈1,…,Jに対応する各特徴量に対応する出力確率分布が得られる。
<<中間特徴量計算部301>>
中間特徴量計算部301は、中間特徴量計算部101と同様の処理を行う。
中間特徴量計算部301には、特徴量が入力される。
中間特徴量計算部301は、入力された特徴量と初期モデルのニューラルネットワークモデルとを用いて、中間特徴量を生成する(ステップS301)。中間特徴量は、例えば非特許文献1の式(1)により定義されるものである。
計算された中間特徴量は、出力確率分布計算部302に出力される。
中間特徴量計算部301は、入力された特徴量及びニューラルネットワークモデルから、出力確率分布計算部302において正解ユニットを識別しやすくするための中間特徴量を計算する。具体的には、ニューラルネットワークモデルが1個の入力層、複数個の中間層及び1個の出力層で構成されているとして、中間特徴量計算部301は、入力層及び複数個の中間層のそれぞれで中間特徴量の計算を行う。中間特徴量計算部301は、複数個の中間層の中の最後の中間層で計算された中間特徴量を出力確率分布計算部302に出力する。
<<出力確率分布計算部302>>
出力確率分布計算部302は、出力確率分布計算部102と同様の処理を行う。
出力確率分布計算部302には、中間特徴量計算部301が計算した中間特徴量が入力される。
出力確率分布計算部302は、中間特徴量計算部301で最終的に計算された中間特徴量をニューラルネットワークモデルの出力層に入力することにより、出力層の各ユニットに対応する確率を並べた出力確率分布を計算する(ステップS302)。出力確率分布は、例えば非特許文献1の式(2)により定義されるものである。
計算された出力確率分布は、マルチタスク型モデル更新部31に出力される。
例えば、入力された特徴量が音声の特徴量であり、ニューラルネットワークモデルが音声認識用のニューラルネットワーク型の音響モデルである場合には、出力確率分布計算部302により、音声の特徴量を識別しやすくした中間特徴量がどの音声の出力シンボル(音素状態)であるかが計算され、言い換えれば入力された音声の特徴量に対応した出力確率分布が得られる。
<マルチタスク型モデル更新部31>
マルチタスク型モデル更新部31には、各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号と、モデル計算部30が計算した各タスクj∈1,…,Jに対応する各特徴量に対応する出力確率分布とが入力される。
マルチタスク型モデル更新部31は、各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,J-1に対応するモデル計算部30で計算された出力確率分布に基づいて計算される前記各タスクj∈1,…,J-1の損失関数の値を最小化するようにニューラルネットワークモデルのパラメタを更新した後に、タスクJに対応する特徴量に対応する正解ユニット番号及びモデル計算部30で計算された出力確率分布に基づいて計算されるタスクJの損失関数の値を最小化するようにニューラルネットワークモデルのパラメタを更新する(ステップS31)。
以下、マルチタスク型モデル更新部31の処理を詳細に説明するために、マルチタスク型モデル更新部31の損失選択部311及びモデル更新部312について説明する。
<<損失選択部311>>
損失選択部311には、各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号と、モデル計算部30が計算した各タスクj∈1,…,Jに対応する各特徴量に対応する出力確率分布とが入力される。
損失選択部311は、各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号と、モデル計算部30が計算した各タスクj∈1,…,Jに対応する各特徴量に対応する出力確率分布とを、所定の順序で、モデル更新部312に出力する(ステップS311)。
以下では、j=1,…,Jとして、タスクjに対応する各特徴量に対応する正解ユニット番号と、モデル計算部30が計算したタスクjに対応する各特徴量に対応する出力確率分布とを、タスクjに対応する情報と略記する。
所定の順序は、タスクJに対応する情報を最後に出力する順序であれば、他のタスク1,…,J-1に対応する情報の出力の順序は任意である。所定の順序の数は、(J-1)!個だけ有り得る。例えば、所定の順序は、タスク1,…,J-1について昇順以外の順序である。
例えば、所定の順序は、予め決定され、損失選択部311に入力される。所定の順序が予め決定されていない場合には、損失選択部311が、所定の順序を決定してもよい。
例えば、メインタスク=単語の認識、サブタスク1=モノフォンの認識、サブタスク2=トライフォンの認識、サブタスク3=カタカナの認識である場合には、まずサブタスク1からサブタスク3のそれぞれに対応する情報がモデル更新部312に出力され、最後に解きたいメインタスクに対応する情報がモデル更新部312に出力される。
<<モデル更新部312>>
モデル更新部312には、損失選択部311が所定の順序で出力した、各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号と、各タスクj∈1,…,Jに対応する各特徴量に対応する出力確率分布とが入力される。
モデル更新部312は、入力されたタスク順に、タスクごとに、タスクに対応する各特徴量に対応する正解ユニット番号と、タスクに対応する各特徴量に対応する出力確率分布とに基づいて計算されるタスクの損失関数の値を最小化するようにニューラルネットワークモデルのパラメタを更新する(ステップS312)。
損失関数は、例えば非特許文献1の式(3)により定義されるものである。モデル更新部312によるモデルの更新は、例えば非特許文献1の式(4)によって行われる。更新されるモデル内のパラメタは、例えば非特許文献1の式(1)の重みwとバイアスbである。
例えば、所定の順序では、タスクJが最後であるため、モデル更新部312は、まず、各タスクj∈1,…,J-1の損失関数の値を最小化するようにニューラルネットワークモデルのパラメタ更新を行う。その後、モデル更新部312は、タスクJの損失関数の値を最小化するようにニューラルネットワークモデルのパラメタ更新を行う。
このようにして、最終的に解きたいタスク以外のタスクの損失関数の値のそれぞれを明示的に最小化することで、最終的に解きたいタスクの性能を従来よりも改善することができる。
[変形例]
以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。
実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[プログラム、記録媒体]
上述の各種の処理は、図6に示すコンピュータ2000の記録部2020に、上記方法の各ステップを実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
101 中間特徴量計算部
102 出力確率分布計算部
103 モデル更新部
201 マルチタスク型モデル更新部
30 モデル計算部
301 中間特徴量計算部
302 出力確率分布計算部
31 マルチタスク型モデル更新部
311 損失選択部
312 モデル更新部

Claims (7)

  1. Jを所定の2以上の整数とし、メインタスクをタスクJとし、メインタスクを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1とし、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算するモデル計算部と、
    各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,J-1に対応する前記計算された出力確率分布に基づいて計算される前記各タスクj∈1,…,J-1の損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタを更新した後に、タスクJに対応する前記特徴量に対応する正解ユニット番号及び前記計算された出力確率分布に基づいて計算されるタスクJの損失関数の値を最小化するように前記ニューラルネットワークモデルのパラメタを更新するマルチタスク型モデル更新部と、
    を含むモデル学習装置。
  2. Jを所定の2以上の整数とし、タスクJを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1とし、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算するモデル計算部と、
    各タスクj∈1,…,Jに対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,Jに対応する前記計算された出力確率分布に基づいて計算される前記各タスクj∈1,…,Jの損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタを更新するマルチタスク型モデル更新部と、
    を含むモデル学習装置。
  3. 請求項1又は2のモデル学習装置であって、
    前記モデル更新部は、タスク1,…,J-1について昇順以外の順序で、前記各タスクj∈1,…,J-1の損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタ更新を行う、
    モデル学習装置。
  4. モデル計算部が、Jを所定の2以上の整数とし、メインタスクをタスクJとし、メインタスクを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1とし、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算するモデル計算ステップと、
    マルチタスク型モデル更新部が、各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,J-1に対応する前記計算された出力確率分布に基づいて計算される前記各タスクj∈1,…,J-1の損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタを更新した後に、タスクJに対応する前記特徴量に対応する正解ユニット番号及び前記計算された出力確率分布に基づいて計算されるタスクJの損失関数の値を最小化するように前記ニューラルネットワークモデルのパラメタを更新するマルチタスク型モデル更新ステップと、
    を含むモデル学習方法。
  5. モデル計算部が、Jを所定の2以上の整数とし、タスクJを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1とし、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算するモデル計算ステップと、
    マルチタスク型モデル更新部が、各タスクj∈1,…,Jに対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,Jに対応する前記計算された出力確率分布に基づいて計算される前記各タスクj∈1,…,Jの損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタを更新するマルチタスク型モデル更新ステップと、
    を含むモデル学習方法。
  6. 請求項又はのモデル学習方法であって、
    前記モデル更新ステップは、タスク1,…,J-1について昇順以外の順序で、前記各タスクj∈1,…,J-1の損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタ更新を行う、
    モデル学習方法。
  7. 請求項1からの何れかのモデル学習装置の各部としてコンピュータを機能させるためのプログラム。
JP2020523646A 2018-06-05 2019-05-27 モデル学習装置、方法及びプログラム Active JP7031741B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018107643 2018-06-05
JP2018107643 2018-06-05
PCT/JP2019/020897 WO2019235283A1 (ja) 2018-06-05 2019-05-27 モデル学習装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019235283A1 JPWO2019235283A1 (ja) 2021-06-03
JP7031741B2 true JP7031741B2 (ja) 2022-03-08

Family

ID=68770361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020523646A Active JP7031741B2 (ja) 2018-06-05 2019-05-27 モデル学習装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US20210224642A1 (ja)
JP (1) JP7031741B2 (ja)
WO (1) WO2019235283A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818658B (zh) * 2020-01-14 2023-06-27 腾讯科技(深圳)有限公司 文本对分类模型的训练方法、分类方法、设备及存储介质
JP7421363B2 (ja) 2020-02-14 2024-01-24 株式会社Screenホールディングス パラメータ更新装置、分類装置、パラメータ更新プログラム、および、パラメータ更新方法
CN114926447B (zh) * 2022-06-01 2023-08-29 北京百度网讯科技有限公司 用于训练模型的方法、用于检测目标的方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009525547A (ja) 2006-02-01 2009-07-09 本田技研工業株式会社 質問分類のためのメタ学習
JP2018025747A (ja) 2016-08-09 2018-02-15 パナソニックIpマネジメント株式会社 対話行為推定方法、対話行為推定装置およびプログラム
WO2018047225A1 (ja) 2016-09-06 2018-03-15 三菱電機株式会社 学習装置、信号処理装置および学習方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10977551B2 (en) * 2016-12-14 2021-04-13 Microsoft Technology Licensing, Llc Hybrid reward architecture for reinforcement learning
KR102424540B1 (ko) * 2017-10-16 2022-07-25 삼성전자주식회사 문장 생성 모델의 업데이트 방법 및 문장 생성 장치
US20190324795A1 (en) * 2018-04-24 2019-10-24 Microsoft Technology Licensing, Llc Composite task execution

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009525547A (ja) 2006-02-01 2009-07-09 本田技研工業株式会社 質問分類のためのメタ学習
JP2018025747A (ja) 2016-08-09 2018-02-15 パナソニックIpマネジメント株式会社 対話行為推定方法、対話行為推定装置およびプログラム
WO2018047225A1 (ja) 2016-09-06 2018-03-15 三菱電機株式会社 学習装置、信号処理装置および学習方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Ofer Dekel et al.,Online Multitask Learning,ResearchGate,2006年06月,URL: https://www.researchgate.net/publication/221497586,DOI: 10.1007/11776420_34

Also Published As

Publication number Publication date
JPWO2019235283A1 (ja) 2021-06-03
WO2019235283A1 (ja) 2019-12-12
US20210224642A1 (en) 2021-07-22

Similar Documents

Publication Publication Date Title
JP6712642B2 (ja) モデル学習装置、その方法、及びプログラム
CN110807515B (zh) 模型生成方法和装置
JP7031741B2 (ja) モデル学習装置、方法及びプログラム
CN110366734B (zh) 优化神经网络架构
JP6712644B2 (ja) 音響モデル学習装置、その方法、及びプログラム
US20100275186A1 (en) Segmentation for static analysis
WO2019198306A1 (ja) 推定装置、学習装置、推定方法、学習方法及びプログラム
JP2019133046A (ja) 学習装置、学習方法及び学習プログラム
KR102036968B1 (ko) 전문화에 기반한 신뢰성 높은 딥러닝 앙상블 방법 및 장치
JP6856503B2 (ja) 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム
JPWO2019163718A1 (ja) 学習装置、音声認識順位推定装置、それらの方法、およびプログラム
KR20200100302A (ko) 신경망 기반의 데이터 처리 방법, 신경망 트레이닝 방법 및 그 장치들
JP2019095600A (ja) 音響モデル学習装置、音声認識装置、それらの方法、及びプログラム
JP6827910B2 (ja) 音響モデル学習装置、音声認識装置、それらの方法、及びプログラム
WO2019208564A1 (ja) ニューラルネットワーク学習装置、ニューラルネットワーク学習方法、プログラム
JP7095747B2 (ja) 音響モデル学習装置、モデル学習装置、それらの方法、およびプログラム
JP2016105232A (ja) 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体
CN111737417B (zh) 修正自然语言生成结果的方法和装置
WO2019194128A1 (ja) モデル学習装置、モデル学習方法、プログラム
JP6158105B2 (ja) 言語モデル作成装置、音声認識装置、その方法及びプログラム
JP6633556B2 (ja) 音響モデル学習装置、音声認識装置、音響モデル学習方法、音声認識方法、およびプログラム
WO2019235191A1 (ja) モデル学習装置、方法及びプログラム
CN111523639A (zh) 用于训练超网络的方法和装置
CN117349129B (zh) 车辆销售过程服务系统的异常优化方法及系统
WO2023028996A1 (en) Methods and devices for ensuring the reproducibility of software systems

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220207

R150 Certificate of patent or registration of utility model

Ref document number: 7031741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150