JP2020087148A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2020087148A
JP2020087148A JP2018222996A JP2018222996A JP2020087148A JP 2020087148 A JP2020087148 A JP 2020087148A JP 2018222996 A JP2018222996 A JP 2018222996A JP 2018222996 A JP2018222996 A JP 2018222996A JP 2020087148 A JP2020087148 A JP 2020087148A
Authority
JP
Japan
Prior art keywords
input data
distribution
categorical
prediction model
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018222996A
Other languages
English (en)
Other versions
JP7059166B2 (ja
Inventor
遼平 田中
Ryohei Tanaka
遼平 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2018222996A priority Critical patent/JP7059166B2/ja
Priority to US16/752,174 priority patent/US11593621B2/en
Publication of JP2020087148A publication Critical patent/JP2020087148A/ja
Application granted granted Critical
Publication of JP7059166B2 publication Critical patent/JP7059166B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Operations Research (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】系列データを扱う予測モデルに対し、少ない計算量で事後確率分布の平滑化を行えるようにする。【解決手段】実施形態の情報処理装置は、1つの入力データに対してL個のカテゴリカル分布の系列であるカテゴリカル分布列を出力する予測モデルを用いて、第1の入力データに対応する第1のカテゴリカル分布列と、前記第1の入力データの近傍の第2の入力データに対応する第2のカテゴリカル分布列とを取得する系列予測部と、前記第1のカテゴリカル分布列におけるi番目のカテゴリカル分布と前記第2のカテゴリカル分布列におけるi番目のカテゴリカル分布との間の分布間距離を、i=1〜Lのそれぞれについて計算する距離計算部と、L個の前記分布間距離の総和を計算する統合部と、前記総和が小さくなるように前記予測モデルのパラメータを更新する最適化部と、を備える。【選択図】図4

Description

本発明の実施形態は、情報処理装置、情報処理方法およびプログラムに関する。
予測モデルの汎化性能向上や半教師あり学習のため、学習データとその近傍点での事後確率分布の分布間距離を最小化するように予測モデルのパラメータを更新することで、事後確率分布を平滑化する手法が知られている。事後確率分布とは、ある入力に条件づけられた出力の確率分布である。事後確率分布が平滑である状態とは、2つのデータがデータ空間で近いとき、それらに対応する事後確率も類似している状態をいう。
しかしこの方法は、系列データを扱う場合には分布間距離の計算負荷が高くなり、処理に多大な時間を要する。このため、系列データを扱う予測モデルに対し、より少ない計算量で事後確率分布の平滑化を行えるようにして、汎化性能向上や半教師あり学習を実現することが求められている。
T.Miyato,et al."Distributional smoothing with virtual adversarial training",arXiv preprint arXiv:1507.00677.2015. W.Hu,T.Miyato,S.Tokui,E.Matsumoto,and M.Sugiyama,"Learning Discrete Representations via Information Maximizing Self-Augmented Training",Proceedings of the 34th International Conference on Machine Learning,Proceedings of Machine Learning Research,vol.70,pp.1558?1567,Aug.2017.
本発明が解決しようとする課題は、系列データを扱う予測モデルに対し、少ない計算量で事後確率分布の平滑化を行うことができる情報処理装置、情報処理方法およびプログラムを提供することである。
実施形態の情報処理装置は、系列予測部と、距離計算部と、統合部と、最適化部と、を備える。系列予測部は、1つの入力データに対してL個(Lは2以上の自然数)のカテゴリカル分布の系列であるカテゴリカル分布列を出力する予測モデルを用いて、第1の入力データに対応する第1のカテゴリカル分布列と、前記第1の入力データの近傍の第2の入力データに対応する第2のカテゴリカル分布列とを取得する。距離計算部は、前記第1のカテゴリカル分布列におけるi番目のカテゴリカル分布と前記第2のカテゴリカル分布列におけるi番目のカテゴリカル分布との間の分布間距離を、i=1〜Lのそれぞれについて計算する。統合部は、L個の前記分布間距離の総和を計算する。最適化部は、前記総和が小さくなるように前記予測モデルのパラメータを更新する。
図1は、事後確率分布の平滑化を説明する図である。 図2は、事後確率分布の平滑化による効果を説明する図である。 図3は、文字列認識の概要を説明する図である。 図4は、実施形態に係る情報処理装置の機能的な構成例を示すブロック図である。 図5は、予測モデルの事後確率分布を平滑化する処理の手順を示すフローチャートである。 図6は、実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
以下、実施形態の情報処理装置、情報処理方法およびプログラムについて、図面を参照して詳細に説明する。
<実施形態の概要>
本実施形態は、事後確率分布の平滑化により予測モデルの汎化性能向上や半教師あり学習を可能にする技術に関し、特に、系列データを扱う予測モデルの事後確率分布の平滑化を少ない計算量で行えるようにしたものである。予測モデルとは、入力されたデータに対するラベルを予測するために使用されるパラメータ集合と演算方法であり、予め複数のデータとラベルの組を統計的に関係づけるようにパラメータ集合を更新することで生成・学習される。
予測モデルの生成・学習の方法として、教師あり学習や半教師あり学習などが知られている。教師あり学習は、学習に用いるデータ(学習データ)すべてにクラスラベルが付与されている学習方法であり、半教師あり学習は、学習データにクラスラベルが付与されているデータ(ラベルありデータ)と付与されていないデータ(ラベルなしデータ)とが混在する学習方法である。非特許文献1に記載されたVirtual Adversarial Trainingは、学習データとその近傍点での事後確率分布の分布間距離を最小化するように予測モデルのパラメータを更新ことで、事後確率分布を平滑化するものである。
非特許文献1に記載されたVirtual Adversarial Trainingによる事後確率分布の平滑化について、図1を参照して説明する。図1では、予測モデルの事後確率分布p(y|x)を仮想的に縦軸方向の一次元で表し、入力データxのデータ空間(入力データ空間)を横軸方向の一次元で表している。Virtual Adversarial Trainingは、予測モデルの事後確率分布p(y|x)が学習データxの近傍で滑らかになるように、学習データxが入力として与えられたときの予測モデルの事後確率分布p(・|x)と、その学習データxの近傍のデータx+rが入力として与えられたときの予測モデルの事後確率分布p(・|x+r)との間の分布間距離Dist(p(・|x)||p(・|x+r))を計算し、この分布間距離Dist(p(・|x)||p(・|x+r))を最小化するように予測モデルのパラメータを更新する。
Virtual Adversarial Trainingでは、予測モデルの事後確率分布を平滑化するために学習データxのクラスラベルの情報は不要である。つまり、Virtual Adversarial Trainingは、学習データxとしてラベルなしデータを利用できる半教師あり学習である。
図2は、事後確率分布の平滑化による効果を説明する図である。ここでは、説明を簡単にするため、黒□のクラスと黒△のクラスの2クラス分類の例を挙げる。また、入力データ空間(図1と同様に横軸方向の一次元で表す)において、例えば図2(a)に示すように学習データが存在しているものとする。このとき、ラベルありデータのみを用いた教師あり学習によって予測モデルを生成すると、その予測モデルの事後確率分布が変化する位置(識別境界)が、図2(b)に示すように黒□のクラスラベルが付与されたラベルありデータ側に偏った位置になったり、逆に図2(c)に示すように黒△のクラスラベルが付与されたラベルありデータ側に偏った位置になったりする場合がある。
これに対し、ラベルなしデータを学習データに含めてVirtual Adversarial Trainingによる事後確率分布の平滑化を行うと、それぞれのラベルなしデータの近傍で予測モデルの事後確率分布が平滑化されることにより、図2(d)に示すように、入力データ空間において学習データが疎らな空間で事後確率分布が大きく変化するように、予測モデルが最適化されていく。これにより、ノイズに対して頑健で汎化性能の高い予測モデルを得ることができる。
Virtual Adversarial Trainingは、このように予測モデルの汎化性能向上を図る上で有効な方法であるが、系列データを対象とした場合には、事後確率分布およびその分布間距離の計算負荷が高いことが課題である。すなわち、単一のラベルを予測する問題では、事後確率分布はクラス数Nのカテゴリカル分布であり、事後確率分布およびその分布間距離を求めることは難しくない。しかし、文字列認識や音声認識など、ラベル系列を予測する問題では、事後確率分布はすべてのラベル列の組み合わせのカテゴリカル分布となる。ラベル列の組み合わせは系列長に対して指数関数的に増大するため、事後確率分布およびそれらの分布間距離の計算量は膨大となる。
なお、カテゴリカル分布は、以下の式で表される確率分布である。
Figure 2020087148
ただし、y={y,y,・・・,yNc−1}は1要素だけ“1”で残りの要素が“0”のone-hotなN次元のベクトル、πはΣi<Ncπ=1、π≧0を満たすパラメータである。Nはカテゴリ数である。カテゴリカル分布はカテゴリ分布とも呼ばれる。
図3は、文字列認識の概要を説明する図である。文字列認識では、図3に示すように、入力データxとして文字列画像が予測モデルに入力される。予測モデルは、入力された文字列画像からL個の特徴ベクトルを抽出し、ブランクシンボルや連続するシンボルを含むL個のシンボルごとのカテゴリカル分布を計算してその系列を出力する。そして、後述のCTC(Connectionist Temporal Classification)デコーダにより、シンボルごとのカテゴリカル分布の系列を文字列の事後確率分布に変換し、最尤推定により文字列を予測する。
ここで、予測モデルがブランクを含むクラス数Nのカテゴリカル分布の系列p ,・・・,p を出力するとき、文字列wの事後確率分布p(w)は、以下のように計算できる。
Figure 2020087148
ただし、S=s,・・・,sは、ブランクを含むラベル列、p (k)はカテゴリカル分布p におけるラベルk(0≦k<N)の確率、BはCTCデコーダである。CTCデコーダは、長さLの入力ラベル列を、長さL以下の任意の長さのラベル列に変換する処理であり、入力ラベル列のブランクの除去と連続するラベルの除去を行う。例えば“−”をブランクラベルとして、B(“−aa−−b−b”)=“abb”である。また、例えばL=3のとき、B−1(“ab”)={“aab”,“abb”,“−ab”,“a−b”,“ab−”}である。
ここで、2つのカテゴリカル分布の系列p ,・・・p とq ,・・・,q が与えられたとき、p ,・・・p に対応する文字列の事後確率分布pと、q ,・・・,q に対応する文字列の事後確率分布qとの間のKLダイバージェンスDKL(p||q)は、以下のように求められる。なお、KLダイバージェンスは確率分布間距離の一種として知られている指標である。
Figure 2020087148
はブランクを含む長さLのラベル列からCTCデコーダ(上記B)によって変換され得るラベル列の集合を表す。Dの要素数はO(N )のため、計算コストが非常に高くなる。
そこで、本実施形態では、ラベル列の事後確率分布は複数の小規模なカテゴリカル分布の積および和で表される点に注目する。それらの小規模なカテゴリカル分布間の距離の総和はラベル列の事後確率分布間の距離の上界を抑えるため、この値を最小化することで真の事後確率分布の分布間距離の近似的な最小化(最適化)が実現できる。小規模なカテゴリカル分布間の距離は低コストで計算できるため、全体として低コストで事後確率分布を近似的に平滑化できる。
すなわち、本実施形態では、
Figure 2020087148
を最小化する。なお、
Figure 2020087148
である。
これは、一般に以下の式が成り立つためである。
Figure 2020087148
KL(p||q)を求めるためにはO(N )回の四則演算、対数演算が必要であるのに対し、
Figure 2020087148
は、O(N×L)回の四則演算、対数演算で求めることができる。
以上のように、本実施形態では、ラベル列を予測する予測モデルの事後確率分布を平滑化するに際し、ラベル列の事後確率分布の分布間距離ではなく、事後確率分布の構成要素である複数の小規模なカテゴリカル分布それぞれの分布間距離の和を最小化するように、予測モデルのパラメータを更新する。これにより、高速、低計算量で事後確率分布を平滑化することができ、予測モデルの汎化性能向上や半教師あり学習を実現できる。
<第1実施形態>
図4は、本実施形態に係る情報処理装置の機能的な構成例を示すブロック図である。本実施形態の情報処理装置は、予測モデル10を用いて系列データの認識を行う認識システムにおいて、予測モデル10の事後確率分布を学習データの近傍で平滑化することで、予測モデル10の汎化性能を向上させるものである。この情報処理装置は、予測モデル10の事後確率分布の平滑化を実現するための機能的な構成要素として、図4に示すように、入力受付部1と、系列予測部2と、距離計算部3と、統合部4と、最適化部5とを備える。
入力受付部1は、任意の学習データの入力を受け付ける。学習データはラベルなしデータでよい。入力受付部1が入力を受け付けた学習データを「第1の入力データ」と呼ぶ。文字列認識の場合、第1の入力データは文字列画像であり、音声認識の場合、第1の入力データは音声データである。
系列予測部2は、予測モデル10を用いて、入力データに対応するカテゴリカル分布の系列を取得する。予測モデル10は、1つの入力データに対してL個(Lは2以上の自然数)のカテゴリカル分布の系列であるカテゴリカル分布列を出力する。Lは入力データの長さによって異なる。入力データの長さとは、例えば、文字列画像の場合は文字列方向の画像サイズ(画素数)であり、音声認識の場合は時間である。系系列予測部2は、入力受付部1から第1の入力データを受け取り、この第1の入力データを予測モデル10に入力して第1の入力データに対応する第1のカテゴリカル分布列を取得する。また、系列予測部2は、第1の入力データの近傍のデータ、つまり、入力データ空間において第1の入力データに近いデータ(これを「第2の入力データ」と呼ぶ)を生成し、この第2の入力データを予測モデル10に入力して第2の入力データに対応する第2のカテゴリカル分布列を取得する。なお、第2の入力データの長さは第1の入力データに等しく、したがって、対応するカテゴリカル分布の数はL個である。
距離計算部3は、第1のカテゴリカル分布列におけるi番目のカテゴリカル分布と第2のカテゴリカル分布列におけるi番目のカテゴリカル分布との間の分布間距離を、i=1〜Lのそれぞれについて計算する。つまり、距離計算部3は、第1のカテゴリカル分布列と第2のカテゴリカル分布列との間で、系列中の順番(位置)が共通するカテゴリカル分布同士の分布間距離を、系列の要素数(系列長)であるL個分計算する。
統合部4は、距離計算部3により計算されたL個の分布間距離の総和、つまり、第1のカテゴリカル分布列と第2のカテゴリカル分布列との間で、系列中の順番(位置)が共通するカテゴリカル分布同士の分布間距離の総和を計算する。
最適化部5は、統合部4により計算されたL個の分布間距離の総和、つまり、第1のカテゴリカル分布列と第2のカテゴリカル分布列との間で、系列中の順番(位置)が共通するカテゴリカル分布同士の分布間距離の総和が小さくなるように、予測モデル10のパラメータを更新する。
以下では、本実施形態に係る情報処理装置を、文字列画像を入力として対応する文字列を予測する文字列認識システムに適用した例を想定し、予測モデル10の事後確率分布を平滑化する処理の具体的について更に詳しく説明する。なお、後述のように、入力データから抽出する特徴ベクトルを認識対象に応じて変更することで、音声認識などの他の系列データの認識システムにも容易に適用可能である。
予測モデル10は、入力画像xから特定の領域に対応するL個の特徴ベクトルを抽出する。Lは、入力画像xの文字列方向の長さによって決定される。音声認識への適用を考えた場合には、これらの特徴ベクトルを、特定区間の音声から抽出された音響特徴ベクトルに置き換えればよい。パラメータθの予測モデル10は、それらのL個の特徴ベクトルを系列データとみなし、再帰的ニューラルネットワークを用いてL個のカテゴリカル分布の系列であるカテゴリカル分布列p (・|x,θ),・・・,p (・|x,θ)を出力する。
再帰的ニューラルネットワークとは、1つの入力に対し、1つの予測値を出力する機能に加えて、次の予測のための内部状態を保持する機能を備えたニューラルネットワークである。2回目以降の予測に際しては、本来の入力に加えて前回予測時の内部状態も加味して予測を行う。本実施形態では、予測モデル10が、出力されるカテゴリカル分布列p (・|x,θ),・・・,p (・|x,θ)において隣接するカテゴリカル分布同士が相互に影響を与え合う再帰的な結合を含む再帰的ニューラルネットワークを用いて構成されるものとする。
予測モデル10が出力するカテゴリカル分布列p (・|x,θ),・・・,p (・|x,θ)を用いて、入力画像xに対応する文字列wの尤度は以下の式で求められる。
Figure 2020087148
教師あり学習により予測モデル10のパラメータθを更新する場合、すべての学習データ(ラベルありデータ)に対して正解文字列の負の対数尤度Lossslを損失関数として、損失関数を小さくするように逐次的にパラメータθを更新する。予測モデル10の事後確率分布の平滑化を行う場合は、上記のLossslに加えて、学習データx(第1の入力データx)とその近傍の点x+r(第2の入力データx)で事後確率分布の分布間距離が小さくなるように予測モデル10のパラメータθを更新する。すべての学習データxおよび近傍の点x+rでの事後確率分布の分布間距離の総和をLosssmoothとすると、最終的には、LossslとLosssmoothの双方を最小化するように予測モデル10のパラメータθを更新する。
LossslとLosssmoothの双方を最小化するには、それぞれ交互にパラメータθを更新してもよいし、下記の合算値を新たな損失関数としてパラメータθを更新してもよい。
Loss=Losssl+λLosssmooth
ただし、λは予め決定されるハイパパラメータである。
以下では、Lossslを最小化するパラメータθの更新とLosssmoothを最小化するパラメータθの更新とを交互に行うことを想定し、本実施形態に係る情報処理装置の処理手順について、図5を参照しながら説明する。図5は、本実施形態に係る情報処理装置が予測モデル10の事後確率分布を平滑化する処理の手順を示すフローチャートである。この図5のフローチャートで示す一連の処理は、入力受付部1が学習データ(第1の入力データ)の入力を受け付けることにより開始される。
図5のフローチャートで示す一連の処理が開始されると、まず、系列予測部2が、第1の入力データxを入力受付部1から受け取り(ステップS101)、この第1の入力データをもとに第2の入力データxを生成する(ステップS102)。ここで、第2の入力データxは、第1の入力データxと同じ次元数のランダムなベクトルdと、予め決められたハイパパラメータεとを用いて、
=x+ε×d/|d|
で求められる。
次に、系列予測部2は、第1の入力データxを予測モデル10に入力して、第1の入力データxに対応するL個のカテゴリカル分布の系列である第1のカテゴリカル分布列p (・|x,θ),・・・,p (・|x,θ)を取得するとともに、第2の入力データxを予測モデル10に入力して、第2の入力データxに対応するL個のカテゴリカル分布の系列である第2のカテゴリカル分布列p (・|x,θ),・・・,p (・|x,θ)を取得する(ステップS103)。
次に、距離計算部3が、第1のカテゴリカル分布列p (・|x,θ),・・・,p (・|x,θ)におけるi番目のカテゴリカル分布p (・|x,θ)と、第2のカテゴリカル分布列p (・|x,θ),・・・,p (・|x,θ)におけるi番目のカテゴリカル分布p (・|x,θ)との間の分布間距離を計算する(ステップS104)。ここで、カテゴリカル分布同士の分布間距離としてKLダイバージェンスを計算する場合、分布間距離DKL(p (・|x,θ)||p (・|x,θ))は以下の式で求められる。
Figure 2020087148
ただし、Nはブランクを含むクラス数である。
距離計算部3は、i=1〜Lのそれぞれについて分布間距離DKL(p (・|x,θ)||p (・|x,θ))が計算されるまで(ステップS105:No)、ステップS104の計算を繰り返す。そして、すべてのiについてステップS104の計算が終了すると(ステップS105:Yes)、統合部4が、ステップS104で計算されたL個の分布間距離DKL(p (・|x,θ)||p (・|x,θ))の総和を計算し(ステップS106)、これをLosssmoothとする。
Figure 2020087148
最後に、最適化部5が、ステップS106で計算された総和、つまりLosssmoothを最小化するように予測モデル10のパラメータθを更新し(ステップS107)、図5のフローチャートで示す一連の処理が終了する。予測モデル10のパラメータθの更新は、例えば確率勾配法を用いて実現することができる。つまり、ステップS106で計算された総和(Losssmooth)を予測モデル10のパラメータθでそれぞれ微分し、その微分係数に応じて、ステップS106で計算された総和(Losssmooth)が小さくなるようにパラメータθを更新する。
以上、具体的な例を挙げながら詳細に説明したように、本実施形態では、予測モデル10の事後確率分布を学習データの近傍で平滑化するに際し、学習データとその近傍点での事後確率分布の分布間距離を最小化するのではなく、事後確率分布の構成要素である複数の小規模なカテゴリカル分布それぞれの分布間距離の和を最小化するように、予測モデル10のパラメータを更新するようにしている。したがって、本実施形態によれば、系列データを扱う予測モデル10に対し、少ない計算量で事後確率分布の平滑化を行うことができ、予測モデル10の汎化性能向上や半教師あり学習を実現することができる。
<第2実施形態>
本実施形態は、第2の入力データxの求め方が上述の第1実施形態と異なる。すなわち、上述の第1実施形態では、入力データ空間において第1の入力データxから所定距離εだけ離れたデータの中から第2の入力データxがランダムに選ばれたが、本実施形態では、入力データ空間において第1の入力データxから所定距離εだけ離れたデータのうち、上述の総和(Losssmooth)が最大となるデータを第2の入力データxとする。
本実施形態では、第1の入力データxから所定距離εだけ離れたデータのうち、
Figure 2020087148
を最大にするものを第2の入力データxとして選択する。このような第2の入力データxは、例えば、非特許文献1に記載の方法により求めることができる。すなわち、第1の入力データxと同じ次元数のランダムなベクトルdを初期値とし、
Figure 2020087148
をI回繰り返すことによって得られるdを用いて、
=x+ε×d/|d|
により第2の入力データxを近似的に求めることができる。なお、ξ、Ipは予め決められた定数である。
以上のように、本実施形態では、入力データ空間において第1の入力データxから所定距離εだけ離れたデータのうち、上述の総和(Losssmooth)が最大となるデータを第2の入力データxとして用いるようにしているので、上述の第1実施形態と比較して高度な計算が必要になるが、予測モデル10のパラメータθが適切な値に効率よく収束していくことが期待できる。
なお、上述の第1実施形態および第2実施形態では、第1の入力データxと第2の入力データxとの間の距離εはハイパパラメータとして予め決められているものとしたが、学習データの密集度に基づいて距離εを機械的に求めるようにしてもよい。すなわち、予測モデル10の学習に用いる複数の学習データのうち、第1の入力データxに対してt番目(tは予め定めた任意の自然数)に近い学習データと第1の入力データxとの間の入力データ空間における距離Dtをεとしてもよい。この場合、第2の入力データxは、入力データ空間において第1の入力データx1からDtだけ離れたデータである。例えば、t=10として距離εを求めることが非特許文献2に記載されている。
このように、第1の入力データxと第2の入力データxとの間の距離εを学習データの密集度に基づいて決めることにより、予測モデル10の事後確率分布の平滑化をより効率的に行えるようになる。
<第3実施形態>
本実施形態は、カテゴリカル分布同士の分布間距離の計算方法が上述の第1実施形態と異なる。すなわち、上述の第1実施形態では、カテゴリカル分布同士の分布間距離としてKLダイバージェンスを計算したが、本実施形態では、カテゴリカル分布同士の分布間距離として二乗誤差を計算する。
本実施形態の距離計算部3は、第1のカテゴリカル分布列p (・|x,θ),・・・,p (・|x,θ)におけるi番目のカテゴリカル分布p (・|x,θ)と、第2のカテゴリカル分布列p (・|x,θ),・・・,p (・|x,θ)におけるi番目のカテゴリカル分布p (・|x,θ)との間の分布間距離として、二乗誤差を用いた分布間距離DSQ(p (・|x,θ)||p (・|x,θ))を、i=1〜Lのそれぞれについて計算する。分布間距離DSQ(p (・|x,θ)||p (・|x,θ))は以下の式で求められる。
Figure 2020087148
ただし、Nはブランクを含むクラス数である。
本実施形態の統合部4は、距離計算部3により計算されたL個の分布間距離DSK(p (・|x,θ)||p (・|x,θ))の総和を計算し、これをLosssmoothとする。
Figure 2020087148
以上のように、本実施形態では、カテゴリカル分布同士の分布間距離としてKLダイバージェンスではなく二乗誤差を用いるようにしているので、損失関数の勾配が緩やかになり、予測モデル10のパラメータθがより適切な値に収束する可能性がある。
なお、カテゴリカル分布同士の分布間距離としてKLダイバージェンスと二乗誤差のどちらを用いた場合に予測モデル10の汎化性能が向上するかは、予測モデル10の現在の性能やどういった学習データが用いられるかなど、様々な要因によって異なる。そこで、カテゴリカル分布同士の分布間距離としてKLダイバージェンスを用いてパラメータθを更新した予測モデル10の性能と、カテゴリカル分布同士の分布間距離として二乗誤差を用いてパラメータθを更新した予測モデル10の性能とを、評価用データを用いて実際に評価して、評価値が高い方の予測モデル10を採用するようにしてもよい。
<補足説明>
上述した各実施形態の情報処理装置は、例えば、汎用のコンピュータを基本ハードウェアとして用いることで実現可能である。すなわち、上述の情報処理装置の各部の機能は、汎用のコンピュータに搭載された1以上のプロセッサにプログラムを実行させることにより実現することができる。このとき、情報処理装置は、上記のプログラムをコンピュータに予めインストールすることで実現してもよいし、コンピュータ読み取り可能な記憶媒体に上記のプログラムを記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータに適宜インストールすることで実現してもよい。
図6は、上述した各実施形態の情報処理装置のハードウェア構成例を示すブロック図である。情報処理装置は、例えば図6に示すように、CPU(Central Processing Unit)などのプロセッサ101と、RAM(Random Access Memory)やROM(Read Only Memory)などのメモリ102と、HDD(Hard Disk Drive)やSSD(Solid State Drive)などのストレージデバイス103と、液晶パネルなどの表示装置106やキーボードやポインティングデバイスなどの入力装置107といった機器を接続するための機器I/F104と、装置外部と通信を行う通信I/F105と、これら各部を接続するバス108とを備えた一般的なコンピュータとしてのハードウェア構成を有する。
上述した各実施形態の情報処理装置を図6に示すハードウェア構成により実現する場合、例えば、プロセッサ101がメモリ102を利用して、ストレージデバイス103などに格納されたプログラムを読み出して実行することにより、上述の入力受付部1、系列予測部2、距離計算部3、統合部4および最適化部5などの各部の機能を実現することができる。また、上述の予測モデル10は、例えばストレージデバイス103などに格納しておき、適宜RAMなどのメモリ102に読み出して系列予測部2による処理に利用したり、最適化部5により更新したりすることができる。
なお、上述の各実施形態の情報処理装置の各部の機能は、その一部または全部を、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などの専用のハードウェア(汎用のプロセッサではなく専用のプロセッサ)により実現することもできる。また、複数のプロセッサを用いて上述した各部の機能を実現する構成であってもよい。また、上述の各実施形態の情報処理装置は、単一のコンピュータにより実現する場合に限らず、複数のコンピュータに機能を分散して実現することもできる。
以上、本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 入力受付部
2 系列予測部
3 距離計算部
4 統合部
5 最適化部
10 予測モデル

Claims (9)

  1. 1つの入力データに対してL個(Lは2以上の自然数)のカテゴリカル分布の系列であるカテゴリカル分布列を出力する予測モデルを用いて、第1の入力データに対応する第1のカテゴリカル分布列と、前記第1の入力データの近傍の第2の入力データに対応する第2のカテゴリカル分布列とを取得する系列予測部と、
    前記第1のカテゴリカル分布列におけるi番目のカテゴリカル分布と前記第2のカテゴリカル分布列におけるi番目のカテゴリカル分布との間の分布間距離を、i=1〜Lのそれぞれについて計算する距離計算部と、
    L個の前記分布間距離の総和を計算する統合部と、
    前記総和が小さくなるように前記予測モデルのパラメータを更新する最適化部と、
    を備える情報処理装置。
  2. 前記予測モデルは、出力される前記カテゴリカル分布列において隣接するカテゴリカル分布同士が相互に影響を与え合う再帰的な結合を含む再帰的ニューラルネットワークを用いて構成される
    請求項1に記載の情報処理装置。
  3. 前記最適化部は、確率的勾配法を用いて、前記総和が小さくなるように前記予測モデルのパラメータを更新する
    請求項1または2に記載の情報処理装置。
  4. 前記第2の入力データは、入力データ空間において前記第1の入力データから所定距離離れたデータである
    請求項1乃至3のいずれか一項に記載の情報処理装置。
  5. 前記第2の入力データは、入力データ空間において前記第1の入力データから所定距離離れたデータのうち、前記総和が最大となるデータである
    請求項4に記載の情報処理装置。
  6. 前記予測モデルの学習に用いる複数の学習データのうち、前記第1の入力データに対してt番目(tは予め定めた任意の自然数)に近い学習データと前記第1の入力データとの間の入力データ空間における距離をDtとしたときに、
    前記第2の入力データは、入力データ空間において前記第1の入力データからDtだけ離れたデータである
    請求項1乃至3のいずれか一項に記載の情報処理装置。
  7. 前記距離計算部は、前記分布間距離として、カテゴリカル分布間のKLダイバージェンスまたはカテゴリカル分布間の二乗誤差を計算する
    請求項1乃至6のいずれか一項に記載の情報処理装置。
  8. 1つの入力データに対してL個(Lは2以上の自然数)のカテゴリカル分布の系列であるカテゴリカル分布列を出力する予測モデルを用いて、第1の入力データに対応する第1のカテゴリカル分布列と、前記第1の入力データの近傍の第2の入力データに対応する第2のカテゴリカル分布列とを計算するステップと、
    前記第1のカテゴリカル分布列におけるi番目のカテゴリカル分布と前記第2のカテゴリカル分布列におけるi番目のカテゴリカル分布との間の分布間距離を、i=1〜Lのそれぞれについて計算するステップと、
    L個の前記分布間距離の総和を計算するステップと、
    前記総和が小さくなるように前記予測モデルのパラメータを更新するステップと、
    を含む情報処理方法。
  9. コンピュータに、
    1つの入力データに対してL個(Lは2以上の自然数)のカテゴリカル分布の系列であるカテゴリカル分布列を出力する予測モデルを用いて、第1の入力データに対応する第1のカテゴリカル分布列と、前記第1の入力データの近傍の第2の入力データに対応する第2のカテゴリカル分布列とを計算する機能と、
    前記第1のカテゴリカル分布列におけるi番目のカテゴリカル分布と前記第2のカテゴリカル分布列におけるi番目のカテゴリカル分布との間の分布間距離を、i=1〜Lのそれぞれについて計算する機能と、
    L個の前記分布間距離の総和を計算する機能と、
    前記総和が小さくなるように前記予測モデルのパラメータを更新する機能と、
    を実現させるためのプログラム。
JP2018222996A 2018-11-29 2018-11-29 情報処理装置、情報処理方法およびプログラム Active JP7059166B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018222996A JP7059166B2 (ja) 2018-11-29 2018-11-29 情報処理装置、情報処理方法およびプログラム
US16/752,174 US11593621B2 (en) 2018-11-29 2020-01-24 Information processing apparatus, information processing method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018222996A JP7059166B2 (ja) 2018-11-29 2018-11-29 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020087148A true JP2020087148A (ja) 2020-06-04
JP7059166B2 JP7059166B2 (ja) 2022-04-25

Family

ID=70908420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018222996A Active JP7059166B2 (ja) 2018-11-29 2018-11-29 情報処理装置、情報処理方法およびプログラム

Country Status (2)

Country Link
US (1) US11593621B2 (ja)
JP (1) JP7059166B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6774129B1 (ja) * 2020-02-03 2020-10-21 望 窪田 解析装置、解析方法及び解析プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018167900A1 (ja) * 2017-03-16 2018-09-20 日本電気株式会社 ニューラルネットワーク学習装置、方法、およびプログラム
US20190073587A1 (en) * 2017-09-04 2019-03-07 Kabushiki Kaisha Toshiba Learning device, information processing device, learning method, and computer program product

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7519201B2 (en) 2005-10-28 2009-04-14 Honda Motor Co., Ltd. Detecting humans via their pose
JP5752060B2 (ja) * 2012-01-19 2015-07-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、大語彙連続音声認識方法及びプログラム
JPWO2014136316A1 (ja) 2013-03-04 2017-02-09 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
US10679643B2 (en) * 2016-08-31 2020-06-09 Gregory Frederick Diamos Automatic audio captioning
JP6707483B2 (ja) 2017-03-09 2020-06-10 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP6514305B1 (ja) 2017-11-28 2019-05-15 株式会社東芝 認識辞書メンテナンス装置、パターン認識システム、認識辞書メンテナンス方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018167900A1 (ja) * 2017-03-16 2018-09-20 日本電気株式会社 ニューラルネットワーク学習装置、方法、およびプログラム
US20190073587A1 (en) * 2017-09-04 2019-03-07 Kabushiki Kaisha Toshiba Learning device, information processing device, learning method, and computer program product

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
増田嵩志 ほか: "敵対的学習を適用したEnd−to−end音声認識", 電子情報通信学会技術研究報告, vol. 117, no. 368, JPN6022009482, 16 January 2018 (2018-01-16), JP, pages 73 - 77, ISSN: 0004726716 *

Also Published As

Publication number Publication date
US11593621B2 (en) 2023-02-28
US20200410325A1 (en) 2020-12-31
JP7059166B2 (ja) 2022-04-25

Similar Documents

Publication Publication Date Title
JP7470476B2 (ja) 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合
US20210174264A1 (en) Training tree-based machine-learning modeling algorithms for predicting outputs and generating explanatory data
US9990558B2 (en) Generating image features based on robust feature-learning
JP6208552B2 (ja) 識別器、識別プログラム、及び識別方法
WO2022063151A1 (en) Method and system for relation learning by multi-hop attention graph neural network
Akay A study on particle swarm optimization and artificial bee colony algorithms for multilevel thresholding
Tang et al. An improved scheme for minimum cross entropy threshold selection based on genetic algorithm
WO2022252455A1 (en) Methods and systems for training graph neural network using supervised contrastive learning
Gangrade et al. Selective classification via one-sided prediction
JP2021504836A5 (ja)
Liu et al. A survey on computationally efficient neural architecture search
WO2021042857A1 (zh) 图像分割模型的处理方法和处理装置
WO2014176056A2 (en) Data classification
CN108073980A (zh) 模式识别装置以及模式识别方法
JP2022543245A (ja) 学習を転移させるための学習のためのフレームワーク
CN115699041A (zh) 利用专家模型的可扩展迁移学习
CN104699660A (zh) 概述非线性回归问题中的结构化矩阵
WO2021012263A1 (en) Systems and methods for end-to-end deep reinforcement learning based coreference resolution
Muñoz et al. Enabling nas with automated super-network generation
US20220405570A1 (en) Post-hoc loss-calibration for bayesian neural networks
JP7059166B2 (ja) 情報処理装置、情報処理方法およびプログラム
Berberidis et al. Data-adaptive active sampling for efficient graph-cognizant classification
US20180129916A1 (en) Statistical max pooling with deep learning
US20190325983A1 (en) Method and system for performing molecular design using machine learning algorithms
Gill et al. Dynamically regulated initialization for S-system modelling of genetic networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220413

R150 Certificate of patent or registration of utility model

Ref document number: 7059166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150