JP6605997B2 - 学習装置、学習方法及びプログラム - Google Patents

学習装置、学習方法及びプログラム Download PDF

Info

Publication number
JP6605997B2
JP6605997B2 JP2016054160A JP2016054160A JP6605997B2 JP 6605997 B2 JP6605997 B2 JP 6605997B2 JP 2016054160 A JP2016054160 A JP 2016054160A JP 2016054160 A JP2016054160 A JP 2016054160A JP 6605997 B2 JP6605997 B2 JP 6605997B2
Authority
JP
Japan
Prior art keywords
word
input
output
learning
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016054160A
Other languages
English (en)
Other versions
JP2017167938A (ja
Inventor
皓文 森下
貴史 益子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016054160A priority Critical patent/JP6605997B2/ja
Priority to US15/388,397 priority patent/US10410624B2/en
Publication of JP2017167938A publication Critical patent/JP2017167938A/ja
Application granted granted Critical
Publication of JP6605997B2 publication Critical patent/JP6605997B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Description

本発明の実施形態は学習装置、学習方法及びプログラムに関する。
単語列が与えられた際に、その単語列中の特定の位置の単語の単語スコアを計算する技術が従来から知られている。近年では、単語スコアの計算をニューラルネットワークによって行う技術が開発されている。
また、単語スコアの計算を行えるニューラルネットワークの学習方法が従来から知られている。従来の学習方法では、例えば、まず学習装置が、学習テキストコーパス中の一部又は全てのテキストに対して形態素解析を行うことにより、当該テキストを複数の単語を含む単語列に変換する。次に、学習装置が、この単語列からニューラルネットワークの入力となる単語の入力例と、入力例と対応する単語の出力例とを選択する。次に、学習装置が、ニューラルネットワークに実際に入力例を入力し、当該ニューラルネットワークの出力結果を得る。そして学習装置が、選択された出力例と、ニューラルネットワークの実際の出力結果との差異に基づいて、ニューラルネットワークのパラメータを更新する。
特許第4245530号公報 特許第4543294号公報
"Neural probabilistic language models" Yoshua Ben−gio, Holger Schwenk, Jean−Sebastien Senecal, Frederic Morin, Jean−Luc Gauvain "Recurrent neural network based language model" Tomas Mikolov, Martin Karafiat, Lukas Burget, Jan Cer−nocky, Sanjeev Khudanpur
しかしながら、従来の技術では、まだ知られていない新語の単語スコアを計算可能なニューラルネットワークの学習ができなかった。
実施形態の学習装置は、分割部と変換部と計算部と学習部とを備える。分割部は、学習対象のニューラルネットワークの入力層に入力される入力文字列を、複数の入力単語に分割する。変換部は、前記複数の入力単語のそれぞれを、前記入力単語に関連付けられた第1の確率で、前記入力単語の語彙素性に変換することにより、前記入力単語又は前記入力単語の語彙素性を示す入力学習単語を取得し、複数の前記入力学習単語を含む入力学習単語列が前記入力層に入力された場合に、前記ニューラルネットワークの出力層から出力されることが予想される出力単語を、前記出力単語に関連付けられた第2の確率で、前記出力単語の語彙素性に変換することにより、前記出力単語又は前記出力単語の語彙素性を示す出力学習単語を取得する。計算部4は、前記ニューラルネットワークの入力層に前記入力学習単語列を入力することにより、前記ニューラルネットワークの出力層のユニットから出力されるスコアを取得する。学習部は、前記出力学習単語に対応するユニットから出力されることが予想される予め定められた予想スコアと、前記出力学習単語に対応するユニットのスコアと、の差に基づいて前記ニューラルネットワークの学習を行う。
実施形態の学習装置の機能構成の例を示す図。 単語スコアの計算例について説明するための図。 実施形態のニューラルネットワークの例を示す図。 実施形態の分割部及び変換部の処理例を示す図。 実施形態の学習方法の例を示すフローチャート。 実施形態の変形例1のニューラルネットワークの例を示す図。 実施形態の変形例2の第1のニューラルネットワークの例を示す図。 実施形態の変形例2の第2のニューラルネットワークの例を示す図。 実施形態の変形例3のニューラルネットワークの例を示す図。 実施形態の学習装置のハードウェア構成の例を示す図。
以下に添付図面を参照して、学習装置、学習方法及びプログラムの実施形態を詳細に説明する。
[学習装置の機能構成]
はじめに、実施形態の学習装置の機能構成の例について説明する。
図1は実施形態の学習装置100の機能構成の例を示す図である。実施形態の学習装置100は、記憶部1、分割部2、変換部3、計算部4及び学習部5を備える。
記憶部1は情報を記憶する。記憶部1は、例えば単語リスト、既知語辞書、新語辞書、学習テキストコーパス、後述のニューラルネットワーク(図3参照)、及び、後述の変換確率情報(図4参照)等を記憶する。
単語リストは、単語のリストである。以下、単語リストを語彙という。また語彙に含まれる単語を既知語という。また語彙に含まれない単語を新語という。
既知語辞書は、既に知られている既知語と、当該既知語の語彙素性と、を関連付けて記憶する。既知語は、例えば国語辞書等に既に登録されている一般的によく知られている単語である。語彙素性は、単語をある基準で幾つかの集合に分類した際の集合の種類である。語彙素性は、例えば単語の品詞である。また例えば語彙素性は、単語の類似度により分類された集合の名称等である。なお単語は、自然言語に限らず、記号等を含む。
新語辞書は、新語と、当該新語の語彙素性とを関連付けて記憶する。学習装置100は、新語辞書により、未知語を新語として扱うことができる。新語辞書には、例えばユーザにより随時、新しい未知語が新語として追加される。
以下、実施形態の説明では、単語の語彙素性が品詞である場合を例にして説明する。
学習テキストコーパスは、単語スコアの計算に使用されるニューラルネットワークの学習に使用される単語列を記憶する。
<単語スコアの例>
はじめに、簡単な例により単語スコアの例について説明する。単語スコアは、文字列に含まれるターゲット単語に対して計算される。具体的には、ターゲット単語の単語スコアは、ターゲット単語以外の単語が、単語列中に与えられた条件での条件付き確率により計算される。
図2は単語スコアの計算例について説明するための図である。図2の例では、単語列101〜103に含まれるターゲット単語w3を計算する場合を示す。単語列101のターゲット単語w3は「雨」である。単語列102のターゲット単語w3は「カブトムシ」である。単語列103のターゲット単語w3は「食べる」である。
ターゲット単語以外の単語は、単語w1「明日」、及び、単語w2「は」である。このとき、単語列101の単語スコアP1、単語列102の単語スコアP2、及び、単語列103の単語スコアP3は、下記式(1)〜(3)により計算される。
P1(w3=雨|w1=明日,w2=は)=0.3 ・・・(1)
P2(w3=カブトムシ|w1=明日,w2=は)=0.1 ・・・(2)
P3(w3=食べる|w1=明日,w2=は)=0.2 ・・・(3)
式(1)〜(3)の例では、単語列101の単語スコアが最も高い。そのため、例えば音声認識システムの認識結果として、単語列101〜103が得られた場合には、言語的な観点からは、認識結果は単語列101である可能性が最も高いことがわかる。
<ニューラルネットワークの構造>
具体的には、計算部4は、単語列に含まれるターゲット単語の単語スコアを、ニューラルネットワークを用いて計算する。
次に学習対象のニューラルネットワークの構造について説明する。
図3は実施形態のニューラルネットワーク200の例を示す図である。図3の例は、簡単のため、ターゲット単語の3つ前までの単語に基づいて、当該ターゲット単語の単語スコアを計算する場合の構造を例示している。なおターゲット単語の単語スコアの計算に使用される単語の数は任意でよい。例えばターゲット単語の単語スコアは、ターゲット単語の5つ前までの単語に基づいて計算されてもよい。
実施形態のニューラルネットワーク200は、入力層10、中間層20a〜20c、中間層30及び出力層40を有する。以下、中間層20a〜20cを区別しない場合、単に中間層20という。なお図3の例では、ニューラルネットワーク200は、中間層20及び中間層30の2層構成になっているが、中間層の層数は任意でよい。
入力層10は、単語ユニット群11a〜11c、及び、品詞ユニット群12a〜12cを有する。以下、単語ユニット群11a〜11cを区別しない場合、単に単語ユニット群11という。同様に、品詞ユニット群12a〜12cを区別しない場合、単に品詞ユニット群12という。単語ユニット群11は、1以上の単語ユニットを含む。同様に、品詞ユニット群12は、1以上の品詞ユニットを含む。
はじめに、計算部4は、ターゲット単語の3つ前までの入力情報を、入力層10に入力する。
具体的には、計算部4は、ターゲット単語の1つ前の入力情報が単語である場合、当該単語を単語ユニット群11aに入力する。一方、計算部4は、ターゲット単語の1つ前の入力情報が品詞である場合、当該品詞を品詞ユニット群12aに入力する。
また計算部4は、ターゲット単語の2つ前の入力情報が単語である場合、当該単語を単語ユニット群11bに入力する。一方、計算部4は、ターゲット単語の2つ前の入力情報が品詞である場合、当該品詞を品詞ユニット群12bに入力する。
また計算部4は、ターゲット単語の3つ前の入力情報が単語である場合、当該単語を単語ユニット群11cに入力する。一方、計算部4は、ターゲット単語の3つ前の入力情報が品詞である場合、当該品詞を品詞ユニット群12cに入力する。
なお計算部4が、単語ユニット群11に単語を入力する方法は任意でよい。計算部4は、例えば各々の単語に対して、予め定められた当該単語を識別するベクトルを単語ユニット群11に入力する。なお単語を識別するベクトルは任意に定めてよい。単語を識別するベクトルは、例えば(0,0,0,・・・,0,1,0,・・・,0,0,0)等の1つの該当成分が1であり、他の成分は全て0であるベクトルである。この場合、ベクトルの各成分が、単語ユニット群11に含まれる各ユニットに対応する。1が入力されたユニットは、活性化されたユニットと呼ばれる。
同様に、計算部4が、品詞ユニット群12に品詞を入力する方法は任意でよい。計算部4は、例えば各々の品詞に対して、予め定められた当該品詞を識別するベクトルを品詞ユニット群12に入力する。
以下、入力層10の単語ユニット群11に入力されたベクトルと、品詞ユニット群12に入力されたベクトルと、を縦に連結することにより得られる列ベクトルを、単語ベクトルv(k=1,2,3)という。
次に、計算部4は、入力層10の単語ベクトルv(k=1,2,3)に、下記式(4)による線形演算を行うことにより得られたベクトルw(k=1,2,3)を、中間層20に入力する。
=Wv ・・・(4)
ここでWは、単語ベクトルvの結合重みを示すパラメータを表す行列である。
次に、計算部4は、中間層20のベクトルw(k=1,2,3)に、下記式(5)による演算を行うことにより得られたベクトルhを、中間層30に入力する。
=tanh[(Sw+u)] ・・・(5)
ここでiは、ベクトルhのi番目の成分を示す。またwは、中間層20のベクトルw(k=1,2,3)を縦に連結することにより得られる列ベクトルを示す。またSはベクトルwの結合重みを示すパラメータを表す行列である。またuは中間層30の閾値パラメータを示す。またtanhはハイパボリックタンジェント関数を示す。
すなわちベクトルhは、ベクトルwに線形演算を行った後に、ハイパボリックタンジェント関数を適用することにより得られる。
次に、計算部4は、中間層30のベクトルhに、下記式(6)による線形演算を行うことにより得られたベクトルaに、下記式(7)によるソフトマックス演算を行う。そして計算部4は、ベクトルyを出力層40に入力する。
a=Th+r ・・・(6)
=exp(a)/Σexp(a) ・・・(7)
ここでTはベクトルhの結合重みを示すパラメータを表す行列である。またrは出力層40の閾値パラメータを示す。またiは、ベクトルy及びベクトルaのi番目の成分を示す。またjは、ベクトルaのj番目の成分を示す。またexpは指数関数を示す。
出力層40は、単語スコアユニット群41及び品詞スコアユニット群42を有する。単語スコアユニット群41は、1以上の単語スコアユニットを含む。単語スコアユニットの各々は、既に知られている単語(既知語)のスコアを示す。品詞スコアユニット群42は、1以上の品詞スコアユニットを含む。品詞スコアユニットの各々は、一の品詞のスコアを示す。品詞は、例えば動詞、名詞及び形容詞等である。
計算部4は、上述の構造のニューラルネットワーク200を用いることにより、単語と品詞とを含む単語列が入力層10に与えられた場合でも、ターゲット単語の単語スコアを計算することができる。
具体的には、ターゲット単語sに対応する出力層40の値yが、ターゲット単語sの単語スコアP(s|v,v,v)を表す。計算部4は、ターゲット単語sが品詞の場合でも、出力層40に品詞スコアユニット群42が存在するので、品詞のスコアを計算することができる。
なお上述の図3のニューラルネットワーク200は、フィードフォワード型ニューラルネットワークであるが、他の構造のニューラルネットワークでもよい。ニューラルネットワーク200は、例えばリカレント型ニューラルネットワークでもよい。
<ニューラルネットワークの使用例>
計算部4は、上述のニューラルネットワーク200を使用することにより、単語列に新語が含まれる場合でも、ターゲット単語の単語スコアを計算することができる。具体的には、計算部4は、単語が既知語である場合、当該既知語を単語ユニット群11に入力する。一方、計算部4は、単語が新語である場合、当該新語の品詞を品詞ユニット群12に入力する。そして計算部4は、ターゲット単語sが新語である場合、当該新語の品詞に一致する品詞のスコアを、当該新語の単語スコアとして計算する。
<ニューラルネットワークの学習>
次にニューラルネットワーク200の学習処理について説明する。
図1に戻り、分割部2は、学習対象のニューラルネットワーク200の入力層10に入力される入力文字列を形態素解析することにより、複数の入力単語に分割する。例えば学習テキストコーパスに単語列101(図2参照)が記憶されている場合、入力単語は、単語w1「明日」、及び、単語w2「は」である。
変換部3は、複数の入力単語のそれぞれを、入力単語に関連付けられた確率で、入力単語の品詞に変換することにより、入力単語又は入力単語の品詞を示す入力学習単語を取得する。
また変換部3は、複数の入力学習単語を含む入力学習単語列が入力層10に入力された場合に、ニューラルネットワーク200の出力層40から出力されることが予想される出力単語を、出力単語に関連付けられた確率で、出力単語の品詞に変換することにより、出力単語又は出力単語の品詞を示す出力学習単語を取得する。
図4は実施形態の分割部2及び変換部3の処理例を示す図である。図4の例は、分割部2が、記憶部1に記憶された学習テキストコーパスから文字列111を取得した場合を示す。分割部2は、文字列111を、入力単語112〜115、及び、出力単語116に分割する。
次に、変換部3は、入力単語112〜115を、変換確率情報110に基づいて、入力単語112〜115の品詞に変換する。同様に、変換部3は、出力単語116を、変換確率情報110に基づいて、出力単語116の品詞に変換する。これにより変換部3は、文字列111を、入力単語又は入力単語の品詞を示す入力学習単語を含む入力学習単語列117と、出力単語又は出力単語の品詞を示す出力学習単語と、に変換する。図4の入力学習単語列117の例では、入力単語114が品詞「名詞」に変換されている。
変換確率情報110は、単語、品詞及び確率を関連付けて記憶する。図4の変換確率情報110の例では、例えば「天気」が、品詞「名詞」に変換される確率は1%である。
計算部4は、ニューラルネットワーク200の入力層10に入力学習単語列117を入力することにより、ニューラルネット118ワーク200の出力層40のユニットから出力されるスコアを取得する。図4の例では、計算部4は、出力学習単語118に対応するユニットのスコアを取得する。
学習部5は、出力学習単語118の予想スコアと、出力学習単語118に対応するユニットのスコアと、の差に基づいてニューラルネットワーク200の学習を行う。なおニューラルネットワーク200の学習方法は任意でよい。学習部5は、例えばバックプロパゲーションによりニューラルネットワーク200の学習を行う。
[学習方法]
次に実施形態の学習方法の例について説明する。
図5は実施形態の学習方法の例を示すフローチャートである。はじめに、分割部2は、学習対象のニューラルネットワーク200の入力層10に入力される入力文字列を形態素解析することにより、複数の入力単語に分割する(ステップS1)。具体的には、分割部2は、ニューラルネットワーク200の学習に使用される文字列を、学習テキストコーパスから取得する。そして分割部2は、学習テキストコーパスから取得された文字列を形態素解析することにより、当該文字列を入力文字列(複数の入力単語)と、出力単語と、に分割する。なお出力単語は、ステップS3の処理で使用される。
次に、変換部3が、複数の入力単語のそれぞれを、入力単語に関連付けられた確率で、入力単語の品詞に変換することにより、入力単語又は入力単語の品詞を示す入力学習単語を取得する(ステップS2)。
次に、変換部3は、複数の入力学習単語を含む入力学習単語列が入力層10に入力された場合に、ニューラルネットワーク200の出力層40から出力されることが予想される出力単語を、出力単語に関連付けられた確率で、出力単語の品詞に変換することにより、出力単語又は出力単語の品詞を示す出力学習単語を取得する(ステップS3)。
次に、計算部4が、ニューラルネットワーク200の入力層10に入力学習単語列を入力することにより、ニューラルネットワーク200の出力層40のユニットから出力されるスコアを取得する(ステップS4)。
次に、学習部5が、出力学習単語の予想スコアと、出力学習単語に対応するユニットのスコアと、を比較する(ステップS5)。次に、学習部5が、ステップS5の処理による比較結果に基づいて、ニューラルネットワーク200を表すパラメータを更新する(ステップS6)。
学習装置100は、上述のステップS1〜ステップS6の処理を繰り返すことにより、ニューラルネットワーク200の学習を行う。
以上説明したように、実施形態の学習装置100では、分割部2が、学習対象のニューラルネットワーク200の入力層10に入力される入力文字列を、複数の入力単語に分割する。変換部3が、複数の入力単語のそれぞれを、入力単語に関連付けられた確率で、入力単語の品詞に変換することにより、入力単語又は入力単語の品詞を示す入力学習単語を取得する。また変換部3は、複数の入力学習単語を含む入力学習単語列が入力層10に入力された場合に、ニューラルネットワーク200の出力層40から出力されることが予想される出力単語を、出力単語に関連付けられた確率で、出力単語の品詞に変換することにより、出力単語又は出力単語の品詞を示す出力学習単語を取得する。計算部4が、ニューラルネットワーク200の入力層10に入力学習単語列を入力することにより、ニューラルネットワーク200の出力層40のユニットから出力されるスコアを取得する。そして学習部5が、出力学習単語の予想スコアと、出力学習単語に対応するユニットのスコアと、の差に基づいてニューラルネットワーク200の学習を行う。
これにより実施形態の学習装置100によれば、まだ知られていない新語の単語スコアを計算するニューラルネットワーク200の学習を行うことができる。例えば実施形態の学習装置100によれば、ニューラルネットワーク200を、既知語辞書を用いて学習した後でも、随時、当該既知語辞書に登録されていない新語のスコアを計算する当該ニューラルネットワーク200の学習を行うことができる。
(実施形態の変形例1)
次に実施形態の変形例1について説明する。実施形態の変形例1の説明では、上述の実施形態と同様の説明については省略し、上述の実施形態と異なる箇所について説明する。
実施形態の変形例1の学習装置100の機能構成の説明は、実施形態の学習装置100の機能構成の例の説明(図1参照)と同じなので省略する。実施形態の変形例1の説明では、語彙素性が品詞である場合を例にして説明する。
実施形態の変形例1では、学習対象のニューラルネットワーク200の構造が、上述の実施形態のニューラルネットワーク200の構造(図3参照)と異なる。具体的には、実施形態の変形例1では、ニューラルネットワーク200の出力層40が、品詞スコアユニット群42を有さない点が、上述の実施形態の場合と異なる。
<ニューラルネットワークの構造>
図6は実施形態の変形例1のニューラルネットワーク200の例を示す図である。図6の例は、出力層40に、出力単語のスコアを出力するユニットがあり、かつ、品詞のスコアを出力するユニットがない場合を示す。
実施形態の変形例1のニューラルネットワーク200は、入力層10、中間層20a〜20c、中間層30及び出力層40を有する。実施形態の変形例1の入力層10、中間層20a〜20c及び中間層30の説明は、上述の実施形態の場合と同じなので省略する。
出力層40は、単語スコアユニット群41を有する。単語スコアユニット群41は、単語のスコアを示す。単語スコアユニット群41は、1以上の単語スコアユニットを含む。単語スコアユニットの各々は、既に知られている単語(既知語)のスコアを示す。
実施形態の変形例1のニューラルネットワーク200は、出力層40に品詞スコアユニット群42がないので、上述の実施形態に比べて、ニューラルネットワーク200のパラメータを減らすことができる。すなわち実施形態の変形例1では、記憶部1に記憶されるニューラルネットワーク200の記憶容量を削減することができる。
<ニューラルネットワークの使用例>
計算部4は、上述のニューラルネットワーク200を使用することにより、単語列に新語が含まれる場合でも、ターゲット単語の単語スコアを計算することができる。具体的には、計算部4は、ターゲット単語が新語である場合、単語スコアユニット群41に含まれる既知語のスコアの全て又は一部のうち、既知語の品詞が、ターゲット単語の新語の品詞と一致する既知語のスコアに基づいて、新語の単語スコアを計算する。計算部4は、例えばターゲット単語が新語である場合、単語スコアユニット群41に含まれる既知語のスコアの全て又は一部のうち、既知語の品詞が、ターゲット単語の新語の品詞と一致する既知語のスコアの和を、新語の単語スコアとして計算する。
図6の例は、ベクトルyの成分y、y、y及びyが示す既知語のスコアに対応する既知語の品詞が、ターゲット単語である新語の品詞と一致する場合を示す。この場合、計算部4は、ターゲット単語が新語である場合、y、y、y及びyが示す既知語のスコアの和を、新語の単語スコアとして計算する。
<ニューラルネットワークの学習>
実施形態の変形例1では、ニューラルネットワーク200の出力層40に、品詞スコアユニット群42を有さない。そのため実施形態の変形例1のニューラルネットワーク200は、品詞のスコアを出力するユニットを表すパラメータがない。
そのため実施形態の変形例1の変換部3は、ニューラルネットワーク200の出力層40から出力されることが予想される出力単語を、当該出力単語の品詞に変換する確率を0にする。これにより実施形態の変形例1では、出力単語を当該出力単語の品詞にする変換が行われないので、上述の出力学習単語は、常に上述の出力単語に一致する。
実施形態の変形例1の学習装置100によれば、出力層40に、出力単語のスコアを出力するユニットがあり、かつ、品詞のスコアを出力するユニットがない場合にも、上述の実施形態と同様の効果が得られる。
(実施形態の変形例2)
次に実施形態の変形例2について説明する。実施形態の変形例2の説明では、上述の実施形態と同様の説明については省略し、上述の実施形態と異なる箇所について説明する。
実施形態の変形例2の学習装置100の機能構成の説明は、実施形態の学習装置100の機能構成の例の説明(図1参照)と同じなので省略する。実施形態の変形例2の説明では、語彙素性が品詞である場合を例にして説明する。
実施形態の変形例2では、学習対象のニューラルネットワーク200の構造が、上述の実施形態のニューラルネットワーク200の構造(図3参照)と異なる。具体的には、実施形態の変形例2のニューラルネットワーク200は、構造的に2つに分離された第1のニューラルネットワーク及び第2のニューラルネットワークを含む。
<ニューラルネットワークの構造>
図7は実施形態の変形例2の第1のニューラルネットワーク200aの例を示す図である。図7の例は、出力層40に、出力単語のスコアを出力するユニットがあり、かつ、品詞のスコアを出力するユニットがない場合を示す。
実施形態の変形例2の第1のニューラルネットワーク200aは、入力層10、中間層20a〜20c、中間層30及び出力層40を有する。実施形態の変形例2の第1のニューラルネットワーク200aの入力層10、中間層20a〜20c及び中間層30の説明は、実施形態のニューラルネットワーク200と同じなので省略する。
出力層40は、単語スコアユニット群41を有する。単語スコアユニット群41は、1以上の単語スコアユニットを含む。単語スコアユニットの各々は、既に知られている単語(既知語)のスコアを示す。
図8は実施形態の変形例2の第2のニューラルネットワーク200bの例を示す図である。図8の例は、出力層40に、出力単語のスコアを出力するユニットがなく、かつ、品詞のスコアを出力するユニットがある場合を示す。
実施形態の変形例2の第2のニューラルネットワーク200bは、入力層10、中間層20a〜20c、中間層30及び出力層40を有する。実施形態の変形例2の第2のニューラルネットワーク200bの入力層10、中間層20a〜20c及び中間層30の説明は、実施形態のニューラルネットワーク200と同じなので省略する。
出力層40は、品詞スコアユニット群42を有する。品詞スコアユニット群42は、1以上の品詞スコアユニットを含む。品詞スコアユニットの各々は、一の品詞のスコアを示す。品詞は、例えば動詞、名詞及び形容詞等である。
すなわち実施形態の変形例2では、単語のスコアを計算する第1のニューラルネットワーク200aの構造、及び、品詞のスコアを計算する第2のニューラルネットワーク200bの構造を、それぞれのスコア計算に適した構造にすることができる。
<ニューラルネットワークの使用例>
計算部4は、上述の第1のニューラルネットワーク200a、及び、第2のニューラルネットワーク200bを使用することにより、単語列に新語が含まれる場合でも、ターゲット単語の単語スコアを計算することができる。具体的には、計算部4は、ターゲット単語が新語である場合、第2のニューラルネットワーク200bの品詞スコアユニット群42のスコアを、ターゲット単語の単語スコアとして計算する。一方、計算部4は、ターゲット単語が新語でない場合、第1のニューラルネットワーク200aの単語スコアユニット群41のスコアを、ターゲット単語の単語スコアとして計算する。
<第1のニューラルネットワークの学習>
実施形態の変形例2の第1のニューラルネットワーク200aでは、出力層40に、品詞スコアユニット群42を有さない。そのため実施形態の変形例2の第1のニューラルネットワーク200aは、上述の実施形態の変形例1の場合と同様に、品詞のスコアを出力するユニットを表すパラメータがない。第1のニューラルネットワーク200aの学習方法の説明は、上述の実施形態の変形例1の場合と同じなので省略する。
実施形態の変形例2の第1のニューラルネットワーク200aの学習では、出力単語を当該出力単語の品詞にする変換が行われないので、上述の出力学習単語は、常に上述の出力単語に一致する。
<第2のニューラルネットワークの学習>
実施形態の変形例2の第2のニューラルネットワーク200bでは、出力層40に、単語スコアユニット群41を有さない。そのため実施形態の変形例2の第2のニューラルネットワーク200bは、既に知られている単語(既知語)のスコアを出力するユニットを表すパラメータがない。
そのため実施形態の変形例2の変換部3は、第2のニューラルネットワーク200bの出力層40から出力されることが予想される出力単語を、当該出力単語の品詞に変換する確率を1にする。これにより実施形態の変形例2の第2のニューラルネットワーク200bの学習では、出力単語を当該出力単語の品詞にする変換が常に行われるので、上述の出力学習単語は、常に上述の出力単語の品詞に一致する。
実施形態の変形例2の学習装置100によれば、出力層40に、出力単語のスコアを出力するユニットがあり、かつ、品詞のスコアを出力するユニットがない場合(図7参照)にも、上述の実施形態と同様の効果が得られる。また、実施形態の変形例2の学習装置100によれば、出力層40に、出力単語のスコアを出力するユニットがなく、かつ、品詞のスコアを出力するユニットがある場合(図8参照)にも、上述の実施形態と同様の効果が得られる。
(実施形態の変形例3)
次に実施形態の変形例3について説明する。実施形態の変形例3の説明では、上述の実施形態と同様の説明については省略し、上述の実施形態と異なる箇所について説明する。
実施形態の変形例3の学習装置100の機能構成の説明は、実施形態の学習装置100の機能構成の例の説明(図1参照)と同じなので省略する。実施形態の変形例3の説明では、語彙素性が品詞である場合を例にして説明する。
実施形態の変形例3では、学習対象のニューラルネットワーク200の構造が、上述の実施形態のニューラルネットワーク200の構造(図3参照)と異なる。具体的には、ニューラルネットワーク200の入力層10に単語ユニット群11がなく、ニューラルネットワーク200の出力層40に単語スコアユニット群41がない点が、上述の実施形態の場合と異なる。
<ニューラルネットワークの構造>
図9は実施形態の変形例3のニューラルネットワーク200の例を示す図である。実施形態の変形例3のニューラルネットワーク200は、入力層10、中間層20a〜20c、中間層30及び出力層40を有する。
入力層10は、品詞ユニット群12a〜12cを有する。品詞ユニット群12は、1以上の品詞ユニットを含む。
実施形態の変形例3の中間層20a〜20c及び中間層30の説明は、実施形態の中間層20a〜20c及び中間層30の説明と同じなので省略する。
出力層40は、品詞スコアユニット群42を有する。品詞スコアユニット群42は、1以上の品詞スコアユニットを含む。品詞スコアユニットの各々は、一の品詞のスコアを示す。品詞は、例えば動詞、名詞及び形容詞等である。
実施形態の変形例3では、ニューラルネットワーク200の入力層10に単語ユニット群11がなく、ニューラルネットワーク200の出力層40に単語スコアユニット群41がない。そのため実施形態の変形例3では、上述の実施形態に比べて、ニューラルネットワーク200のパラメータを減らすことができる。すなわち実施形態の変形例3では、記憶部1に記憶されるニューラルネットワーク200の記憶容量を削減することができる。
また、実施形態の変形例3では、入力層10に入力される情報が品詞であり、出力層40から出力される情報が品詞スコアであるので、ニューラルネットワーク200で扱われる情報を品詞に特化させることができる。そのため実施形態の変形例3の学習装置100は、ニューラルネットワーク200の統計学習を有利に行うことができる。
<ニューラルネットワークの使用例>
計算部4は、上述のニューラルネットワーク200を使用することにより、単語列に新語が含まれる場合でも、ターゲット単語の単語スコアを計算することができる。具体的には、計算部4は、ターゲット単語の3つ前までの単語に基づいて、入力層10に情報の入力を行う。計算部4は、ターゲット単語の1つ前の単語の品詞を品詞ユニット群12aに入力する。計算部4は、ターゲット単語の2つ前の単語の品詞を品詞ユニット群12bに入力する。計算部4は、ターゲット単語の3つ前の単語の品詞を品詞ユニット群12cに入力する。そして計算部4は、出力層40の品詞スコアユニット群42のスコアを、ターゲット単語の単語スコアとして計算する。
<ニューラルネットワークの学習>
実施形態の変形例3では、ニューラルネットワーク200の入力層10に、単語ユニット群11を有さない。そのため実施形態の変形例3のニューラルネットワーク200は、単語を入力するユニットを表すパラメータがない。
そのため実施形態の変形例3の変換部3は、ニューラルネットワーク200の入力層10に入力する入力単語を、当該入力単語の品詞に変換する確率を1にする。これにより実施形態の変形例3のニューラルネットワーク200の学習では、入力単語を当該入力単語の品詞にする変換が常に行われるので、上述の入力学習単語は、常に上述の入力単語の品詞に一致する。
また実施形態の変形例3では、ニューラルネットワーク200の出力層40に、単語スコアユニット群41を有さない。そのため実施形態の変形例3のニューラルネットワーク200は、上述の実施形態の変形例2の第2のニューラルネットワーク200bの場合と同様に、既に知られている単語(既知語)のスコアを出力するユニットを表すパラメータがない。ニューラルネットワーク200の学習方法の説明は、上述の実施形態の変形例2の第2のニューラルネットワーク200bの場合と同じなので省略する。
実施形態の変形例3のニューラルネットワーク200の学習では、出力単語を当該出力単語の品詞にする変換が常に行われるので、上述の出力学習単語は、常に上述の出力単語の品詞に一致する。
実施形態の変形例3の学習装置100によれば、入力層10に、入力単語を入力するユニットがなく、かつ、品詞を入力するユニットがない場合、かつ、出力層40に、出力単語のスコアを出力するユニットがなく、かつ、品詞のスコアを出力するユニットがある場合にも、上述の実施形態と同様の効果が得られる。
以上説明したように、実施形態の学習装置100は、様々な構造のニューラルネットワーク200の学習に適用することができる。学習対象のニューラルネットワーク200として、いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上述のニューラルネットワーク200は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。
ニューラルネットワーク200の入力層10又は出力層40の構造が簡略化されている場合に、変換部3が使用する上述の確率をまとめると、以下のようになる。
(1)ニューラルネットワーク200の入力層10に、入力単語を入力するユニットがなく、かつ、語彙素性(例えば品詞)を入力するユニットがある場合、変換部3は、入力層10に入力する入力単語を、当該入力単語の語彙素性に変換する確率を1にする。
(2)ニューラルネットワーク200の入力層10に、入力単語を入力するユニットがあり、かつ、語彙素性を入力するユニットがない場合、変換部3は、入力層10に入力する入力単語を、当該入力単語の語彙素性に変換する確率を0にする。
(3)ニューラルネットワーク200の出力層40に、出力単語のスコアを出力するユニットがなく、かつ、語彙素性のスコアを出力するユニットがある場合、変換部3は、出力層40から出力されることが予想される出力単語を、当該出力単語の品詞に変換する確率を1にする。
(4)ニューラルネットワーク200の出力層40に、出力単語のスコアを出力するユニットがあり、かつ、語彙素性のスコアを出力するユニットがない場合、変換部3は、出力層40から出力されることが予想される出力単語を、当該出力単語の品詞に変換する確率を0にする。
[学習装置のハードウェア構成]
最後に、実施形態の学習装置100のハードウェア構成の例について説明する。
図13は実施形態の学習装置100のハードウェア構成の例を示す図である。実施形態の学習装置100は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306は、バス310を介して接続されている。
制御装置301は補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。主記憶装置302はROM及びRAM等のメモリである。補助記憶装置303はメモリカード及びSSD(Solid State Drive)等である。
表示装置304は情報を表示する。表示装置304は、例えば液晶ディスプレイである。入力装置305は、情報の入力を受け付ける。入力装置305は、例えばキーボード及びマウス等である。なお表示装置304及び入力装置305は、表示機能と入力機能とを兼ねる液晶タッチパネル等でもよい。通信装置306は他の装置と情報を送受信する。
実施形態の学習装置100で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R及びDVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
また実施形態の学習装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また実施形態の学習装置100が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
また実施形態の学習装置100で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
実施形態の学習装置100で実行されるプログラムは、上述の実施形態の学習装置100の機能構成のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
プログラムにより実現される機能は、制御装置301が補助記憶装置303等の記憶媒体からプログラムを読み出して実行することにより、プログラムにより実現される機能が主記憶装置302にロードされる。すなわちプログラムにより実現される機能は、主記憶装置302上に生成される。
なお実施形態の学習装置100の機能の一部又は全部を、IC(Integrated Circuit)等のハードウェアにより実現してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 記憶部
2 分割部
3 変換部
4 計算部
5 学習部
100 学習装置
200 ニューラルネットワーク
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置

Claims (10)

  1. 学習対象のニューラルネットワークの入力層に入力される入力文字列を、複数の入力単語に分割する分割部と、
    前記複数の入力単語のそれぞれを、前記入力単語に関連付けられた第1の確率で、前記入力単語の語彙素性に変換することにより、前記入力単語又は前記入力単語の語彙素性を示す入力学習単語を取得し、複数の前記入力学習単語を含む入力学習単語列が前記入力層に入力された場合に、前記ニューラルネットワークの出力層から出力されることが予想される出力単語を、前記出力単語に関連付けられた第2の確率で、前記出力単語の語彙素性に変換することにより、前記出力単語又は前記出力単語の語彙素性を示す出力学習単語を取得する変換部と、
    前記ニューラルネットワークの入力層に前記入力学習単語列を入力することにより、前記ニューラルネットワークの出力層のユニットから出力されるスコアを取得する計算部と、
    前記出力学習単語に対応するユニットから出力されることが予想される予め定められた予想スコアと、前記出力学習単語に対応するユニットのスコアと、の差に基づいて前記ニューラルネットワークの学習を行う学習部と、
    を備える学習装置。
  2. 前記語彙素性は、単語の品詞である、
    請求項1に記載の学習装置。
  3. 前記学習部は、バックプロパゲーションにより前記ニューラルネットワークの学習を行う、
    請求項1に記載の学習装置。
  4. 前記分割部は、前記ニューラルネットワークの学習に使用される文字列を分割することにより、前記入力文字列と前記出力単語とを取得する、
    請求項1に記載の学習装置。
  5. 前記ニューラルネットワークの入力層に、前記入力単語を入力するユニットがなく、かつ、前記語彙素性を入力するユニットがある場合、
    前記変換部は、前記第1の確率を1にする、
    請求項1に記載の学習装置。
  6. 前記ニューラルネットワークの入力層に、前記入力単語を入力するユニットがあり、かつ、前記語彙素性を入力するユニットがない場合、
    前記変換部は、前記第1の確率を0にする、
    請求項1に記載の学習装置。
  7. 前記ニューラルネットワークの出力層に、前記出力単語のスコアを出力するユニットがなく、かつ、前記語彙素性のスコアを出力するユニットがある場合、
    前記変換部は、前記第2の確率を1にする、
    請求項1に記載の学習装置。
  8. 前記ニューラルネットワークの出力層に、前記出力単語のスコアを出力するユニットがあり、かつ、前記語彙素性のスコアを出力するユニットがない場合、
    前記変換部は、前記第2の確率を0にする、
    請求項1に記載の学習装置。
  9. 学習対象のニューラルネットワークの入力層に入力される入力文字列を、複数の入力単語に分割するステップと、
    前記複数の入力単語のそれぞれを、前記入力単語に関連付けられた第1の確率で、前記入力単語の語彙素性に変換することにより、前記入力単語又は前記入力単語の語彙素性を示す入力学習単語を取得するステップと、
    複数の前記入力学習単語を含む入力学習単語列が前記入力層に入力された場合に、前記ニューラルネットワークの出力層から出力されることが予想される出力単語を、前記出力単語に関連付けられた第2の確率で、前記出力単語の語彙素性に変換することにより、前記出力単語又は前記出力単語の語彙素性を示す出力学習単語を取得するステップと、
    前記ニューラルネットワークの入力層に前記入力学習単語列を入力することにより、前記ニューラルネットワークの出力層のユニットから出力されるスコアを取得するステップと、
    前記出力学習単語に対応するユニットから出力されることが予想される予め定められた予想スコアと、前記出力学習単語に対応するユニットのスコアと、の差に基づいて前記ニューラルネットワークの学習を行うステップ、
    を含む学習方法。
  10. コンピュータを、
    学習対象のニューラルネットワークの入力層に入力される入力文字列を、複数の入力単語に分割する分割部と、
    前記複数の入力単語のそれぞれを、前記入力単語に関連付けられた第1の確率で、前記入力単語の語彙素性に変換することにより、前記入力単語又は前記入力単語の語彙素性を示す入力学習単語を取得し、複数の前記入力学習単語を含む入力学習単語列が前記入力層に入力された場合に、前記ニューラルネットワークの出力層から出力されることが予想される出力単語を、前記出力単語に関連付けられた第2の確率で、前記出力単語の語彙素性に変換することにより、前記出力単語又は前記出力単語の語彙素性を示す出力学習単語を取得する変換部と、
    前記ニューラルネットワークの入力層に前記入力学習単語列を入力することにより、前記ニューラルネットワークの出力層のユニットから出力されるスコアを取得する計算部と、
    前記出力学習単語に対応するユニットから出力されることが予想される予め定められた予想スコアと、前記出力学習単語に対応するユニットのスコアと、の差に基づいて前記ニューラルネットワークの学習を行う学習部、
    として動作させるためのプログラム。
JP2016054160A 2016-03-17 2016-03-17 学習装置、学習方法及びプログラム Active JP6605997B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016054160A JP6605997B2 (ja) 2016-03-17 2016-03-17 学習装置、学習方法及びプログラム
US15/388,397 US10410624B2 (en) 2016-03-17 2016-12-22 Training apparatus, training method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016054160A JP6605997B2 (ja) 2016-03-17 2016-03-17 学習装置、学習方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017167938A JP2017167938A (ja) 2017-09-21
JP6605997B2 true JP6605997B2 (ja) 2019-11-13

Family

ID=59855935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016054160A Active JP6605997B2 (ja) 2016-03-17 2016-03-17 学習装置、学習方法及びプログラム

Country Status (2)

Country Link
US (1) US10410624B2 (ja)
JP (1) JP6605997B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191038B (zh) * 2018-11-15 2024-05-10 第四范式(北京)技术有限公司 神经网络训练方法和装置及命名实体识别方法和装置
CN109902309B (zh) * 2018-12-17 2023-06-02 北京百度网讯科技有限公司 翻译方法、装置、设备和存储介质
JP6918030B2 (ja) * 2019-01-11 2021-08-11 株式会社東芝 学習装置、学習方法、プログラムおよび情報処理システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03263266A (ja) * 1990-03-14 1991-11-22 Fujitsu Ltd 未知語の品詞選択装置
JP3059504B2 (ja) * 1991-03-08 2000-07-04 富士通株式会社 品詞選択システム
JP4543294B2 (ja) 2000-03-14 2010-09-15 ソニー株式会社 音声認識装置および音声認識方法、並びに記録媒体
JP4245530B2 (ja) 2004-08-19 2009-03-25 三菱電機株式会社 言語モデル作成装置及び方法並びにプログラム
US9430460B2 (en) * 2013-07-12 2016-08-30 Microsoft Technology Licensing, Llc Active featuring in computer-human interactive learning
US20150095017A1 (en) 2013-09-27 2015-04-02 Google Inc. System and method for learning word embeddings using neural language models
JP6222821B2 (ja) 2013-10-10 2017-11-01 日本放送協会 誤り修正モデル学習装置、及びプログラム
US9715660B2 (en) * 2013-11-04 2017-07-25 Google Inc. Transfer learning for deep neural network based hotword detection
JP6588449B2 (ja) * 2014-01-31 2019-10-09 グーグル エルエルシー 文書のベクトル表現の生成
US9484022B2 (en) * 2014-05-23 2016-11-01 Google Inc. Training multiple neural networks with different accuracy
US10580401B2 (en) * 2015-01-27 2020-03-03 Google Llc Sub-matrix input for neural network layers
US9678664B2 (en) * 2015-04-10 2017-06-13 Google Inc. Neural network for keyboard input decoding
US10115055B2 (en) * 2015-05-26 2018-10-30 Booking.Com B.V. Systems methods circuits and associated computer executable code for deep learning based natural language understanding
US9984677B2 (en) * 2015-09-30 2018-05-29 Nice Ltd. Bettering scores of spoken phrase spotting

Also Published As

Publication number Publication date
US20170270911A1 (en) 2017-09-21
US10410624B2 (en) 2019-09-10
JP2017167938A (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
US11238845B2 (en) Multi-dialect and multilingual speech recognition
US10311146B2 (en) Machine translation method for performing translation between languages
Kim et al. Two-stage multi-intent detection for spoken language understanding
US20180137109A1 (en) Methodology for automatic multilingual speech recognition
CN110377916B (zh) 词预测方法、装置、计算机设备及存储介质
US20170365252A1 (en) Meaning generation method, meaning generation apparatus, and storage medium
JP6832501B2 (ja) 意味生成方法、意味生成装置及びプログラム
US11693854B2 (en) Question responding apparatus, question responding method and program
US11954594B1 (en) Training recurrent neural networks to generate sequences
Korpusik et al. Spoken language understanding for a nutrition dialogue system
JP2015094848A (ja) 情報処理装置、情報処理方法、およびプログラム
CN111984766A (zh) 缺失语义补全方法及装置
US20180277145A1 (en) Information processing apparatus for executing emotion recognition
JP2017058877A (ja) 学習装置、音声検出装置、学習方法およびプログラム
US11620981B2 (en) Speech recognition error correction apparatus
WO2023078370A1 (zh) 对话情绪分析方法、装置和计算机可读存储介质
WO2014073206A1 (ja) 情報処理装置、及び、情報処理方法
JP6605997B2 (ja) 学習装置、学習方法及びプログラム
JP5612720B1 (ja) 対話制御学習装置と対話制御装置とそれらの方法とプログラム
JP2019204214A (ja) 学習装置、学習方法、プログラム及び推定装置
WO2021200200A1 (ja) 情報処理装置及び情報処理方法
CN114676692A (zh) 一种评论语句特定目标关键词情感分析方法及系统
JP6545633B2 (ja) 単語スコア計算装置、単語スコア計算方法及びプログラム
JP7218803B2 (ja) モデル学習装置、方法及びプログラム
JP2020140674A (ja) 回答選択装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191017

R151 Written notification of patent or utility model registration

Ref document number: 6605997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151