JP6605997B2 - 学習装置、学習方法及びプログラム - Google Patents
学習装置、学習方法及びプログラム Download PDFInfo
- Publication number
- JP6605997B2 JP6605997B2 JP2016054160A JP2016054160A JP6605997B2 JP 6605997 B2 JP6605997 B2 JP 6605997B2 JP 2016054160 A JP2016054160 A JP 2016054160A JP 2016054160 A JP2016054160 A JP 2016054160A JP 6605997 B2 JP6605997 B2 JP 6605997B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- input
- output
- learning
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 161
- 238000004364 calculation method Methods 0.000 claims description 48
- 238000006243 chemical reaction Methods 0.000 claims description 29
- 238000012986 modification Methods 0.000 description 69
- 230000004048 modification Effects 0.000 description 69
- 239000013598 vector Substances 0.000 description 29
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 241000254173 Coleoptera Species 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Description
はじめに、実施形態の学習装置の機能構成の例について説明する。
はじめに、簡単な例により単語スコアの例について説明する。単語スコアは、文字列に含まれるターゲット単語に対して計算される。具体的には、ターゲット単語の単語スコアは、ターゲット単語以外の単語が、単語列中に与えられた条件での条件付き確率により計算される。
P2(w3=カブトムシ|w1=明日,w2=は)=0.1 ・・・(2)
P3(w3=食べる|w1=明日,w2=は)=0.2 ・・・(3)
具体的には、計算部4は、単語列に含まれるターゲット単語の単語スコアを、ニューラルネットワークを用いて計算する。
yi=exp(ai)/Σjexp(aj) ・・・(7)
計算部4は、上述のニューラルネットワーク200を使用することにより、単語列に新語が含まれる場合でも、ターゲット単語の単語スコアを計算することができる。具体的には、計算部4は、単語が既知語である場合、当該既知語を単語ユニット群11に入力する。一方、計算部4は、単語が新語である場合、当該新語の品詞を品詞ユニット群12に入力する。そして計算部4は、ターゲット単語siが新語である場合、当該新語の品詞に一致する品詞のスコアを、当該新語の単語スコアとして計算する。
次にニューラルネットワーク200の学習処理について説明する。
次に実施形態の学習方法の例について説明する。
次に実施形態の変形例1について説明する。実施形態の変形例1の説明では、上述の実施形態と同様の説明については省略し、上述の実施形態と異なる箇所について説明する。
図6は実施形態の変形例1のニューラルネットワーク200の例を示す図である。図6の例は、出力層40に、出力単語のスコアを出力するユニットがあり、かつ、品詞のスコアを出力するユニットがない場合を示す。
計算部4は、上述のニューラルネットワーク200を使用することにより、単語列に新語が含まれる場合でも、ターゲット単語の単語スコアを計算することができる。具体的には、計算部4は、ターゲット単語が新語である場合、単語スコアユニット群41に含まれる既知語のスコアの全て又は一部のうち、既知語の品詞が、ターゲット単語の新語の品詞と一致する既知語のスコアに基づいて、新語の単語スコアを計算する。計算部4は、例えばターゲット単語が新語である場合、単語スコアユニット群41に含まれる既知語のスコアの全て又は一部のうち、既知語の品詞が、ターゲット単語の新語の品詞と一致する既知語のスコアの和を、新語の単語スコアとして計算する。
実施形態の変形例1では、ニューラルネットワーク200の出力層40に、品詞スコアユニット群42を有さない。そのため実施形態の変形例1のニューラルネットワーク200は、品詞のスコアを出力するユニットを表すパラメータがない。
次に実施形態の変形例2について説明する。実施形態の変形例2の説明では、上述の実施形態と同様の説明については省略し、上述の実施形態と異なる箇所について説明する。
図7は実施形態の変形例2の第1のニューラルネットワーク200aの例を示す図である。図7の例は、出力層40に、出力単語のスコアを出力するユニットがあり、かつ、品詞のスコアを出力するユニットがない場合を示す。
計算部4は、上述の第1のニューラルネットワーク200a、及び、第2のニューラルネットワーク200bを使用することにより、単語列に新語が含まれる場合でも、ターゲット単語の単語スコアを計算することができる。具体的には、計算部4は、ターゲット単語が新語である場合、第2のニューラルネットワーク200bの品詞スコアユニット群42のスコアを、ターゲット単語の単語スコアとして計算する。一方、計算部4は、ターゲット単語が新語でない場合、第1のニューラルネットワーク200aの単語スコアユニット群41のスコアを、ターゲット単語の単語スコアとして計算する。
実施形態の変形例2の第1のニューラルネットワーク200aでは、出力層40に、品詞スコアユニット群42を有さない。そのため実施形態の変形例2の第1のニューラルネットワーク200aは、上述の実施形態の変形例1の場合と同様に、品詞のスコアを出力するユニットを表すパラメータがない。第1のニューラルネットワーク200aの学習方法の説明は、上述の実施形態の変形例1の場合と同じなので省略する。
実施形態の変形例2の第2のニューラルネットワーク200bでは、出力層40に、単語スコアユニット群41を有さない。そのため実施形態の変形例2の第2のニューラルネットワーク200bは、既に知られている単語(既知語)のスコアを出力するユニットを表すパラメータがない。
次に実施形態の変形例3について説明する。実施形態の変形例3の説明では、上述の実施形態と同様の説明については省略し、上述の実施形態と異なる箇所について説明する。
図9は実施形態の変形例3のニューラルネットワーク200の例を示す図である。実施形態の変形例3のニューラルネットワーク200は、入力層10、中間層20a〜20c、中間層30及び出力層40を有する。
計算部4は、上述のニューラルネットワーク200を使用することにより、単語列に新語が含まれる場合でも、ターゲット単語の単語スコアを計算することができる。具体的には、計算部4は、ターゲット単語の3つ前までの単語に基づいて、入力層10に情報の入力を行う。計算部4は、ターゲット単語の1つ前の単語の品詞を品詞ユニット群12aに入力する。計算部4は、ターゲット単語の2つ前の単語の品詞を品詞ユニット群12bに入力する。計算部4は、ターゲット単語の3つ前の単語の品詞を品詞ユニット群12cに入力する。そして計算部4は、出力層40の品詞スコアユニット群42のスコアを、ターゲット単語の単語スコアとして計算する。
実施形態の変形例3では、ニューラルネットワーク200の入力層10に、単語ユニット群11を有さない。そのため実施形態の変形例3のニューラルネットワーク200は、単語を入力するユニットを表すパラメータがない。
最後に、実施形態の学習装置100のハードウェア構成の例について説明する。
2 分割部
3 変換部
4 計算部
5 学習部
100 学習装置
200 ニューラルネットワーク
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
Claims (10)
- 学習対象のニューラルネットワークの入力層に入力される入力文字列を、複数の入力単語に分割する分割部と、
前記複数の入力単語のそれぞれを、前記入力単語に関連付けられた第1の確率で、前記入力単語の語彙素性に変換することにより、前記入力単語又は前記入力単語の語彙素性を示す入力学習単語を取得し、複数の前記入力学習単語を含む入力学習単語列が前記入力層に入力された場合に、前記ニューラルネットワークの出力層から出力されることが予想される出力単語を、前記出力単語に関連付けられた第2の確率で、前記出力単語の語彙素性に変換することにより、前記出力単語又は前記出力単語の語彙素性を示す出力学習単語を取得する変換部と、
前記ニューラルネットワークの入力層に前記入力学習単語列を入力することにより、前記ニューラルネットワークの出力層のユニットから出力されるスコアを取得する計算部と、
前記出力学習単語に対応するユニットから出力されることが予想される予め定められた予想スコアと、前記出力学習単語に対応するユニットのスコアと、の差に基づいて前記ニューラルネットワークの学習を行う学習部と、
を備える学習装置。 - 前記語彙素性は、単語の品詞である、
請求項1に記載の学習装置。 - 前記学習部は、バックプロパゲーションにより前記ニューラルネットワークの学習を行う、
請求項1に記載の学習装置。 - 前記分割部は、前記ニューラルネットワークの学習に使用される文字列を分割することにより、前記入力文字列と前記出力単語とを取得する、
請求項1に記載の学習装置。 - 前記ニューラルネットワークの入力層に、前記入力単語を入力するユニットがなく、かつ、前記語彙素性を入力するユニットがある場合、
前記変換部は、前記第1の確率を1にする、
請求項1に記載の学習装置。 - 前記ニューラルネットワークの入力層に、前記入力単語を入力するユニットがあり、かつ、前記語彙素性を入力するユニットがない場合、
前記変換部は、前記第1の確率を0にする、
請求項1に記載の学習装置。 - 前記ニューラルネットワークの出力層に、前記出力単語のスコアを出力するユニットがなく、かつ、前記語彙素性のスコアを出力するユニットがある場合、
前記変換部は、前記第2の確率を1にする、
請求項1に記載の学習装置。 - 前記ニューラルネットワークの出力層に、前記出力単語のスコアを出力するユニットがあり、かつ、前記語彙素性のスコアを出力するユニットがない場合、
前記変換部は、前記第2の確率を0にする、
請求項1に記載の学習装置。 - 学習対象のニューラルネットワークの入力層に入力される入力文字列を、複数の入力単語に分割するステップと、
前記複数の入力単語のそれぞれを、前記入力単語に関連付けられた第1の確率で、前記入力単語の語彙素性に変換することにより、前記入力単語又は前記入力単語の語彙素性を示す入力学習単語を取得するステップと、
複数の前記入力学習単語を含む入力学習単語列が前記入力層に入力された場合に、前記ニューラルネットワークの出力層から出力されることが予想される出力単語を、前記出力単語に関連付けられた第2の確率で、前記出力単語の語彙素性に変換することにより、前記出力単語又は前記出力単語の語彙素性を示す出力学習単語を取得するステップと、
前記ニューラルネットワークの入力層に前記入力学習単語列を入力することにより、前記ニューラルネットワークの出力層のユニットから出力されるスコアを取得するステップと、
前記出力学習単語に対応するユニットから出力されることが予想される予め定められた予想スコアと、前記出力学習単語に対応するユニットのスコアと、の差に基づいて前記ニューラルネットワークの学習を行うステップ、
を含む学習方法。 - コンピュータを、
学習対象のニューラルネットワークの入力層に入力される入力文字列を、複数の入力単語に分割する分割部と、
前記複数の入力単語のそれぞれを、前記入力単語に関連付けられた第1の確率で、前記入力単語の語彙素性に変換することにより、前記入力単語又は前記入力単語の語彙素性を示す入力学習単語を取得し、複数の前記入力学習単語を含む入力学習単語列が前記入力層に入力された場合に、前記ニューラルネットワークの出力層から出力されることが予想される出力単語を、前記出力単語に関連付けられた第2の確率で、前記出力単語の語彙素性に変換することにより、前記出力単語又は前記出力単語の語彙素性を示す出力学習単語を取得する変換部と、
前記ニューラルネットワークの入力層に前記入力学習単語列を入力することにより、前記ニューラルネットワークの出力層のユニットから出力されるスコアを取得する計算部と、
前記出力学習単語に対応するユニットから出力されることが予想される予め定められた予想スコアと、前記出力学習単語に対応するユニットのスコアと、の差に基づいて前記ニューラルネットワークの学習を行う学習部、
として動作させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016054160A JP6605997B2 (ja) | 2016-03-17 | 2016-03-17 | 学習装置、学習方法及びプログラム |
US15/388,397 US10410624B2 (en) | 2016-03-17 | 2016-12-22 | Training apparatus, training method, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016054160A JP6605997B2 (ja) | 2016-03-17 | 2016-03-17 | 学習装置、学習方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017167938A JP2017167938A (ja) | 2017-09-21 |
JP6605997B2 true JP6605997B2 (ja) | 2019-11-13 |
Family
ID=59855935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016054160A Active JP6605997B2 (ja) | 2016-03-17 | 2016-03-17 | 学習装置、学習方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10410624B2 (ja) |
JP (1) | JP6605997B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111191038B (zh) * | 2018-11-15 | 2024-05-10 | 第四范式(北京)技术有限公司 | 神经网络训练方法和装置及命名实体识别方法和装置 |
CN109902309B (zh) * | 2018-12-17 | 2023-06-02 | 北京百度网讯科技有限公司 | 翻译方法、装置、设备和存储介质 |
JP6918030B2 (ja) * | 2019-01-11 | 2021-08-11 | 株式会社東芝 | 学習装置、学習方法、プログラムおよび情報処理システム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03263266A (ja) * | 1990-03-14 | 1991-11-22 | Fujitsu Ltd | 未知語の品詞選択装置 |
JP3059504B2 (ja) * | 1991-03-08 | 2000-07-04 | 富士通株式会社 | 品詞選択システム |
JP4543294B2 (ja) | 2000-03-14 | 2010-09-15 | ソニー株式会社 | 音声認識装置および音声認識方法、並びに記録媒体 |
JP4245530B2 (ja) | 2004-08-19 | 2009-03-25 | 三菱電機株式会社 | 言語モデル作成装置及び方法並びにプログラム |
US9430460B2 (en) * | 2013-07-12 | 2016-08-30 | Microsoft Technology Licensing, Llc | Active featuring in computer-human interactive learning |
US20150095017A1 (en) | 2013-09-27 | 2015-04-02 | Google Inc. | System and method for learning word embeddings using neural language models |
JP6222821B2 (ja) | 2013-10-10 | 2017-11-01 | 日本放送協会 | 誤り修正モデル学習装置、及びプログラム |
US9715660B2 (en) * | 2013-11-04 | 2017-07-25 | Google Inc. | Transfer learning for deep neural network based hotword detection |
JP6588449B2 (ja) * | 2014-01-31 | 2019-10-09 | グーグル エルエルシー | 文書のベクトル表現の生成 |
US9484022B2 (en) * | 2014-05-23 | 2016-11-01 | Google Inc. | Training multiple neural networks with different accuracy |
US10580401B2 (en) * | 2015-01-27 | 2020-03-03 | Google Llc | Sub-matrix input for neural network layers |
US9678664B2 (en) * | 2015-04-10 | 2017-06-13 | Google Inc. | Neural network for keyboard input decoding |
US10115055B2 (en) * | 2015-05-26 | 2018-10-30 | Booking.Com B.V. | Systems methods circuits and associated computer executable code for deep learning based natural language understanding |
US9984677B2 (en) * | 2015-09-30 | 2018-05-29 | Nice Ltd. | Bettering scores of spoken phrase spotting |
-
2016
- 2016-03-17 JP JP2016054160A patent/JP6605997B2/ja active Active
- 2016-12-22 US US15/388,397 patent/US10410624B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20170270911A1 (en) | 2017-09-21 |
US10410624B2 (en) | 2019-09-10 |
JP2017167938A (ja) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238845B2 (en) | Multi-dialect and multilingual speech recognition | |
US10311146B2 (en) | Machine translation method for performing translation between languages | |
Kim et al. | Two-stage multi-intent detection for spoken language understanding | |
US20180137109A1 (en) | Methodology for automatic multilingual speech recognition | |
CN110377916B (zh) | 词预测方法、装置、计算机设备及存储介质 | |
US20170365252A1 (en) | Meaning generation method, meaning generation apparatus, and storage medium | |
JP6832501B2 (ja) | 意味生成方法、意味生成装置及びプログラム | |
US11693854B2 (en) | Question responding apparatus, question responding method and program | |
US11954594B1 (en) | Training recurrent neural networks to generate sequences | |
Korpusik et al. | Spoken language understanding for a nutrition dialogue system | |
JP2015094848A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN111984766A (zh) | 缺失语义补全方法及装置 | |
US20180277145A1 (en) | Information processing apparatus for executing emotion recognition | |
JP2017058877A (ja) | 学習装置、音声検出装置、学習方法およびプログラム | |
US11620981B2 (en) | Speech recognition error correction apparatus | |
WO2023078370A1 (zh) | 对话情绪分析方法、装置和计算机可读存储介质 | |
WO2014073206A1 (ja) | 情報処理装置、及び、情報処理方法 | |
JP6605997B2 (ja) | 学習装置、学習方法及びプログラム | |
JP5612720B1 (ja) | 対話制御学習装置と対話制御装置とそれらの方法とプログラム | |
JP2019204214A (ja) | 学習装置、学習方法、プログラム及び推定装置 | |
WO2021200200A1 (ja) | 情報処理装置及び情報処理方法 | |
CN114676692A (zh) | 一种评论语句特定目标关键词情感分析方法及系统 | |
JP6545633B2 (ja) | 単語スコア計算装置、単語スコア計算方法及びプログラム | |
JP7218803B2 (ja) | モデル学習装置、方法及びプログラム | |
JP2020140674A (ja) | 回答選択装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190917 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191017 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6605997 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |