JP6568175B2 - 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム - Google Patents
学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム Download PDFInfo
- Publication number
- JP6568175B2 JP6568175B2 JP2017203314A JP2017203314A JP6568175B2 JP 6568175 B2 JP6568175 B2 JP 6568175B2 JP 2017203314 A JP2017203314 A JP 2017203314A JP 2017203314 A JP2017203314 A JP 2017203314A JP 6568175 B2 JP6568175 B2 JP 6568175B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- output
- input
- learning
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 100
- 238000012545 processing Methods 0.000 claims description 41
- 230000004044 response Effects 0.000 claims 2
- 230000008569 process Effects 0.000 description 82
- 230000006870 function Effects 0.000 description 57
- 238000000605 extraction Methods 0.000 description 45
- 238000003860 storage Methods 0.000 description 21
- 230000010365 information processing Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 14
- 239000013598 vector Substances 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 101100377300 Arabidopsis thaliana ZHD14 gene Proteins 0.000 description 4
- 101100321447 Arabidopsis thaliana ZHD4 gene Proteins 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
Description
まず、図1および図2を用いて、学習装置、生成装置、および分類装置の一例である情報提供装置が実行する学習処理および生成処理の一例について説明する。図1は、実施形態に係る情報提供装置が実行する学習処理の一例を示す図である。図2は、実施形態に係る情報提供装置が実行する生成処理の一例を示す図である。図1および図2では、情報提供装置10は、以下に説明する学習処理および生成処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
ここで、従来の学習処理においては、所定の入力情報を入力した際にモデルが実際に出力した出力情報と、所望する出力情報との誤差やクロスエントロピーを学習の指標として、接続係数の補正が行われる。すなわち、従来の学習処理においては、モデルが実際に出力した出力情報と、所望する出力情報とのクロスエントロピー関数を目的関数とし、目的関数を微分して、その微係数でノード間の接続係数を更新することで、モデルの学習が行われる。しかしながら、このような単一の指標によりモデルの学習が行われた場合、出力情報の精度向上が困難となる恐れがある。
以下、図1を用いて、情報提供装置10が実行する学習処理の一例を説明する。なお、図1の例では、中間出力情報として、第2出力情報から第4出力情報を取得する例について説明するが、実施形態は、これに限定されるものではなく、任意の数の中間出力情報に基づいたモデルの学習を行ってよい。
ここで、上述した学習処理は、あくまで一例であり、実施形態を限定するものではない。以下、情報提供装置10が実行する学習処理のバリエーションについて説明する。
上述した学習処理では、複数の中間ブロックHB1〜HB7を有し、中間ブロックHB7、6、4、2が出力した中間情報に基づいて、中間出力情報(第2出力情報〜第4出力情報)を生成する処理の例について記載した。しかしながら、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、任意の中間ブロックHBが出力した中間情報に基づいて、複数の中間出力情報を取得し、取得した中間出力情報に基づいて、モデルM1を段階的に学習してもよい。
上述した説明では、情報提供装置10は、複数の中間出力情報を取得し、取得した複数の中間出力情報に基づいて、モデルM1の学習を行った。しかしながら、実施形態は、これに限定されるものではない。
また、情報提供装置10は、中間出力情報に基づいて複数の指標を設定し、複数の指標に基づいて、モデルM1の学習を段階的に行うのであれば、任意の内容の指標を設定して良い。例えば、情報提供装置10は、目的出力情報と第1出力情報とのクロスエントロピー関数以外にも、例えば、目的出力情報と第1出力情報との誤差に基づく指標を設定し、設定した指標を最小化するように、モデルM1の学習を行ってもよい。
上述した説明では、モデルM1を学習する際に、第1出力情報から第4出力情報を取得し、取得した第1出力情報から第4出力情報を用いて複数の指標を設定し、モデルM1の段階的な学習を行った。このように、情報提供装置10は、最初に全ての指標を設定し、設定した指標を段階的に増やすことで、目的関数を段階的に変化させながらモデルM1を段階的に学習してもよいが、モデルM1を学習する度に、指標を設定し直してもよい。すなわち、情報提供装置10は、モデルM1の学習において、段階的なモデルM1の学習を行う度に、新たな中間情報や指標を設定してもよい。
上述した例では、情報提供装置10は、入力ブロックIB、中間ブロックHB、および出力ブロックOB1を学習対象範囲とした。しかしながら、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、抽出ブロックAB1〜AB3や出力ブロックOB2〜OB4を学習対象範囲としてもよい。
上述した説明では、情報提供装置10は、抽出ブロックAB1〜AB3と、出力ブロックOB2〜OB4を有するモデルM1の学習を行った。しかしながら、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、入力ブロックIBと、複数の中間ブロックHBと、出力ブロックOB1とを有するモデルM1を生成し、各中間ブロックHBが出力する中間情報に基づいて、中間出力情報を取得してもよい。すなわち、情報提供装置10が学習対象とするモデルM1は、中間出力情報を取得するための抽出ブロックAB1〜AB3や出力ブロックOB2〜OB4を有していなくともよい。
上述した学習処理により学習が行われたモデルM1は、複数の目的関数を用いて段階的に学習が行われるため、従来の単一の目的関数を用いたモデルよりも、第1出力情報の精度が向上する。しかしながら、情報提供装置10は、第1出力情報のみならず、中間出力情報を用いて、入力情報に対応する対応情報を生成し、生成した対応情報をモデルM1による処理結果として出力してもよい。
ここで、上述した説明では、情報提供装置10は、第1出力情報から第4出力情報の荷重平均に基づいて、対応情報を生成した。しかしながら、実施形態は、これに限定されるものではない。情報提供装置10は、少なくとも出力層が出力した第1出力情報と、中間出力情報とを用いて、出力情報を生成するのであれば、任意の手法により対応情報を生成してよい。
なお、モデルM1は、任意の処理を目的とするモデルであってよい。例えば、モデルM1は、学習処理において、所定の入力情報を入力した際にどのような情報を目的出力情報とするかにより、任意の処理を実現可能である。例えば、情報提供装置10は、入力情報の分類を行う場合、学習データとなる入力情報を入力した際に、各出力情報がその入力情報の分類を示す情報となるように学習を行うことで、入力情報の分類を行うモデルM1の学習を行うことができる。このような分類は、テキスト、静止画像、動画像、音声等、任意のコンテンツについて、任意の基準の分類が採用可能である。例えば、モデルM1は、顔画像の認証を行うための分類を行うものであってもよい。
以下、上記した検出処理および配信処理を実現する情報提供装置10が有する機能構成の一例について説明する。図3は、実施形態に係る情報提供装置の構成例を示す図である。図3に示すように、情報提供装置10は、通信部20、記憶部30、および制御部40を有する。
ここで、上述した学習処理の効果の一例として、上述した学習処理が行われたモデルM1の精度の一例について説明する。以下の説明では、モデルM1の精度の一例として、TIMITの音声認識タスクにおける認識した単語と実際の単語とに齟齬が生じる割合である単語誤り率(WER:Word Error Rate)の改善について説明する。以下の説明においては、標準となる462人の利用者の声を用いたトレーニングセットが用いられ、50人の利用者の声を用いた開発セットによりハイパーパラメータのチューニングが行われた。また、学習が行われたモデルM1の精度を測定するため、開発セットに声が含まれる利用者とは異なる24人の声を用いたテストセットを用いて、モデルM1の精度を測定する実験を行った。
次に、図7、図8を用いて、情報提供装置10が実行する処理の流れの一例について説明する。図7は、実施形態に係る情報提供装置が実行する学習処理の流れの一例を示すフローチャートである。また、図8は、実施形態に係る情報提供装置が実行する生成処理の流れの一例を示すフローチャートである。
上記では、情報提供装置10による学習処理、生成処理および分類処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、情報提供装置10が実行する検出処理や配信処理のバリエーションについて説明する。
記憶部30に登録された各データベース31、32は、外部のストレージサーバに保持されていてもよい。また、情報提供装置10は、学習処理を実行する学習サーバ、および生成処理を実行する生成サーバとが連携して動作することにより、実現されてもよい。このような場合、学習サーバには、取得部42および学習部43が配置されていればよく、生成サーバには、取得部42、および生成部44が配置されていればよい。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、上述した実施形態に係る情報提供装置10は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
上述したように、情報提供装置10は、入力層と、複数の中間層と、出力層とを有するモデルM1に対して所定の入力情報を入力した際に出力層が出力する第1出力情報を取得する。また、情報提供装置10は、モデルM1に対して入力情報を入力した際に複数の中間層が出力する中間情報に基づく中間出力情報を取得する。そして、情報提供装置10は、第1出力情報と中間出力情報とに基づいて、モデルM1の学習を行う。
20 通信部
30 記憶部
31 学習データデータベース
32 モデルデータベース
40 制御部
41 受付部
42 取得部
43 学習部
44 生成部
45 出力部
100、200 情報処理装置
Claims (14)
- 入力層と、複数の中間層と、出力層とを有するモデルに対して所定の入力情報を入力した際に前記出力層が出力する第1出力情報を取得する第1取得部と、
前記モデルに対して前記入力情報を入力した際に複数の中間層が出力する中間情報に基づく中間出力情報を取得する第2取得部と、
前記第1出力情報と前記中間出力情報とに基づいて、複数の指標を設定し、複数の指標に基づいて、前記モデルの学習を段階的に行う学習部と
を有することを特徴とする学習装置。 - 前記学習部は、前記入力情報に対応する目的出力情報と前記第1出力情報とに基づく第1指標を用いて、前記モデルの学習を行い、その後、前記目的出力情報と前記中間出力情報とに基づく第2指標を用いて、前記モデルの学習を行う
ことを特徴とする請求項1に記載の学習装置。 - 前記第2取得部は、前記中間層のうち、所定の中間層が出力する中間情報と、所定の中間層よりも入力層側の中間層が出力する中間情報とに基づく中間出力情報を取得する
ことを特徴とする請求項1または2に記載の学習装置。 - 前記第2取得部は、前記所定の中間層が出力する中間情報と、それぞれ異なる中間層が出力する中間情報とに基づいて、複数の中間出力情報を取得する
ことを特徴とする請求項3に記載の学習装置。 - 前記第2取得部は、複数の中間層が出力する中間情報に基づいて、第2出力情報を取得し、前記第2出力情報とは異なる中間層が出力する中間情報に基づいて、第3出力情報を取得し、
前記学習部は、前記第1出力情報と、前記第2出力情報と、前記第3出力情報とに基づいて、前記モデルの学習を段階的に行う
ことを特徴とする請求項3または4に記載の学習装置。 - 前記学習部は、前記入力情報に対応する目的出力情報と前記第1出力情報とに基づく第1指標と、前記目的出力情報と前記第2出力情報とに基づく第2指標と、前記目的出力情報と前記第3出力情報とに基づく第3指標とを少なくとも生成し、前記第1指標と、前記第2指標と、前記第3指標とを段階的に用いて、前記モデルの学習を段階的に行う
ことを特徴とする請求項5に記載の学習装置。 - 前記学習部は、前記第1指標と、前記第2指標と、前記第3指標とのうち、使用する指標を段階的に増加させながら、前記モデルの学習を段階的に行う
ことを特徴とする請求項6に記載の学習装置。 - 前記第1取得部は、前記複数の中間層として、それぞれが複数の中間層を有する複数の中間ブロックを有するモデルに対して前記入力情報を入力した際に、前記出力層が出力する第1出力情報を取得し、
前記第2取得部は、前記中間ブロックのうち、所定の中間ブロックが出力する中間情報に基づく中間出力情報を取得する
ことを特徴とする請求項1〜7のうちいずれか1つに記載の学習装置。 - 所定の外部装置から所定の入力情報を受付ける受付部と、
入力層と、複数の中間層と、出力層とを有するモデルに対して前記受付部により受付けられた所定の入力情報を入力した際に前記出力層が出力する第1出力情報を取得する第1取得部と、
前記モデルに対して前記入力情報を入力した際に複数の中間層が出力する中間情報に基づく中間出力情報を取得する第2取得部と、
前記第1出力情報と前記中間出力情報との荷重平均を前記入力情報に対応する対応情報として生成する生成部と、
前記生成部により生成された対応情報を前記所定の入力情報に対する応答として前記所定の外部装置に出力する出力部と、
を有することを特徴とする生成装置。 - 前記第2取得部は、それぞれ異なる中間層が出力する中間情報に基づく複数の中間出力情報を取得し、
前記生成部は、前記中間出力情報のうち、最も入力層側の中間層が出力する中間情報に基づいて、前記対応情報を生成する
ことを特徴とする請求項9に記載の生成装置。 - 所定の外部装置から音声に関する音声情報を受付ける受付部と、
入力層と、複数の中間層と、出力層とを有するモデルに対して前記音声情報を入力した際に前記出力層が出力する前記音声情報の第1分類結果を取得する第1取得部と、
前記モデルに対して前記音声情報を入力した際に複数の中間層が出力する中間情報に基づく中間分類結果を取得する第2取得部と、
前記第1分類結果と前記中間分類結果との荷重平均に基づいて、前記音声情報を分類する分類部と、
前記分類部による分類結果を前記音声情報に対する応答として前記所定の外部装置に出力する出力部と、
を有することを特徴とする分類装置。 - 学習装置が実行する学習方法であって、
入力層と、複数の中間層と、出力層とを有するモデルに対して所定の入力情報を入力した際に前記出力層が出力する第1出力情報を取得する第1取得工程と、
前記モデルに対して前記入力情報を入力した際に複数の中間層が出力する中間情報に基づく中間出力情報を取得する第2取得工程と、
前記第1出力情報と前記中間出力情報とに基づいて、複数の指標を設定し、複数の指標に基づいて、前記モデルの学習を段階的に行う学習工程と
を含むことを特徴とする学習方法。 - 入力層と、複数の中間層と、出力層とを有するモデルに対して所定の入力情報を入力した際に前記出力層が出力する第1出力情報を取得する第1取得手順と、
前記モデルに対して前記入力情報を入力した際に複数の中間層が出力する中間情報に基づく中間出力情報を取得する第2取得手順と、
前記第1出力情報と前記中間出力情報とに基づいて、複数の指標を設定し、複数の指標に基づいて、前記モデルの学習を段階的に行う学習手順と
をコンピュータに実行させるための学習プログラム。 - 入力情報が入力される入力層と、
入力層に入力された入力情報に対して所定の処理を順次行う複数の中間層と、
前記複数の中間層のうち最後に処理を行う終端中間層の出力に基づいて、前記入力情報に対応する第1対応情報を生成する第1出力層と、
前記複数の中間層のうち、前記終端中間層の出力と、当該終端中間層以外の中間層の出力とに基づいて、前記入力情報に対応する第2対応情報を生成する第2出力層と
を含むモデルであって、
所定の学習情報を入力した際に前記第1出力層が出力する第1対応情報と前記複数の中間層が出力する中間情報に基づく中間出力情報とに基づいて設定された複数の指標に基づく段階的な学習が行われたモデル
としてコンピュータを動作させるための動作プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017203314A JP6568175B2 (ja) | 2017-10-20 | 2017-10-20 | 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム |
US16/130,355 US11580362B2 (en) | 2017-10-20 | 2018-09-13 | Learning apparatus, generation apparatus, classification apparatus, learning method, and non-transitory computer readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017203314A JP6568175B2 (ja) | 2017-10-20 | 2017-10-20 | 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019079102A JP2019079102A (ja) | 2019-05-23 |
JP6568175B2 true JP6568175B2 (ja) | 2019-08-28 |
Family
ID=66170606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017203314A Active JP6568175B2 (ja) | 2017-10-20 | 2017-10-20 | 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11580362B2 (ja) |
JP (1) | JP6568175B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6523498B1 (ja) * | 2018-01-19 | 2019-06-05 | ヤフー株式会社 | 学習装置、学習方法および学習プログラム |
KR102062157B1 (ko) * | 2019-04-29 | 2020-01-03 | 오케스트로 주식회사 | 가상 머신 배치 방법 및 이를 구현하는 가상 머신 배치 장치 |
CN117012184A (zh) * | 2022-10-31 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 一种语音识别方法和相关装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4918618A (en) * | 1988-04-11 | 1990-04-17 | Analog Intelligence Corporation | Discrete weight neural network |
US5182794A (en) * | 1990-07-12 | 1993-01-26 | Allen-Bradley Company, Inc. | Recurrent neural networks teaching system |
US5161014A (en) * | 1990-11-26 | 1992-11-03 | Rca Thomson Licensing Corporation | Neural networks as for video signal processing |
JP3323894B2 (ja) * | 1991-06-27 | 2002-09-09 | 株式会社日立製作所 | ニューラルネットワーク学習方法及び装置 |
US5295227A (en) * | 1991-07-09 | 1994-03-15 | Fujitsu Limited | Neural network learning system |
US6985781B2 (en) * | 1999-01-12 | 2006-01-10 | Pavilion Technologies, Inc. | Residual activation neural network |
GB201402736D0 (en) * | 2013-07-26 | 2014-04-02 | Isis Innovation | Method of training a neural network |
JP6678930B2 (ja) * | 2015-08-31 | 2020-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 分類モデルを学習する方法、コンピュータ・システムおよびコンピュータ・プログラム |
JP2017182319A (ja) * | 2016-03-29 | 2017-10-05 | 株式会社メガチップス | 機械学習装置 |
JP2017182320A (ja) * | 2016-03-29 | 2017-10-05 | 株式会社メガチップス | 機械学習装置 |
-
2017
- 2017-10-20 JP JP2017203314A patent/JP6568175B2/ja active Active
-
2018
- 2018-09-13 US US16/130,355 patent/US11580362B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20190122099A1 (en) | 2019-04-25 |
JP2019079102A (ja) | 2019-05-23 |
US11580362B2 (en) | 2023-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110546656B (zh) | 前馈生成式神经网络 | |
US11189302B2 (en) | Speech emotion detection method and apparatus, computer device, and storage medium | |
JP6381768B1 (ja) | 学習装置、学習方法、学習プログラムおよび動作プログラム | |
US9870768B2 (en) | Subject estimation system for estimating subject of dialog | |
US9563825B2 (en) | Convolutional neural network using a binarized convolution layer | |
US20210182662A1 (en) | Training of neural network based natural language processing models using dense knowledge distillation | |
US10580432B2 (en) | Speech recognition using connectionist temporal classification | |
US11514694B2 (en) | Teaching GAN (generative adversarial networks) to generate per-pixel annotation | |
JP2020522817A (ja) | 意味分析方法、装置、および記憶媒体 | |
JP6568175B2 (ja) | 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム | |
US11010560B2 (en) | Multi-resolution convolutional neural networks for sequence modeling | |
CN112927707A (zh) | 语音增强模型的训练方法和装置及语音增强方法和装置 | |
JP6195542B2 (ja) | 学習装置、学習方法及び学習プログラム | |
KR20220130565A (ko) | 키워드 검출 방법 및 장치 | |
US11341413B2 (en) | Leveraging class information to initialize a neural network language model | |
WO2019163718A1 (ja) | 学習装置、音声認識順位推定装置、それらの方法、およびプログラム | |
US20230237993A1 (en) | Systems and Methods for Training Dual-Mode Machine-Learned Speech Recognition Models | |
WO2019138897A1 (ja) | 学習装置および方法、並びにプログラム | |
CN114490065A (zh) | 一种负载预测方法、装置及设备 | |
JP7056345B2 (ja) | データ分析システム、方法、及びプログラム | |
JP6975610B2 (ja) | 学習装置および学習方法 | |
US20180268816A1 (en) | Generating device, generating method, and non-transitory computer readable storage medium | |
US20230394306A1 (en) | Multi-Modal Machine Learning Models with Improved Computational Efficiency Via Adaptive Tokenization and Fusion | |
JP2019079087A (ja) | 学習装置、プログラムパラメータおよび学習方法 | |
JPWO2019116497A1 (ja) | 識別装置、識別方法、および識別プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180615 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180615 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180615 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181210 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190527 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20190527 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190604 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20190611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6568175 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |