JP2018097860A - 認識方法、認識装置及びトレーニング方法 - Google Patents
認識方法、認識装置及びトレーニング方法 Download PDFInfo
- Publication number
- JP2018097860A JP2018097860A JP2017224794A JP2017224794A JP2018097860A JP 2018097860 A JP2018097860 A JP 2018097860A JP 2017224794 A JP2017224794 A JP 2017224794A JP 2017224794 A JP2017224794 A JP 2017224794A JP 2018097860 A JP2018097860 A JP 2018097860A
- Authority
- JP
- Japan
- Prior art keywords
- data
- window
- training
- state parameter
- padding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 152
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000012545 processing Methods 0.000 claims description 64
- 238000013528 artificial neural network Methods 0.000 claims description 60
- 230000004044 response Effects 0.000 claims description 25
- 125000004122 cyclic group Chemical group 0.000 claims description 14
- 230000005236 sound signal Effects 0.000 claims description 9
- 230000002457 bidirectional effect Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 2
- 230000000306 recurrent effect Effects 0.000 abstract description 4
- 239000000284 extract Substances 0.000 description 10
- 210000005036 nerve Anatomy 0.000 description 9
- 210000004027 cell Anatomy 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 206010012239 Delusion Diseases 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Image Analysis (AREA)
Abstract
Description
810:処理部
820:格納部
Claims (30)
- 認識方法において、
シーケンスデータから現在ウィンドウに対応するターゲットデータ及び前記ターゲットデータに続くパディングデータを抽出するステップと、
以前ウィンドウに対応する状態パラメータを取得するステップと、
循環モデルを用いて前記状態パラメータ、前記抽出されたターゲットデータ、及び前記抽出されたパディングデータに基づいて前記現在ウィンドウに対する認識結果を算出するステップと、
を含む、認識方法。 - 前記現在ウィンドウの最後のフレームに対応する状態パラメータを次のウィンドウで使用するために臨時格納するステップをさらに含む、請求項1に記載の認識方法。
- 前記循環モデルに基づいて算出される前記パディングデータに対する出力データ及びパディングに関する状態パラメータを排除するステップをさらに含む、請求項1又は2に記載の認識方法。
- 前記認識結果を算出するステップは、
前記循環モデルは、前記現在ウィンドウのウィンドウ長さ及びパディング長さだけ広げられるステップと、
前記広げられた循環モデルで前記状態パラメータ、前記抽出されたターゲットデータ、及び前記抽出されたパディングデータをフレームごとに入力して前記現在ウィンドウに含まれたフレームに対応する出力データを算出するステップと、
を含む、請求項1ないし3のうち何れか一項に記載の認識方法。 - 前記認識結果を算出するステップは、前記以前ウィンドウの最後のフレームに対応する状態パラメータに基づいて、前記現在ウィンドウの最初のフレームに対応するノードの入力値をアップデートするステップを含む、請求項1ないし3のうち何れか一項に記載の認識方法。
- 前記ターゲットデータ及び前記パディングデータを抽出するステップは、前記シーケンスデータから前記以前ウィンドウの最後のフレームデータの次のフレームデータからウィンドウ長さだけのデータを前記現在ウィンドウに対応するターゲットデータとして抽出するステップを含む、請求項1ないし5のうち何れか一項に記載の認識方法。
- 前記ターゲットデータ及び前記パディングデータを抽出するステップは、前記シーケンスデータから前記現在ウィンドウの最後のフレームデータの次のフレームデータからパディング長さだけのデータをパディングに対応する前記パディングデータとして抽出するステップを含む、請求項1ないし5のうち何れか一項に記載の認識方法。
- 前記循環モデルは、トレーニングデータに基づいてトレーニング入力からトレーニング出力が出力されるようにトレーニングされた双方向循環神経網である、請求項1ないし7のうち何れか一項に記載の認識方法。
- 前記循環モデルは、ウィンドウ及びパディングに含まれる各フレームに対応するノードを含み、
前記認識結果を算出するステップは、
前記ウィンドウの最初のフレームから最後のフレームまで順次前記ノードのフォワードパスよる状態パラメータをアップデートするステップと、
前記ウィンドウの最後のフレームから最初のフレームまで順次前記ノードのバックワードパスによる状態パラメータをアップデートするステップと、
前記フォワードパスによる状態パラメータ及び前記バックワードパスによる状態パラメータを次のレイヤのノードに提供するステップと、
を含む、請求項1ないし7のうち何れか一項に記載の認識方法。 - 前記ターゲットデータ及び前記パディングデータを抽出するステップは、音声信号に対応する前記シーケンスデータを受信するステップを含み、
前記認識結果を算出するステップは、前記現在ウィンドウに対応する前記ターゲットデータから発音を識別するステップを含む、請求項1ないし5のうち何れか一項に記載の認識方法。 - 前記以前ウィンドウに対応する状態パラメータを取得するステップは、前記現在ウィンドウが前記シーケンスデータに対して最初ウィンドウである場合に応答して、前記以前ウィンドウに対応する状態パラメータをデフォルト値として決定するステップを含む、請求項1ないし5のうち何れか一項に記載の認識方法。
- 前記ターゲットデータ及び前記パディングデータを抽出するステップは、前記現在ウィンドウが前記シーケンスデータに対して最後ウィンドウである場合に応答して、前記パディングデータを排除するステップを含む、請求項1ないし5のうち何れか一項に記載の認識方法。
- 請求項1ないし12のうち何れか一項に記載の認識方法を装置のコンピュータに実行させる命令語を含むコンピュータプログラム。
- 認識装置において、
循環モデルを格納する格納部と、
シーケンスデータから現在ウィンドウに対応するターゲットデータ及び前記ターゲットデータに続くパディングデータを抽出し、前記格納部から以前ウィンドウに対応する状態パラメータを取得し、前記循環モデルを用いて前記状態パラメータ、前記抽出されたターゲットデータ、及び前記抽出されたパディングデータに基づいて前記現在ウィンドウに対する認識結果を算出する処理部と、
を含む、認識装置。 - トレーニング方法において、
循環モデルを取得するステップと、
トレーニング入力から現在ウィンドウに対応するターゲットデータ及び前記ターゲットデータに続くパディングデータを抽出するステップと、
以前ウィンドウに対応する状態パラメータを取得するステップと、
前記状態パラメータ、前記抽出されたターゲットデータ、及び前記抽出されたパディングデータに基づいて、前記トレーニング入力にマッピングされたトレーニング出力が算出されるように前記循環モデルをトレーニングさせるステップと、
を含む、トレーニング方法。 - 前記トレーニング入力で次のウィンドウに対応するデータが存在する場合に応答して、前記現在ウィンドウの最後のフレームに対応する状態パラメータを、次のウィンドウのトレーニングデータをトレーニングさせるために臨時格納するステップを含む、請求項15に記載のトレーニング方法。
- 前記循環モデルに基づいて算出されるパディングに対する出力データ及び前記パディングに関する状態パラメータを排除するステップを含む、請求項15又は16に記載のトレーニング方法。
- 前記トレーニングさせるステップは、前記以前ウィンドウの最後のフレームに対応する状態パラメータに基づいて、前記現在ウィンドウの最初のフレームに対応するノードの状態パラメータをアップデートするステップを含む、請求項15に記載のトレーニング方法。
- 前記以前ウィンドウに対応する状態パラメータを取得するステップは、前記現在ウィンドウが前記トレーニング入力に対して最初ウィンドウである場合に応答して、前記以前ウィンドウに対応する状態パラメータをデフォルト値として決定するステップを含む、請求項15に記載のトレーニング方法。
- 前記ターゲットデータ及び前記パディングデータを抽出するステップは、前記現在ウィンドウが前記トレーニング入力に対して最後ウィンドウである場合に応答して、前記パディングデータを排除するステップを含む、請求項15に記載のトレーニング方法。
- 認識方法において、
シーケンスデータから現在ウィンドウに対応するターゲットデータを抽出するステップと、
前記シーケンスデータ内の前記現在ウィンドウに先行するデータに対応する過去コンテキストデータを取得するステップと、
前記シーケンスデータから前記現在ウィンドウに後続するデータに対応する未来コンテキストデータを取得するステップと、
前記過去コンテキストデータ、前記抽出されたターゲットデータ、及び前記未来コンテキストデータに基づいて循環モデルを用いて前記現在ウィンドウに対する認識結果を算出するステップと、
を含み、
前記過去コンテキストデータと前記未来コンテキストデータはデータのタイプが異なる、認識方法。 - 前記過去コンテキストデータを取得するステップは、
前記シーケンスデータから前記現在ウィンドウに先行する以前ウィンドウに対応する状態パラメータを前記過去コンテキストデータとして取得するステップを含み、
前記未来コンテキストデータを取得するステップは、前記シーケンスデータから前記抽出されたターゲットデータに後続するパディングデータを前記未来コンテキストデータとして抽出するステップを含む、請求項21に記載の認識方法。 - 前記状態パラメータを前記過去コンテキストデータとして取得するステップは、
前記現在ウィンドウが前記シーケンスデータの最初ウィンドウであることに応答して、前記状態パラメータをデフォルト値として設定するステップと、
前記現在ウィンドウが前記シーケンスデータの最初ウィンドウではないことに応答して、前記以前ウィンドウで実行された認識の間に取得された状態パラメータを前記状態パラメータとして取得するステップと、
を含む、請求項22に記載の認識方法。 - 前記以前ウィンドウで実行された認識過程で取得された状態パラメータは、
前記以前ウィンドウで認識過程中に格納され、
前記以前ウィンドウで実行された認識の間に取得された状態パラメータの取得は、格納された状態パラメータを検索して取得する、請求項23に記載の認識方法。 - 前記以前ウィンドウ及び前記現在ウィンドウは、それぞれ複数のフレームを含み、
前記状態パラメータの取得は、前記以前ウィンドウの最終のフレームに対応する状態パラメータを取得することを含む、請求項22に記載の認識方法。 - トレーニング方法において、
循環モデルを取得するステップと、
トレーニング入力から現在ウィンドウに対応するターゲットデータを抽出するステップと、
前記トレーニング入力から前記現在ウィンドウに先行するデータに対応する過去コンテキストデータを取得するステップと、
前記トレーニング入力から前記現在ウィンドウに後続するデータに対応する未来コンテキストデータを取得するステップと、
前記トレーニング入力にマッピングされたトレーニング出力が前記過去コンテキストデータ、前記抽出されたターゲットデータ、及び前記未来コンテキストデータに基づいて算出されるように前記循環モデルをトレーニングするステップと、
を含み、
前記過去コンテキストデータと前記未来コンテキストデータはデータのタイプが異なる、トレーニング方法。 - 前記過去コンテキストデータを取得するステップは、前記トレーニング入力から前記現在ウィンドウに先行する以前ウィンドウに対応する状態パラメータを過去コンテキストデータとして取得するステップを含み、
前記未来コンテキストデータを取得するステップは、前記トレーニング入力から前記抽出されたターゲットデータに続くパディングデータを未来コンテキストデータとして抽出するステップを含む、請求項26に記載のトレーニング方法。 - 前記状態パラメータを取得するステップは、
前記現在ウィンドウが前記トレーニング入力の最初ウィンドウであることに応答して、前記状態パラメータをデフォルト値として設定するステップと、
前記現在ウィンドウが前記トレーニング入力の最初ウィンドウではないことに応答して、前記以前ウィンドウに対して実行されたトレーニングの間に取得された状態パラメータを前記状態パラメータとして取得するステップと、
を含む、請求項27に記載のトレーニング方法。 - 前記以前ウィンドウで実行されたトレーニングの間に取得された前記状態パラメータは、前記以前ウィンドウで実行されたトレーニングの間に格納され、
前記以前ウィンドウで実行されたトレーニングの間に取得された状態パラメータの取得は、格納された状態パラメータを検索して取得する、請求項28に記載のトレーニング方法。 - 前記以前ウィンドウ及び前記現在ウィンドウは、それぞれ複数のフレームを含み、
前記状態パラメータの取得は、前記以前ウィンドウの最終のフレームに対応する状態パラメータを取得することを含む、請求項27に記載のトレーニング方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160170198A KR20180068475A (ko) | 2016-12-14 | 2016-12-14 | 순환 모델에 기초한 인식 및 순환 모델을 트레이닝하는 방법과 장치 |
KR10-2016-0170198 | 2016-12-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018097860A true JP2018097860A (ja) | 2018-06-21 |
JP7058985B2 JP7058985B2 (ja) | 2022-04-25 |
Family
ID=59887027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017224794A Active JP7058985B2 (ja) | 2016-12-14 | 2017-11-22 | 認識方法、認識装置及びトレーニング方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11562204B2 (ja) |
EP (1) | EP3336775B1 (ja) |
JP (1) | JP7058985B2 (ja) |
KR (1) | KR20180068475A (ja) |
CN (1) | CN108229677B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11501155B2 (en) * | 2018-04-30 | 2022-11-15 | EMC IP Holding Company LLC | Learning machine behavior related to install base information and determining event sequences based thereon |
US11244673B2 (en) * | 2019-07-19 | 2022-02-08 | Microsoft Technologly Licensing, LLC | Streaming contextual unidirectional models |
CN111091849B (zh) * | 2020-03-03 | 2020-12-22 | 龙马智芯(珠海横琴)科技有限公司 | 鼾声识别的方法及装置、存储介质止鼾设备和处理器 |
US20230063489A1 (en) * | 2021-08-25 | 2023-03-02 | Bank Of America Corporation | Malware Detection with Multi-Level, Ensemble Artificial Intelligence Using Bidirectional Long Short-Term Memory Recurrent Neural Networks and Natural Language Processing |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10254477A (ja) * | 1997-03-10 | 1998-09-25 | Atr Onsei Honyaku Tsushin Kenkyusho:Kk | 音素境界検出装置及び音声認識装置 |
JP2017538137A (ja) * | 2014-12-15 | 2017-12-21 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 音声転写用のシステム及び方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2996926B2 (ja) | 1997-03-11 | 2000-01-11 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 音素シンボルの事後確率演算装置及び音声認識装置 |
JP2007265345A (ja) | 2006-03-30 | 2007-10-11 | Sony Corp | 情報処理装置および方法、学習装置および方法、並びにプログラム |
US8463721B2 (en) | 2010-08-05 | 2013-06-11 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for recognizing events |
JP6065543B2 (ja) | 2012-06-08 | 2017-01-25 | 富士通株式会社 | ニューラルネットワーク設計方法、フィッティング方法、及びプログラム |
US9263036B1 (en) | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
US20150279351A1 (en) | 2012-12-19 | 2015-10-01 | Google Inc. | Keyword detection based on acoustic alignment |
US9721562B2 (en) | 2013-12-17 | 2017-08-01 | Google Inc. | Generating representations of acoustic sequences |
KR102239714B1 (ko) | 2014-07-24 | 2021-04-13 | 삼성전자주식회사 | 신경망 학습 방법 및 장치, 데이터 처리 장치 |
US9575952B2 (en) | 2014-10-21 | 2017-02-21 | At&T Intellectual Property I, L.P. | Unsupervised topic modeling for short texts |
KR102380833B1 (ko) | 2014-12-02 | 2022-03-31 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
CN104572892B (zh) * | 2014-12-24 | 2017-10-03 | 中国科学院自动化研究所 | 一种基于循环卷积网络的文本分类方法 |
KR102305584B1 (ko) | 2015-01-19 | 2021-09-27 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 |
DK179049B1 (en) * | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
CN106156003B (zh) * | 2016-06-30 | 2018-08-28 | 北京大学 | 一种问答系统中的问句理解方法 |
-
2016
- 2016-12-14 KR KR1020160170198A patent/KR20180068475A/ko active Search and Examination
-
2017
- 2017-06-27 US US15/634,149 patent/US11562204B2/en active Active
- 2017-09-11 EP EP17190423.8A patent/EP3336775B1/en active Active
- 2017-09-11 CN CN201710810460.4A patent/CN108229677B/zh active Active
- 2017-11-22 JP JP2017224794A patent/JP7058985B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10254477A (ja) * | 1997-03-10 | 1998-09-25 | Atr Onsei Honyaku Tsushin Kenkyusho:Kk | 音素境界検出装置及び音声認識装置 |
JP2017538137A (ja) * | 2014-12-15 | 2017-12-21 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 音声転写用のシステム及び方法 |
Non-Patent Citations (1)
Title |
---|
CHEN, K ほか: "Training Deep Bidirectional LSTM Acoustic Model for LVCSR by a Context-Sensitive-Chunk BPTT Approach", IEEE/ACM TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING [ONLINE], vol. 24, no. 7, JPN6021039600, 2016, pages 1185 - 1193, XP011609799, ISSN: 0004612750, DOI: 10.1109/TASLP.2016.2539499 * |
Also Published As
Publication number | Publication date |
---|---|
JP7058985B2 (ja) | 2022-04-25 |
US11562204B2 (en) | 2023-01-24 |
KR20180068475A (ko) | 2018-06-22 |
CN108229677A (zh) | 2018-06-29 |
CN108229677B (zh) | 2023-06-30 |
EP3336775B1 (en) | 2022-03-16 |
EP3336775A1 (en) | 2018-06-20 |
US20180165572A1 (en) | 2018-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102410820B1 (ko) | 뉴럴 네트워크를 이용한 인식 방법 및 장치 및 상기 뉴럴 네트워크를 트레이닝하는 방법 및 장치 | |
CN105679317B (zh) | 用于训练语言模型并识别语音的方法和设备 | |
KR102305584B1 (ko) | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 | |
KR102608469B1 (ko) | 자연어 생성 방법 및 장치 | |
EP3192070B1 (en) | Text-to-speech with emotional content | |
JP7143091B2 (ja) | 音響モデルをトレーニングする方法及び装置 | |
BR112019004524B1 (pt) | Sistema de redes neurais, um ou mais meios de armazenamento legíveis por computador não transitório e método para gerar autorregressivamente uma sequência de saída de dados de áudio | |
JP7055630B2 (ja) | 音声認識のための学習方法、学習装置、コンピュータプログラム及び記憶媒体 | |
JP7058985B2 (ja) | 認識方法、認識装置及びトレーニング方法 | |
CN107408111A (zh) | 端对端语音识别 | |
KR20180045635A (ko) | 뉴럴 네트워크 간소화 방법 및 장치 | |
KR20200129639A (ko) | 모델 학습 방법 및 장치 | |
KR20200128938A (ko) | 모델 학습 방법 및 장치 | |
CN110751260A (zh) | 电子设备、任务处理的方法以及训练神经网络的方法 | |
KR20210078133A (ko) | 간투어 검출 모델을 훈련시키기 위한 훈련 데이터 생성 방법 및 장치 | |
KR102449840B1 (ko) | 사용자 적응적인 음성 인식 방법 및 장치 | |
KR102292921B1 (ko) | 언어 모델 학습 방법 및 장치, 음성 인식 방법 및 장치 | |
KR102410831B1 (ko) | 음향 모델을 트레이닝하는 방법 및 그 장치 | |
KR20210078143A (ko) | 신규 도메인의 간투어 검출 모델 생성 방법 및 장치 | |
KR102637341B1 (ko) | 음성 생성 방법 및 장치 | |
Kubo et al. | Structured soft margin confidence weighted learning for grapheme-to-phoneme conversion. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7058985 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |