JP2022024110A - 音声認識方法、装置、電子機器及び記憶媒体 - Google Patents
音声認識方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2022024110A JP2022024110A JP2021188138A JP2021188138A JP2022024110A JP 2022024110 A JP2022024110 A JP 2022024110A JP 2021188138 A JP2021188138 A JP 2021188138A JP 2021188138 A JP2021188138 A JP 2021188138A JP 2022024110 A JP2022024110 A JP 2022024110A
- Authority
- JP
- Japan
- Prior art keywords
- information
- semantic
- target
- acquired
- control command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000012544 monitoring process Methods 0.000 claims abstract description 82
- 230000004044 response Effects 0.000 claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 17
- 238000013136 deep learning model Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 235000010893 Bischofia javanica Nutrition 0.000 description 2
- 240000005220 Bischofia javanica Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010071299 Slow speech Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L2025/783—Detection of presence or absence of voice signals based on threshold decision
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
第6の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムがプロセッサによって実行される場合、上記の第1の態様に記載の音声認識方法を実現する。
取得されたターゲット音声情報に応答して、ターゲット音声情報に対応するアプリケーションの状態情報及びコンテキスト情報を取得し、状態情報及びコンテキスト情報に基づいて、ターゲット音声情報の意味完全性を計算し、さらに、意味完全性に対応するモニタリング期間を決定し、モニタリング期間内に音声情報をモニタリングし、最後、モニタリング期間内に音声情報がモニタリングされなかった場合、ターゲット音声情報に基づいて音声認識を行う。これにより、多次元パラメータに基づいて、取得された音声情報の意味完全性を決定し、意味完全性に基づいて音声情報の検出期間を柔軟に調整し、音声情報の切断を回避し、音声認識の精度を向上させる。
本例では、意味完全性とモニタリング期間との対応関係を予め設定することにより、予め設定された対応関係をクエリして、意味完全性に対応するモニタリング期間を取得する。
本例では、モニタリング期間の基準値に対応する基準意味完全性を予め設定し、当該モニタリング期間の基準値を予め設定されたデフォルトのモニタリング期間として理解することができ、現在のターゲット音声情報の意味完全性と基準意味完全性との差分値を計算し、当該差分値に基づいてモニタリング期間の調整値を決定し、ここで、意味差分値はモニタリング期間の調整値に反比例し、モニタリング期間の調整値とモニタリング期間の基準値との合計をモニタリング期間として計算する。
本例では、図6に示すように、状態情報及びコンテキスト情報に基づいて、ターゲット音声情報の意味完全性を計算するステップは、ステップ601~604を含む。
本例では、図7に示すように、状態情報及びコンテキスト情報に基づいて、ターゲット音声情報の意味完全性を計算するステップは、ステップ701~704を含む。
本願の実施例によれば、本願は、コンピュータプログラムを提供し、コンピュータプログラムがプロセッサによって実行される場合、本願によって提供される音声認識方法を実現する。
Claims (22)
- 取得されたターゲット音声情報に応答して、前記ターゲット音声情報に対応するアプリケーションの状態情報及びコンテキスト情報を取得するステップと、
前記状態情報及びコンテキスト情報に基づいて、前記ターゲット音声情報の意味完全性を計算するステップと、
前記意味完全性に対応するモニタリング期間を決定し、前記モニタリング期間内に音声情報をモニタリングするステップと、
前記モニタリング期間内に音声情報がモニタリングされなかった場合、前記ターゲット音声情報に基づいて音声認識を行うステップと、
を含む音声認識方法。 - 前記状態情報及びコンテキスト情報に基づいて、前記ターゲット音声情報の意味完全性を計算するステップが、
前記状態情報に対応する少なくとも1つの候補状態情報を決定するステップであって、各前記候補状態情報は前記状態情報の次の候補動作の状態情報であるステップと、
各前記候補状態情報が実行可能な少なくとも1つの第1の制御命令情報を取得し、前記ターゲット音声情報と各前記第1の制御命令情報との第1の意味類似度を計算するステップと、
前記コンテキスト情報に対応する少なくとも1つの第2の制御命令情報を決定し、前記ターゲット音声情報と各前記第2の制御命令情報との第2の意味類似度を計算するステップと、
前記第1の意味類似度及び前記第2の意味類似度に基づいて、前記ターゲット音声情報の意味完全性を計算するステップと、
を含む請求項1に記載の方法。 - 前記第1の意味類似度及び前記第2の意味類似度に基づいて、前記ターゲット音声情報の意味完全性を計算するステップが、
前記第1の意味類似度が第1の閾値より大きいターゲット第1の制御命令情報を取得するステップと、
前記第2の意味類似度が第2の閾値より大きいターゲット第2の制御命令情報を取得するステップと、
前記ターゲット第1の制御命令情報と前記ターゲット第2の制御命令情報との意味類似度を計算して、前記意味完全性を取得するステップと、
を含む請求項2に記載の方法。 - 前記第1の制御命令情報が取得されず、前記第2の制御情報が取得された場合、前記第1の閾値と前記第1の意味類似度との第1の差分値を計算するステップと、
前記第1の差分値と前記第1の閾値との第1の比率を計算するステップと、
前記第2の意味類似度と前記第1の比率との第1の積値を取得して、前記意味完全性を取得するステップと、
を含む請求項3に記載の方法。 - 前記第2の制御命令情報が取得されず、前記第1の制御情報が取得された場合、前記第2の閾値と前記第2の意味類似度との第2の差分値を計算するステップと、
前記第2の差分値と前記第2の閾値との第2の比率を計算するステップと、
前記第1の意味類似度と前記第2の比率との第2の積値を取得して、前記意味完全性を取得するステップと、
を含む請求項3に記載の方法。 - 前記第2の制御命令情報が取得されず、前記第1の制御情報も取得されなかった場合、前記第1の意味類似度と前記第2の意味類似度との第3の差分値を計算するステップと、
前記第3の差分値の絶対値を計算して、前記意味完全性を取得するステップと、
を含む請求項3に記載の方法。 - 前記状態情報及びコンテキスト情報に基づいて、前記ターゲット音声情報の意味完全性を計算するステップが、
前記状態情報の第1の特性値を取得するステップと、
前記コンテキスト情報の第2の特性値を取得するステップと、
前記ターゲット音声情報の第3の特性値を取得するステップと、
前記第1の特性値、前記第2の特性値及び前記第3の特性値を予め設定された深層学習モデルに入力して、前記意味完全性を取得するステップと、
を含み、
前記予め設定された深層学習モデルが、前記第1の特性値、前記第2の特性値及び前記第3の特性値と、前記意味完全性との対応関係を予め学習する請求項1に記載の方法。 - 前記意味完全性に対応するモニタリング期間を決定するステップの前に、
前記ターゲット音声情報の声紋特性情報を抽出するステップと、
前記声紋特性情報に基づいてユーザ画像情報を決定するステップと、
前記ユーザ画像情報が予め設定されたユーザ画像情報に属しているか否かを判断するステップと、
前記予め設定されたユーザ画像情報におけるターゲット予め設定されたユーザ画像情報に属している場合、前記ターゲット予め設定されたユーザ画像情報に対応する調整期間を決定するステップと、
前記検出期間と前記調整期間との合計を計算し、前記合計に基づいて前記モニタリング期間を更新するステップと、
を含む請求項1に記載の方法。 - 前記意味完全性に対応するモニタリング期間を決定するステップが、
予め設定された対応関係をクエリして、前記意味完全性に対応するモニタリング期間を取得するステップを含む請求項1に記載の方法。 - 取得されたターゲット音声情報に応答して、前記ターゲット音声情報に対応するアプリケーションの状態情報及びコンテキスト情報を取得するための取得モジュールと、
前記状態情報及びコンテキスト情報に基づいて、前記ターゲット音声情報の意味完全性を計算するための計算モジュールと、
前記意味完全性に対応するモニタリング期間を決定し、前記モニタリング期間内に音声情報をモニタリングするためのモニタリングモジュールと、
前記モニタリング期間内に音声情報がモニタリングされなかった場合、前記ターゲット音声情報に基づいて音声認識を行うための音声認識モジュールと、
を備える音声認識装置。 - 前記計算モジュールが、
前記状態情報に対応する少なくとも1つの候補状態情報を決定するための決定ユニットであって、各前記候補状態情報は前記状態情報の次の候補動作の状態情報である決定ユニットと、
各前記候補状態情報が実行可能な少なくとも1つの第1の制御命令情報を取得し、前記ターゲット音声情報と各前記第1の制御命令情報との第1の意味類似度を計算するための第1の計算ユニットと、
前記コンテキスト情報に対応する少なくとも1つの第2の制御命令情報を決定し、前記ターゲット音声情報と各前記第2の制御命令情報との第2の意味類似度を計算するための第2の計算ユニットと、
前記第1の意味類似度及び前記第2の意味類似度に基づいて、前記ターゲット音声情報の意味完全性を計算するための第3の計算ユニットと、
を備える請求項10に記載の装置。 - 前記第3の計算ユニットが、
前記第1の意味類似度が第1の閾値より大きいターゲット第1の制御命令情報を取得し、
前記第2の意味類似度が第2の閾値より大きいターゲット第2の制御命令情報を取得し、
前記ターゲット第1の制御命令情報と前記ターゲット第2の制御命令情報との意味類似度を計算して、前記意味完全性を取得する請求項11に記載の装置。 - 前記第3の計算ユニットが、
前記第1の制御命令情報が取得されず、前記第2の制御情報が取得された場合、前記第1の閾値と前記第1の意味類似度との第1の差分値を計算し、
前記第1の差分値と前記第1の閾値との第1の比率を計算し、
前記第2の意味類似度と前記第1の比率との第1の積値を取得して、前記意味完全性を取得する請求項11に記載の装置。 - 前記第3の計算ユニットが、
前記第2の制御命令情報が取得されず、前記第1の制御情報が取得された場合、前記第2の閾値と前記第2の意味類似度との第2の差分値を計算し、
前記第2の差分値と前記第2の閾値との第2の比率を計算し、
前記第1の意味類似度と前記第2の比率との第2の積値を取得して、前記意味完全性を取得する請求項11に記載の装置。 - 前記第3の計算ユニットが、
前記第2の制御命令情報が取得されず、前記第1の制御情報も取得されなかった場合、前記第1の意味類似度と前記第2の意味類似度との第3の差分値を計算し、
前記第3の差分値の絶対値を計算して、前記意味完全性を取得する請求項11に記載の装置。 - 前記計算モジュールが、
前記状態情報の第1の特性値を取得し、
前記コンテキスト情報の第2の特性値を取得し、
前記ターゲット音声情報の第3の特性値を取得し、
前記第1の特性値、前記第2の特性値及び前記第3の特性値を予め設定された深層学習モデルに入力して、前記意味完全性を取得し、
前記予め設定された深層学習モデルは、前記第1の特性値、前記第2の特性値及び前記第3の特性値と、前記意味完全性との対応関係を予め学習する請求項10に記載の装置。 - 前記ターゲット音声情報の声紋特性情報を抽出するための抽出モジュールと、
前記声紋特性情報に基づいてユーザ画像情報を決定するための第1の決定モジュールと、
前記ユーザ画像情報が予め設定されたユーザ画像情報に属しているか否かを判断するための判断モジュールと、
前記予め設定されたユーザ画像情報におけるターゲット予め設定されたユーザ画像情報に属している場合、前記ターゲット予め設定されたユーザ画像情報に対応する調整期間を決定するための第2の決定モジュールと、
前記検出期間と前記調整期間との合計を計算し、前記合計に基づいて前記モニタリング期間を更新するための更新モジュールと、
を備える請求項10に記載の装置。 - 前記モニタリングモジュールが、
予め設定された対応関係をクエリして、前記意味完全性に対応するモニタリング期間を取得する請求項10に記載の装置。 - 少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサに通信可能に接続されるメモリと、
を備え、
前記メモリには、前記少なくとも1つのプロセッサによって実行される命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から9のいずれか一項に記載の音声認識方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1から9のいずれか一項に記載の音声認識方法を実行させる非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムを含むコンピュータプログラム製品であって、
前記コンピュータプログラムがプロセッサによって実行される場合、請求項1から9のいずれか一項に記載の音声認識方法を実現するコンピュータプログラム製品。 - プロセッサによって実行される場合、請求項1から9のいずれか一項に記載の音声認識方法を実現するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011333455.7A CN112382279B (zh) | 2020-11-24 | 2020-11-24 | 语音识别方法、装置、电子设备和存储介质 |
CN202011333455.7 | 2020-11-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022024110A true JP2022024110A (ja) | 2022-02-08 |
JP7309818B2 JP7309818B2 (ja) | 2023-07-18 |
Family
ID=74588431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021188138A Active JP7309818B2 (ja) | 2020-11-24 | 2021-11-18 | 音声認識方法、装置、電子機器及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220068267A1 (ja) |
JP (1) | JP7309818B2 (ja) |
CN (1) | CN112382279B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022198365A1 (zh) * | 2021-03-22 | 2022-09-29 | 华为技术有限公司 | 一种语音控制方法及装置 |
CN113903329B (zh) * | 2021-09-08 | 2022-08-23 | 北京百度网讯科技有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN114582333A (zh) * | 2022-02-21 | 2022-06-03 | 中国第一汽车股份有限公司 | 语音识别方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004086150A (ja) * | 2002-06-28 | 2004-03-18 | Denso Corp | 音声制御装置 |
JP2010224194A (ja) * | 2009-03-23 | 2010-10-07 | Sony Corp | 音声認識装置及び音声認識方法、言語モデル生成装置及び言語モデル生成方法、並びにコンピューター・プログラム |
JP2011033680A (ja) * | 2009-07-30 | 2011-02-17 | Sony Corp | 音声処理装置及び方法、並びにプログラム |
JP2017078848A (ja) * | 2015-10-19 | 2017-04-27 | グーグル インコーポレイテッド | スピーチエンドポインティング |
JP2018504623A (ja) * | 2015-09-03 | 2018-02-15 | グーグル エルエルシー | 強化された発話エンドポイント指定 |
WO2019142427A1 (ja) * | 2018-01-16 | 2019-07-25 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
JP2020140210A (ja) * | 2019-02-28 | 2020-09-03 | ネイバー コーポレーションNAVER Corporation | 会話システムにおいて意図が不明確なクエリを処理する方法およびシステム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8165886B1 (en) * | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US10127911B2 (en) * | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10121471B2 (en) * | 2015-06-29 | 2018-11-06 | Amazon Technologies, Inc. | Language model speech endpointing |
US10297254B2 (en) * | 2016-10-03 | 2019-05-21 | Google Llc | Task initiation using long-tail voice commands by weighting strength of association of the tasks and their respective commands based on user feedback |
CN107195303B (zh) * | 2017-06-16 | 2021-08-20 | 云知声智能科技股份有限公司 | 语音处理方法及装置 |
US10515625B1 (en) * | 2017-08-31 | 2019-12-24 | Amazon Technologies, Inc. | Multi-modal natural language processing |
CN108257616A (zh) * | 2017-12-05 | 2018-07-06 | 苏州车萝卜汽车电子科技有限公司 | 人机对话的检测方法以及装置 |
US10586532B1 (en) * | 2019-01-28 | 2020-03-10 | Babylon Partners Limited | Flexible-response dialogue system through analysis of semantic textual similarity |
CN111462741B (zh) * | 2020-03-02 | 2024-02-02 | 北京声智科技有限公司 | 语音数据处理方法、装置及存储介质 |
-
2020
- 2020-11-24 CN CN202011333455.7A patent/CN112382279B/zh active Active
-
2021
- 2021-10-15 US US17/451,033 patent/US20220068267A1/en not_active Abandoned
- 2021-11-18 JP JP2021188138A patent/JP7309818B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004086150A (ja) * | 2002-06-28 | 2004-03-18 | Denso Corp | 音声制御装置 |
JP2010224194A (ja) * | 2009-03-23 | 2010-10-07 | Sony Corp | 音声認識装置及び音声認識方法、言語モデル生成装置及び言語モデル生成方法、並びにコンピューター・プログラム |
JP2011033680A (ja) * | 2009-07-30 | 2011-02-17 | Sony Corp | 音声処理装置及び方法、並びにプログラム |
JP2018504623A (ja) * | 2015-09-03 | 2018-02-15 | グーグル エルエルシー | 強化された発話エンドポイント指定 |
JP2017078848A (ja) * | 2015-10-19 | 2017-04-27 | グーグル インコーポレイテッド | スピーチエンドポインティング |
WO2019142427A1 (ja) * | 2018-01-16 | 2019-07-25 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
JP2020140210A (ja) * | 2019-02-28 | 2020-09-03 | ネイバー コーポレーションNAVER Corporation | 会話システムにおいて意図が不明確なクエリを処理する方法およびシステム |
Also Published As
Publication number | Publication date |
---|---|
US20220068267A1 (en) | 2022-03-03 |
CN112382279A (zh) | 2021-02-19 |
CN112382279B (zh) | 2021-09-14 |
JP7309818B2 (ja) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7130194B2 (ja) | ユーザ意図認識方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム | |
KR102320708B1 (ko) | 영상 재생 방법, 장치, 전자 기기 및 판독 가능 저장 매체 | |
JP7091430B2 (ja) | インタラクション情報推薦方法及び装置 | |
JP2022024110A (ja) | 音声認識方法、装置、電子機器及び記憶媒体 | |
KR102331254B1 (ko) | 음성 인식 제어 방법, 장치, 전자 기기 및 판독 가능 저장 매체 | |
US11457061B2 (en) | Creating a cinematic storytelling experience using network-addressable devices | |
JP7281521B2 (ja) | 音声制御方法及び音声制御装置、電子機器並びに記憶媒体 | |
JP7017598B2 (ja) | スマートデバイスのデータ処理方法、装置、機器及び記憶媒体 | |
CN111651578B (zh) | 人机对话方法、装置及设备 | |
JP7200277B2 (ja) | ワードスロットを識別するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム | |
KR102358831B1 (ko) | 음성 인식 제어 방법, 장치, 전자 기기 및 판독 가능 저장 매체 | |
JP2022020574A (ja) | ユーザ対話における情報処理方法、装置、電子デバイス及び記憶媒体 | |
US12112746B2 (en) | Method and device for processing voice interaction, electronic device and storage medium | |
US20210096814A1 (en) | Speech control method, speech control device, electronic device, and readable storage medium | |
JP7331044B2 (ja) | 情報処理方法、装置、システム、電子機器、記憶媒体およびコンピュータプログラム | |
US20210097991A1 (en) | Speech control method and apparatus, electronic device, and readable storage medium | |
KR102694139B1 (ko) | 음성 처리 방법 및 장치 | |
EP3799038A1 (en) | Speech control method and device, electronic device, and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7309818 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |