JP2021086144A - 音声対話の方法、装置、デバイス及びコンピュータ読み取り可能な記憶媒体 - Google Patents
音声対話の方法、装置、デバイス及びコンピュータ読み取り可能な記憶媒体 Download PDFInfo
- Publication number
- JP2021086144A JP2021086144A JP2020095874A JP2020095874A JP2021086144A JP 2021086144 A JP2021086144 A JP 2021086144A JP 2020095874 A JP2020095874 A JP 2020095874A JP 2020095874 A JP2020095874 A JP 2020095874A JP 2021086144 A JP2021086144 A JP 2021086144A
- Authority
- JP
- Japan
- Prior art keywords
- voice data
- training
- training voice
- data
- interactive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 130
- 230000003993 interaction Effects 0.000 title abstract description 10
- 238000012549 training Methods 0.000 claims abstract description 363
- 230000002452 interceptive effect Effects 0.000 claims description 96
- 238000010276 construction Methods 0.000 claims description 34
- 230000003595 spectral effect Effects 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 16
- 238000012544 monitoring process Methods 0.000 claims description 14
- 230000006403 short-term memory Effects 0.000 claims description 12
- 230000015654 memory Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 238000012790 confirmation Methods 0.000 claims 2
- 230000003213 activating effect Effects 0.000 claims 1
- 238000001228 spectrum Methods 0.000 abstract description 11
- 238000004364 calculation method Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000010606 normalization Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000007787 long-term memory Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 2
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 2
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
Claims (20)
- 音声対話方法であって、
受信した音声データから、前記音声データの短時間振幅スペクトル特性を示す音響的特徴を抽出するステップと、
前記音響的特徴を、トレーニング用音声データの音響的特徴に基づいて構築された種類識別モデルに入力することにより、前記音声データが示す意図の種類を決定するステップであって、前記意図の種類は、対話型と非対話型とを有するステップと、
前記意図の種類が対話型と決定されたことに応じて、前記音声データの指示する対話動作を実行するステップと、
を含む、音声対話方法。 - 前記トレーニング用音声データに対し、対話型の意図を示す正例のトレーニング用音声データ、或いは、非対話型の意図を示す負例のトレーニング用音声データとして、アノテーションを付与するステップと、
アノテーションが付与された前記トレーニング用音声データを用いることにより、前記種類識別モデルを構築するステップと、
をさらに含む、請求項1に記載の方法。 - 前記トレーニング用音声データに対しアノテーションを付与するステップは、
前記トレーニング用音声データの語義が正しく認識されたことと、
前記トレーニング用音声データは対話型の意図を示すことと、
前記トレーニング用音声データの指示する対話動作は正常に実行されたことと、のうちの少なくとも一項が確定されたことに応じて、前記トレーニング用音声データに対して、前記正例のトレーニング用音声データとしてアノテーションを付与するステップを含む、請求項2に記載の方法。 - 前記トレーニング用音声データに対しアノテーションを付与するステップは、
前記トレーニング用音声データの語義が正しく認識されないことと、
前記トレーニング用音声データは非対話型の意図を示すことと、
前記トレーニング用音声データの指示する対話動作は正常に実行されないことと、のうちの少なくとも一項が確定されたことに応じて、前記トレーニング用音声データに対して、前記負例のトレーニング用音声データとしてアノテーションを付与するステップを含む、請求項2に記載の方法。 - 前記トレーニング用音声データから、第1組のトレーニング用音声データと、前記第1組のトレーニング用音声データよりも高い精度で前記種類識別モデルを構築可能な第2組のトレーニング用音声データと、を決定するステップと、
前記第1組のトレーニング用音声データの前記音響的特徴を利用して基礎的モデルを構築するステップと、
前記第2組のトレーニング用音声データの前記音響的特徴を利用して前記基礎的モデルを更新して、前記種類識別モデルを得るステップと、
をさらに含む、請求項1に記載の方法。 - 前記トレーニング用音声データから、第1組のトレーニング用音声データと、前記第1組のトレーニング用音声データよりも、前記第1組のトレーニング用音声データよりも高い精度で前記種類識別モデルを構築可能な第2組のトレーニング用音声データと、を決定するステップと、
前記第2組のトレーニング用音声データの数を増やすことにより、前記トレーニング用音声データを拡張するステップと、
拡張された前記トレーニング用音声データの前記音響的特徴を利用して前記種類識別モデルを構築するステップと、
をさらに含む請求項1に記載の方法。 - ウェイクアップコマンドを受信したと確定したことに応答して、モニタリング用のタイマを起動して、音声データを受信するステップと、
前記モニタリング用のタイマがタイムアウトとなると確定したことに応答し、前記音声データの受信を停止するステップと、
をさらに含む、請求項1に記載の方法。 - 前記種類識別モデルは、畳み込み長・短期記憶ディープニューラルネットワーク(CLDNN)モデルであり、前記CLDNNモデルは、少なくとも、異なる長さのデータストリームを、同じ長さにする処理を実行するための平均層を含む、請求項1に記載の方法。
- 前記音響的特徴は、フィルタバンク特徴及びメル周波数逆スペクトル係数特徴の内の少なくとも一つを含む、請求項1に記載の方法。
- 音声対話装置であって、
受信した音声データから、前記音声データの短時間振幅スペクトル特性を示す音響的特徴を抽出するように構成された特徴抽出モジュールと、
前記音響的特徴を、トレーニング用音声データの音響的特徴に基づいて構築された種類識別モデルに入力することにより、前記音声データが示す意図の種類を決定するように構成された種類識別モジュールであって、前記意図の種類は、対話型と非対話型とを有するモジュールと、
前記意図の種類が対話型と決定されたことに応じて、前記音声データの指示する対話動作を実行するように構成された対話実行モジュールと、
を備える、音声対話装置。 - 前記トレーニング用音声データに対し、対話型の意図を示す正例のトレーニング用音声データ、或いは、非対話型の意図を示す負例のトレーニング用音声データとして、アノテーションを付与するように構成されたアノテーションモジュールと、
アノテーションが付与された前記トレーニング用音声データを用いることにより、前記種類識別モデルを構築するように構成された種類識別モデル構築モジュールと、
をさらに備える、請求項10に記載の装置。 - 前記アノテーションモジュールは、
前記トレーニング用音声データの語義が正しく認識されたことと、
前記トレーニング用音声データは対話型の意図を示すことと、
前記トレーニング用音声データの指示する対話動作は正常に実行されたことと、
のうちの少なくとも一項が確定されたことに応じて、前記トレーニング用音声データに対して、前記正例のトレーニング用音声データとしてアノテーションを付与するように構成された、正例のトレーニング用音声データアノテーションモジュールをさらに備える、請求項11に記載の装置。 - 前記アノテーションモジュールは、
前記トレーニング用音声データの語義が正しく認識されないことと、
前記トレーニング用音声データは非対話型の意図を示すことと、
前記トレーニング用音声データの指示する対話動作は正常に実行されないことと、のうちの少なくとも一項が確定されたことに応じて、前記トレーニング用音声データに対して、前記負例のトレーニング用音声データとしてアノテーションを付与するように構成された負例のトレーニング用音声データアノテーションモジュールをさらに備える、請求項11に記載の装置。 - 前記トレーニング用音声データから、第1組のトレーニング用音声データと、前記第1組のトレーニング用音声データよりも高い精度で前記種類識別モデルを構築可能な第2組のトレーニング用音声データと、を決定するように構成された第1のトレーニング用データ認識モジュールと、
前記第1組のトレーニング用音声データの前記音響的特徴を利用して基礎的モデルを構築するように構成された基礎的モデル構築モジュールと、
前記第2組のトレーニング用音声データの前記音響的特徴を利用して前記基礎的モデルを更新して、前記種類識別モデルを得るように構成された第2の種類識別モデル構築モジュールと、
をさらに備える、請求項10に記載の装置。 - 前記トレーニング用音声データから、第1組のトレーニング用音声データと、前記第1組のトレーニング用音声データよりも高い精度で前記種類識別モデルを構築可能な第2組のトレーニング用音声データと、を決定するように構成された第2のトレーニング用データ識別モジュールと、
前記第2組のトレーニング用音声データの数を増やすことにより、前記トレーニング用音声データを拡張するように構成されたトレーニング用音声データ拡張モジュールと、
拡張された前記トレーニング用音声データの前記音響的特徴を利用して前記種類識別モデルを構築するように構成された第3の種類識別モデル構築モジュールと、
をさらに備える、請求項10に記載の装置。 - ウェイクアップコマンドを受信したと確定したことに応答して、モニタリング用のタイマを起動して、音声データを受信するように構成されるタイマ起動モジュールと、
前記モニタリング用のタイマがタイムアウトとなると確定したことに応答し、前記音声データの受信を停止するように構成されるタイマ傍受モジュールと、
をさらに備える、請求項10に記載の装置。 - 前記種類識別モデルは、畳み込み長・短期記憶ディープニューラルネットワーク(CLDNN)モデルであり、前記CLDNNモデルは、少なくとも、異なる長さのデータストリームを、同じ長さにする処理を実行するための平均層を含む、請求項10に記載の装置。
- 前記音響的特徴は、フィルタバンク特徴及びメル周波数逆スペクトル係数特徴の内の少なくとも一つを含む、請求項10に記載の装置。
- 電子デバイスであって、
1または複数のプロセッサと、
1つ又は複数のプログラムを記憶するメモリと、を備え、
前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサに実行されると、前記電子デバイスに請求項1〜9のいずれかに記載の方法を実現させる、電子デバイス。 - プロセッサにより実行されることにより、請求項1〜9のいずれか1項に記載の方法を実現するプログラムを記録したコンピュータ読み取り可能な記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911168794.1 | 2019-11-25 | ||
CN201911168794.1A CN110992940B (zh) | 2019-11-25 | 2019-11-25 | 语音交互的方法、装置、设备和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021086144A true JP2021086144A (ja) | 2021-06-03 |
JP7208951B2 JP7208951B2 (ja) | 2023-01-19 |
Family
ID=70086736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020095874A Active JP7208951B2 (ja) | 2019-11-25 | 2020-06-02 | 音声対話の方法、装置、デバイス及びコンピュータ読み取り可能な記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11250854B2 (ja) |
JP (1) | JP7208951B2 (ja) |
CN (1) | CN110992940B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114566145A (zh) * | 2022-03-04 | 2022-05-31 | 河南云迹智能技术有限公司 | 一种数据交互方法、系统和介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113516966A (zh) * | 2021-06-24 | 2021-10-19 | 肇庆小鹏新能源投资有限公司 | 一种语音识别缺陷检测方法和装置 |
CN114550706B (zh) * | 2022-02-21 | 2024-06-18 | 苏州市职业大学 | 基于深度学习的智慧校园语音识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016051519A1 (ja) * | 2014-09-30 | 2016-04-07 | 三菱電機株式会社 | 音声認識システム |
JP2017194510A (ja) * | 2016-04-18 | 2017-10-26 | 日本電信電話株式会社 | 音響モデル学習装置、音声合成装置、これらの方法及びプログラム |
US20180096690A1 (en) * | 2016-10-03 | 2018-04-05 | Google Inc. | Multi-User Personalization at a Voice Interface Device |
JP2018106216A (ja) * | 2016-12-22 | 2018-07-05 | 日本電信電話株式会社 | 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム |
JP2018169494A (ja) * | 2017-03-30 | 2018-11-01 | トヨタ自動車株式会社 | 発話意図推定装置および発話意図推定方法 |
JP2018180523A (ja) * | 2017-04-12 | 2018-11-15 | サウンドハウンド,インコーポレイテッド | マン・マシン・ダイアログにおけるエージェント係属の管理 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070094022A1 (en) * | 2005-10-20 | 2007-04-26 | Hahn Koo | Method and device for recognizing human intent |
US10403269B2 (en) * | 2015-03-27 | 2019-09-03 | Google Llc | Processing audio waveforms |
US10229700B2 (en) * | 2015-09-24 | 2019-03-12 | Google Llc | Voice activity detection |
US10129510B2 (en) * | 2016-02-18 | 2018-11-13 | Samsung Electronics Co., Ltd. | Initiating human-machine interaction based on visual attention |
US10181323B2 (en) * | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
CN106649694B (zh) * | 2016-12-19 | 2020-05-26 | 北京云知声信息技术有限公司 | 语音交互中确定用户意图的方法及装置 |
CN107808004B (zh) * | 2017-11-15 | 2021-02-26 | 北京百度网讯科技有限公司 | 模型训练方法和系统、服务器、存储介质 |
CN108320733B (zh) * | 2017-12-18 | 2022-01-04 | 上海科大讯飞信息科技有限公司 | 语音数据处理方法及装置、存储介质、电子设备 |
CN108564954B (zh) * | 2018-03-19 | 2020-01-10 | 平安科技(深圳)有限公司 | 深度神经网络模型、电子装置、身份验证方法和存储介质 |
CN108766440B (zh) * | 2018-05-28 | 2020-01-14 | 平安科技(深圳)有限公司 | 说话人分离模型训练方法、两说话人分离方法及相关设备 |
US10979242B2 (en) * | 2018-06-05 | 2021-04-13 | Sap Se | Intelligent personal assistant controller where a voice command specifies a target appliance based on a confidence score without requiring uttering of a wake-word |
CN109767759B (zh) * | 2019-02-14 | 2020-12-22 | 重庆邮电大学 | 一种应用到端到端语音识别的cldnn结构的建立方法 |
CN109671435B (zh) * | 2019-02-21 | 2020-12-25 | 三星电子(中国)研发中心 | 用于唤醒智能设备的方法和装置 |
CN110166391B (zh) * | 2019-06-13 | 2021-07-02 | 电子科技大学 | 脉冲噪声下基于深度学习的基带预编码msk信号解调方法 |
CN110390108B (zh) * | 2019-07-29 | 2023-11-21 | 中国工商银行股份有限公司 | 基于深度强化学习的任务型交互方法和系统 |
-
2019
- 2019-11-25 CN CN201911168794.1A patent/CN110992940B/zh active Active
-
2020
- 2020-06-02 JP JP2020095874A patent/JP7208951B2/ja active Active
- 2020-06-08 US US16/894,960 patent/US11250854B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016051519A1 (ja) * | 2014-09-30 | 2016-04-07 | 三菱電機株式会社 | 音声認識システム |
JP2017194510A (ja) * | 2016-04-18 | 2017-10-26 | 日本電信電話株式会社 | 音響モデル学習装置、音声合成装置、これらの方法及びプログラム |
US20180096690A1 (en) * | 2016-10-03 | 2018-04-05 | Google Inc. | Multi-User Personalization at a Voice Interface Device |
JP2018106216A (ja) * | 2016-12-22 | 2018-07-05 | 日本電信電話株式会社 | 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム |
JP2018169494A (ja) * | 2017-03-30 | 2018-11-01 | トヨタ自動車株式会社 | 発話意図推定装置および発話意図推定方法 |
JP2018180523A (ja) * | 2017-04-12 | 2018-11-15 | サウンドハウンド,インコーポレイテッド | マン・マシン・ダイアログにおけるエージェント係属の管理 |
Non-Patent Citations (2)
Title |
---|
ZITIAN ZHAO ET AL.: "A lighten CNN-LSTM model for speaker verification on embedded devices", FUTURE GENERATION COMPUTER SYSTEMS, vol. 100, JPN6021046712, 23 May 2019 (2019-05-23), pages 751 - 758, ISSN: 0004812448 * |
井本和範,中居友弘: "深層学習を用いて自動化した半導体製造プロセスの欠陥分類システム", 東芝レビュー, vol. 第74巻,第5号, JPN6021046711, September 2019 (2019-09-01), pages 13 - 16, ISSN: 0004812447 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114566145A (zh) * | 2022-03-04 | 2022-05-31 | 河南云迹智能技术有限公司 | 一种数据交互方法、系统和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110992940B (zh) | 2021-06-15 |
US20210158816A1 (en) | 2021-05-27 |
CN110992940A (zh) | 2020-04-10 |
US11250854B2 (en) | 2022-02-15 |
JP7208951B2 (ja) | 2023-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021093449A1 (zh) | 基于人工智能的唤醒词检测方法、装置、设备及介质 | |
CN110085251B (zh) | 人声提取方法、人声提取装置及相关产品 | |
JP2021086144A (ja) | 音声対話の方法、装置、デバイス及びコンピュータ読み取り可能な記憶媒体 | |
CN106688034B (zh) | 具有情感内容的文字至语音转换 | |
US20170140750A1 (en) | Method and device for speech recognition | |
WO2017084360A1 (zh) | 一种用于语音识别方法及系统 | |
CN103366740B (zh) | 语音命令识别方法及装置 | |
CN105096941A (zh) | 语音识别方法以及装置 | |
CN108694940A (zh) | 一种语音识别方法、装置及电子设备 | |
CN108091323B (zh) | 用于自语音中识别情感的方法与装置 | |
EP3989217B1 (en) | Method for detecting an audio adversarial attack with respect to a voice input processed by an automatic speech recognition system, corresponding device, computer program product and computer-readable carrier medium | |
CN105788596A (zh) | 一种语音识别电视控制方法及系统 | |
CN110688518A (zh) | 节奏点的确定方法、装置、设备及存储介质 | |
Müller et al. | Contextual invariant-integration features for improved speaker-independent speech recognition | |
CN113488024A (zh) | 一种基于语义识别的电话打断识别方法和系统 | |
KR20210078133A (ko) | 간투어 검출 모델을 훈련시키기 위한 훈련 데이터 생성 방법 및 장치 | |
CN110268471A (zh) | 具有嵌入式降噪的asr的方法和设备 | |
CN104952446A (zh) | 基于语音交互的数字楼盘展示系统 | |
CN113658586B (zh) | 语音识别模型的训练方法、语音交互方法及装置 | |
CN108231074A (zh) | 一种数据处理方法、语音助手设备及计算机可读存储介质 | |
CN111508481B (zh) | 语音唤醒模型的训练方法、装置、电子设备及存储介质 | |
US20110313772A1 (en) | System and method for unit selection text-to-speech using a modified viterbi approach | |
CN113012683A (zh) | 语音识别方法及装置、设备、计算机可读存储介质 | |
US20230015112A1 (en) | Method and apparatus for processing speech, electronic device and storage medium | |
CN111145748A (zh) | 音频识别置信度确定方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7208951 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |