JP6198872B2 - 聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出 - Google Patents
聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出 Download PDFInfo
- Publication number
- JP6198872B2 JP6198872B2 JP2016046781A JP2016046781A JP6198872B2 JP 6198872 B2 JP6198872 B2 JP 6198872B2 JP 2016046781 A JP2016046781 A JP 2016046781A JP 2016046781 A JP2016046781 A JP 2016046781A JP 6198872 B2 JP6198872 B2 JP 6198872B2
- Authority
- JP
- Japan
- Prior art keywords
- auditory
- syllables
- feature vector
- syllable
- input window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title description 43
- 239000013598 vector Substances 0.000 claims description 53
- 238000000034 method Methods 0.000 claims description 45
- 238000012545 processing Methods 0.000 claims description 28
- 238000001228 spectrum Methods 0.000 claims description 28
- 230000001186 cumulative effect Effects 0.000 claims description 25
- 230000009467 reduction Effects 0.000 claims description 15
- 230000002123 temporal effect Effects 0.000 claims description 15
- 230000003595 spectral effect Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 210000000067 inner hair cell Anatomy 0.000 claims description 3
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 210000002469 basement membrane Anatomy 0.000 claims description 2
- 210000003952 cochlear nucleus Anatomy 0.000 claims description 2
- 230000008451 emotion Effects 0.000 claims description 2
- 230000023886 lateral inhibition Effects 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 description 19
- 210000004027 cell Anatomy 0.000 description 14
- 238000000513 principal component analysis Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000005284 excitation Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000000348 solid-phase epitaxy Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 5
- 230000001629 suppression Effects 0.000 description 5
- 210000003926 auditory cortex Anatomy 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000003278 mimic effect Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000002269 spontaneous effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000000860 cochlear nerve Anatomy 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 229920013636 polyphenyl ether polymer Polymers 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
- G10L15/05—Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/34—Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Auxiliary Devices For Music (AREA)
Description
研究者らは、音節は人間の音声認識において最も重要な要素のひとつであることを示す主張の裏付けを発見した。音声を音節単位にセグメント化することで、音声の速度、リズム、韻律、および音声認識と音声合成に関する洞察を提供する。音節には、ソノリティ(音節核)の中央ピークがあり、これは通常、母音およびこの中央ピーク周囲に集まる子音である。音節核は正確な音節境界に比較して信頼性が高く、より容易に検出できるため、文献のほとんどの研究は音節核検出に焦点をあてたものである。音節核検出では、既存の方法のほとんどは、抽出された短時間の音響特性から抽出した一次元の連続曲線を推定し、この曲線を調べて、音節核を見つけることに依存している。音節核を見つけるために使用する音響特性としては、選択した臨界帯域でのエネルギー、線形予測符号化スペクトル、サブバンド・ベースの相関関係、ピッチ、有声音などがある。この分野の最新研究には、以下が含まれる。
“Robust Speech Rate Estimation for Spontaneous Speech”,Dagen Wang and Shrikanth S.Narayanan,inIEEE TRANSACTIONS ON AUDIO,SPEECH,AND LANGUAGE PROCESSING,VOL.15,NO. 8NOVEMBER2007,pp2190−2201
“Segmentation ofSpeech into Syllable−like units”T.Nagarajan etal,EUROSPEECH 2003−GENEVA,pp2893−2896
“Speech rhythm guided syllable nuclei detection”,Y.Zhang and J.Glass,Proceedings of the IEEE International Conference on Acoustics, Speech and Signal Processing, pp 3797−3800, Taipei, Taiwan April 2009
先行技術の音節検出技術に対して本発明の実施形態による音節境界検出を行うために多くの音節セグメント化の実験が行われた。この音節セグメント化の実験では、TIMITデータセットを使用した。TIMITコーパスは、音節の注釈を持たない。NISTの音節に分けるソフトウェア、tsyllb2の音素トランスクリプションを使用して言葉を音節に分けた。続いて、TIMITと合わせて提供される音素レベルのタイミング情報と各音節の音素シーケンスを使用して音節のタイミング情報が自動的に抽出された。この実験では、公式TIMITトレインと試験スプリットが使用された。この試験セットには、1344の発声が含まれ、これには約17,190の音節が含まれる。
“Robust Speech Rate Estimation for Spontaneous Speech”,Dagen Wang and Shrikanth S.Narayanan,inIEEE TRANSACTIONS ON AUDIO,SPEECH,AND LANGUAGE PROCESSING,VOL.15,NO. 8NOVEMBER2007,pp2190−2201、これを本明細書の一部として援用する。
“Speech rhythm guided syllable nuclei detection”,Y.Zhang and J.Glass,Proceedings of the IEEE International Conference on Acoustics, Speech and Signal Processing, pp 3797−3800, Taipei, Taiwan April 2009、これを本明細書の一部として援用する。
Claims (22)
- 音入力ウィンドウに対する聴覚スペクトルから1つ以上のマルチスケール特性を抽出し、この場合、各マルチスケール特性は、別個の2次元スペクトル経時受容フィルタを使用して抽出し、
前記1つ以上のマルチスケール特性に対応する1つ以上の特性マップを生成し、
前記1つ以上の特性マップの各々から聴覚骨子特徴ベクトルを抽出し、
前記1つ以上の特性マップから抽出した各聴覚骨子特徴ベクトルの拡張を通して累積骨子特徴ベクトルを取得し、
前記累積骨子特徴ベクトルを1つ以上の音節または母音または音素の境界にマッピングすることにより、音入力ウィンドウで1つ以上の音節または母音または音素の境界を検出し、および
音入力ウィンドウにおける1つ以上の音節または母音または音素の境界を用いて単位時間毎の音節数または一発話毎の音節数を判定することを含む方法。 - さらに、検出された音節または母音または音素の境界を使用して認識された母音または音節または音素から、語彙的意味または文法的意味を抽出することを含む請求項1に記載の方法。
- さらに、語彙的意味または文法的意味を表示する、または保存することを含む請求項2に記載の方法。
- さらに、判定された単位時間毎の音節数または一発話毎の音節数から発話速度を推定することを含む請求項1に記載の方法。
- さらに、判定された単位時間毎の音節数または一発話毎の音節数から発話速度を推定し、推定された発話速度を使用して、他の音声言語処理アプリケーションを向上することを含む請求項1に記載の方法。
- さらに、判定された単位時間毎の音節数または一発話毎の音節数から発話速度を推定し、推定された発話速度を使用して、推定された発話速度に基づき適切な音響モデルを選択することによって音声認識性能を向上することを含む請求項1に記載の方法。
- さらに、判定された単位時間毎の音節数または一発話毎の音節数から発話速度を推定し、推定された発話速度を使用して、音入力ウィンドウを含む信号内で1つ以上の会話の感情セグメントを見つけることを含む請求項1に記載の方法。
- 音入力ウィンドウで1つ以上の音節または母音または音素の境界を検出することは、前記累積骨子特徴ベクトルで1つ以上の聴覚注意特性を与えられた境界を現在のフレームが含むか否かを判定するために、バイナリ判定または確率スコアの生成を含む請求項1に記載の方法。
- 前記聴覚スペクトルを判定することをさらに含み、前記聴覚スペクトルを判定することは、音入力ウィンドウを、聴覚系における基底膜から蝸牛神経核の間の伝達を模倣した蝸牛フィルタリング段階、内有毛細胞段階、および側方抑制の段階を通過させることを含む請求項1に記載の方法。
- 前記蝸牛フィルタリング段階は、128のオーバーラップする定数Qの非対称バンドパス・フィルタのバンクを使用して実行される請求項9に記載の方法。
- 音入力ウィンドウに対する前記聴覚スペクトルの前記マルチスケール特性の1つは、前記聴覚スペクトルに関連する強度を特徴づける請求項1に記載の方法。
- 音入力ウィンドウに対する前記聴覚スペクトルの前記マルチスケール特性の1つは、前記聴覚スペクトルに関連する周波数コントラストを特徴づける請求項11に記載の方法。
- 音入力ウィンドウに対する前記聴覚スペクトルの前記マルチスケール特性の1つは、前記聴覚スペクトルに関連する経時コントラストを特徴づける請求項12に記載の方法。
- 音入力ウィンドウに対する前記聴覚スペクトルの前記マルチスケール特性の1つは、前記聴覚スペクトルに関連する方向を特徴づける請求項13に記載の方法。
- 音入力ウィンドウに対する前記聴覚スペクトルの前記1つ以上のマルチスケール特性は、ダイアディック・ピラミッドを用いて取得される請求項1に記載の方法。
- 前記1つ以上の特性マップの各々はその特定のマルチスケール特性に関連する1つ以上の中央スケールとその特定のマルチスケール特性に関連する1つ以上の周辺スケールとの間の差異を計算することによって得られる請求項1に記載の方法。
- 各聴覚骨子特徴ベクトルは、その対応する特性マップを、mにnを乗じたグリッドにサブ領域を分割し、各サブ領域の統計を計算することによって判定される請求項1に記載の方法。
- 次元減少のためにより大きな入力ベクトルを形成する目的で、骨子特徴ベクトルと組み合わせて追加の音声特性を使用する請求項1に記載の方法。
- 前記追加の音声特性には、各FFT周波数ビンによって計算されるフレーム・ベースのエネルギー、フレーム・ベースの最大振幅、フレーム・ベースのゼロ交差率、フレーム・ベースの音素確率、フレーム・ベースのピッチ振動を有する音声信号である確率、またはフレーム・ベースのスペクトル変化率を含む請求項18に記載の方法。
- 前記累積骨子特徴ベクトルを取得することは、前記累積骨子特徴ベクトルの冗長性を除去する、または次元を減らすために次元減少方法を使用することを含む請求項1に記載の方法。
- 装置であって、
プロセッサと、
メモリと、
前記メモリで実現し、プロセッサによって実行可能なコンピュータ・コーディングされた命令と、を含み、前記コンピュータ・コーディングされた命令は、音節/母音/音素の境界を検出する方法を実施するように構成され、前記方法は、
音入力ウィンドウに対する聴覚スペクトルから1つ以上のマルチスケール特性を抽出し、この場合、各マルチスケール特性は、別個の2次元スペクトル経時受容フィルタを使用して抽出し、
前記1つ以上のマルチスケール特性に対応する1つ以上の特性マップを生成し、
前記1つ以上の特性マップの各々から聴覚骨子特徴ベクトルを抽出し、
前記1つ以上の特性マップから抽出した各聴覚骨子特徴ベクトルの拡張を通して累積骨子特徴ベクトルを取得し、
前記累積骨子特徴ベクトルを1つ以上の音節または母音または音素の境界にマッピングすることにより、音入力ウィンドウで1つ以上の音節または母音または音素の境界を検出し、および
音入力ウィンドウにおける1つ以上の音節または母音または音素の境界を用いて単位時間毎の音節数または一発話毎の音節数を判定することを含む装置。 - コンピュータで読み取り可能なプログラム・コードが具体化された非一時的なコンピュータで読み取り可能な記憶媒体であって、
音入力ウィンドウに対する聴覚スペクトルから1つ以上のマルチスケール特性を抽出し、この場合、各マルチスケール特性は、別個の2次元スペクトル経時受容フィルタを使用して抽出する処理と、
前記1つ以上のマルチスケール特性に対応する1つ以上の特性マップを生成する処理と、
前記1つ以上の特性マップの各々から聴覚骨子特徴ベクトルを抽出する処理と、
前記1つ以上の特性マップから抽出した各聴覚骨子特徴ベクトルの拡張を通して累積骨子特徴ベクトルを取得する処理と、
前記累積骨子特徴ベクトルを1つ以上の音節または母音または音素の境界にマッピングすることにより、音入力ウィンドウで1つ以上の音節または母音または音素の境界を検出する処理と、
音入力ウィンドウにおける1つ以上の音節または母音または音素の境界を用いて単位時間毎の音節数または一発話毎の音節数を判定する処理とをコンピュータに実行させるためのコンピュータで読み取り可能なプログラム・コードを含む記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/078,866 | 2011-04-01 | ||
US13/078,866 US8756061B2 (en) | 2011-04-01 | 2011-04-01 | Speech syllable/vowel/phone boundary detection using auditory attention cues |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014502540A Division JP5897107B2 (ja) | 2011-04-01 | 2011-11-02 | 聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016128935A JP2016128935A (ja) | 2016-07-14 |
JP6198872B2 true JP6198872B2 (ja) | 2017-09-20 |
Family
ID=46928421
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014502540A Active JP5897107B2 (ja) | 2011-04-01 | 2011-11-02 | 聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出 |
JP2016046781A Active JP6198872B2 (ja) | 2011-04-01 | 2016-03-10 | 聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014502540A Active JP5897107B2 (ja) | 2011-04-01 | 2011-11-02 | 聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出 |
Country Status (6)
Country | Link |
---|---|
US (2) | US8756061B2 (ja) |
EP (1) | EP2695160B1 (ja) |
JP (2) | JP5897107B2 (ja) |
KR (1) | KR20130133858A (ja) |
CN (2) | CN103503060B (ja) |
WO (1) | WO2012134541A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11355140B2 (en) | 2018-07-09 | 2022-06-07 | Fujifilm Business Innovation Corp. | Emotion estimation system and non-transitory computer readable medium |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8515052B2 (en) | 2007-12-17 | 2013-08-20 | Wai Wu | Parallel signal processing system and method |
US8676574B2 (en) | 2010-11-10 | 2014-03-18 | Sony Computer Entertainment Inc. | Method for tone/intonation recognition using auditory attention cues |
US8756061B2 (en) | 2011-04-01 | 2014-06-17 | Sony Computer Entertainment Inc. | Speech syllable/vowel/phone boundary detection using auditory attention cues |
US20120259638A1 (en) * | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Apparatus and method for determining relevance of input speech |
EP2645364B1 (en) * | 2012-03-29 | 2019-05-08 | Honda Research Institute Europe GmbH | Spoken dialog system using prominence |
US9020822B2 (en) | 2012-10-19 | 2015-04-28 | Sony Computer Entertainment Inc. | Emotion recognition using auditory attention cues extracted from users voice |
US9031293B2 (en) | 2012-10-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Multi-modal sensor based emotion recognition and emotional interface |
US9672811B2 (en) | 2012-11-29 | 2017-06-06 | Sony Interactive Entertainment Inc. | Combining auditory attention cues with phoneme posterior scores for phone/vowel/syllable boundary detection |
US9767791B2 (en) * | 2013-05-21 | 2017-09-19 | Speech Morphing Systems, Inc. | Method and apparatus for exemplary segment classification |
US10127927B2 (en) | 2014-07-28 | 2018-11-13 | Sony Interactive Entertainment Inc. | Emotional speech processing |
JP6390264B2 (ja) * | 2014-08-21 | 2018-09-19 | トヨタ自動車株式会社 | 応答生成方法、応答生成装置及び応答生成プログラム |
KR102272453B1 (ko) | 2014-09-26 | 2021-07-02 | 삼성전자주식회사 | 음성 신호 전처리 방법 및 장치 |
WO2016095218A1 (en) | 2014-12-19 | 2016-06-23 | Dolby Laboratories Licensing Corporation | Speaker identification using spatial information |
TWI576834B (zh) | 2015-03-02 | 2017-04-01 | 聯詠科技股份有限公司 | 聲頻訊號的雜訊偵測方法與裝置 |
KR102413692B1 (ko) * | 2015-07-24 | 2022-06-27 | 삼성전자주식회사 | 음성 인식을 위한 음향 점수 계산 장치 및 방법, 음성 인식 장치 및 방법, 전자 장치 |
CN105976811B (zh) * | 2016-04-27 | 2019-07-12 | 四川大学 | 一种包含声母的音节切分方法及装置 |
EP3474276A4 (en) * | 2016-06-15 | 2019-07-31 | Sony Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD |
WO2018049391A1 (en) * | 2016-09-12 | 2018-03-15 | Speech Morphing Systems, Inc. | Method and apparatus for exemplary segment classification |
US10062378B1 (en) * | 2017-02-24 | 2018-08-28 | International Business Machines Corporation | Sound identification utilizing periodic indications |
KR102017244B1 (ko) | 2017-02-27 | 2019-10-21 | 한국전자통신연구원 | 자연어 인식 성능 개선 방법 및 장치 |
CN107103908B (zh) * | 2017-05-02 | 2019-12-24 | 大连民族大学 | 复调音乐多音高估计方法及伪双谱在多音高估计中的应用 |
KR20200027475A (ko) | 2017-05-24 | 2020-03-12 | 모듈레이트, 인크 | 음성 대 음성 변환을 위한 시스템 및 방법 |
KR20200026295A (ko) * | 2017-07-10 | 2020-03-10 | 복스 프론테라, 인크. | 음절 기반 자동 음성 인식 |
CN107863095A (zh) * | 2017-11-21 | 2018-03-30 | 广州酷狗计算机科技有限公司 | 音频信号处理方法、装置和存储介质 |
CN108766418B (zh) * | 2018-05-24 | 2020-01-14 | 百度在线网络技术(北京)有限公司 | 语音端点识别方法、装置及设备 |
US10720151B2 (en) | 2018-07-27 | 2020-07-21 | Deepgram, Inc. | End-to-end neural networks for speech recognition and classification |
CN109065070B (zh) * | 2018-08-29 | 2022-07-19 | 昆明理工大学 | 一种基于核函数的音频特征信号的降维方法 |
CN109377981B (zh) * | 2018-11-22 | 2021-07-23 | 四川长虹电器股份有限公司 | 音素对齐的方法及装置 |
CN113544768A (zh) | 2018-12-21 | 2021-10-22 | 诺拉控股有限公司 | 使用多传感器的语音识别 |
TWI684912B (zh) * | 2019-01-08 | 2020-02-11 | 瑞昱半導體股份有限公司 | 語音喚醒裝置及方法 |
KR102163862B1 (ko) * | 2019-03-25 | 2020-10-12 | 한국과학기술원 | 멀티스케일 음성 감정 인식을 위한 전자 장치 및 그의 동작 방법 |
CN110033782B (zh) * | 2019-04-11 | 2021-08-24 | 腾讯音乐娱乐科技(深圳)有限公司 | 单位时间内音节数量的计算方法及相关装置 |
WO2020232180A1 (en) | 2019-05-14 | 2020-11-19 | Dolby Laboratories Licensing Corporation | Method and apparatus for speech source separation based on a convolutional neural network |
CN110211574B (zh) * | 2019-06-03 | 2022-03-11 | 哈尔滨工业大学 | 基于瓶颈特征和多尺度多头注意力机制的语音识别模型建立方法 |
US11538485B2 (en) | 2019-08-14 | 2022-12-27 | Modulate, Inc. | Generation and detection of watermark for real-time voice conversion |
CN110619867B (zh) | 2019-09-27 | 2020-11-03 | 百度在线网络技术(北京)有限公司 | 语音合成模型的训练方法、装置、电子设备及存储介质 |
CN111063335B (zh) * | 2019-12-18 | 2022-08-09 | 新疆大学 | 一种基于神经网络的端到端声调识别方法 |
GB2596169B (en) * | 2020-02-11 | 2022-04-27 | Tymphany Acoustic Tech Ltd | A method and an audio processing unit for detecting a tone |
CN111312224B (zh) * | 2020-02-20 | 2023-04-21 | 北京声智科技有限公司 | 语音分割模型的训练方法、装置和电子设备 |
CN113628612A (zh) * | 2020-05-07 | 2021-11-09 | 北京三星通信技术研究有限公司 | 语音识别方法、装置、电子设备及计算机可读存储介质 |
EP4226362A1 (en) | 2020-10-08 | 2023-08-16 | Modulate, Inc. | Multi-stage adaptive system for content moderation |
CN113611281B (zh) * | 2021-07-16 | 2024-07-12 | 北京捷通华声科技股份有限公司 | 一种语音合成方法、装置、电子设备及存储介质 |
CN114267375B (zh) * | 2021-11-24 | 2022-10-28 | 北京百度网讯科技有限公司 | 音素检测方法及装置、训练方法及装置、设备和介质 |
Family Cites Families (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59139099A (ja) | 1983-01-31 | 1984-08-09 | 株式会社東芝 | 音声区間検出装置 |
US4594575A (en) | 1984-07-30 | 1986-06-10 | Ncr Corporation | Digital processor for speech signals |
US4975960A (en) | 1985-06-03 | 1990-12-04 | Petajan Eric D | Electronic facial tracking and detection system and method and apparatus for automated speech recognition |
JPS6350896A (ja) * | 1986-08-21 | 1988-03-03 | 沖電気工業株式会社 | 音声認識装置 |
JPH02205897A (ja) * | 1989-02-03 | 1990-08-15 | Toshiba Corp | 有音検出装置 |
JPH05257496A (ja) * | 1992-03-12 | 1993-10-08 | Sekisui Chem Co Ltd | 単語認識方式 |
US5586215A (en) | 1992-05-26 | 1996-12-17 | Ricoh Corporation | Neural network acoustic and visual speech recognition system |
JP2924555B2 (ja) | 1992-10-02 | 1999-07-26 | 三菱電機株式会社 | 音声認識の境界推定方法及び音声認識装置 |
US5852669A (en) | 1994-04-06 | 1998-12-22 | Lucent Technologies Inc. | Automatic face and facial feature location detection for low bit rate model-assisted H.261 compatible coding of video |
US5806036A (en) | 1995-08-17 | 1998-09-08 | Ricoh Company, Ltd. | Speechreading using facial feature parameters from a non-direct frontal view of the speaker |
US5897616A (en) | 1997-06-11 | 1999-04-27 | International Business Machines Corporation | Apparatus and methods for speaker verification/identification/classification employing non-acoustic and/or acoustic models and databases |
US6185529B1 (en) | 1998-09-14 | 2001-02-06 | International Business Machines Corporation | Speech recognition aided by lateral profile image |
US6243683B1 (en) | 1998-12-29 | 2001-06-05 | Intel Corporation | Video control of speech recognition |
US7117157B1 (en) | 1999-03-26 | 2006-10-03 | Canon Kabushiki Kaisha | Processing apparatus for determining which person in a group is speaking |
US6594629B1 (en) | 1999-08-06 | 2003-07-15 | International Business Machines Corporation | Methods and apparatus for audio-visual speech detection and recognition |
US6868380B2 (en) | 2000-03-24 | 2005-03-15 | Eliza Corporation | Speech recognition system and method for generating phonotic estimates |
TW521266B (en) * | 2000-07-13 | 2003-02-21 | Verbaltek Inc | Perceptual phonetic feature speech recognition system and method |
US6964023B2 (en) | 2001-02-05 | 2005-11-08 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
AU2002346116A1 (en) | 2001-07-20 | 2003-03-03 | Gracenote, Inc. | Automatic identification of sound recordings |
US7165029B2 (en) | 2002-05-09 | 2007-01-16 | Intel Corporation | Coupled hidden Markov model for audiovisual speech recognition |
US7209883B2 (en) | 2002-05-09 | 2007-04-24 | Intel Corporation | Factorial hidden markov model for audiovisual speech recognition |
US8947347B2 (en) | 2003-08-27 | 2015-02-03 | Sony Computer Entertainment Inc. | Controlling actions in a video game unit |
US7809145B2 (en) | 2006-05-04 | 2010-10-05 | Sony Computer Entertainment Inc. | Ultra small microphone array |
US7783061B2 (en) | 2003-08-27 | 2010-08-24 | Sony Computer Entertainment Inc. | Methods and apparatus for the targeted sound detection |
US7472063B2 (en) | 2002-12-19 | 2008-12-30 | Intel Corporation | Audio-visual feature fusion and support vector machine useful for continuous speech recognition |
US7091409B2 (en) | 2003-02-14 | 2006-08-15 | University Of Rochester | Music feature extraction using wavelet coefficient histograms |
US7454342B2 (en) | 2003-03-19 | 2008-11-18 | Intel Corporation | Coupled hidden Markov model (CHMM) for continuous audiovisual speech recognition |
US7505902B2 (en) | 2004-07-28 | 2009-03-17 | University Of Maryland | Discrimination of components of audio signals based on multiscale spectro-temporal modulations |
JP4533897B2 (ja) | 2004-09-01 | 2010-09-01 | パイオニア株式会社 | 処理制御装置、そのプログラム、および、そのプログラムを記録した記録媒体 |
US7392187B2 (en) | 2004-09-20 | 2008-06-24 | Educational Testing Service | Method and system for the automatic generation of speech features for scoring high entropy speech |
US7742914B2 (en) * | 2005-03-07 | 2010-06-22 | Daniel A. Kosek | Audio spectral noise reduction method and apparatus |
KR101248353B1 (ko) | 2005-06-09 | 2013-04-02 | 가부시키가이샤 에이.지.아이 | 피치 주파수를 검출하는 음성 해석 장치, 음성 해석 방법,및 음성 해석 프로그램 |
US7518631B2 (en) | 2005-06-28 | 2009-04-14 | Microsoft Corporation | Audio-visual control system |
JP2006031033A (ja) | 2005-08-01 | 2006-02-02 | Toshiba Corp | 情報処理装置 |
US8209182B2 (en) | 2005-11-30 | 2012-06-26 | University Of Southern California | Emotion recognition system |
GB2433150B (en) | 2005-12-08 | 2009-10-07 | Toshiba Res Europ Ltd | Method and apparatus for labelling speech |
DE102006008260B3 (de) | 2006-02-22 | 2007-07-05 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Analyse eines Audiodatums |
US8825149B2 (en) | 2006-05-11 | 2014-09-02 | Northwestern University | Systems and methods for measuring complex auditory brainstem response |
CN101346758B (zh) | 2006-06-23 | 2011-07-27 | 松下电器产业株式会社 | 感情识别装置 |
US8355915B2 (en) | 2006-11-30 | 2013-01-15 | Rao Ashwin P | Multimodal speech recognition system |
JP5245255B2 (ja) | 2007-02-15 | 2013-07-24 | 富士通株式会社 | 固有表現抽出プログラム、固有表現抽出方法および固有表現抽出装置 |
US8965762B2 (en) | 2007-02-16 | 2015-02-24 | Industrial Technology Research Institute | Bimodal emotion recognition method and system utilizing a support vector machine |
GB0703974D0 (en) | 2007-03-01 | 2007-04-11 | Sony Comp Entertainment Europe | Entertainment device |
KR100925479B1 (ko) | 2007-09-19 | 2009-11-06 | 한국전자통신연구원 | 음성 인식 방법 및 장치 |
JP2010230695A (ja) | 2007-10-22 | 2010-10-14 | Toshiba Corp | 音声の境界推定装置及び方法 |
KR20090122142A (ko) | 2008-05-23 | 2009-11-26 | 엘지전자 주식회사 | 오디오 신호 처리 방법 및 장치 |
CN101315733B (zh) * | 2008-07-17 | 2010-06-02 | 安徽科大讯飞信息科技股份有限公司 | 一种针对计算机语言学习系统发音评测的自适应方法 |
US8566088B2 (en) | 2008-11-12 | 2013-10-22 | Scti Holdings, Inc. | System and method for automatic speech to text conversion |
US8442832B2 (en) | 2008-12-08 | 2013-05-14 | Electronics And Telecommunications Research Institute | Apparatus for context awareness and method using the same |
EP2406787B1 (en) | 2009-03-11 | 2014-05-14 | Google, Inc. | Audio classification for information retrieval using sparse features |
US8412525B2 (en) * | 2009-04-30 | 2013-04-02 | Microsoft Corporation | Noise robust speech classifier ensemble |
US8406925B2 (en) | 2009-07-01 | 2013-03-26 | Honda Motor Co., Ltd. | Panoramic attention for humanoid robots |
US9511289B2 (en) | 2009-07-10 | 2016-12-06 | Valve Corporation | Player biofeedback for dynamically controlling a video game state |
US8380520B2 (en) | 2009-07-30 | 2013-02-19 | Industrial Technology Research Institute | Food processor with recognition ability of emotion-related information and emotional signals |
US8447619B2 (en) | 2009-10-22 | 2013-05-21 | Broadcom Corporation | User attribute distribution for network/peer assisted speech coding |
US8600749B2 (en) | 2009-12-08 | 2013-12-03 | At&T Intellectual Property I, L.P. | System and method for training adaptation-specific acoustic models for automatic speech recognition |
US9070360B2 (en) | 2009-12-10 | 2015-06-30 | Microsoft Technology Licensing, Llc | Confidence calibration in automatic speech recognition systems |
US8676574B2 (en) | 2010-11-10 | 2014-03-18 | Sony Computer Entertainment Inc. | Method for tone/intonation recognition using auditory attention cues |
US8756061B2 (en) | 2011-04-01 | 2014-06-17 | Sony Computer Entertainment Inc. | Speech syllable/vowel/phone boundary detection using auditory attention cues |
US20120259638A1 (en) | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Apparatus and method for determining relevance of input speech |
US10453479B2 (en) | 2011-09-23 | 2019-10-22 | Lessac Technologies, Inc. | Methods for aligning expressive speech utterances with text and systems therefor |
US9214157B2 (en) | 2011-12-06 | 2015-12-15 | At&T Intellectual Property I, L.P. | System and method for machine-mediated human-human conversation |
US9548054B2 (en) | 2012-05-11 | 2017-01-17 | Mediatek Inc. | Speaker authentication methods and related methods of electronic devices using calendar data |
US9020822B2 (en) | 2012-10-19 | 2015-04-28 | Sony Computer Entertainment Inc. | Emotion recognition using auditory attention cues extracted from users voice |
US9031293B2 (en) | 2012-10-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Multi-modal sensor based emotion recognition and emotional interface |
US9672811B2 (en) | 2012-11-29 | 2017-06-06 | Sony Interactive Entertainment Inc. | Combining auditory attention cues with phoneme posterior scores for phone/vowel/syllable boundary detection |
-
2011
- 2011-04-01 US US13/078,866 patent/US8756061B2/en active Active
- 2011-11-02 EP EP11862334.7A patent/EP2695160B1/en active Active
- 2011-11-02 CN CN201180069832.3A patent/CN103503060B/zh active Active
- 2011-11-02 KR KR1020137025759A patent/KR20130133858A/ko not_active Application Discontinuation
- 2011-11-02 JP JP2014502540A patent/JP5897107B2/ja active Active
- 2011-11-02 WO PCT/US2011/059004 patent/WO2012134541A1/en active Application Filing
- 2011-11-02 CN CN201510346155.5A patent/CN105023573B/zh active Active
-
2014
- 2014-06-17 US US14/307,426 patent/US9251783B2/en active Active
-
2016
- 2016-03-10 JP JP2016046781A patent/JP6198872B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11355140B2 (en) | 2018-07-09 | 2022-06-07 | Fujifilm Business Innovation Corp. | Emotion estimation system and non-transitory computer readable medium |
Also Published As
Publication number | Publication date |
---|---|
CN103503060B (zh) | 2015-07-22 |
EP2695160A1 (en) | 2014-02-12 |
US20120253812A1 (en) | 2012-10-04 |
JP2016128935A (ja) | 2016-07-14 |
WO2012134541A1 (en) | 2012-10-04 |
JP2014512572A (ja) | 2014-05-22 |
CN103503060A (zh) | 2014-01-08 |
JP5897107B2 (ja) | 2016-03-30 |
US9251783B2 (en) | 2016-02-02 |
US8756061B2 (en) | 2014-06-17 |
CN105023573B (zh) | 2018-10-09 |
US20150073794A1 (en) | 2015-03-12 |
KR20130133858A (ko) | 2013-12-09 |
EP2695160B1 (en) | 2020-01-08 |
CN105023573A (zh) | 2015-11-04 |
EP2695160A4 (en) | 2015-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6198872B2 (ja) | 聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出 | |
US10424289B2 (en) | Speech recognition system using machine learning to classify phone posterior context information and estimate boundaries in speech from combined boundary posteriors | |
US8676574B2 (en) | Method for tone/intonation recognition using auditory attention cues | |
US9020822B2 (en) | Emotion recognition using auditory attention cues extracted from users voice | |
Drexler et al. | Analysis of audio-visual features for unsupervised speech recognition | |
Karpov | An automatic multimodal speech recognition system with audio and video information | |
JP5091202B2 (ja) | サンプルを用いずあらゆる言語を識別可能な識別方法 | |
Kalinli | Syllable Segmentation of Continuous Speech Using Auditory Attention Cues. | |
Rahman et al. | Blocking black area method for speech segmentation | |
Vyas et al. | An integrated spoken language recognition system using support vector machines | |
Kakouros et al. | Attention based temporal filtering of sensory signals for data redundancy reduction | |
Matayoshi | Pronunciation Assessment at Phone Level for Second Language Learning | |
Vasuki et al. | Emotion recognition using ensemble of cepstral, perceptual and temporal features | |
Taleb et al. | Language-Independent Bimodal System for Early Parkinson’s Disease Detection | |
MingXuan et al. | Research on Pathological Voice Recognition using Multi-Scale Convolutional Neural Network | |
Sukvichai et al. | An Alternative Approach for Thai Automatic Speech Recognition Based on the CNN-based Keyword Spotting with Real-World Application | |
Dialect et al. | Check for updates |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6198872 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |