JP2010164971A - 口語技能の評価 - Google Patents
口語技能の評価 Download PDFInfo
- Publication number
- JP2010164971A JP2010164971A JP2010005595A JP2010005595A JP2010164971A JP 2010164971 A JP2010164971 A JP 2010164971A JP 2010005595 A JP2010005595 A JP 2010005595A JP 2010005595 A JP2010005595 A JP 2010005595A JP 2010164971 A JP2010164971 A JP 2010164971A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- acoustic
- uttered
- acoustic parameters
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 43
- 230000002123 temporal effect Effects 0.000 claims abstract description 23
- 238000011156 evaluation Methods 0.000 claims abstract description 18
- 230000015654 memory Effects 0.000 claims description 28
- 230000003595 spectral effect Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 208000027765 speech disease Diseases 0.000 claims 1
- 230000000386 athletic effect Effects 0.000 description 12
- 241000270295 Serpentes Species 0.000 description 11
- 230000004044 response Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 241000282472 Canis lupus familiaris Species 0.000 description 5
- 238000013459 approach Methods 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000013209 evaluation strategy Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1807—Speech classification or search using natural language modelling using prosody or stress
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/04—Speaking
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Educational Technology (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Administration (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
【解決手段】 本技術は、話者により発声された音声パッセージにおいて、1つ又は複数の対象となる時間的位置を識別するステップと、1つ又は複数の音響パラメータを計算するステップであって、1つ又は複数の音響パラメータが、1つ又は複数の対象となる位置の1つ又は複数の音響音声学的特徴の1つ又は複数の特性を捉えるステップと、口語言語技能評価の出力を修正するために1つ又は複数の音響パラメータを自動音声認識装置の出力と組み合わせるステップとを含む。
【選択図】 図4
Description
ここで、sfは周波数チャネルfにおける音声信号であり、lはフレーム番号であり、Fはフレームレートであり、mは窓長の上で変化する。本発明の1つ又は複数の実施形態において、フレームレートは、例えば10msとすることができ、窓長は20msとすることができる。正の値のΔ(f,l)は、エネルギーのオンセットを示す。全ての周波数チャネルにおいてエネルギー差が正であるタイム・フレームを識別する。これらのタイム・フレームについての全ての周波数チャネルにわたるエネルギー差の大きさの標準偏差が、OCである。他の全てのタイム・フレームについてのOCは、ゼロに設定される。OCの値がゼロであることは、閉鎖破裂音又は母音が存在しないことを意味するが、一方、高いOC値は、母音が存在することを意味する。閉鎖破裂音の場合、OCは典型的に低いがゼロではない。
Δ(f,l)>0ならば ∀f=1...Nf
そうでなければOCl=0
ここで、Nfは周波数チャネルの総数(この場合には44)であり、μΔ,lは、所与のlについての全ての周波数チャネルにわたるΔ(f,l)の平均値である。全てのチャネルにおいてΔ(f,l)が正となっているタイム・フレームを識別することができる。これらのタイム・フレームについての、全ての周波数チャネルにわたるΔ(f,l)の標準偏差が、そのフレームについてのOCである。他の全てのタイム・フレームについてのOCは、ゼロである。例えば、図2のグラフ206は、要素202における音声信号についてのOCを示す。摩擦音オンセット(1315ms)についてのOCはゼロであり、母音オンセット(975ms)についてのOCは高く、閉鎖音オンセット(950ms及び1230ms)についてのOCは比較的低いことにも留意されたい。
104:文構造情報
106:音響パラメータの計算
108:APベースの音/単語成分
110:ASRエンジン
112:Rsmについてのマップ
202:スペクトル
204:ゼロ交差率
206:オンセット・コヒーレンス
208:スペクトル・エネルギー比
302:摩擦音
304:閉鎖破裂音
306:母音
502:プロセッサ
504:メモリ
506:ディスプレイ
508:キーボード
510:バス
514:ネットワーク・インターフェース
516:媒体インターフェース
518:媒体
Claims (19)
- 話者の1つ又は複数の口語言語技能を評価するための方法であって、
話者により発声された音声パッセージにおいて、1つ又は複数の対象となる時間的位置を識別するステップと、
1つ又は複数の音響パラメータを計算するステップであって、前記1つ又は複数の音響パラメータは、前記1つ又は複数の対象となる位置の1つ又は複数の音響音声学的特徴の1つ又は複数の特性を捉える、ステップと、
口語言語技能評価の出力を修正するために前記1つ又は複数の音響パラメータを自動音声認識装置の出力と組み合わせるステップと、
を含む方法。 - 前記話者により発声された音声パッセージにおいて1つ又は複数の対象となる時間的位置を識別するステップは、1つ又は複数の対象となる音を位置決めするステップを含む、請求項1に記載の方法。
- 前記話者により発声された音声パッセージにおいて1つ又は複数の対象となる時間的位置を識別するステップは、サンプル音声パッセージと前記話者により発声された前記音声パッセージとの間の、1つ又は複数の音響相違点を位置決めするステップを含む、請求項1に記載の方法。
- 前記話者により発声された音声パッセージにおいて1つ又は複数の対象となる時間的位置を識別するステップは、1つ又は複数の音響学的に類似した選択肢の中から発声された発話を識別するステップを含む、請求項1に記載の方法。
- 前記1つ又は複数の音響パラメータを自動音声認識装置の出力と組み合わせるステップは、前記1つ又は複数の音響パラメータから得られた発声領域の音響的識別についての情報を、音声認識システムから得られた音響的識別と組み合わせるステップを含む、請求項1に記載の方法。
- 前記1つ又は複数の音響パラメータを計算するステップは、摩擦音、母音及び閉鎖破裂音のオンセット間の1つ又は複数のスペクトル差を判定するための音響パラメータを計算するステップを含む、請求項1に記載の方法。
- 前記話者の1つ又は複数の口語言語技能は、前記話者の文法的技能及び前記話者の発音技能のうちの少なくとも1つを含む、請求項1に記載の方法。
- 認識精度を向上させるために自動音声認識システムからの時間整合情報を用いるステップをさらに含む、請求項1に記載の方法。
- 前記自動音声認識システムからの前記時間整合情報にある一定の2方向の時間的許容差を容認するステップをさらに含む、請求項8に記載の方法。
- 前記話者により発声された音声パッセージにおける対象となる1つ又は複数の時間的位置は、予め定義された1つ又は複数のインパクト音の集合に対応する1つ又は複数の領域を含む、請求項1に記載の方法。
- 前記話者により発声された音声パッセージにおける対象となる1つ又は複数の時間的位置は、1つ又は複数の音響相違点が顕著である1つ又は複数の領域を含む、請求項1に記載の方法。
- 言語障害を有する話者の音声プロファイリングを行うステップをさらに含む、請求項1に記載の方法。
- 話者の1つ又は複数の口語言語技能を評価するためのコンピュータ・プログラムであって、コンピュータに、
話者により発声された音声パッセージにおいて、1つ又は複数の対象となる時間的位置を識別するステップと、
1つ又は複数の音響パラメータを計算するステップであって、前記1つ又は複数の音響パラメータは、前記1つ又は複数の対象となる位置の1つ又は複数の音響音声学的特徴の1つ又は複数の特性を捉える、ステップと、
口語言語技能評価の出力を修正するために前記1つ又は複数の音響パラメータを自動音声認識装置の出力と組み合わせるステップと、
を実行させる、コンピュータ・プログラム。 - 話者の1つ又は複数の口語言語技能を評価するためのシステムであって、
メモリと、
前記メモリに結合された少なくとも1つのプロセッサであって、
話者により発声された音声パッセージにおいて、1つ又は複数の対象となる時間的位置を識別し、
1つ又は複数の音響パラメータであって、前記1つ又は複数の対象となる位置の1つ又は複数の音響音声学的特徴の1つ又は複数の特性を捉える1つ又は複数の音響パラメータを計算し、
口語言語技能評価の出力を修正するために前記1つ又は複数の音響パラメータを自動音声認識装置の出力と組み合わせる
ように動作するプロセッサと、
を含むシステム。 - 前記話者により発声された音声パッセージにおいて1つ又は複数の対象となる時間的位置を識別することにおいて、前記メモリに結合された前記少なくとも1つのプロセッサは、1つ又は複数の対象となる音を位置決めするようにさらに動作する、請求項14に記載のシステム。
- 前記話者により発声された音声パッセージにおいて1つ又は複数の対象となる時間的位置を識別することにおいて、前記メモリに結合された前記少なくとも1つのプロセッサは、サンプル音声パッセージと前記話者により発声された前記音声パッセージとの間の、1つ又は複数の音響相違点を位置決めするようにさらに動作する、請求項14に記載のシステム。
- 前記1つ又は複数の音響パラメータを計算することにおいて、前記メモリに結合された前記少なくとも1つのプロセッサは、摩擦音、母音及び閉鎖破裂音のオンセット間の1つ又は複数のスペクトル差を判定するための音響パラメータを計算するようにさらに動作する、請求項14に記載のシステム。
- 前記メモリに結合された前記少なくとも1つのプロセッサは、認識精度を向上させるために自動音声認識システムからの時間整合情報を用いるようにさらに動作する、請求項14に記載のシステム。
- 話者の1つ又は複数の口語言語技能を評価するための装置であって、
話者により発声された音声パッセージにおいて、1つ又は複数の対象となる時間的位置を識別するための手段と、
1つ又は複数の音響パラメータを計算するための手段であって、前記1つ又は複数の音響パラメータは、前記1つ又は複数の対象となる位置の1つ又は複数の音響音声学的特徴の1つ又は複数の特性を捉える、手段と、
口語言語技能評価の出力を修正するために前記1つ又は複数の音響パラメータを自動音声認識装置の出力と組み合わせるための手段と、
を含む装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/354849 | 2009-01-16 | ||
US12/354,849 US8775184B2 (en) | 2009-01-16 | 2009-01-16 | Evaluating spoken skills |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010164971A true JP2010164971A (ja) | 2010-07-29 |
JP5270588B2 JP5270588B2 (ja) | 2013-08-21 |
Family
ID=42337631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010005595A Expired - Fee Related JP5270588B2 (ja) | 2009-01-16 | 2010-01-14 | 口語技能の評価 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8775184B2 (ja) |
JP (1) | JP5270588B2 (ja) |
CN (1) | CN101782941A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012177913A (ja) * | 2011-02-02 | 2012-09-13 | Jvc Kenwood Corp | 子音区間検出装置および子音区間検出方法 |
JP2012203351A (ja) * | 2011-03-28 | 2012-10-22 | Yamaha Corp | 子音識別装置、およびプログラム |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9262397B2 (en) | 2010-10-08 | 2016-02-16 | Microsoft Technology Licensing, Llc | General purpose correction of grammatical and word usage errors |
US10019995B1 (en) | 2011-03-01 | 2018-07-10 | Alice J. Stiebel | Methods and systems for language learning based on a series of pitch patterns |
US11062615B1 (en) | 2011-03-01 | 2021-07-13 | Intelligibility Training LLC | Methods and systems for remote language learning in a pandemic-aware world |
US8855997B2 (en) * | 2011-07-28 | 2014-10-07 | Microsoft Corporation | Linguistic error detection |
CN103151042B (zh) * | 2013-01-23 | 2016-02-24 | 中国科学院深圳先进技术研究院 | 全自动口语评测管理与评分系统及其评分方法 |
US10319254B2 (en) * | 2013-03-15 | 2019-06-11 | Joel Lane Mayon | Graphical user interfaces for spanish language teaching |
WO2015111771A1 (ko) * | 2014-01-24 | 2015-07-30 | 숭실대학교산학협력단 | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 |
US9613638B2 (en) * | 2014-02-28 | 2017-04-04 | Educational Testing Service | Computer-implemented systems and methods for determining an intelligibility score for speech |
US9613140B2 (en) * | 2014-05-16 | 2017-04-04 | International Business Machines Corporation | Real-time audio dictionary updating system |
CN105810214B (zh) * | 2014-12-31 | 2019-11-05 | 展讯通信(上海)有限公司 | 语音激活检测方法及装置 |
US20170337923A1 (en) * | 2016-05-19 | 2017-11-23 | Julia Komissarchik | System and methods for creating robust voice-based user interface |
CN106782609A (zh) * | 2016-12-20 | 2017-05-31 | 杨白宇 | 一种口语比对方法 |
CN111028853A (zh) * | 2019-11-25 | 2020-04-17 | 探客柏瑞科技(北京)有限公司 | 一种口语表达力评估方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06110494A (ja) * | 1992-09-08 | 1994-04-22 | Osaka Gas Co Ltd | 発音学習装置 |
JPH11143346A (ja) * | 1997-11-05 | 1999-05-28 | Seiko Epson Corp | 語学練習用発話評価方法およびその装置並びに発話評価処理プログラムを記憶した記憶媒体 |
JP2006154212A (ja) * | 2004-11-29 | 2006-06-15 | Ntt Advanced Technology Corp | 音声評価方法および評価装置 |
JP2006195092A (ja) * | 2005-01-12 | 2006-07-27 | Yamaha Corp | 発音矯正支援装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4764966A (en) * | 1985-10-11 | 1988-08-16 | International Business Machines Corporation | Method and apparatus for voice detection having adaptive sensitivity |
US5574823A (en) * | 1993-06-23 | 1996-11-12 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Communications | Frequency selective harmonic coding |
US5742928A (en) * | 1994-10-28 | 1998-04-21 | Mitsubishi Denki Kabushiki Kaisha | Apparatus and method for speech recognition in the presence of unnatural speech effects |
US6109923A (en) * | 1995-05-24 | 2000-08-29 | Syracuase Language Systems | Method and apparatus for teaching prosodic features of speech |
US6070140A (en) * | 1995-06-05 | 2000-05-30 | Tran; Bao Q. | Speech recognizer |
US5799276A (en) * | 1995-11-07 | 1998-08-25 | Accent Incorporated | Knowledge-based speech recognition system and methods having frame length computed based upon estimated pitch period of vocalic intervals |
WO1998014934A1 (en) * | 1996-10-02 | 1998-04-09 | Sri International | Method and system for automatic text-independent grading of pronunciation for language instruction |
US5857173A (en) * | 1997-01-30 | 1999-01-05 | Motorola, Inc. | Pronunciation measurement device and method |
US6317712B1 (en) * | 1998-02-03 | 2001-11-13 | Texas Instruments Incorporated | Method of phonetic modeling using acoustic decision tree |
US6397185B1 (en) * | 1999-03-29 | 2002-05-28 | Betteraccent, Llc | Language independent suprasegmental pronunciation tutoring system and methods |
US7292980B1 (en) * | 1999-04-30 | 2007-11-06 | Lucent Technologies Inc. | Graphical user interface and method for modifying pronunciations in text-to-speech and speech recognition systems |
US6963837B1 (en) * | 1999-10-06 | 2005-11-08 | Multimodal Technologies, Inc. | Attribute-based word modeling |
US7177808B2 (en) * | 2000-11-29 | 2007-02-13 | The United States Of America As Represented By The Secretary Of The Air Force | Method for improving speaker identification by determining usable speech |
US20020086268A1 (en) * | 2000-12-18 | 2002-07-04 | Zeev Shpiro | Grammar instruction with spoken dialogue |
US7171357B2 (en) * | 2001-03-21 | 2007-01-30 | Avaya Technology Corp. | Voice-activity detection using energy ratios and periodicity |
US7013276B2 (en) * | 2001-10-05 | 2006-03-14 | Comverse, Inc. | Method of assessing degree of acoustic confusability, and system therefor |
US7089188B2 (en) * | 2002-03-27 | 2006-08-08 | Hewlett-Packard Development Company, L.P. | Method to expand inputs for word or document searching |
US7219059B2 (en) * | 2002-07-03 | 2007-05-15 | Lucent Technologies Inc. | Automatic pronunciation scoring for language learning |
US7146319B2 (en) * | 2003-03-31 | 2006-12-05 | Novauris Technologies Ltd. | Phonetically based speech recognition system and method |
US8036893B2 (en) * | 2004-07-22 | 2011-10-11 | Nuance Communications, Inc. | Method and system for identifying and correcting accent-induced speech recognition difficulties |
US8478597B2 (en) * | 2005-01-11 | 2013-07-02 | Educational Testing Service | Method and system for assessing pronunciation difficulties of non-native speakers |
US20090070100A1 (en) * | 2007-09-11 | 2009-03-12 | International Business Machines Corporation | Methods, systems, and computer program products for spoken language grammar evaluation |
-
2009
- 2009-01-16 US US12/354,849 patent/US8775184B2/en not_active Expired - Fee Related
-
2010
- 2010-01-14 JP JP2010005595A patent/JP5270588B2/ja not_active Expired - Fee Related
- 2010-01-15 CN CN201010002954A patent/CN101782941A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06110494A (ja) * | 1992-09-08 | 1994-04-22 | Osaka Gas Co Ltd | 発音学習装置 |
JPH11143346A (ja) * | 1997-11-05 | 1999-05-28 | Seiko Epson Corp | 語学練習用発話評価方法およびその装置並びに発話評価処理プログラムを記憶した記憶媒体 |
JP2006154212A (ja) * | 2004-11-29 | 2006-06-15 | Ntt Advanced Technology Corp | 音声評価方法および評価装置 |
JP2006195092A (ja) * | 2005-01-12 | 2006-07-27 | Yamaha Corp | 発音矯正支援装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012177913A (ja) * | 2011-02-02 | 2012-09-13 | Jvc Kenwood Corp | 子音区間検出装置および子音区間検出方法 |
JP2012203351A (ja) * | 2011-03-28 | 2012-10-22 | Yamaha Corp | 子音識別装置、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN101782941A (zh) | 2010-07-21 |
JP5270588B2 (ja) | 2013-08-21 |
US20100185435A1 (en) | 2010-07-22 |
US8775184B2 (en) | 2014-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5270588B2 (ja) | 口語技能の評価 | |
Le et al. | Automatic quantitative analysis of spontaneous aphasic speech | |
Hirschberg et al. | Prosodic and other cues to speech recognition failures | |
Alam et al. | Supervised/unsupervised voice activity detectors for text-dependent speaker recognition on the RSR2015 corpus | |
KR20050082249A (ko) | 도메인 기반 대화 음성인식방법 및 장치 | |
KR20070047579A (ko) | 주제 영역 검출을 이용한 대화체 음성 인식 장치 및 방법 | |
Fukuda et al. | Detecting breathing sounds in realistic Japanese telephone conversations and its application to automatic speech recognition | |
Le et al. | Automatic Paraphasia Detection from Aphasic Speech: A Preliminary Study. | |
WO2018077244A1 (en) | Acoustic-graphemic model and acoustic-graphemic-phonemic model for computer-aided pronunciation training and speech processing | |
Keshet | Automatic speech recognition: A primer for speech-language pathology researchers | |
Luo et al. | Improvement of segmental mispronunciation detection with prior knowledge extracted from large L2 speech corpus | |
Padi et al. | Attention Based Hybrid i-Vector BLSTM Model for Language Recognition. | |
Mary et al. | Searching speech databases: features, techniques and evaluation measures | |
Qian et al. | Improving Sub-Phone Modeling for Better Native Language Identification with Non-Native English Speech. | |
Pradhan et al. | Speaker verification under degraded condition: a perceptual study | |
Huang et al. | Advances in unsupervised audio segmentation for the broadcast news and ngsw corpora | |
Kitayama et al. | Speech starter: noise-robust endpoint detection by using filled pauses. | |
Li et al. | Speaker verification based on fusion of acoustic and articulatory information. | |
JP5427140B2 (ja) | 音声認識方法、音声認識装置及び音声認識プログラム | |
Motlicek et al. | Application of out-of-language detection to spoken term detection | |
Nouza et al. | Fast keyword spotting in telephone speech | |
Tong et al. | Fusion of acoustic and tokenization features for speaker recognition | |
Joshi et al. | Acoustic models for pronunciation assessment of vowels of Indian English | |
Arsikere et al. | Speaker recognition via fusion of subglottal features and MFCCs. | |
Qian et al. | Improving native language (l1) identifation with better vad and tdnn trained separately on native and non-native english corpora |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130509 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |