JP5066483B2 - 言語理解装置 - Google Patents
言語理解装置 Download PDFInfo
- Publication number
- JP5066483B2 JP5066483B2 JP2008134401A JP2008134401A JP5066483B2 JP 5066483 B2 JP5066483 B2 JP 5066483B2 JP 2008134401 A JP2008134401 A JP 2008134401A JP 2008134401 A JP2008134401 A JP 2008134401A JP 5066483 B2 JP5066483 B2 JP 5066483B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- concept
- language understanding
- understanding
- weight value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000007704 transition Effects 0.000 claims abstract description 62
- 238000012545 processing Methods 0.000 claims abstract description 59
- 230000001186 cumulative effect Effects 0.000 claims abstract description 18
- 239000000945 filler Substances 0.000 claims description 70
- 238000000034 method Methods 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 208000027697 autoimmune lymphoproliferative syndrome due to CTLA4 haploinsuffiency Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Description
Stephanie Seneff,"TINA: A natural language system for spoken language applications.",Computational Linguistics, Vol.18, No.1, pp. 61-86, 1992. Katsuhito Sudoh and Hajime Tsukada,"Tightly integrated spoken language understanding using word-to-concept translation.",In Proc. EUROSPEECH, pp. 429-432, 2005. Alexandors Potamianos and Hong-KwangJ. Kuo.,"Statistical recursive finite state machine parsing for speech understanding.",In Proc. ICSLP, pp. 510-513, 2000. Chai Wutiwiwatchai and Sadaoki Furui,"Hybrid statistical and structural semantic modeling for Thai multi-stage spoken language understanding.",In Proc. HLT-NAACL Workshop on Spoken Language Understanding for Conversational Systems and Higher Level Linguistic Information for Speech Processing, pp. 2-9, 2004.
つまり、WFSTに対する重みづけを、音声認識結果のレベル(単語ごとのレベル)と言語理解結果であるコンセプトのレベル(コンセプトごとのレベル)の2つのレベルで行なうことにより、膨大な学習データを用意することなく、言語理解の精度を比較的容易に向上させることができる。
冗長な発話による単語(例えば、「えーと」、「あのー」など)がフィラーにマッチすることにより、頑健な言語理解が可能となる。
なお、単語重み値やコンセプト重み値が正の値であるとき、フィラー重み値は負の値とすることが好適である。これにより、フィラーにマッチした度合いの高い理解結果が選択されにくくなり、言語理解の精度向上の観点から都合が良い。
この結果、言語理解の精度をさらに向上させることができる。
この結果、言語理解の精度をさらに向上させることができる。
[第1の実施の形態]
図1は、本発明の第1の実施形態による言語理解装置の機能構成を示すブロック図である。図示するように、言語理解装置1は、言語理解モデル記憶部10と、有限状態変換器処理部20と、コンセプト重み付け処理部30と、理解結果決定部40とを含んで構成される。
音声対話システムの言語理解として、タグ付けされたコーパスを利用した学習による方法が提案されている(非特許文献2)。この方法では、コーパスから音声認識結果とそれに対応するコンセプトの組の出現確率を学習する。したがって、言語理解装置の構築には大量のタグ付けされたコーパスが必要であり、新たなドメインの言語理解装置を構築するのは容易ではない。言語理解の手法として、WFSTを利用した方法も提案されている(非特許文献3,非特許文献4)。ここでまず、FSTについて簡単に説明する。一般に、FSTは入力列に対して、状態を遷移しながら入力に応じた列を出力するオートマトンで、一種の変換器とみなせる。WFSTでは、各状態遷移に対して重みを設定でき、最終的な出力列の他に累積重みが得られる。図3にWFSTの例を示す。この図では、“a:y/0.7”は“a”が入力されたら“y”を出力し、0.7を累積重みに足して遷移することを示している。この例では、入力“abbd”に対して“yzz”が出力される。その時の累積重みは2.5である。
我々はWFSTに対する重みづけを2つのレベルで定義する。ひとつは、音声認識結果に対する重みづけで単語レベルで信頼できる出力結果を選択するために設定する。もうひとつは、コンセプトに対する重みづけでコンセプトレベルで信頼できる出力結果を選択するために設定する。コンセプトに対する重みづけは、認識された単語よりも抽象的なレベルでの正しさを反映する。また、音声認識結果に対する重みづけは受理単語に対する重みづけとFILLERに対する重みづけの2つに分けられる。本節では、これらの重みづけを説明する。
WFSTに入力し受理された単語、つまりFILLER以外の単語に対して重みづけを行う。この重みづけでは、音声認識結果の単語レベルで信頼できる単語に対してより大きな重みを与える。通常は、フィラー以外の単語が出力列に多くなるように、音声認識結果が信頼できる入力が優先されるように設定する。我々は、この重みづけwwを以下のように設計した。
(1)word(const.): ww=1.0
(2)word(#phone): ww=l(W)
(3)word(CM): ww=CM(W)
word(const.)は受理された全ての単語に対して一定の重みを加える。この重みづけは、受理単語の数が多い出力を優先するための設計である。word(#phone)は、各受理単語の長さを考慮に入れた重みづけである。各単語の長さは、それぞれの音素数で計算し、システムの語彙中で最も長い単語の長さで正規化する。単語Wに対してこの正規化された値をl(W)(0<l(W)≦1)とする。word(#phone)は、入力列の長さをword(const.)よりも詳細に表現していると言える。さらに、受理単語の信頼度を考慮に入れたword(CM)も提案する。この重みづけは、音声認識結果中の単語Wに対する信頼度CM(W)を利用している。この重みづけは、Wに対する音声認識結果がどれだけ信頼できるかを反映しており、長くかつ信頼できる出力列を優先するための設計と言える。
文献: Akinobu Lee, Kiyohiro Shikano, and Tatsuya Kawahara,“Real-time word confidence scoring using local posterior probabilities on tree trellis search.”,In Proc. ICASSP, Vol.1, pp. 793-796, 2004.
我々はフィラーに対する重みも設計した。すべての入力単語をフィラーとして扱えるので、フィラーに対する重みはペナルティとして考え、負の値を設定した。一般的には、入力となる音声認識結果が信頼でき、正しい理解結果が含まれているならば、フィラーが少なくかつ短い出力列を優先するように設定する。我々は、受理単語に対する重みづけと同様にして以下のように重みづけwfを2 種類設計した。
(1)FILLER(const.): wf=−1.0
(2)FILLER(#phone): wf=−l(W)
FILLER(const.)はフィラーの数に対するペナルティであり、FILLER(#phone)はフィラーとされた単語の長さも考慮したペナルティである。
我々は、単語レベルでの重みに加えて、コンセプトレベルにおける重みも設計した。コンセプトは、複数の単語から成り,音声認識結果をWFSTに入力することで得られる。コンセプトに対する重みは、それぞれのコンセプトに含まれる単語の信頼度などを用いて計算する。
(1)cpt(const.): wc=1.0
言語理解結果は、以上で示した3種類の重みww,wf,wcの重みつき和である累積重みwによって選ばれる。言語理解装置は、累積重みw が最も大きい出力列を選ぶ。
<3.1 実験条件>
上の「2.音声認識結果とコンセプトに対する重みづけ」で定義した重みづけを実験的に評価する。実験ではまず、ユーザ発話の音声認識結果をWFSTに入力し、累積重みwが最も高い出力列を言語理解結果として採用する。この言語理解結果を正解データと比較して言語理解精度を計算する。なお、言語理解が得られない「なし」が正解であることもあるので、音声認識率が0%でも言語理解精度が100%になることはありうる。実験では、重みづけや各重みの係数αw,αf,αcをさまざまな組合せで変化させ言語理解精度を比べた。係数αwは1.0に固定し,他の係数αfとαcを0,0.5,1.0,2.0,3.0,4.0,5.0と変化させた。αf=0あるいはαc=0は、対応する重みが利用されないことを表している。
本稿では、入力に対して単純に文法との最長一致をとる言語理解をベースラインとする。このベースラインは、重みづけをww=word(const.)に、αfを0に(FILLERに対する重みづけは利用しない)、αcを0に(コンセプトに対する重みづけは利用しない)する場合が相当する。
3.2節の結果より、最適な重みづけの組み合わせは発話の音声認識率に合わせて決定すると改善することが分かる。そこで、音声認識率ごとに適切なパラメータの組み合わせを調べた。発話データを音声認識率ごとに分類し、それぞれの音声認識率ごとに言語理解精度を計算した。そして、各認識精度ごとにベースラインと言語理解精度を比べた。図7、図8はその結果である。表中のクラス10〜30は、音声認識率が10%以上30%未満であることを表す。ただし、90〜100は100%も含む。
言語理解装置1には、音声認識結果が入力される。この音声認識結果は、単語の列である。また、この音声認識結果に、前段の音声認識の処理の際の音声認識率のデータや、単語ごとの信頼度のデータが含まれていても良い。
音声検出部2は、マイクを通して入力される外部からの音声信号に基づき、利用者の声の区間を検出し、その音声区間の音声波形のデータを出力する。
次に、本発明の第2の実施形態について説明する。本実施形態では、音声認識結果のNベスト候補(N−Best候補)を利用する。Nベスト候補を利用すれば、認識結果の第1候補に正しい認識結果が含まれていない場合でも、Nベスト候補中に正しい認識結果が含まれていれば、その結果を利用して言語理解精度のさらなる向上が可能となる。
図11は、音声認識結果のNベスト出力の一例を示す概略図である。図示する例では、ランクにおいて1番目の音声認識結果は「No, it is January twenty second」(いいえ、1月22日です)であり、2番目の音声認識結果は「No, it is February twenty second」(いいえ、2月22日です)である。本実施形態の言語理解装置は、ランクにおいて1番目の音声認識結果だけでなく、2番目の音声認識結果による言語理解結果も言語理解結果候補となり得る。そして、重み付き和wの結果に応じて、2番目あるいはそれ以下のランクの音声認識結果に基づく言語理解結果候補が最終的に出力される。
また例えば、音声認識結果のNベスト候補を用いる場合、これらの候補についての音声認識処理の信頼度をも加味して理解結果決定部が理解結果候補の中から理解結果を決定するようにしても良い。
10,210 言語理解モデル記憶部
20,220 有限状態変換器処理部(WFST)
30,230 コンセプト重み付け処理部
40,240 理解結果決定部
Claims (3)
- 遷移前状態と入力単語と出力と正の値である単語重み値情報と遷移先状態とを含む組である単語遷移データと、単数又は複数の単語に対応する言語理解結果であるコンセプトと該コンセプトに対応する正の値であるコンセプト重み値情報とを含む組であるコンセプト重みデータと、遷移前状態、任意の単語にマッチするフィラー、負の値であるフィラー重み値情報及び遷移先状態を含む組であるフィラー遷移データと、を言語理解モデルとして記憶する言語理解モデル記憶部と、
入力される単語系列に含まれる単語と現状態とに基づき、前記言語理解モデル記憶部から読み出した前記単語遷移データに従って、定義された前記出力を理解結果候補として出力し、単語重み値を累積し、前記言語理解モデル記憶部から読み出した前記フィラー遷移データに従って、フィラー重み値を累積し、前記遷移先状態に遷移する状態遷移動作を順次行なう有限状態変換器処理部と、
前記言語理解モデル記憶部から読み出した前記コンセプト重みデータに従って、前記有限状態変換器処理部から出力された前記理解結果候補に含まれるコンセプトに対応するコンセプト重み値を累積するコンセプト重み付け処理部と、
出力された複数の系列の前記理解結果候補の中から、前記累積された単語重み値と前記累積されたコンセプト重み値と、前記累積されたフィラー重み値と、の重み付き和である累積重みが最大となる理解結果を決定する理解結果決定部と、
を具備する言語理解装置。 - 請求項1に記載の言語理解装置において、
前記入力される単語系列は、音声認識処理の結果得られる単語系列であり、
前記言語理解モデル記憶部は、前記音声認識処理の音声認識率に応じた前記単語重み値情報と前記コンセプト重み値情報とを記憶するものであり、
前記理解結果決定部は、前記音声認識率に応じた前記単語重み値情報に基づいて得られた前記累積された単語重み値と、前記音声認識率に応じた前記コンセプト重み値情報に基づいて得られた前記累積されたコンセプト重み値と、に基づき理解結果を決定するものである、
ことを特徴とする言語理解装置。 - 請求項1又は2に記載の言語理解装置において、
前記入力される単語系列は、N種類(Nは2以上の自然数)あり、
前記有限状態変換器処理部は、N種類の前記単語系列それぞれについて前記状態遷移動作を行なって対応する前記理解結果候補を出力するものであり、
前記理解結果決定部は、前記N種類の前記単語系列に対応するすべての理解結果候補の中から前記理解結果を決定するものである、
ことを特徴とする言語理解装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US93942207P | 2007-05-22 | 2007-05-22 | |
US60/939,422 | 2007-05-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008293019A JP2008293019A (ja) | 2008-12-04 |
JP5066483B2 true JP5066483B2 (ja) | 2012-11-07 |
Family
ID=39592581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008134401A Expired - Fee Related JP5066483B2 (ja) | 2007-05-22 | 2008-05-22 | 言語理解装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8244522B2 (ja) |
EP (1) | EP2003572B1 (ja) |
JP (1) | JP5066483B2 (ja) |
DE (1) | DE602008002017D1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8073681B2 (en) | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
US7818176B2 (en) | 2007-02-06 | 2010-10-19 | Voicebox Technologies, Inc. | System and method for selecting and presenting advertisements based on natural language processing of voice-based input |
US8140335B2 (en) | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US9305548B2 (en) | 2008-05-27 | 2016-04-05 | Voicebox Technologies Corporation | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
JP5530729B2 (ja) | 2009-01-23 | 2014-06-25 | 本田技研工業株式会社 | 音声理解装置 |
US8326637B2 (en) | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
JP5311500B2 (ja) * | 2010-02-05 | 2013-10-09 | Kddi株式会社 | 音声認識装置 |
US8650031B1 (en) * | 2011-07-31 | 2014-02-11 | Nuance Communications, Inc. | Accuracy improvement of spoken queries transcription using co-occurrence information |
US9594744B2 (en) * | 2012-11-28 | 2017-03-14 | Google Inc. | Speech transcription including written text |
JP6245846B2 (ja) | 2013-05-30 | 2017-12-13 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 音声認識における読み精度を改善するシステム、方法、およびプログラム |
US10102851B1 (en) * | 2013-08-28 | 2018-10-16 | Amazon Technologies, Inc. | Incremental utterance processing and semantic stability determination |
US8825585B1 (en) * | 2014-03-11 | 2014-09-02 | Fmr Llc | Interpretation of natural communication |
US9898459B2 (en) | 2014-09-16 | 2018-02-20 | Voicebox Technologies Corporation | Integration of domain information into state transitions of a finite state transducer for natural language processing |
EP3195145A4 (en) | 2014-09-16 | 2018-01-24 | VoiceBox Technologies Corporation | Voice commerce |
US9747896B2 (en) | 2014-10-15 | 2017-08-29 | Voicebox Technologies Corporation | System and method for providing follow-up responses to prior natural language inputs of a user |
US9792095B2 (en) | 2014-11-25 | 2017-10-17 | Symbol Technologies, Llc | Apparatus and method for converting a procedure manual to an automated program |
US10431214B2 (en) | 2014-11-26 | 2019-10-01 | Voicebox Technologies Corporation | System and method of determining a domain and/or an action related to a natural language input |
US10614799B2 (en) | 2014-11-26 | 2020-04-07 | Voicebox Technologies Corporation | System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance |
WO2018023106A1 (en) | 2016-07-29 | 2018-02-01 | Erik SWART | System and method of disambiguating natural language processing requests |
JP6599914B2 (ja) | 2017-03-09 | 2019-10-30 | 株式会社東芝 | 音声認識装置、音声認識方法およびプログラム |
US11449762B2 (en) | 2018-02-20 | 2022-09-20 | Pearson Education, Inc. | Real time development of auto scoring essay models for custom created prompts |
WO2019164981A1 (en) | 2018-02-20 | 2019-08-29 | Pearson Education, Inc. | Systems and methods for automated evaluation model customization |
CN108564941B (zh) * | 2018-03-22 | 2020-06-02 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、设备及存储介质 |
CN112884440B (zh) * | 2021-03-02 | 2024-05-24 | 岭东核电有限公司 | 核电试验中的试验工序执行方法、装置和计算机设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6009382A (en) * | 1996-08-19 | 1999-12-28 | International Business Machines Corporation | Word storage table for natural language determination |
US6377949B1 (en) * | 1998-09-18 | 2002-04-23 | Tacit Knowledge Systems, Inc. | Method and apparatus for assigning a confidence level to a term within a user knowledge profile |
US6278968B1 (en) * | 1999-01-29 | 2001-08-21 | Sony Corporation | Method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system |
JP2001188783A (ja) | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
US6859778B1 (en) * | 2000-03-16 | 2005-02-22 | International Business Machines Corporation | Method and apparatus for translating natural-language speech using multiple output phrases |
US7197460B1 (en) * | 2002-04-23 | 2007-03-27 | At&T Corp. | System for handling frequently asked questions in a natural language dialog service |
US7299180B2 (en) * | 2002-12-10 | 2007-11-20 | International Business Machines Corporation | Name entity extraction using language models |
JP4293340B2 (ja) | 2003-02-18 | 2009-07-08 | 幸宏 伊東 | 対話理解装置 |
JP2005257917A (ja) | 2004-03-10 | 2005-09-22 | Nippon Telegr & Teleph Corp <Ntt> | 音声解釈方法、音声解釈装置、音声解釈プログラム |
JP4661239B2 (ja) | 2005-01-31 | 2011-03-30 | 日産自動車株式会社 | 音声対話装置及び音声対話方法 |
US8898052B2 (en) * | 2006-05-22 | 2014-11-25 | Facebook, Inc. | Systems and methods for training statistical speech translation systems from speech utilizing a universal speech recognizer |
US7437291B1 (en) * | 2007-12-13 | 2008-10-14 | International Business Machines Corporation | Using partial information to improve dialog in automatic speech recognition systems |
JP5530729B2 (ja) * | 2009-01-23 | 2014-06-25 | 本田技研工業株式会社 | 音声理解装置 |
-
2008
- 2008-05-20 US US12/123,757 patent/US8244522B2/en active Active
- 2008-05-20 EP EP08009282A patent/EP2003572B1/en not_active Expired - Fee Related
- 2008-05-20 DE DE602008002017T patent/DE602008002017D1/de active Active
- 2008-05-22 JP JP2008134401A patent/JP5066483B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US8244522B2 (en) | 2012-08-14 |
JP2008293019A (ja) | 2008-12-04 |
DE602008002017D1 (de) | 2010-09-16 |
US20080294437A1 (en) | 2008-11-27 |
EP2003572B1 (en) | 2010-08-04 |
EP2003572A1 (en) | 2008-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5066483B2 (ja) | 言語理解装置 | |
US9911413B1 (en) | Neural latent variable model for spoken language understanding | |
US9972318B1 (en) | Interpreting voice commands | |
US10678504B1 (en) | Maintaining context for voice processes | |
US10923111B1 (en) | Speech detection and speech recognition | |
US8019602B2 (en) | Automatic speech recognition learning using user corrections | |
US10170107B1 (en) | Extendable label recognition of linguistic input | |
US10446147B1 (en) | Contextual voice user interface | |
JP4301102B2 (ja) | 音声処理装置および音声処理方法、プログラム、並びに記録媒体 | |
Souvignier et al. | The thoughtful elephant: Strategies for spoken dialog systems | |
JP4195428B2 (ja) | 多数の音声特徴を利用する音声認識 | |
JP4705023B2 (ja) | 音声認識装置、音声認識方法、及びプログラム | |
JP5172021B2 (ja) | 自動音声認識音響モデルの適合 | |
US20030216912A1 (en) | Speech recognition method and speech recognition apparatus | |
JP2011033680A (ja) | 音声処理装置及び方法、並びにプログラム | |
JP2005010691A (ja) | 音声認識装置、音声認識方法、会話制御装置、会話制御方法及びこれらのためのプログラム | |
JP2013218095A (ja) | 音声認識サーバ統合装置および音声認識サーバ統合方法 | |
JP4072718B2 (ja) | 音声処理装置および方法、記録媒体並びにプログラム | |
JP2007047412A (ja) | 認識文法モデル作成装置、認識文法モデル作成方法、および、音声認識装置 | |
US20020116190A1 (en) | Method and system for frame alignment and unsupervised adaptation of acoustic models | |
JP6552999B2 (ja) | テキスト補正装置、テキスト補正方法、およびプログラム | |
JP4634156B2 (ja) | 音声対話方法および音声対話装置 | |
JP7192882B2 (ja) | 発話リズム変換装置、モデル学習装置、それらの方法、およびプログラム | |
US20040006469A1 (en) | Apparatus and method for updating lexicon | |
JP2000172294A (ja) | 音声認識方法、その装置及びプログラム記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120717 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120813 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5066483 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150817 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |