JP2006208905A - Voice dialog device and voice dialog method - Google Patents
Voice dialog device and voice dialog method Download PDFInfo
- Publication number
- JP2006208905A JP2006208905A JP2005022704A JP2005022704A JP2006208905A JP 2006208905 A JP2006208905 A JP 2006208905A JP 2005022704 A JP2005022704 A JP 2005022704A JP 2005022704 A JP2005022704 A JP 2005022704A JP 2006208905 A JP2006208905 A JP 2006208905A
- Authority
- JP
- Japan
- Prior art keywords
- candidate
- understanding result
- category
- understanding
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は音声対話装置及び音声対話方法に関する。 The present invention relates to a voice dialogue apparatus and a voice dialogue method.
従来技術における音声対話装置は、例えば下記特許文献1に記載されているように、音声入力手段を持ち、前記入力手段によって入力された音声の認識を行ない複数の候補を含む認識結果を出力する音声認識手段を持つ。さらに、この音声対話装置は、前記音声認識手段によって認識された単語が発話された可能性である単語信頼度を計算する単語信頼度演算手段によって単語信頼度を計算する。ここまでに求められた理解結果の単語とその信頼度から理解結果を導きだすために、前記単語を意味上の階層構造で分類したカテゴリにまとめ、同一カテゴリに分類された単語信頼度の合計をカテゴリスコアとして、前記カテゴリの中から発話された可能性が高いカテゴリをカテゴリスコアによって判別する。最後に前記発話された可能性が高いと判別された各カテゴリの中で実際に発話された可能性が高い単語を判別して理解結果を生成する。 For example, as described in Patent Document 1 below, a speech dialogue apparatus according to the related art has a voice input unit, recognizes a voice input by the input unit, and outputs a recognition result including a plurality of candidates. Has a means of recognition. Further, the voice interaction apparatus calculates the word reliability by the word reliability calculation means for calculating the word reliability that is the possibility that the word recognized by the voice recognition means is spoken. In order to derive the understanding result from the word of the understanding result obtained so far and its reliability, the words are grouped into categories classified in a semantic hierarchical structure, and the sum of the word reliability classified into the same category is summed up. As the category score, a category having a high possibility of being uttered from the categories is determined based on the category score. Finally, a word that is highly likely to be actually spoken is determined from each category that has been identified as having a high probability of being spoken, and an understanding result is generated.
従来技術では、理解結果として採用するためのカテゴリ判定は、最終的に理解結果として採用する単語や前記単語の信頼度は考慮せず、単語信頼度の合計のみから一度だけ行われるため、判別されたカテゴリに該当する適当な単語が得られないことがあったり、より高い信頼度をもつ単語があるにもかかわらず低い信頼度の単語が選択されたりするなど、最適な理解結果を生成できないことがあるという問題点があった。 In the prior art, the category determination to be adopted as the understanding result is determined only because the word to be finally adopted as the understanding result and the reliability of the word are not considered, and are performed only once based on the total word reliability. The appropriate understanding result cannot be generated, for example, an appropriate word corresponding to the selected category may not be obtained, or a word with a higher reliability is selected, but a word with a lower reliability is selected. There was a problem that there was.
本発明は前記の問題に鑑みてなされたものであり、本発明が解決しようとする課題は、利用者が入力した音声を高効率で理解して音声対話する音声対話装置及び音声対話方法を提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and the problem to be solved by the present invention is to provide a voice dialogue apparatus and a voice dialogue method for understanding voice inputted by a user with high efficiency and voice dialogue. There is to do.
入力される音声を音声入力手段が音声信号に変換し、該音声信号を音声認識手段が候補単語に変換し、該候補単語が発話された可能性の高さを示す単語信頼度を単語信頼度演算手段が計算し、該候補単語と該単語信頼度とから該音声入力手段に入力された音声言語を言語理解部が理解する音声対話装置であって、該言語理解部は、ユーザの発話が該音声入力手段に入力された場合に、該音声認識手段が出力する候補単語の全てをカテゴリに分類し、該カテゴリの各々について、該カテゴリに属する候補単語の単語信頼度を用いて、該カテゴリに属する候補単語が発話された可能性の高さを示すカテゴリスコアを計算し、該カテゴリスコアが該カテゴリに対して予め定められた閾値以上であるカテゴリの全部または一部を候補カテゴリとして選択するカテゴリ選択処理と、該候補カテゴリに属する候補単語と該候補単語の単語信頼度とに基づいて該候補単語の中から理解結果候補を探索する理解結果候補探索処理とを行い、該理解結果候補探索処理によって理解結果候補が発見されない場合には、該候補カテゴリの集合から1つ以上のカテゴリを除いてなる集合を新しい候補カテゴリの集合として選択するカテゴリ選択処理を行った後に前記理解結果候補探索処理を再び行うことを特徴とする音声対話装置を構成する。 The voice input means converts the input voice into a voice signal, the voice recognition means converts the voice signal into a candidate word, and the word reliability indicating the probability that the candidate word is spoken is a word reliability. A spoken dialogue apparatus in which a language understanding unit understands a spoken language input to the voice input unit based on the candidate word and the word reliability calculated by the calculation unit, and the language understanding unit When input to the speech input means, all candidate words output by the speech recognition means are classified into categories, and for each of the categories, using the word reliability of the candidate words belonging to the category, the category A category score indicating the probability that a candidate word belonging to is uttered is calculated, and all or a part of categories whose category score is equal to or higher than a predetermined threshold for the category are selected as candidate categories. Category selection processing, and understanding result candidate search processing for searching for an understanding result candidate from the candidate words based on the candidate words belonging to the candidate category and the word reliability of the candidate words, and the understanding result candidates When an understanding result candidate is not found by the search process, the understanding result candidate search is performed after performing a category selection process for selecting a set obtained by removing one or more categories from the candidate category set as a new candidate category set. A spoken dialogue apparatus is characterized in that the process is performed again.
本発明の実施によって、利用者が入力した音声を高効率で理解して音声対話する音声対話装置及び音声対話方法を提供することが可能となる。 By implementing the present invention, it is possible to provide a voice dialogue apparatus and a voice dialogue method for understanding voice spoken by a user with high efficiency and carrying out voice dialogue.
図1は、本発明に係る音声対話装置の実施の形態例であるナビゲーション装置の構成を示すブロック図である。図において、ナビゲーション装置100は車両に搭載され、ユーザが音声認識開始を指示するためのスイッチ120と、ユーザの発話音声を含めて、入力される音声を音声信号に変換して出力する音声入力手段であるマイクロフォン130(図中、マイクと表示)と、メモリ140と、地図データやガイダンス音声の音声データを格納するディスク151と、ディスク151を読み取るディスク読み取り装置150と、地図やメニュー画面や制御装置110による音声認識結果を表示するモニタ160と、音声を出力するスピーカ170と、後述するようにマイクロフォン130を介して入力された音声データを音声認識する制御装置110とを備えている。
FIG. 1 is a block diagram showing a configuration of a navigation device which is an embodiment of a voice interaction device according to the present invention. In the figure, a
メモリ140は、ナビゲーション装置100の操作に使用される語句および文、すなわち操作コマンドおよび地名や施設名、道路名などの固有名詞およびこれらの語句を含む文を受理し、音声認識の際に使用される音声認識辞書・文法141と、現時点までの発話の理解結果142を格納する。現時点までの発話の理解結果142は、対話によって次の発話が入力された際に、現発話の理解を過去の発話理解結果と合わせて理解するために使用される。発話理解の詳細については後述する。
The
次に、音声認識に使用する音声認識用辞書・文法141について説明する。本実施の形態例では、カーナビゲーションシステムの目的地設定をメインタスクとする。そのため、入力文としては、「神奈川県」、「横浜駅」などといった施設に関する単語のみの入力と「神奈川県の横浜駅」、「東海道線の横浜駅」などといった複数のキーワードを含んだ文章による入力の両方を受理するよう、音声認識用辞書・文法141を構成する。
Next, the speech recognition dictionary /
制御装置110は入力制御部111と、音声入力手段であるマイクロフォン130が出力する音声信号を候補単語に変換して出力する音声認識手段である音声認識装置112と、該候補単語が発話された可能性の高さを示す単語信頼度を計算する単語信頼度演算手段である単語信頼度演算部113と、該候補単語と該単語信頼度とから該音声入力手段に入力された音声言語を理解する言語理解部114と、応答生成部115と、GUI(ガイダンス)表示制御部116と、音声合成部117とを備えている。入力制御部111はスイッチ120によって指示される音声認識開始合図によって音声認識部112に音声認識開始を指示する。
The
続いて、制御装置110の動作について詳しく説明する。ナビゲーション装置100が起動されると、制御装置110はディスク読み取り装置150を使ってディスク151から音声認識用辞書・文法141をメモリ140上に読み込む。この状態で、スイッチ120が押されると、入力制御部111は音声認識部112に対して音声認識開始を指示する。音声認識部112は入力制御部111より認識開始が指示されると、マイクロフォン130から入力される音声を取り込む。
Next, the operation of the
本実施の形態例における音声認識開始から応答文出力までの処理フローを図2に示す。ユーザが音声認識開始スイッチ120を押して音声認識可能状態になった状態(S0)で、ユーザがマイクロフォン130を使ってナビゲーション100を操作するための文を発話すると(S1)、音声認識部112では、前記マイクロフォン130を介して入力された音声データを、音声認識用辞書・文法141に格納された待ち受け文とマッチング処理する。このマッチング処理の際には、入力された音声データと各待ち受け文との音響的な近さである音響尤度が計算され、この音響尤度が一定の値以上のものを認識結果の候補とする(S2)。
FIG. 2 shows a processing flow from the start of speech recognition to response sentence output in this embodiment. When the user presses the voice
次に、単語信頼度演算部113ではこの認識結果候補と各候補の尤度から、認識結果候補に含まれる全ての単語(候補単語と称する)に対して単語信頼度を計算する(S3)。単語信頼度は直前の一発話において前記単語が発話された可能性をあらわす。単語wの信頼度Conf(w)は以下の式で求められる。
Next, the word
次に、言語理解部114の処理に移る。言語理解部114ではまず、これまでの対話の中で発話された可能性のある全ての単語の単語信頼度を修正する(S4)。認識結果候補中の他の単語との意味上の上下関係の有無や整合性などによって(S3)で求めた単語信頼度を上下させた値が単語信頼度の修正結果となる。例えば、第一発話の認識結果候補中に「東京駅」があり、第二発話の認識結果候補中に「東京都」があった場合、「東京都」と「東京駅」の間には上下関係が成り立つため、お互いの単語信頼度を強めあう。また、前記の例で第一発話の認識結果候補中に「京都駅」があった場合は、「東京都」と「京都駅」の間には上下関係が成り立たないため、お互いの単語信頼度を弱めあう。なお、この単語信頼度の修正は行わなくてもよい。
Next, the processing of the language understanding
単語信頼度の修正(S4)が終わると、候補単語の全てをカテゴリに分類し、各カテゴリスコアについて、カテゴリスコアを計算する(S5)。カテゴリとは、単語を意味上のまとまりで分類したもので、「都道府県カテゴリ」「市区町村カテゴリ」「路線名カテゴリ」「施設名カテゴリ」などがあり、例えば「都道府県カテゴリ」には「東京都」「神奈川県」などの都道府県名が分類され、「施設名カテゴリ」には「横浜駅」「横浜青葉インター」「千葉カントリークラブ」などの目的地設定における最終目的である目的地名が分類される。カテゴリスコアは、同じカテゴリに分類された候補単語の単語信頼度を足し合わせることで求められる。カテゴリスコアは、そのカテゴリに属する候補単語が発話された可能性の高さを示す数となっている。これは、現在の発話で認識候補とされた単語のスコアを理解結果142に保存されている過去に発話された内容の単語のスコアとを足し合わせることで過去の発話内容と今回の発話内容を合わせて対話理解することができる。
When the word reliability correction (S4) ends, all candidate words are classified into categories, and a category score is calculated for each category score (S5). A category is a grouping of words in terms of meaning, and includes "prefecture category", "city category", "route name category", and "facility name category". For example, "prefecture category" Prefectural names such as “Tokyo” and “Kanagawa” are categorized, and the “facility name category” includes the destination name that is the final goal in destination setting such as “Yokohama Station”, “Yokohama Aoba Inter”, and “Chiba Country Club”. being classified. The category score is obtained by adding the word reliability of candidate words classified into the same category. The category score is a number indicating the high possibility that a candidate word belonging to the category has been uttered. This is because the past utterance content and the current utterance content are obtained by adding the score of the word that has been selected as a recognition candidate in the current utterance and the score of the word uttered in the past stored in the
次に、(S5)で求めたカテゴリスコアを元に、選択するべきカテゴリ(候補カテゴリと称する)を選択する(S6、カテゴリ選択処理)。このカテゴリ選択処理において、カテゴリスコアが、そのカテゴリに対して予め定められた閾値以上であるカテゴリの全部または一部を候補カテゴリとして選択する。このカテゴリ選択処理によって、候補カテゴリの集合が1つまたは複数選択される。カテゴリ選択処理の詳細については後述する。 Next, a category to be selected (referred to as a candidate category) is selected based on the category score obtained in (S5) (S6, category selection process). In this category selection process, all or a part of categories whose category score is equal to or higher than a predetermined threshold for the category are selected as candidate categories. By this category selection process, one or a plurality of candidate category sets are selected. Details of the category selection process will be described later.
候補カテゴリが決定すると、この候補カテゴリから理解結果候補として採用する単語または単語組み合わせを検索する(S7、理解結果候補探索処理)。単語は、各カテゴリから1つずつ選択して組み合わせ、意味上の整合性がとれる組み合わせを理解結果候補とする。意味上の整合性がとれる組み合わせとしては、例えば、「東京都」と「東京駅」との組み合わせがあり(東京駅は東京都内にある)、整合性がとれない組み合わせとしては、例えば、「東京都」と「横浜駅」との組み合わせがある(横浜駅は東京都内に無い)。 When a candidate category is determined, a word or a word combination to be adopted as an understanding result candidate is searched from this candidate category (S7, understanding result candidate search process). Words are selected and combined one by one from each category, and combinations that are semantically consistent are taken as understanding result candidates. For example, there is a combination of “Tokyo” and “Tokyo Station” (Tokyo Station is in Tokyo), and a combination that cannot be consistent is, for example, “Tokyo”. There is a combination of “City” and “Yokohama Station” (Yokohama Station is not in Tokyo).
候補カテゴリが1つである場合には、該候補カテゴリに属する候補単語のすべてについて意味上の整合性がとれているので、最も高い単語信頼度を持つ候補単語を理解結果候補とすればよい。 When there is one candidate category, all the candidate words belonging to the candidate category are semantically consistent, so the candidate word having the highest word reliability may be used as the understanding result candidate.
もし、ここで理解結果候補が発見されなければ(S8のNoの分岐として)カテゴリ選択(S6)以下のステップを再び行う。この場合に、候補カテゴリの個数を増やすことによって、理解結果候補を決定することができる場合もありうるが、その場合に、この理解結果候補が発話された可能性は低いので、本発明においては、候補カテゴリの個数を減らして、理解結果候補が決定されるようにする。すなわち、候補カテゴリの集合から1つ以上のカテゴリを除いてなる集合を新しい候補カテゴリの集合として選択するカテゴリ選択処理を行う。この過程において、候補カテゴリの個数を削減する仕方は2つ以上あるので、複数の集合が新しい候補カテゴリの集合として選択される場合がある。そのような場合には、新しい候補カテゴリの集合の各々につて、理解結果候補探索処理(S7)を行う。 If an understanding result candidate is not found here (as a branch of No in S8), the category selection (S6) and subsequent steps are performed again. In this case, it may be possible to determine an understanding result candidate by increasing the number of candidate categories. In this case, however, it is unlikely that the understanding result candidate has been spoken. The number of candidate categories is reduced so that understanding result candidates are determined. That is, a category selection process is performed in which a set obtained by removing one or more categories from a set of candidate categories is selected as a new set of candidate categories. In this process, since there are two or more ways of reducing the number of candidate categories, a plurality of sets may be selected as a set of new candidate categories. In such a case, an understanding result candidate search process (S7) is performed for each set of new candidate categories.
上記の一連の処理によって、理解結果候補は必ず発見される(候補カテゴリが1つになっ場合を考えれば明らか)ので、理解結果候補の中から、例えば、単語信頼度の合計(理解結果候補が単語の場合はその単語信頼度、単語の組み合わせの場合はその単語の単語信頼度の合計)が最も大きいものを最終的な理解結果候補として選択する(S9)。 As a result of the above-described series of processing, an understanding result candidate is always found (obviously, considering the case where there is only one candidate category). In the case of a word, the highest word reliability is selected as the final understanding result candidate (S9).
次に、この最終的な理解結果候補である単語または単語の組み合わせが理解結果として適当であるかどうかを調べ(S10)、適当でない場合はカテゴリ選択(S6)からやり直す。 Next, it is checked whether or not the word or word combination that is the final understanding result candidate is appropriate as the understanding result (S10), and if not, the process is repeated from the category selection (S6).
理解結果として適当な単語または単語の組み合わせが決定すると、その理解結果は応答文生成部115に渡される。応答文生成部115では言語理解部114が生成した理解結果をもとに応答文を生成する(S11)。応答文生成では、目的地設定のために必要な情報が不足していれば不足する情報の入力を即す応答文を生成し、理解結果に選択された単語のスコアが低く、確認が必要と判断される場合には、理解内容の確認のための応答文を生成する。また、目的地が確定した場合には、目的地までの地図を検索し、表示する旨を伝える応答文を生成する。
When an appropriate word or combination of words is determined as an understanding result, the understanding result is passed to the response
この応答文は音声合成部117によって音声として出力される(S12)。 This response sentence is output as speech by the speech synthesizer 117 (S12).
この時、GUI表示制御部116は応答内容をモニタ160上に表示するとともに、地図表示が必要であればディスク読み取り装置150を使ってディスク151から地図データを読み出し、モニタ160に地図を表示して、一連の入力処理を終える(S13)。
At this time, the GUI
前記の構成によって、本発明においては、(候補カテゴリが1つである場合を考えれば明らかなように)理解結果候補を必ず見いだすことが可能となるので、本発明の実施によって、利用者が入力した音声を高効率で理解して音声対話する音声対話装置及び音声対話方法を提供することが可能となる。 With the above configuration, in the present invention, it becomes possible to always find a candidate for an understanding result (as is clear when considering the case where there is one candidate category). Therefore, it is possible to provide a voice dialogue apparatus and a voice dialogue method for understanding voices with high efficiency and carrying out voice dialogues.
次に、カテゴリ選択について詳しく述べるが、まずは、従来例におけるカテゴリ選択および理解結果選択の方法を、図3に示したサンプルデータおよび図4に示したフローチャートを用いて説明する。 Next, category selection will be described in detail. First, a category selection method and an understanding result selection method in the conventional example will be described with reference to the sample data shown in FIG. 3 and the flowchart shown in FIG.
図3の(a)は、音声認識部112が出力する認識結果候補と各候補の尤度を示している。音声入力開始(S0)から単語信頼度修正(S4)までは先に示した本発明の実施の形態例と同じ動作をする。つまり、ユーザが音声認識開始スイッチ120を押して音声認識可能状態になった状態(S0)で、マイクロフォン130を使ってナビゲーションを操作するための文を発話すると(S1)、音声認識部112が入力音声の認識処理をして、認識結果の候補と尤度を出力する(S2)。次に、単語信頼度演算部113ではこの認識結果候補と各候補の尤度から、単語信頼度を計算する(S3)。図3の(b)は単語信頼度演算部113が単語信頼度を計算した結果を示している。認識結果候補3bに含まれる全ての単語を認識結果候補単語3dとして単語信頼度3eを計算する。
(A) of FIG. 3 has shown the recognition result candidate which the
次に、この単語信頼度演算結果(図3の(b))は言語理解部114に移される。言語理解部114では、まず、先に説明したように単語信頼度演算結果の単語信頼度修正を行なう(S4)。これによって3eの値が上下させられる。今回は単語信頼度修正による単語信頼度値の変化がなかったとして次に進む。言語理解部114では単語信頼度修正の後、認識結果候補単語3dからカテゴリスコアを計算する(S5)。
Next, the word reliability calculation result ((b) of FIG. 3) is transferred to the
カテゴリとは、県カテゴリ、路線名カテゴリ、施設名カテゴリなど、意味上の分類で同列に扱う単語の集合である。図3の例では、3fに示したように、「神奈川県」および「香川県」が県カテゴリ、「徳島線」が路線名カテゴリ、「横浜駅」および「屋島駅」が施設名カテゴリとなる。このように認識結果候補単語3dをカテゴリごとに分類し、同じカテゴリに分類された認識結果候補単語の単語信頼度3eを足し合わせたものがカテゴリスコアとなる。
A category is a set of words that are treated in the same column for semantic classification, such as a prefecture category, a route name category, and a facility name category. In the example of FIG. 3, as shown in 3f, “Kanagawa Prefecture” and “Kagawa Prefecture” are prefecture categories, “Tokushima Line” is a route name category, and “Yokohama Station” and “Yajima Station” are facility name categories. . In this way, the recognition
図3の(b)からカテゴリスコアを計算した結果を図3の(c)に示した。例えば「神奈川県(単語信頼度0.80)」および「香川県(単語信頼度0.20)」からなる「県カテゴリ」のカテゴリスコア3hは1.00となる。
The result of calculating the category score from (b) of FIG. 3 is shown in (c) of FIG. For example, the
次に、このカテゴリスコアから理解結果として採用するカテゴリを選択する(S6)。各カテゴリにはカテゴリ選択のために、予めカテゴリ閾値3iが設定されており、この閾値を超えたカテゴリが理解結果に採用するカテゴリとして選択される。カテゴリ閾値3iは、データ学習によって予め設定されている。本例の場合、以下のように、カテゴリスコアがカテゴリ閾値と比較され、カテゴリ閾値よりも大きいカテゴリスコアを持つカテゴリが選択される。 Next, a category to be adopted as an understanding result is selected from the category score (S6). For each category, a category threshold 3i is set in advance for category selection, and a category exceeding this threshold is selected as a category to be adopted for the understanding result. The category threshold 3i is preset by data learning. In the case of this example, the category score is compared with the category threshold as described below, and a category having a category score larger than the category threshold is selected.
県カテゴリのカテゴリスコア 1.0 > 県カテゴリ閾値 0.5、したがって、県カテゴリを選択、
路線名カテゴリのカテゴリスコア 0.2 < 路線名カテゴリ閾値 0.4、したがって、路線名カテゴリを選択せず、
施設名カテゴリのカテゴリスコア 0.5 > 施設名カテゴリ閾値 0.4、したがって、施設名カテゴリを選択、
これによって、理解結果として採用するべきカテゴリは県カテゴリと施設名カテゴリとなる。
Category score of prefecture category 1.0> prefecture category threshold 0.5, so select prefecture category,
Category score of route name category 0.2 <route name category threshold 0.4, therefore, route name category is not selected,
Category score for facility name category 0.5> facility name category threshold 0.4, therefore select facility name category,
As a result, the categories to be adopted as the understanding result are the prefecture category and the facility name category.
次に、言語理解部114では、認識結果候補単語3dから、選択されたカテゴリにあてはまる単語の組み合わせを探す(S7)。この際、選択されたカテゴリにあてはまる単語の組み合わせは、意味上の整合性がとれるものでなければならない。つまり、県カテゴリと施設名カテゴリに採用する単語の組み合わせでは、施設名カテゴリより採用する単語は県カテゴリで採用された県内に存在する施設の名称でなければならない。この条件に沿ってカテゴリにあてはまる単語の組み合わせを探した結果である理解結果候補が図3の(d)となる。その際、理解結果候補に採用された単語の単語信頼度3eを足し合わせたものが理解結果候補のスコア3lとなる。
Next, the
最後に、理解結果候補のスコア3lが最も高くなる理解結果候補を最適な組み合わせの理解結果として選択し(S8)、この結果を元に応答文を生成(S9)、出力(S10)して言語理解処理を終える。 Finally, an understanding result candidate having the highest score 3l of the understanding result candidate is selected as an understanding result of the optimum combination (S8), a response sentence is generated based on this result (S9), and output (S10). Finish the understanding process.
ここまでが従来例における言語理解部の処理であるが、これでは、図4のS7において、選択されたカテゴリにあてはまる単語の組み合わせが見つからなかった場合には、理解結果を導き出すことができない。図5に、従来例では適当な単語の組み合わせが見つからず、従来例では理解結果が得られない音声認識結果の例を示す。 The processing up to this point is the processing of the language understanding unit in the conventional example. However, in this case, if no combination of words matching the selected category is found in S7 of FIG. 4, the understanding result cannot be derived. FIG. 5 shows an example of a speech recognition result in which an appropriate word combination cannot be found in the conventional example and an understanding result cannot be obtained in the conventional example.
図5の(a)は音声認識部112が出力した認識結果候補と尤度である。この認識結果を元に前述の単語信頼度計算によって認識結果中に含まれる各単語の単語信頼度を計算したものが図5の(b)である。このように単語信頼度計算した単語をカテゴリごとに分類してカテゴリスコアを求めたものが図5の(c)となる。ここで、カテゴリスコアがカテゴリ閾値以上であるカテゴリは県カテゴリと路線名カテゴリであるため、候補カテゴリとして選択されるカテゴリは県カテゴリと路線名カテゴリとなる。しかし、県カテゴリの単語は「神奈川県」のみ、路線名カテゴリの単語は「飯山線」のみであり、「飯山線」は「神奈川県」内には存在しない路線名であるため、県カテゴリ+路線名カテゴリの組み合わせで整合性のとれる単語の組み合わせはない。そのため、従来例の方法では理解結果を得ることができなかった。
FIG. 5A shows recognition result candidates and likelihoods output by the
そこで、本発明では理解結果候補として選択する単語の単語信頼度と各単語間の関係とを利用しながらカテゴリ選択を行ない、さらに、理解結果を得ることができない場合に、候補カテゴリの個数を減らして理解結果の探索を再び行う。 Therefore, in the present invention, category selection is performed using the word reliability of the word to be selected as an understanding result candidate and the relationship between the words, and if the understanding result cannot be obtained, the number of candidate categories is reduced. Then search for the understanding result again.
(実施の形態例1)
図2に示した実施の形態例では、カテゴリ選択の後、採用する単語の組み合わせを検討し、適当な組み合わせが見つからなければカテゴリ選択を再度やり直す(S8→S6)。本実施の形態例では、選択されたN個の候補カテゴリにあてはまる(すなわち、意味上の整合性がとれる)適当な組み合わせの単語が存在しない場合、N未満の候補カテゴリを選択する。N個の候補カテゴリからN−1個の候補カテゴリを選択する方法としては、まず、N個の候補カテゴリの中で最もカテゴリスコアが低いカテゴリを除いたものを候補カテゴリ選択の結果とする方法がある。
(Embodiment 1)
In the embodiment shown in FIG. 2, after selecting a category, a combination of words to be adopted is examined, and if an appropriate combination is not found, the category selection is performed again (S8 → S6). In the present embodiment, if there are no appropriate combinations of words that apply to the selected N candidate categories (that is, semantically consistent), candidate categories less than N are selected. As a method of selecting N-1 candidate categories from N candidate categories, first, a method in which the category with the lowest category score among the N candidate categories is excluded as a result of candidate category selection. is there.
具体的には、例えば、理解結果候補探索処理において、候補カテゴリが1つであれば該カテゴリに属する単語の中から最も高い単語信頼度を持つ単語を理解結果候補とし、候補カテゴリが2つ以上であれば該候補カテゴリの各々から1つずつの単語を取り出して組み合わせた単語組み合わせの中で、意味上の整合性がとれ、かつ、単語信頼度の合計が最も高い単語組み合わせを理解結果候補とし、理解結果候補が発見されない場合には、該候補カテゴリからカテゴリスコアが最も低いカテゴリ1つを除いたものを新しい候補カテゴリとして選択した後に前記理解結果候補探索処理を再び行う。 Specifically, for example, in the understanding result candidate search process, if there is one candidate category, a word having the highest word reliability is selected as an understanding result candidate from words belonging to the category, and there are two or more candidate categories. Then, among the word combinations obtained by extracting one word from each of the candidate categories and combining them, the word combination having the highest semantic consistency and the highest total word reliability is set as the understanding result candidate. When no understanding result candidate is found, a candidate obtained by removing one category having the lowest category score from the candidate category is selected as a new candidate category, and then the understanding result candidate search process is performed again.
図5の例の場合、選択されたN個の候補カテゴリは県カテゴリと路線名カテゴリであり、そのうち最もカテゴリスコアが低いカテゴリは路線名カテゴリである。そのため、候補カテゴリとして選択するカテゴリから路線名カテゴリを除き、県カテゴリのみが候補カテゴリとなる。その結果、県カテゴリにあてはまる単語は「神奈川県」のみとなるため、理解結果候補は「神奈川県」となる。 In the example of FIG. 5, the selected N candidate categories are the prefecture category and the route name category, and the category having the lowest category score is the route name category. For this reason, the route category is excluded from the category selected as the candidate category, and only the prefecture category is a candidate category. As a result, the only word that applies to the prefecture category is “Kanagawa Prefecture”, so the candidate for the understanding result is “Kanagawa Prefecture”.
以上のようにして、理解結果として適当なカテゴリの組み合わせを見つけるために採用するカテゴリの数を減らす際、カテゴリスコアが低いカテゴリから削除していくことで、よりスコアが高いカテゴリのみが理解結果として残ることとなるため、理解結果の精度を向上させることができる。 As described above, when reducing the number of categories adopted to find an appropriate combination of categories as an understanding result, by deleting from the category with the lower category score, only the category with the higher score is obtained as the understanding result. As a result, the accuracy of the understanding result can be improved.
(実施の形態例2)
選択されたN個のカテゴリにあてはまる適当な組み合わせの単語が存在しない場合に、N個のカテゴリからN未満のカテゴリを選択するその他の方法としては、選択されたN個のカテゴリから1つをはずしたN−1個のカテゴリの組み合わせ(候補カテゴリの集合)N個の全てに関して、理解結果候補として適当な単語を調べ、理解結果のスコアを求め、理解結果のスコアが最も高くなるものを選択する方法もある。
(Embodiment 2)
Another way to select less than N categories from N categories when there is no suitable combination of words that fits into the selected N categories is to remove one from the selected N categories. For all N combinations of N-1 categories (a set of candidate categories), an appropriate word is examined as an understanding result candidate, a score for the understanding result is obtained, and a score having the highest understanding result is selected. There is also a method.
具体的には、例えば、理解結果候補探索処理において、候補カテゴリが1つであれば該カテゴリに属する単語の中から最も高い単語信頼度を持つ単語を理解結果候補とし、前記候補カテゴリが2つ以上であれば該候補カテゴリの各々から1つずつの単語を取り出して組み合わせた単語組み合わせの中で、意味上の整合性がとれ、かつ、単語信頼度の合計が最も高い単語組み合わせを理解結果候補とし、理解結果候補が発見されない場合には、該候補カテゴリの1つを候補カテゴリの範囲から排除してなる複数の候補カテゴリの集合を新しい候補カテゴリの集合として選択した後に前記理解結果候補探索処理を再び行う。 Specifically, for example, in the understanding result candidate search process, if there is one candidate category, a word having the highest word reliability is selected as an understanding result candidate from words belonging to the category, and two candidate categories are included. If it is above, among the word combinations obtained by extracting one word from each of the candidate categories and combining them, the word combination having the highest semantic consistency and the highest total word reliability is obtained as the candidate for the understanding result. If an understanding result candidate is not found, the understanding result candidate search process is performed after a set of a plurality of candidate categories obtained by excluding one of the candidate categories from the range of the candidate category is selected as a new candidate category set. Do again.
図5の例では、県カテゴリと施設名カテゴリのうちどちらか1つをはずしたカテゴリ、つまり県カテゴリのみまたは施設名カテゴリのみで理解結果候補としてあてはまる単語とそのスコア(この場合には単語信頼度)を求める。すると、図5の(d)に示したように、理解結果「神奈川県」が理解結果スコア0.55であるのに対して理解結果「桑名川駅」が理解結果スコア0.45と理解結果「神奈川県」のほうが高スコアであるため、理解結果カテゴリは県カテゴリ、理解結果は「神奈川県」となる。 In the example of FIG. 5, a category in which one of the prefecture category and the facility name category is removed, that is, a word that is applied as an understanding result candidate only in the prefecture category or only the facility name category and its score (in this case, word reliability) ) Then, as shown in FIG. 5D, the understanding result “Kanagawa” has an understanding result score of 0.55, whereas the understanding result “Kuwanagawa Station” has an understanding result score of 0.45. Since “Kanagawa Prefecture” has a higher score, the understanding result category is the prefecture category, and the understanding result is “Kanagawa Prefecture”.
以上のようにして、理解結果として適当なカテゴリの組み合わせを見つけるために採用するカテゴリの数を減らす際、採用するカテゴリの数を1つ減らした全ての場合におけるカテゴリの組み合わせのうち、理解結果が最も高いスコアとなる組み合わせを理解結果として採用することができるため、理解結果の精度を向上させることができる。 As described above, when the number of categories to be adopted for finding an appropriate combination of categories as an understanding result is reduced, among the combinations of categories in all cases where the number of categories to be adopted is reduced, the understanding result is Since the combination having the highest score can be adopted as the understanding result, the accuracy of the understanding result can be improved.
(実施の形態例3)
次に、選択されたカテゴリにあてはまる単語の組み合わせが見つかりはしたが、これが最適な結果ではない場合について説明する。
(Embodiment 3)
Next, a case will be described in which a combination of words found in the selected category is found but this is not the optimum result.
具体的には、例えば、理解結果候補が複数の単語からなり、該単語の単語信頼度の合計(下記のスコア)が予め定められた閾値を超えない場合には、該理解結果候補を理解結果としない。 Specifically, for example, when the understanding result candidate includes a plurality of words and the total word reliability (the following score) of the word does not exceed a predetermined threshold, the understanding result candidate is determined as the understanding result. And not.
上記の例を図6に示した。音声認識部112が図6の(a)のように認識結果を出力した場合、単語信頼度演算部113では認識結果に含まれる全ての単語に関して単語信頼度を計算する。単語信頼度は図6の(b)のようになる。この結果からカテゴリスコアを求めると、図6の(c)のように、県カテゴリが0.60、施設名カテゴリが0.45となる。それぞれのカテゴリ閾値は0.50、0.40であるため、県カテゴリと施設名カテゴリが候補カテゴリとして採用すべきカテゴリと判定される。
The above example is shown in FIG. When the
次に、認識結果候補単語6dの中から県カテゴリと施設名カテゴリの組み合わせにあてはまる単語の中で整合性のとれるものを探すと、「長野県」と「桑名川駅」という組み合わせが得られる。しかし、これらの組み合わせは他の高い単語信頼度を持つ「神奈川県」などの単語に比べて各単語ともに単語スコア(単語信頼度)が0.05と低く、理解結果としてのスコア(単語信頼度の合計)も0.10と低い。これは、理解結果として選択する単語のスコアや理解結果のスコアよりもカテゴリを優先させているために生じる問題である。この場合、このような方法であってもなんらかの理解結果を出力することができるが、その正解精度は低い。
Next, from the recognition
そこで、本実施の形態例では理解結果として選択する理解結果候補のスコア(例えば、単語信頼度の合計)に閾値を設ける。つまり、理解結果候補として選択された単語のスコアが予め定められた閾値(例えば0.2)以下ならば、その理解結果候補を理解結果としない。すなわち、理解結果候補が複数の単語からなり、該単語の単語信頼度の合計が予め定められた閾値以下ならば、該理解結果候補を理解結果として採用しない。そして、他の候補を探すために、候補カテゴリとして採用するカテゴリの数を1つ減らす。本実施の形態例では、施設名カテゴリを省いて県カテゴリのみで理解結果候補を求めた場合の結果「神奈川県」、理解結果スコア0.55と、県カテゴリを省いて施設名カテゴリのみで理解結果候補を求めた場合の結果「掛川駅」、理解結果スコア0.40は共に採用されている単語のスコアが閾値0.2を超えているため、これらを比較してスコアの高い「神奈川県」を理解結果とする。 Therefore, in this embodiment, a threshold is provided for the score (for example, the total word reliability) of the understanding result candidate selected as the understanding result. That is, if the score of a word selected as an understanding result candidate is equal to or less than a predetermined threshold (for example, 0.2), the understanding result candidate is not regarded as an understanding result. That is, if the understanding result candidate is composed of a plurality of words and the total word reliability of the word is equal to or less than a predetermined threshold value, the understanding result candidate is not adopted as the understanding result. In order to search for other candidates, the number of categories adopted as candidate categories is reduced by one. In the present embodiment, the result when the candidate for the understanding result is obtained only by the prefecture category without the facility name category is “Kanagawa”, the understanding result score is 0.55, and the understanding is made only by the facility name category by omitting the prefecture category. The result “Kakegawa Station” in the case where the result candidate is obtained and the understanding result score 0.40 are both higher than the threshold value of 0.2 because the score of the word that is adopted exceeds the threshold of 0.2. As an understanding result.
他にも、理解結果候補のスコアに対してもカテゴリ数に応じて閾値を設定し、各閾値を越えた理解結果候補のみを理解結果として採用することも可能である。また、閾値によって理解結果候補の採用、不採用を決定した結果、最終的に閾値を超えるスコアをもつ単語の理解結果や閾値を超えるスコアをもつ理解結果がみつからなかった場合には、最もスコアの大きいカテゴリ1つとそこにあてはまる単語を理解結果として、確認のための追加情報を求める応答文を生成する。 In addition, it is also possible to set a threshold value for the score of the understanding result candidate according to the number of categories, and to adopt only the understanding result candidate exceeding each threshold value as the understanding result. In addition, as a result of deciding whether or not to adopt candidate understanding results according to the threshold value, if the understanding result of a word having a score exceeding the threshold value or the understanding result having a score exceeding the threshold value is not found, the highest score is obtained. A response sentence for requesting additional information for confirmation is generated with one large category and a word corresponding thereto as an understanding result.
理解結果候補が1つの単語からなる場合にも、その単語の単語信頼度が予め定められた閾値以下ならば、その理解結果候補を理解結果としないようにしてもよい。 Even when the understanding result candidate is composed of one word, if the word reliability of the word is equal to or lower than a predetermined threshold value, the understanding result candidate may not be set as the understanding result.
以上のようにして、閾値を超える単語信頼度をもつ単語のみを理解結果として採用することができるため、極端に単語信頼度が低い単語を理解結果として採用したために起こる理解間違いを防ぐことができる。 As described above, since only words having word reliability exceeding the threshold can be adopted as the understanding result, it is possible to prevent misunderstandings caused by adopting words having extremely low word reliability as the understanding result. .
また、カテゴリスコアが高くても理解結果のスコアが閾値以下となるものは採用されないため、カテゴリ数が少なくても理解結果のスコアが高い結果を選択することができる。 In addition, even if the category score is high, those whose score of the understanding result is equal to or less than the threshold value are not adopted, so that a result having a high score of the understanding result can be selected even if the number of categories is small.
(実施の形態例4)
理解結果の生成精度を上げるためのその他の方法として、理解結果に選択する単語間の関係を考慮することもあげられる。具体的には、理解結果候補探索処理によって複数の理解結果候補が得られ、該理解結果候補のすべてが同一複数の単語からなる場合に、該理解結果候補の各々について、単語の単語信頼度の合計に、該理解結果候補中のカテゴリの組み合わせが1つの発話中で発話される確率が高いほど大きくなる数を乗じて得られる値を該理解結果候補のスコアとし、該理解結果候補の中で該スコアが最も高い理解結果候補を理解結果とする方法がある。
(Embodiment 4)
As another method for improving the generation accuracy of the understanding result, it is also possible to consider the relationship between words to be selected as the understanding result. Specifically, when a plurality of understanding result candidates are obtained by the understanding result candidate search process and all of the understanding result candidates are composed of the same plurality of words, the word reliability of the word is determined for each of the understanding result candidates. A value obtained by multiplying the total by the number that increases as the probability that the combination of categories in the understanding result candidate is uttered in one utterance is high is used as the score of the understanding result candidate, There is a method of using an understanding result candidate having the highest score as an understanding result.
そのような方法の例を図7に示す。音声認識部112が図7の(a)のように認識結果を出力した場合、単語信頼度演算部113では、認識結果に含まれる全ての単語に関して単語信頼度を計算する。単語信頼度は図7の(b)のようになる。この結果からカテゴリのスコアを求めると、図7の(c)のように、県カテゴリが0.60、路線名カテゴリが0.40、施設名カテゴリが0.40となる。それぞれのカテゴリ閾値は0.50、0.40、0.40であるため、県カテゴリ、路線名カテゴリ、施設名カテゴリが候補カテゴリとして採用すべきカテゴリと判断される。
An example of such a method is shown in FIG. When the
次に、県カテゴリ、路線名カテゴリと施設名カテゴリの組み合わせにあてはまる単語の中で整合性のとれるものを探すが、この組み合わせで整合性のとれる単語の組み合わせは存在しない。 Next, a search is made for words that are consistent among the combinations of prefecture category, route name category, and facility name category, but there is no combination of words that can be consistent with this combination.
そのため、理解結果として選択するカテゴリを1つ減らして県カテゴリ+路線名カテゴリ、県カテゴリ+路線名カテゴリ、路線名カテゴリ+施設名カテゴリの組み合わせでそれぞれ整合性のとれる組み合わせを探し、県カテゴリ+路線名カテゴリにおいて「東京都+東横線」、県カテゴリ+施設名カテゴリにおいて「東京都+品川駅」の組み合わせが得られる。ここで、理解結果のスコア(単語信頼度の合計)を比較するがどちらも0.90と同じスコアである。 Therefore, the category selected as the understanding result is reduced by one, and the combination of the prefecture category + route name category, prefecture category + route name category, route name category + facility name category is searched for, and the prefecture category + route A combination of “Tokyo + Shinagawa Station” is obtained in the name category, and “Tokyo + Shinagawa Station” is obtained in the prefecture category + facility name category. Here, the scores of the comprehension results (total word reliability) are compared, but both have the same score of 0.90.
ここで、カテゴリ同士が1つの発話に存在する確率が高いほど大きくなる数(重み)の例を示した表である図8を利用する。図8は、カテゴリ1(8a)に示したカテゴリとカテゴリ2(8b)に示したカテゴリの関係を重み(8c)によって表している。このカテゴリの関係とは、2つのカテゴリが1つの発話に存在する確率の高さであり、それは重みで表される。この重みは、コーパスデータやユーザの発話履歴などからデータ学習によって生成される。この重みは、上記の、理解結果候補中のカテゴリの組み合わせが1つの発話中で発話される確率が高いほど大きくなる数に該当する。例えば、今回の例では県カテゴリ+路線名カテゴリの組み合わせの重みは0.8であるのに対して、県名カテゴリ+施設名カテゴリの組み合わせの重みは1.0なので、県カテゴリ+路線名カテゴリは県名カテゴリ+施設名カテゴリよりも関係が弱い。この値を利用して、「東京都+東横線」のスコア0.90には県カテゴリ+路線カテゴリの重み0.8を乗じて0.72とし、「東京都+品川駅」のスコア0.90には県カテゴリ+施設カテゴリの重み1.0を乗じて0.90とする。この値を比較した結果、県カテゴリ+施設カテゴリである「東京都+品川駅」が高スコアであるので理解結果として選択される。 Here, FIG. 8, which is a table showing an example of the number (weight) that increases as the probability that categories exist in one utterance, is higher. FIG. 8 shows the relationship between the category shown in category 1 (8a) and the category shown in category 2 (8b) by weight (8c). This category relationship is a high probability that two categories exist in one utterance, and is represented by a weight. This weight is generated by data learning from corpus data, user utterance history, and the like. This weight corresponds to a number that increases as the probability that the combination of categories in the understanding result candidate is uttered in one utterance is higher. For example, the weight of the combination of prefecture category + route name category is 0.8 in this example, whereas the weight of the combination of prefecture name category + facility name category is 1.0, so the prefecture category + route name category Is weaker than the prefecture name category + facility name category. Using this value, the score of “Tokyo + Toyoko Line” 0.90 is multiplied by the weight 0.8 of the prefecture category + route category to be 0.72, and the score of “Tokyo + Shinagawa Station” is 0. 90 is multiplied by the weight 1.0 of the prefecture category + facility category to be 0.90. As a result of comparing these values, “Tokyo + Shinagawa Station”, which is the prefecture category + facility category, has a high score and is selected as an understanding result.
以上のようにして、理解結果に採用される単語の組み合わせを考慮して理解結果のスコアを決定し、そのスコアをもとに最終理解結果を選択するので、発話される可能性が高い単語の組み合わせでの理解結果を採用されやすくすることができる。 As described above, the score of the understanding result is determined in consideration of the combination of words adopted for the understanding result, and the final understanding result is selected based on the score. The understanding result in combination can be easily adopted.
(実施の形態例5)
また、図7の例のような場合、それぞれの単語がどの認識結果に含まれていたかという情報を利用することもできる。具体的には、理解結果候補探索処理によって複数の理解結果候補が得られ、該理解結果候補のすべてが同一複数の単語からなる場合に、該理解結果候補の各々について、同一認識結果の同一候補内において認識された単語の組み合わせが該理解結果候補内にある場合に、1よりも大きい数を該単語の単語信頼度に乗じ、該乗算後の単語信頼度の合計を該理解結果候補のスコアとし、該理解結果候補の中で該スコアが最も高い理解結果候補を理解結果として採用する。つまり、同一の認識結果に含まれていた単語同士の組み合わせはスコアを高くすることで、認識部112の計算した単語同士の組み合わせ確率を利用することができる。
(Embodiment 5)
Further, in the case of the example of FIG. 7, it is also possible to use information indicating which recognition result each word is included in. Specifically, when a plurality of understanding result candidates are obtained by the understanding result candidate search process and all of the understanding result candidates are composed of the same plurality of words, the same candidate of the same recognition result is obtained for each of the understanding result candidates. If the combination of words recognized in the word is within the candidate for the understanding result, the word reliability of the word is multiplied by a number greater than 1 and the sum of the word reliability after the multiplication is the score of the candidate for the understanding result The understanding result candidate having the highest score among the understanding result candidates is adopted as the understanding result. That is, the combination probability of words calculated by the
今回採用している単語信頼度計算は、[数1]の式を用いて単語信頼度を計算しているが、この式の中で、途中計算結果としてでてくるPiは認識結果の各候補文の信頼度である。本実施の形態例ではこの、文としての信頼度も利用する。ちなみに、図7の認識結果において単語信頼度の計算途中で求められる文信頼度は図9の(a)中の9dのようになる。 In the word reliability calculation adopted this time, the word reliability is calculated using the formula [Equation 1]. In this formula, P i obtained as an intermediate calculation result is each recognition result. The reliability of the candidate sentence. In the present embodiment, the reliability as a sentence is also used. Incidentally, the sentence reliability obtained during the calculation of the word reliability in the recognition result of FIG. 7 is 9d in FIG. 9A.
次に単語信頼度を求めるために、各単語はその単語が含まれていた文の信頼度を足し合わせるが([数1])、ここで、各単語がどの認識結果に含まれていたのかを調べる。その結果が図9の(b)である。図9の(b)では第一発話の第2認識候補を「1−2」と書き表している。例えば、図9の(a)がユーザの第一発話に対する認識結果であるとすると、単語「東京都」は第一発話の認識結果中の第2、第3、第4候補の中に現れている。通常は、これらの文信頼度を足し合わせたものを単語信頼度としてから理解結果を求めて理解結果のスコアを計算するが、本実施の形態例では、ここから直接理解結果のスコアを計算する。理解結果に採用する単語の組み合わせと文信頼度の信頼度によって単語信頼度に重み付けをする。この重み付け変数は、予めデータ学習によって最適値を求めておく。本実施の形態例では1.2を用いる。この重み付け変数は、上記の、1よりも大きい数に該当する。これを使うと、理解結果「東京都+品川駅」に対する通常の理解結果スコアが、次のように求められるのに対して、
東京都の単語信頼度+品川駅の単語信頼度
=(0.30+0.20+0.10)+0.30=0.90
(ここで、(0.30+0.20+0.10)は東京都の単語信頼度であり、 0.30は品川駅の単語信頼度である)
と求められるのに対して、本実施の形態例は下記のようになる。
Next, in order to obtain the word reliability, each word is added with the reliability of the sentence in which the word was included ([Equation 1]). Here, which recognition result each word was included in Check out. The result is (b) of FIG. In FIG. 9B, the second recognition candidate of the first utterance is written as “1-2”. For example, if (a) in FIG. 9 is the recognition result for the first utterance of the user, the word “Tokyo” appears in the second, third, and fourth candidates in the recognition result of the first utterance. Yes. Usually, the sum of these sentence reliability is used as the word reliability, and then the understanding result is obtained and the score of the understanding result is calculated. In this embodiment, the score of the understanding result is directly calculated from here. . The word reliability is weighted according to the word combination adopted in the understanding result and the reliability of the sentence reliability. For this weighting variable, an optimum value is obtained in advance by data learning. In this embodiment, 1.2 is used. This weighting variable corresponds to a number greater than 1 described above. Using this, the normal understanding result score for the understanding result “Tokyo + Shinagawa Station” is calculated as follows,
Word reliability of Tokyo + Word reliability of Shinagawa station = (0.30 + 0.20 + 0.10) + 0.30 = 0.90
(Here, (0.30 + 0.20 + 0.10) is the word reliability of Tokyo, and 0.30 is the word reliability of Shinagawa Station)
In contrast to this, the present embodiment is as follows.
東京都の単語信頼度+品川駅の単語信頼度
=(0.30×1.2+0.20+0.10)+0.30×1.2
=1.02
(ここで、2つの0.30×1.2は共に第1発話の第2認識結果中で認識された単語分の単語信頼度の値である)
これらは、理解結果として採用された組み合わせで同じ認識結果中で認識された単語であるため、重みをつけている。すなわち、同一認識結果の同一候補内において認識された単語である「東京都」と「品川駅」とには、値は相異なるが、それぞれ、1よりも大きい数が(重みとして)乗じられている。これに対して理解結果「東京都+東横線」は同一認識結果中での認識がないため、前記の例と同様に、理解結果スコアは0.90となり、同一認識結果中での認識がなかった「東京都+東横線」よりも同一認識結果中での認識結果が得られた「東京都+品川駅」のスコアのほうが高くなるため、これを理解結果として採用する。
Word reliability in Tokyo + Word reliability in Shinagawa Station = (0.30 x 1.2 + 0.20 + 0.10) + 0.30 x 1.2
= 1.02
(Here, both 0.30 × 1.2 are word reliability values for words recognized in the second recognition result of the first utterance)
Since these are words recognized in the same recognition result with the combination adopted as the understanding result, they are weighted. That is, the words “Tokyo” and “Shinagawa Station” that are recognized in the same candidate of the same recognition result have different values, but each is multiplied by a number greater than 1 (as a weight). Yes. On the other hand, since the understanding result “Tokyo + Toyoko Line” is not recognized in the same recognition result, the understanding result score is 0.90 as in the above example, and there is no recognition in the same recognition result. Since the score of “Tokyo + Shinagawa Station”, which obtained the recognition result in the same recognition result, is higher than that of “Tokyo + Toyoko Line”, this is adopted as the understanding result.
以上のようにして、音声認識エンジンが計算した複数単語同時認識の可能性を利用して同一認識結果の同一候補内において認識された単語同士の組み合わせが理解結果として採用されやすくなるため、同時に発話された可能性が高い単語同士の組み合わせでの理解結果を採用されやすくすることができる。 As described above, a combination of words recognized within the same candidate of the same recognition result using the possibility of simultaneous recognition of a plurality of words calculated by the speech recognition engine is easily adopted as an understanding result. It is possible to make it easier to adopt an understanding result of a combination of words that have a high possibility of being made.
(実施の形態例6)
また、同様の方法で、音声認識部112による音声波形上の単語の認識箇所に重なりがあるもののスコアを下げることで認識箇所に重なりがある理解結果のスコアを下げることができる。具体的には、理解結果候補探索処理によって複数の理解結果候補が得られ、該理解結果候補のすべてが同一複数の単語からなる場合に、該理解結果候補の各々について、単語信頼度の合計に、同一認識結果内での音声波形中の単語認識区間に重なりがある単語が該理解結果候補内にある場合に、重なりが大きいほど1より小さくなる数を乗じて得られる値を該理解結果候補のスコアとし、該理解結果候補の中で該スコアが最も高い理解結果候補を理解結果として採用する。
(Embodiment 6)
Moreover, the score of the understanding result with an overlap in a recognition part can be lowered | hung by reducing the score of the
図10は、図7の音声認識結果を出力したときの、音声波形と単語の認識位置の関係を時系列で示したものである。本実施の形態例において音声入力検出開始時刻はT0であり、音声入力検出終了位置はT5である。また、第1認識結果候補201、第2認識結果候補203、第3認識結果候補203、第4認識結果候補204における最初の単語の認識開始位置はT1であり、第5認識結果候補205における最初の単語の認識開始位置はT2である。図7の(d)では「東京都+東横線」と「東京都+品川駅」という理解結果がともにスコア0.90で出力されている。ここで、「東横線」と「東京都」の認識開始・終了時刻を調べる。「東横線」は第1認識結果候補201の中に現れた単語であり、「東京都」は第2認識結果候補202、第3認識結果候補203、第4認識結果候補204内に出現しているため、第1認識結果候補201と第2認識結果候補202、第3認識結果候補203、第4認識結果候補204との関係を調べる。すると、「東京都」は第2認識結果候補202、第3認識結果候補203、第4認識結果候補204それぞれで、時刻T1から時刻T3の間で認識されており、「東横線」は第1認識結果候補201において時刻T1から時刻T5の間で認識されている。そのため、時刻T1から時刻T3間において「東京都」と「東横線」の認識箇所に重なりが生じている。このため、しかし、実際の発話において異なる二つの単語を同時に発話ということはありえない為、認識箇所に重なりがあるものは、認識箇所の重なりの大小に応じてスコアを下げる。本実施の形態例では、認識時間が短い単語の認識箇所において重なり部分が占める割合をまず、求める。ここでは、T1からT3が1000ミリ秒であった。そのため、「東京都」と「東横線」において認識時間が短い「東京都」を認識したT1からT2、1000ミリ秒に占める重なり箇所の割合は100%である。そこで、重なり箇所が占める割合に応じて理解結果スコアから割り引く。割り引率は重なり箇所の割合に30%をかけたものとする。割引率の適用変数(ここでは30%)は予めデータ学習によって求めておく。この割引率を1から引いて得る数値が、上記の、重なりが大きいほど1より小さくなる数に該当する。よって、今回は1.0×0.3=0.3となり、理解結果スコア(単語信頼度の合計)である0.9は30%を割り引いて0.63となる。これに対して「東京都+品川駅」は認識箇所に重なり箇所がなく、理解結果スコアは0.90のままなので理解結果「東京都+品川駅」のほうが理解結果「東京都+東横線」スコアが高くなるため、これを最終的な理解結果として選択する。
FIG. 10 shows the relationship between the speech waveform and the word recognition position in time series when the speech recognition result of FIG. 7 is output. In this embodiment, the voice input detection start time is T0, and the voice input detection end position is T5. The first word recognition start position in the first
以上のようにして、音声波形中の認識箇所に重なりがある単語同士の組み合わせには低い出現が設定されるため、音声波形中の認識箇所に重なりがある単語同士の組み合わせは理解結果として採用されにくくすることができる。 As described above, since a low occurrence is set for a combination of words that overlap in recognition locations in the speech waveform, a combination of words that overlap in recognition locations in the speech waveform is adopted as an understanding result. Can be difficult.
(実施の形態例7)
ここまでの方法を使えば、カテゴリ数がいくつでも対応できる。カテゴリ選択において多数のカテゴリが選択された例を図11に示した。
(Embodiment 7)
If you use the method so far, you can handle any number of categories. An example in which a number of categories are selected in the category selection is shown in FIG.
ここでは、第一発話でユーザは「品川駅」と発話したが、認識結果が図11の(a)のようになり、理解結果が「仙台駅」となり、言語理解に失敗した。そのため、ユーザが第二発話で「東京都の品川駅」と発話し、認識結果が図11の(b)のようになった場合の理解結果の導出例を示している。 Here, the user uttered “Shinagawa Station” in the first utterance, but the recognition result was as shown in FIG. 11A, the understanding result was “Sendai Station”, and the language understanding failed. Therefore, a derivation example of the understanding result when the user speaks “Shinagawa Station in Tokyo” in the second utterance and the recognition result is as shown in FIG. 11B is shown.
第二発話の後、単語信頼度計算は発話ごとに行ったあと、同じ単語の単語信頼度は足し合わせる。第一発話と第二発話の内容を足し合わせた結果が図11の(c)である。ここから各カテゴリのスコアを計算すると図11の(d)となるが、県カテゴリ、市区町村カテゴリ、路線名カテゴリ、道路名カテゴリ、施設名カテゴリの5つのカテゴリがそれぞれのカテゴリ閾値を越えている。そのため、これにあてはまる単語の組み合わせを探すが、目的地設定において路線名と道路名が同時に指定されることはないため、(1)「県カテゴリ+市区町村カテゴリ+路線名カテゴリ+施設名カテゴリ」または(2)「県カテゴリ+市区町村カテゴリ+道路名カテゴリ+施設名カテゴリ」で探すことになる。しかし、どちらの組み合わせにおいても全て整合性のとれる組あわせの単語は図11の(c)からは見つからないため、カテゴリ数をさらに1つ減らす。 After the second utterance, the word reliability calculation is performed for each utterance, and then the word reliability of the same word is added. FIG. 11C shows the result of adding the contents of the first utterance and the second utterance. When the score of each category is calculated from this, it becomes (d) in FIG. 11, and five categories of prefecture category, city category, route name category, road name category, and facility name category exceed their respective category thresholds. Yes. Therefore, search for a combination of words that apply to this, but since the route name and road name are not specified at the same time in the destination setting, (1) “prefecture category + city category + route name category + facility name category "Or (2)" Prefectural category + city category + road name category + facility name category ". However, the combination words that can be consistent in any combination are not found from FIG. 11C, so the number of categories is further reduced by one.
今回は、全てのカテゴリの組み合わせを考慮する方法をとることにする。すると、考えられる組み合わせは、(1)、(2)の組み合わせからどれか1つのカテゴリを省いた、以下の組み合わせになる。 This time, we will take a method that considers all combinations of categories. Then, possible combinations are the following combinations in which any one category is omitted from the combinations (1) and (2).
(3)「県カテゴリ+市区町村カテゴリ+路線名カテゴリ」、(4)「県カテゴリ+市区町村カテゴリ+施設名カテゴリ」、(5)「県カテゴリ+路線名カテゴリ+施設名カテゴリ」、(6)「県カテゴリ+市区町村カテゴリ+道路名カテゴリ」、(7)「県カテゴリ+道路名カテゴリ+施設名カテゴリ」。 (3) “Prefecture category + city category + route name category”, (4) “Province category + city category + facility name category”, (5) “Province category + route name category + facility name category”, (6) “Prefecture category + city category + road name category”, (7) “Prefecture category + road name category + facility name category”.
しかし、この組み合わせでも、整合性のとれる単語の組み合わせが得られないため、さらにカテゴリ数を1つ減らす。カテゴリの組み合わせは(8)「県カテゴリ+市区町村カテゴリ」、(9)「県カテゴリ+路線名カテゴリ」、(10)「県カテゴリ+道路名カテゴリ」、(11)「県カテゴリ+施設名カテゴリ」、(12)「市区町村カテゴリ+路線名カテゴリ」、(13)「市区町村カテゴリ+道路名カテゴリ」、(14)「市区町村カテゴリ+施設名カテゴリ」、(15)「路線名カテゴリ+施設名カテゴリ」、(16)「道路名+施設名カテゴリ」となる。これらのうち、あてはまる単語が見つかったのが(8)、(9)、(10)、(11)、(15)である。これにあてはまった単語の組み合わせを図11の続きである図12の(e)に示した。 However, even with this combination, it is not possible to obtain a word combination that can be matched, so the number of categories is further reduced by one. The combination of categories is (8) “prefecture category + city category”, (9) “prefecture category + route name category”, (10) “prefecture category + road name category”, (11) “prefecture category + facility name” "Category", (12) "City / City Category + Route Name Category", (13) "City / City Category + Road Name Category", (14) "City / City Category + Facility Name Category", (15) "Route “Name category + facility name category”, (16) “road name + facility name category”. Of these, the corresponding words were found in (8), (9), (10), (11), and (15). The combinations of words that correspond to this are shown in FIG.
さらに、これらのスコアを求めると11rのようになり、理解結果「東京都+品川駅」のスコアが最も高くなるため、これを理解結果とする。 Furthermore, when these scores are obtained, it becomes 11r, and the score of the understanding result “Tokyo + Shinagawa Station” is the highest, and this is taken as the understanding result.
また、N個のカテゴリにあてはまる理解結果とN−1個のカテゴリにあてはまる理解結果とを比べて最もスコアが高いものを理解結果として選択することも可能である。ただし、N個のカテゴリで選択される単語数はN個、N−1個のカテゴリで選択される単語はN−1個であるため、理解結果のスコアを正規化する必要がある。この際、正規化によってカテゴリ数の多い理解結果に重み付けをする。例えば、理解結果として選択するカテゴリが1個の場合は選択された単語のスコアをそのまま用いるのに対して、カテゴリが2個の場合は1.6、3個の場合は2.2で割ったものを比較に用いる。この、カテゴリ個数ごとの正規化のための変数は予めデータ学習によって最適値を求めておく。理解結果のカテゴリ数の最大値をMとすると、このように、M個のカテゴリにあてはまる理解結果の中で最もスコアの高い結果とM−1個のカテゴリにあてはまる理解結果のうち最もスコアの高い理解結果を比較して、理解結果のスコアが高いものをM−2個のカテゴリにあてはまる理解結果の中で最もスコアの高い理解結果と比較する。このように1〜M個までのカテゴリ数における最適な結果を得ることができる。 It is also possible to select an understanding result having the highest score by comparing an understanding result that applies to N categories with an understanding result that applies to N−1 categories. However, since the number of words selected in the N categories is N and the number of words selected in the N−1 categories is N−1, it is necessary to normalize the score of the understanding result. At this time, an understanding result with a large number of categories is weighted by normalization. For example, when the category selected as the understanding result is 1, the score of the selected word is used as it is, whereas when the number of categories is 2, 1.6 is divided by 2.2 when the number is 3 We use thing for comparison. For these normalization variables for each category, an optimum value is obtained in advance by data learning. Assuming that the maximum value of the number of categories of the understanding results is M, the result having the highest score among the understanding results applicable to the M categories and the highest score among the understanding results applicable to the M-1 categories are thus obtained. Comparing the understanding results, the one with the highest score of the understanding results is compared with the understanding result having the highest score among the understanding results applicable to the M-2 categories. Thus, the optimum result in the number of categories from 1 to M can be obtained.
図11の例において、カテゴリ数1の場合の理解結果も調べた場合を例に挙げる。カテゴリ数1の場合の理解結果は図11の(e)にカテゴリ数2の場合の理解結果とともに示した。ここで、カテゴリ数2の理解結果の中で最もスコアが高い理解結果とカテゴリ数1の理解結果の中でも最もスコアが高い理解結果とを比較する。
1.「東京都+品川駅」・・・スコア0.90
2.「東京都」・・・スコア0.50
理解結果Nに含まれる全ての単語が理解結果Mに含まれる場合、それぞれのスコアは必ず、理解結果Nのスコア<理解結果Mのスコアとなる。
In the example of FIG. 11, a case where the understanding result when the number of categories is 1 is also examined is taken as an example. The result of understanding when the number of categories is 1 is shown together with the result of understanding when the number of categories is 2 in FIG. Here, the understanding result having the highest score among the understanding results of the category number 2 is compared with the understanding result having the highest score among the understanding results of the category number 1.
1. "Tokyo + Shinagawa Station" score 0.90
2. "Tokyo" ... Score 0.50
When all the words included in the understanding result N are included in the understanding result M, the respective scores always satisfy the score of the understanding result N <the score of the understanding result M.
この2つの理解結果を比較するために、理解結果Mのスコアをカテゴリ数2の場合の正規化変数1.6で割る。正規化変数はコーパスを用いたデータ学習によって予め求めておく。正規化後のスコアは11eに示した。1.、2.の理解結果の関しては以下の通り。
1.「東京都+品川駅」・・・正規化済スコア0.56
2.「東京都」・・・正規化済スコア0.50
よって、理解結果「東京都+品川駅」のほうが正規化済のスコアが高いため、この理解結果は信頼できると判断し、これを理解結果として採用する。
In order to compare the two understanding results, the score of the understanding result M is divided by the normalized variable 1.6 in the case of 2 categories. The normalization variable is obtained in advance by data learning using a corpus. The score after normalization is shown in 11e. 1. 2. The understanding results are as follows.
1. "Tokyo + Shinagawa Station" ... Normalized score 0.56
2. “Tokyo”-Normalized score 0.50
Therefore, the understanding result “Tokyo + Shinagawa Station” has a higher normalized score, so it is determined that the understanding result is reliable, and this is adopted as the understanding result.
ここまでにあげた理解結果の選択手段はそれぞれを組み合わせて使用することもでき、組み合わせて利用した場合もそれぞれの手段が個別に理解率向上に寄与する。 The understanding result selection means described so far can be used in combination, and even when used in combination, each means contributes to improving the understanding rate individually.
100:ナビゲーション装置、110:制御装置、111:入力制御部、112:音声認識部、113:単語信頼度演算部、114:言語理解部、115:応答生成部、116:GUI表示制御部、117:音声合成部、120:スイッチ、130:マイクロフォン、140:メモリ、141:音声認識用辞書・文法、142:理解結果、150:ディスク読み取り装置、151:ディスク、160:モニタ、170:スピーカ、201:第1認識結果候補を出力した際の単語認識位置、202:第2認識結果候補を出力した際の単語認識位置、203:第3認識結果候補を出力した際の単語認識位置、204:第4認識結果候補を出力した際の単語認識位置、205:第5認識結果候補を出力した際の単語認識位置。 100: Navigation device, 110: Control device, 111: Input control unit, 112: Speech recognition unit, 113: Word reliability calculation unit, 114: Language understanding unit, 115: Response generation unit, 116: GUI display control unit, 117 : Speech synthesis unit, 120: switch, 130: microphone, 140: memory, 141: dictionary / grammar for speech recognition, 142: understanding result, 150: disk reader, 151: disk, 160: monitor, 170: speaker, 201 : Word recognition position when the first recognition result candidate is output, 202: word recognition position when the second recognition result candidate is output, 203: word recognition position when the third recognition result candidate is output, 204: first 4 Word recognition position when a recognition result candidate is output, 205: Word recognition position when a fifth recognition result candidate is output.
Claims (16)
前記言語理解部は、ユーザの発話が前記音声入力手段に入力された場合に、前記音声認識手段が出力する候補単語の全てをカテゴリに分類し、該カテゴリの各々について、該カテゴリに属する候補単語の単語信頼度を用いて該カテゴリに属する候補単語が発話された可能性の高さを示すカテゴリスコアを求め、該カテゴリスコアが該カテゴリに対して予め定められた閾値以上であるカテゴリの全部または一部を候補カテゴリとして選択するカテゴリ選択処理と、該候補カテゴリに属する候補単語の中から意味上の整合性がとれる単語または単語の組み合わせである理解結果候補を探索する理解結果候補探索処理とを行い、該理解結果候補探索処理によって理解結果候補が発見されない場合には、該候補カテゴリの集合から1つ以上のカテゴリを除いてなる集合を新しい候補カテゴリの集合として選択するカテゴリ選択処理を行った後に該理解結果候補探索処理を再び行うことを特徴とする音声対話装置。 Speech input means for converting input speech into speech signals and outputting, speech recognition means for converting speech signals to candidate words and outputting, and words indicating the likelihood of the candidate words being spoken A speech dialogue apparatus comprising: a word reliability calculation means for obtaining a reliability; and a language understanding unit for understanding a spoken language input to the voice input means from the candidate word and the word reliability,
The language understanding unit classifies all candidate words output by the voice recognition unit into categories when a user's utterance is input to the voice input unit, and for each of the categories, candidate words belonging to the category A category score indicating the likelihood that a candidate word belonging to the category has been uttered using the word reliability of the category, and all the categories having the category score equal to or higher than a predetermined threshold for the category or Category selection processing for selecting a part as a candidate category, and understanding result candidate search processing for searching for an understanding result candidate that is a word or a combination of words that can be semantically consistent from candidate words belonging to the candidate category If no understanding result candidate is found by the understanding result candidate search process, one or more categories are selected from the set of candidate categories. Voice dialogue system according to claim again to perform the understanding result candidate search process after the category selection processing for selecting excluding comprising a set as a new set of candidate categories.
前記言語理解部は、ユーザの発話が前記音声入力手段に入力された場合に、前記音声認識手段が出力する候補単語の全てをカテゴリに分類し、該カテゴリの各々について、該カテゴリに属する候補単語の単語信頼度を用いて該カテゴリに属する候補単語が発話された可能性の高さを示すカテゴリスコアを求め、該カテゴリスコアが該カテゴリに対して予め定められた閾値以上であるカテゴリの全部または一部を候補カテゴリとして選択するカテゴリ選択処理と、該候補カテゴリに属する候補単語の中から意味上の整合性がとれる単語または単語の組み合わせである理解結果候補を探索する理解結果候補探索処理とを行い、該理解結果候補探索処理によって理解結果候補が発見されない場合には、該候補カテゴリの集合から1つ以上のカテゴリを除いてなる集合を新しい候補カテゴリの集合として選択するカテゴリ選択処理を行った後に該理解結果候補探索処理を再び行うことを特徴とする音声対話方法。 Speech input means for converting input speech into speech signals and outputting, speech recognition means for converting speech signals to candidate words and outputting, and words indicating the likelihood of the candidate words being spoken A speech dialogue method using word reliability calculation means for obtaining reliability, and a language understanding unit that understands a spoken language input to the voice input means from the candidate word and the word reliability,
The language understanding unit classifies all candidate words output by the voice recognition unit into categories when a user's utterance is input to the voice input unit, and for each of the categories, candidate words belonging to the category A category score indicating the likelihood that a candidate word belonging to the category has been uttered using the word reliability of the category, and all the categories having the category score equal to or higher than a predetermined threshold for the category or Category selection processing for selecting a part as a candidate category, and understanding result candidate search processing for searching for an understanding result candidate that is a word or a combination of words that can be semantically consistent from candidate words belonging to the candidate category If no understanding result candidate is found by the understanding result candidate search process, one or more categories are selected from the set of candidate categories. Voice dialogue method and performing after the category selection processing for selecting excluding comprising a set as a new set of candidate categories the understanding result candidates search process again.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005022704A JP4661239B2 (en) | 2005-01-31 | 2005-01-31 | Voice dialogue apparatus and voice dialogue method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005022704A JP4661239B2 (en) | 2005-01-31 | 2005-01-31 | Voice dialogue apparatus and voice dialogue method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006208905A true JP2006208905A (en) | 2006-08-10 |
JP4661239B2 JP4661239B2 (en) | 2011-03-30 |
Family
ID=36965818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005022704A Expired - Fee Related JP4661239B2 (en) | 2005-01-31 | 2005-01-31 | Voice dialogue apparatus and voice dialogue method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4661239B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008097003A (en) * | 2006-10-12 | 2008-04-24 | Qnx Software Systems (Wavemakers) Inc | Adaptive context for automatic speech recognition systems |
WO2008128423A1 (en) * | 2007-04-19 | 2008-10-30 | Shenzhen Institute Of Advanced Technology | An intelligent dialog system and a method for realization thereof |
JP2008293019A (en) * | 2007-05-22 | 2008-12-04 | Honda Motor Co Ltd | Language understanding device |
JP2013210905A (en) * | 2012-03-30 | 2013-10-10 | Aisin Aw Co Ltd | Probe information statistical system, probe information statistical method and probe information statistical program |
WO2019088362A1 (en) * | 2017-10-30 | 2019-05-09 | 엘지전자 주식회사 | Mobile terminal |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002149188A (en) * | 2000-11-15 | 2002-05-24 | Sony Corp | Device and method for processing natural language and recording medium |
JP2003029782A (en) * | 2001-07-19 | 2003-01-31 | Mitsubishi Electric Corp | Device, method and program for interactive processing |
JP2004251998A (en) * | 2003-02-18 | 2004-09-09 | Yukihiro Ito | Conversation understanding device |
JP2006030282A (en) * | 2004-07-12 | 2006-02-02 | Nissan Motor Co Ltd | Interaction understanding device |
-
2005
- 2005-01-31 JP JP2005022704A patent/JP4661239B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002149188A (en) * | 2000-11-15 | 2002-05-24 | Sony Corp | Device and method for processing natural language and recording medium |
JP2003029782A (en) * | 2001-07-19 | 2003-01-31 | Mitsubishi Electric Corp | Device, method and program for interactive processing |
JP2004251998A (en) * | 2003-02-18 | 2004-09-09 | Yukihiro Ito | Conversation understanding device |
JP2006030282A (en) * | 2004-07-12 | 2006-02-02 | Nissan Motor Co Ltd | Interaction understanding device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008097003A (en) * | 2006-10-12 | 2008-04-24 | Qnx Software Systems (Wavemakers) Inc | Adaptive context for automatic speech recognition systems |
WO2008128423A1 (en) * | 2007-04-19 | 2008-10-30 | Shenzhen Institute Of Advanced Technology | An intelligent dialog system and a method for realization thereof |
JP2008293019A (en) * | 2007-05-22 | 2008-12-04 | Honda Motor Co Ltd | Language understanding device |
US8244522B2 (en) | 2007-05-22 | 2012-08-14 | Honda Motor Co., Ltd. | Language understanding device |
JP2013210905A (en) * | 2012-03-30 | 2013-10-10 | Aisin Aw Co Ltd | Probe information statistical system, probe information statistical method and probe information statistical program |
WO2019088362A1 (en) * | 2017-10-30 | 2019-05-09 | 엘지전자 주식회사 | Mobile terminal |
US11240361B2 (en) | 2017-10-30 | 2022-02-01 | Lg Electronics Inc. | Mobile terminal |
Also Published As
Publication number | Publication date |
---|---|
JP4661239B2 (en) | 2011-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7949524B2 (en) | Speech recognition correction with standby-word dictionary | |
US7996218B2 (en) | User adaptive speech recognition method and apparatus | |
JP4680714B2 (en) | Speech recognition apparatus and speech recognition method | |
US20180137109A1 (en) | Methodology for automatic multilingual speech recognition | |
US5797116A (en) | Method and apparatus for recognizing previously unrecognized speech by requesting a predicted-category-related domain-dictionary-linking word | |
JP4812029B2 (en) | Speech recognition system and speech recognition program | |
US20110313769A1 (en) | Method and System for Automatically Detecting Morphemes in a Task Classification System Using Lattices | |
EP1617409B1 (en) | Multimodal method to provide input to a computing device | |
JP5824829B2 (en) | Speech recognition apparatus, speech recognition method, and speech recognition program | |
JP4867622B2 (en) | Speech recognition apparatus and speech recognition method | |
JP2008262279A (en) | Speech retrieval device | |
US20070038453A1 (en) | Speech recognition system | |
KR20080088490A (en) | Multilingual non-native speech recognition | |
JP4634156B2 (en) | Voice dialogue method and voice dialogue apparatus | |
JP4661239B2 (en) | Voice dialogue apparatus and voice dialogue method | |
US20030216918A1 (en) | Voice recognition apparatus and voice recognition program | |
JP5034323B2 (en) | Spoken dialogue device | |
JP4293340B2 (en) | Dialogue understanding device | |
JP4639990B2 (en) | Spoken dialogue apparatus and speech understanding result generation method | |
JP4684583B2 (en) | Dialogue device | |
JP3472101B2 (en) | Speech input interpretation device and speech input interpretation method | |
JP3790038B2 (en) | Subword type speakerless speech recognition device | |
JP4930014B2 (en) | Speech recognition apparatus and speech recognition method | |
JP4635743B2 (en) | Spoken dialogue apparatus and speech understanding result generation method | |
WO2009147745A1 (en) | Retrieval device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100921 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20101001 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20101028 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101207 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101220 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140114 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |