JP2006023572A - Dialog system - Google Patents

Dialog system Download PDF

Info

Publication number
JP2006023572A
JP2006023572A JP2004202060A JP2004202060A JP2006023572A JP 2006023572 A JP2006023572 A JP 2006023572A JP 2004202060 A JP2004202060 A JP 2004202060A JP 2004202060 A JP2004202060 A JP 2004202060A JP 2006023572 A JP2006023572 A JP 2006023572A
Authority
JP
Japan
Prior art keywords
difference
response
search
candidate
recognition result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004202060A
Other languages
Japanese (ja)
Other versions
JP4684583B2 (en
Inventor
Yohei Okato
洋平 岡登
Toshiyuki Hanazawa
利行 花沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004202060A priority Critical patent/JP4684583B2/en
Publication of JP2006023572A publication Critical patent/JP2006023572A/en
Application granted granted Critical
Publication of JP4684583B2 publication Critical patent/JP4684583B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the following problems in the conventional method of presenting a candidate of a recognition result in an easily discriminatable manner to a user with a dialog system; the display is changed according to the score and attribute of the candidate and the difference between both is indefinite depending upon the attribute; also, in the case of a retrieval, the difference is indefinite if the retrieval results are similar, and the user is heretofore required to select the desired retrieval object by recognizing the difference by himself or herself. <P>SOLUTION: The dialog system is equipped with a recognition means 1001 for recognizing the inputted voice, and outputting the candidate list of the recognition result, a difference extraction means 1002 for extracting the difference between the candidates of the recognition result and imparting difference information to the recognition result, a difference definitization response generation means 1003 for generating the response to make the difference definite based on the difference information imparted to the recognition result, and a response presentation means 1004 for presenting the generated response. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ユーザの入力に基づき認識または検索を実施し、画面または音声によりユーザへ応答を提示する技術分野に関する。   The present invention relates to a technical field in which recognition or search is performed based on user input, and a response is presented to the user by a screen or voice.

近年、音声認識マンマシンインタフェースを採用した電子機器が増えている。一例としてカーナビゲーションが挙げられる。カーナビゲーションは、所望の地点を指定して目的地として設定し、車両の現在位置から目的地までの経路を探索し、その経路をその現在位置を含む地図とともに表示させることにより、目的地までの誘導を行う機能を有している。   In recent years, an increasing number of electronic devices employ a voice recognition man-machine interface. One example is car navigation. Car navigation specifies a desired point, sets it as a destination, searches for a route from the current position of the vehicle to the destination, displays the route together with a map including the current position, and displays the route to the destination. It has a function to perform guidance.

カーナビゲーションにおける音声操作による地点の指定は、所望の目的地の固有名称、例えば「関内駅」という施設名を発声することで行われている。   The designation of a point by voice operation in car navigation is performed by uttering a unique name of a desired destination, for example, a facility name “Kannai Station”.

音声認識装置は、現在設定されている認識対象語彙と「関内駅」といった発声の類似度合いをスコアとして点数化し、一番スコアの高い認識語を第一候補として出力していた。また、二番目以降の認識候補、例えば「関内ホール」「関内署」などを同時、あるいは順次、ユーザへ提示し、ユーザは認識結果の候補中から発声あるいはボタン操作などにより、所望の施設を選択するものである。音声対話装置に関しては例えば「音声認識の基礎」L.RABINER、B.H.JUANG、古井貞煕 監訳、1995年11月、NTTアドバンステクノロジ(以下文献1とする)に詳細が記されているので説明を省略する。   The speech recognition apparatus scores the degree of similarity between the currently set recognition target vocabulary and utterance such as “Kannai Station” as a score, and outputs the recognition word with the highest score as the first candidate. Also, the second and subsequent recognition candidates, such as “Kannai Hall” and “Kannai Station”, are presented to the user simultaneously or sequentially, and the user selects a desired facility by speaking or operating a button from among the recognition result candidates. To do. The details of the spoken dialogue device are omitted because they are described in detail in "Basics of Speech Recognition", directed by L.RABINER, BHJUANG, Satoshi Furui, November 1995, NTT Advanced Technology (hereinafter referred to as Reference 1). To do.

候補を提示する際、ユーザが候補を選択するために候補の表示形態を変える方法として、特開平11-231891号公報では、認識結果それぞれの類似度(尤度)に応じて表示形態を変える方法を開示している。また、特開2003-167600号公報、特開平09-114491号公報では、入力された音声の認識を結果それぞれに付与された属性に応じて表示を変える方法を開示している。   As a method for changing the display form of a candidate for the user to select a candidate when presenting the candidate, Japanese Patent Laid-Open No. 11-231891 discloses a method for changing the display form according to the similarity (likelihood) of each recognition result. Is disclosed. Japanese Patent Laid-Open No. 2003-167600 and Japanese Patent Laid-Open No. 09-114491 disclose a method of changing the display of the input speech according to the attribute assigned to each result.

さらに、上記と同様の状況として、検索を実施した際に多数の候補が生じる場合がある。例えば「札幌市・北六条」という検索語に対して、「北海道・札幌市・東区・北六条東」「北海道・札幌市・北区・北六条西」「北海道・札幌市・北区・拓北六条」が候補としてユーザへ提示される。これに対して、検索対象語彙をテキスト中でハイライトするなどの機能が提供されている場合がある。   Furthermore, as a situation similar to the above, there are cases where a large number of candidates are generated when a search is performed. For example, for the search term “Sapporo City / Kokurokujo”, “Hokkaido / Sapporo City / Higashi Ward / Kitarokujo East”, “Hokkaido / Sapporo City / Kita Ward / Kitarokujo West”, “Hokkaido / Sapporo City / Kitakujo / “Takuhoku Rokujo” is presented to the user as a candidate. On the other hand, there is a case where a function such as highlighting a search target vocabulary in a text is provided.

特開平11-231891号公報Japanese Patent Laid-Open No. 11-231891 特開2003-167600号公報JP 2003-167600 A 特開平09-114491号公報JP 09-114491 A L RABINER、B.H.JUANG、古井貞煕 監訳、「音声認識の基礎」、NTTアドバンステクノロジ、1995年11月L RABINER, B.H.JUANG, supervised by Sadahiro Furui, “Basics of Speech Recognition”, NTT Advanced Technology, November 1995

上述のように、候補の表示形態を変える従来の方法は複数の候補を提示する際に、個々の候補のスコアや属性に応じて表示を変えるものであった。このため、付与された属性によっては、両者の差異が明確にならない場合がある。例えば、カーナビゲーションシステムの認識語彙において、操作コマンドと、施設名称という属性がある場合、両者を区別して色分けしても、属性が同じ「関内ホール」と「関内駅」の差異は明確とならない。   As described above, the conventional method for changing the display form of candidates changes the display according to the scores and attributes of individual candidates when presenting a plurality of candidates. For this reason, depending on the assigned attribute, the difference between the two may not be clear. For example, in the recognition vocabulary of the car navigation system, if there are attributes such as operation commands and facility names, the difference between “Kannai hall” and “Kannai station” having the same attributes is not clear even if they are distinguished and color-coded.

検索の場合も、特に検索結果が類似している場合、検索キーワードをハイライトしても、差異の明確化とならず、ユーザは差異を自ら認識して、所望の検索対象を選択する必要がある。   Also in the case of search, particularly when the search results are similar, highlighting a search keyword does not clarify the difference, and the user needs to recognize the difference himself and select a desired search target. is there.

本発明に係る対話装置は、入力された音声を認識して認識結果の候補リストを出力する認識手段と、
認識結果の候補間の差異を抽出して認識結果へ差異情報を付与する差異抽出手段と、
認識結果へ付与した差異情報に基づき差異が明確になる応答を生成する差異明確化応答生成手段と、
生成した応答を提示する応答提示手段とを備える。
The dialogue apparatus according to the present invention recognizes input speech and outputs a recognition result candidate list;
A difference extraction means for extracting differences between recognition result candidates and adding difference information to the recognition results;
A difference clarification response generating means for generating a response that makes the difference clear based on the difference information given to the recognition result;
Response presenting means for presenting the generated response.

本発明によれば、差異抽出手段により認識結果に差異情報を付与し、差異明確化応答生成手段が付与された差異情報に基づいて認識結果の差異を明確化した応答を生成し、応答提示手段により、差異明確化応答生成手段により生成された応答をユーザへ提示するので、ユーザは容易に候補間の差異を認識できる。   According to the present invention, the difference extraction unit adds difference information to the recognition result, the difference clarification response generation unit generates a response that clarifies the difference in the recognition result based on the difference information, and the response presentation unit. Thus, since the response generated by the difference clarification response generation means is presented to the user, the user can easily recognize the difference between candidates.

以下、本発明に係る対話装置について、図面を参照して詳細に説明する。
実施の形態1.
図1は、実施の形態1に係る対話装置の構成を示すブロック図である。同図において、1001は認識手段、1002は差異抽出手段、1003は差異明確化応答生成手段、1004は応答提示手段を表す。以下、各機能ブロックの動作を説明する。
Hereinafter, an interactive apparatus according to the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram illustrating a configuration of the interactive apparatus according to the first embodiment. In the figure, reference numeral 1001 denotes recognition means, 1002 denotes difference extraction means, 1003 denotes difference clarification response generation means, and 1004 denotes response presentation means. Hereinafter, the operation of each functional block will be described.

認識手段1001は、マイクから入力した音声を認識し、認識結果の候補リストを出力する。認識結果の候補リストとは、認識手段が認識結果としてある一定の妥当性があると判断した認識結果の候補を列挙したものである。それぞれの認識結果は、シンボルの系列と認識結果の確からしさを表すスコアからなる。シンボルとは、単語・文字・音素のような言語単位や認識単位である。   The recognition unit 1001 recognizes the voice input from the microphone, and outputs a recognition result candidate list. The recognition result candidate list is a list of recognition result candidates that the recognition means determines to have a certain validity as a recognition result. Each recognition result consists of a symbol series and a score representing the accuracy of the recognition result. A symbol is a language unit such as a word, a character, or a phoneme, or a recognition unit.

差異抽出手段1002は、認識手段1001によって得られた候補間で差異のあるシンボルを抽出し、各候補のシンボルに差異情報である差異指標値を付与する。
差異明確化応答生成手段1003は、差異情報に基づき差異が明確になるユーザへの応答を生成する。
応答提示手段1004は、差異明確化応答生成手段1003により生成された応答をユーザへ提示する。
The difference extraction unit 1002 extracts a symbol having a difference between candidates obtained by the recognition unit 1001, and assigns a difference index value, which is difference information, to each candidate symbol.
The difference clarification response generation unit 1003 generates a response to the user that makes the difference clear based on the difference information.
The response presentation unit 1004 presents the response generated by the difference clarification response generation unit 1003 to the user.

次に図2のフローチャートを参照し、実施の形態1の動作フローを説明する。ここでは、認識対象が施設名であり、「○○百貨店・横浜・店」、「○×百貨店・横浜・店」という2個の認識候補が得られた場合を例に、両者の差異を明確化した応答を返す手順を説明する。   Next, the operation flow of the first embodiment will be described with reference to the flowchart of FIG. Here, the object of recognition is the name of the facility, and the difference between the two is clarified, taking as an example the case where two recognition candidates “XX department store / Yokohama / store” and “XX department store / Yokohama / store” are obtained. The procedure for returning a response that has been converted is described.

まず、応答提示手段1004は認識手段1001にユーザよりの入力がないことを確認して、ユーザに対し、「目的地を発声、入力してください」というガイダンス等によるユーザへ入力を促す(ステップS11)。
ユーザが目的地を発声により入力すると、次に、認識手段1001はユーザの入力を受理し、解析・認識処理をする(ステップS12)。具体的には、入力音声を時間周期Tでサンプリングし、離散化された時刻tに対する信号系列x[t] を得る。これを10ms単位で特徴ベクトル(例えば12次元のメルケプストラム)に変換する。さらに、得られた特徴ベクトルを対話装置内に設けられた図示しない音響辞書および言語辞書と照合して、照合の尤度が高いn個の認識結果の候補r[1]〜r[n]を得る。認識結果の候補は、それぞれ認識単位であるシンボルの列である。また、認識結果の候補それぞれについて、妥当性を表すスコアs[1]〜s[n] を得る。
First, the response presenting means 1004 confirms that there is no input from the user in the recognizing means 1001, and prompts the user to input by the guidance such as “Please speak and input the destination” (step S11). ).
When the user inputs the destination by speaking, the recognition unit 1001 accepts the user's input and performs analysis / recognition processing (step S12). Specifically, the input speech is sampled at a time period T, and a signal sequence x [t] for the discretized time t is obtained. This is converted into a feature vector (for example, 12-dimensional mel cepstrum) in units of 10 ms. Further, the obtained feature vector is collated with an acoustic dictionary and a language dictionary (not shown) provided in the dialogue apparatus, and n recognition result candidates r [1] to r [n] having a high likelihood of collation are obtained. obtain. Each recognition result candidate is a string of symbols that is a recognition unit. For each recognition result candidate, scores s [1] to s [n] representing validity are obtained.

ここでは認識結果として2個の候補r[1]=「○○百貨店・横浜・店」、r[2]=「○×百貨店・横浜・店」が得られ、差異抽出手段1002の入力とされる。ただし、中点「・」は、シンボルの区切りである。   Here, as a recognition result, two candidates r [1] = “XX department store / Yokohama / store” and r [2] = “XX department store / Yokohama / store” are obtained and input to the difference extraction means 1002. The However, the middle point “·” is a symbol delimiter.

次に、差異抽出手段1002では、得られた候補間で差異のあるシンボルを抽出し、各候補のシンボルに差異指標値を付与する(ステップS13)。差異指標値は、例えば、n個の候補のうちk個の候補で出現したシンボルcにd(c ; r[1]..r[n]) = n-k を付与する。この場合、全ての候補で出現したシンボル(共通要素)は0、特定の1候補でのみ出現したシンボルには n-1 が付与される。前述の例は n=2であり、シンボル「横浜」「店」は2つの候補で出現(k=2),「○○百貨店」「○×百貨店」は1つの候補で出現している(k=1)。よって、下記のようになる。
d(○○百貨店 ; r[1], r[2]) = 2-1 = 1
d(○×百貨店 ; r[1], r[2]) = 2-1 = 1
d(横浜店 ; r[1], r[2]) = 2-2 = 0
Next, the difference extraction unit 1002 extracts symbols that differ between the obtained candidates, and assigns a difference index value to each candidate symbol (step S13). As the difference index value, for example, d (c; r [1] .. r [n]) = nk is assigned to a symbol c that appears in k candidates among n candidates. In this case, a symbol (common element) that appears in all candidates is assigned 0, and a symbol that appears only in one specific candidate is assigned n-1. In the above example, n = 2, the symbols “Yokohama” and “Store” appear as two candidates (k = 2), and “XX department store” and “XX department store” appear as one candidate (k = 1). Therefore, it becomes as follows.
d (XX Department Store; r [1], r [2]) = 2-1 = 1
d (○ × Department store; r [1], r [2]) = 2-1 = 1
d (Yokohama store; r [1], r [2]) = 2-2 = 0

得られた数値は、適当なしきい値を決めて 0または1に離散化するといった、適当な後処理を追加しても良い。   Appropriate post-processing such as determining the appropriate threshold value and discretizing it into 0 or 1 may be added to the obtained numerical value.

次に、差異明確化応答生成手段1003は、認識結果の候補と、候補を構成するシンボルに付与された差異指標値を読み込み、差異指標値に基づいて認識結果の差異を明確化した応答を生成する(ステップS14)。前述の例では、シンボルの差異指標値を参照し、差異指標値が1である「○○百貨店」「○×百貨店」の出力形態を変えて明確化する。文字により画面出力する場合では、字体の変化や、括弧などによる修飾の付加により強調を行う。字体を変えるとは、例えば、対象文字列の色・背景色・下線・斜体字・太字・フォントなどを変えて強調するものである。   Next, the difference clarification response generation unit 1003 reads the recognition result candidate and the difference index value given to the symbols constituting the candidate, and generates a response that clarifies the difference in the recognition result based on the difference index value. (Step S14). In the above-described example, the difference index value of the symbol is referred to and clarified by changing the output form of “XX department store” and “XX department store” having a difference index value of 1. In the case of screen output using characters, emphasis is given by changing the font or adding modifications such as parentheses. For example, changing the font means emphasizing the target character string by changing the color, background color, underline, italic, bold, font, and the like.

この結果、「認識結果:(1)『○○百貨店』横浜店、(2)『○×百貨店』横浜店」のように括弧『・』で囲むことにより差異を明確化して応答できる。また、差異抽出の結果、同一となる部分の表現や表示位置を変えることで差異を明確化することもできる。参照例において、「認識結果:(1)○○百貨店横浜店、(2)○×百貨店〃」のように差異指標値が0である「横浜店」は2度目以降の同一であることを表す記号等へ置換してもよい。また、「〃」の表示を「横浜店」と対応付けて、位置を揃えて表示することで、差異を一層明確化できる。   As a result, it is possible to respond by clarifying the difference by enclosing it in parentheses “·”, such as “recognition result: (1)“ XX department store ”Yokohama store, (2)“ XX department store ”Yokohama store”. Further, as a result of the difference extraction, the difference can be clarified by changing the expression and display position of the same part. In the reference example, “recognition result: (1) XX department store Yokohama store, (2) XX department store 〃” “Yokohama store” with a difference index value of 0 indicates that it is the same after the second time. It may be replaced with a symbol or the like. In addition, the difference can be further clarified by displaying “〃” in correspondence with “Yokohama store” and displaying the same positions.

また、音声合成等で生成した音声による応答の場合は、本手法によって、音声の高さ・大きさ・発話の速度・ポーズ付与などの韻律情報を音声合成装置へ入力するテキスト上で指示し、差異を明確化する。例えば、前述の例で「○×百貨店」の前でいったんポーズをおき、声の高さを上げてゆっくり発話することで強調を行うことができる。テキスト音声合成の場合は、上記音声を出力するために、応答音声のテキストへピッチ上げなどのマークアップを追加する。差異の付与は、2値的であっても、差異の大きさに応じて、多値・連続的としてもよい。   In addition, in the case of a response by speech generated by speech synthesis or the like, this method indicates on the text to be input to the speech synthesizer, prosodic information such as speech height, loudness, utterance speed, pose provision, etc. Clarify the differences. For example, in the above-mentioned example, it is possible to emphasize by posing once in front of “○ × Department Store” and speaking slowly while raising the voice. In the case of text-to-speech synthesis, markup such as pitch increase is added to the text of the response speech in order to output the speech. The addition of the difference may be binary or may be multi-valued or continuous depending on the magnitude of the difference.

最後に、応答提示手段1004は、差異明確化応答生成手段1003により生成された応答をユーザへ提示する(ステップS15)。   Finally, the response presentation unit 1004 presents the response generated by the difference clarification response generation unit 1003 to the user (step S15).

以上のように本実施の形態によれば、差異抽出手段1002により認識結果の候補と、候補を構成するシンボルに差異指標値を付与し、差異明確化応答生成手段1003が付与された差異指標値を読み込み、差異指標値に基づいて認識結果の差異を明確化した応答を生成し、応答提示手段1004により、差異明確化応答生成手段1003により生成された応答をユーザへ提示するので、ユーザは容易に候補間の差異を認識できる。   As described above, according to the present embodiment, the difference index value is assigned to the recognition result candidate and the symbols constituting the candidate by the difference extraction means 1002, and the difference clarification response generation means 1003 is assigned. Is generated, a response that clarifies the difference in the recognition result is generated based on the difference index value, and the response generated by the difference clarified response generating unit 1003 is presented to the user by the response presenting unit 1004. Can recognize differences between candidates.

実施の形態2.
図3は、実施の形態2に係る対話装置の構成を示すブロック図である。同図において、2001は名称データベース、2002は名称データベース2001を検索する検索手段、1002は差異抽出手段、1003は差異明確化応答生成手段、1004は応答提示手段を表す。以下、各機能ブロックの動作を説明する。ただし、既に説明したものは同じ番号を付与して説明を省略する。
Embodiment 2. FIG.
FIG. 3 is a block diagram showing a configuration of the interactive apparatus according to the second embodiment. In the figure, 2001 is a name database, 2002 is a search means for searching the name database 2001, 1002 is a difference extraction means, 1003 is a difference clarification response generation means, and 1004 is a response presentation means. Hereinafter, the operation of each functional block will be described. However, what has already been described is assigned the same number and description thereof is omitted.

名称データベース2001は、入力されたキーワードから対応付けられた情報を取り出すためのデータベースである。図4は、施設名に関するデータベースの検索キーワードと検索結果の例である。検索キーワードは施設名の正式名称の一部あるいは言い換えた通称表現であり、検索結果として、正式名称を得る。正式名称は、中点「・」で区切られた、シンボルの並びとして格納されている。   The name database 2001 is a database for extracting information associated with an input keyword. FIG. 4 is an example of a search keyword and a search result in the database regarding the facility name. The search keyword is a part of the official name of the facility name or a common expression expressed in other words, and the official name is obtained as a search result. The official name is stored as a sequence of symbols separated by a midpoint “·”.

検索手段2002は、入力された検索式または検索キーワードにより名称データベース2001を検索し、検索結果のリストを出力する。検索は、正式名称との部分一致でも、あらかじめ作成したテーブルの参照であっても良い。また、検索式は複数の検索条件を組み合わせたものであっても良い。   The search means 2002 searches the name database 2001 using the input search formula or search keyword, and outputs a list of search results. The search may be a partial match with the official name or a reference to a previously created table. The search expression may be a combination of a plurality of search conditions.

次に、図5のフローチャートを参照し、本実施の形態の動作フローを説明する。なお、本実施の形態では図4に示すデータベースの検索例について、名称データベース2002を参照して検索結果リスト内の差異を明確化した応答を返す手順を説明する。   Next, the operation flow of the present embodiment will be described with reference to the flowchart of FIG. In the present embodiment, for the database search example shown in FIG. 4, a procedure for returning a response that clarifies the difference in the search result list with reference to the name database 2002 will be described.

まず、応答提示手段1004により、「検索条件を入力してください」というガイダンス等によるユーザへ入力を促す処理をする(ステップS21)。   First, the response presentation means 1004 performs a process of prompting the user to input based on a guidance such as “Please enter search conditions” (step S21).

次に検索手段2002は、ステップS21に応じてユーザが入力した検索コマンドr[0]=「○○百貨店」を受理し、名称データベース2001を検索して検索結果のリストを取得する(ステップS22)。   Next, the search means 2002 receives the search command r [0] = “XX department store” input by the user in accordance with step S21, searches the name database 2001, and obtains a list of search results (step S22). .

例えば、施設の正式名称を調べるために施設の通称から正式名称を得られるデータベース2001にアクセスして、あり得る施設の正式名称を返す。図4の例では、「○○百貨店」というキーワードに対して、r[1]=「○○百貨店・横浜店」、r[2]=「川崎・○○百貨店」という正式名称を得る。   For example, in order to check the official name of the facility, the database 2001 that can obtain the official name from the common name of the facility is accessed, and the formal name of the possible facility is returned. In the example of FIG. 4, for the keyword “XX department store”, the official names r [1] = “XX department store / Yokohama store” and r [2] = “Kawasaki / XX department store” are obtained.

次に、差異抽出手段1002では得られた候補間で差異のあるシンボルを抽出し、各候補のシンボルに差異指標値を付与する(ステップS23)。例えば、差異指標値として、n個の候補のうちk個の候補で出現したシンボルcにd(c ; r[1]..r[n]) = n-k を付与する。この場合、下記のようになる。
d(○○百貨店 ; r[1], r[2]) = 2-2 = 0
d(横浜店 ; r[1], r[2]) = 2-1 = 1
d(川崎 ; r[1], r[2]) = 2-1 = 1
Next, the difference extraction means 1002 extracts symbols that differ between the obtained candidates, and assigns a difference index value to each candidate symbol (step S23). For example, as a difference index value, d (c; r [1] .. r [n]) = nk is assigned to a symbol c that appears in k candidates among n candidates. In this case, it becomes as follows.
d (XX Department Store; r [1], r [2]) = 2-2 = 0
d (Yokohama store; r [1], r [2]) = 2-1 = 1
d (Kawasaki; r [1], r [2]) = 2-1 = 1

次に、差異明確化応答生成手段1003は、候補となる検索結果と、候補を構成するシンボルに付与された差異指標値を読み込み、差異指標値に基づいて検索結果の差異を明確化した応答を生成する(ステップS24)。この結果、例えば「検索結果:(1)○○百貨店『横浜店』、(2)『川崎』○○百貨店」のように括弧『・』で囲むことで差異を明確化することができる。   Next, the difference clarification response generation unit 1003 reads the candidate search results and the difference index values given to the symbols constituting the candidates, and sends a response that clarifies the difference between the search results based on the difference index values. Generate (step S24). As a result, for example, the difference can be clarified by enclosing it in parentheses “·” like “search result: (1) XX department store“ Yokohama store ”, (2)“ Kawasaki ”XX department store”.

最後に、応答提示手段1004は、差異明確化応答生成手段により生成された応答をユーザへ提示する(ステップS25)。   Finally, the response presentation unit 1004 presents the response generated by the difference clarification response generation unit to the user (step S25).

この結果、生成された応答は、検索結果の差異が明確化されている。このため、ユーザは所望の候補を選択することが容易となる。   As a result, the difference in search results is clarified in the generated response. For this reason, the user can easily select a desired candidate.

なお、上記の例では検索結果間の差異を明確化したが、差異抽出手段1002の入力として検索キーワードを与えても良い。
この場合、r[0]=「○○百貨店」が差異抽出手段1002の入力になり、上述の差異指標値付与方法により、シンボルに付与される差異指標値は下記のようになる。この結果、入力した検索キーワードr[0]=「○○百貨店」以外が一層明確になる。
d(○○百貨店 ; r[0, r[1], r[2]) = 3-3 = 0
d(横浜店 ; r[0], r[1], r[2]) = 3-1 = 2
d(川崎 ; r[0], r[1], r[1]) = 3-1 = 2
Although the difference between the search results has been clarified in the above example, a search keyword may be given as an input to the difference extraction unit 1002.
In this case, r [0] = “XX department store” is input to the difference extraction unit 1002, and the difference index value given to the symbol by the above-described difference index value assigning method is as follows. As a result, other than the input search keyword r [0] = “XX department store” becomes clearer.
d (XX department store; r [0, r [1], r [2]) = 3-3 = 0
d (Yokohama store; r [0], r [1], r [2]) = 3-1 = 2
d (Kawasaki; r [0], r [1], r [1]) = 3-1 = 2

また、データベースの検索結果は、意味的に区切られた複数のフィールドから構成されていても良い。この場合、フィールドごとにシンボルの差異を求めて応答を生成することができる。フィールドに優先順位を付与し、優先順位の高いフィールドに差異があれば、優先順位の低いフィールドの差異内容を提示しないようにしても良い。   The database search result may be composed of a plurality of semantically separated fields. In this case, a response can be generated by obtaining a symbol difference for each field. If priority is given to a field and there is a difference in a field with a high priority, the difference contents of a field with a low priority may not be presented.

実施の形態3.
図6は、実施の形態3に係る対話装置の構成を示すブロック図である。同図において、1001は認識手段、2001は名称データベース、2002は検索手段、1002は差異抽出手段、1003は差異明確化応答生成手段、1004は応答提示手段を表す。各機能ブロックについては、既に説明の通りである。次に、図7に示すフローチャートを参照し、「○○百貨店」という発声が行われた場合を例として動作を説明する。
Embodiment 3 FIG.
FIG. 6 is a block diagram showing a configuration of the interactive apparatus according to the third embodiment. In the figure, 1001 is a recognition means, 2001 is a name database, 2002 is a search means, 1002 is a difference extraction means, 1003 is a difference clarification response generation means, and 1004 is a response presentation means. Each functional block has already been described. Next, the operation will be described with reference to the flowchart shown in FIG. 7, taking as an example the case where the utterance “XX department store” is made.

まず、応答提示手段1004により、「発声をどうぞ」という文字や音声ガイダンス等によるユーザへ入力を促すメッセージを送る(ステップS31)。   First, the response presenting means 1004 sends a message prompting the user to input using the text “Please speak” or voice guidance (step S31).

次に、認識手段1001はユーザの発声した入力を受理し、入力音声を解析・認識する(ステップS32)。具体的には、入力音声を時間周期Tでサンプリングし、時刻tに対する信号系列x[t] を得る。これを10ms単位で特徴ベクトル(例えば12次元のメルケプストラム)に変換する。さらに、得られた特徴ベクトルを対話装置内に設けられた図示しない音響辞書および言語辞書と照合して、照合の尤度が高いn個の認識結果の候補r[1]〜r[n]を得る。
認識結果の候補は、それぞれ認識単位であるシンボルの列である。また、認識結果の候補それぞれについて、妥当性を表すスコアs[1]〜s[n] を得る。ここでは、2個の認識結果「○○百貨店」「○×百貨店」が得られたとする。
Next, the recognizing unit 1001 receives the input uttered by the user, and analyzes and recognizes the input voice (step S32). Specifically, the input speech is sampled with a time period T to obtain a signal sequence x [t] for time t. This is converted into a feature vector (for example, 12-dimensional mel cepstrum) in units of 10 ms. Further, the obtained feature vector is collated with an acoustic dictionary and a language dictionary (not shown) provided in the dialogue apparatus, and n recognition result candidates r [1] to r [n] having a high likelihood of collation are obtained. obtain.
Each recognition result candidate is a string of symbols that is a recognition unit. For each recognition result candidate, scores s [1] to s [n] representing validity are obtained. Here, it is assumed that two recognition results “XX department store” and “XX department store” are obtained.

次に、検索手段2002は、認識手段1001が得た認識結果の候補の出力を入力として、名称データベース2001を検索して検索結果のリストを取得する(ステップS33)。検索は、認識結果の候補数だけ実施する。例えば、正しい施設名を調べるために、名称データベース2001をアクセスして、ユーザが入力したキーワードに部分照合する施設の登録名称のリストを返す。その結果、図4に示したように、例えば「○○百貨店」という認識結果候補を検索キーワードとすると、r[1]=「○○百貨店・横浜・店」、r[2]=「川崎・○○百貨店」という正式名称を得る。また、「○×百貨店」という認識結果候補を検索キーワードとすると、r[3]=「○×百貨店・横浜・店」という正式名称を得る。   Next, the search means 2002 uses the recognition result candidate output obtained by the recognition means 1001 as an input and searches the name database 2001 to obtain a list of search results (step S33). The search is performed for the number of recognition result candidates. For example, in order to check the correct facility name, the name database 2001 is accessed, and a list of registered names of facilities that are partially matched with the keyword input by the user is returned. As a result, as shown in FIG. 4, for example, if the recognition result candidate “XX department store” is a search keyword, r [1] = “XX department store / Yokohama / store”, r [2] = “Kawasaki / Obtained the official name “XX Department Store”. Also, if the recognition result candidate “XX department store” is a search keyword, the official name r [3] = “XX department store / Yokohama / store” is obtained.

次に、差異抽出手段1002では、得られた候補間で差異のあるシンボルを抽出し、各候補のシンボルに差異指標値を付与する(ステップS34)。差異指標値として、n個の候補のうち、k個の候補で出現したシンボルcにd(c ; r[1]..r[n]) = n-k を付与した場合、下記のようになる。
d(○○百貨店 ; r[1], r[2], r[3]) = 3-2 = 1
d(○×百貨店 ; r[1], r[2], r[3]) = 3-1 = 2
d(横浜店 ; r[1], r[2],r [3]) = 3-2 = 1
d(川崎 ; r[1], r[2], r[3]) = 3-1 = 2
Next, the difference extraction unit 1002 extracts a symbol having a difference between the obtained candidates, and assigns a difference index value to each candidate symbol (step S34). When d (c; r [1] .. r [n]) = nk is assigned to a symbol c that appears in k candidates out of n candidates, the difference index value is as follows.
d (XX Department Store; r [1], r [2], r [3]) = 3-2 = 1
d (○ × Department store; r [1], r [2], r [3]) = 3-1 = 2
d (Yokohama store; r [1], r [2], r [3]) = 3-2 = 1
d (Kawasaki; r [1], r [2], r [3]) = 3-1 = 2

次に、差異明確化応答生成手段1003は、認識結果の候補と、候補を構成するシンボルに付与された差異指標値を読み込み、差異指標値に基づいて検索結果の差異を明確化した応答を生成する(ステップS35)。この結果、例えば、検索結果:(1)○○百貨店『横浜店』、(2)『川崎』○○百貨店、(3)『○×百貨店』横浜店」のように差異を明確化した表示による応答を生成する。音声による応答生成の場合も実施の形態1と同様の手順により差異を明確化した応答を生成できる。   Next, the difference clarification response generation unit 1003 reads the recognition result candidate and the difference index value given to the symbols constituting the candidate, and generates a response that clarifies the difference in the search result based on the difference index value. (Step S35). As a result, for example, search results: (1) XX department store “Yokohama store”, (2) “Kawasaki” XX department store, and (3) “XX department store” Yokohama store ”are displayed with clarified differences. Generate a response. In the case of generating a response by voice, a response in which the difference is clarified can be generated by the same procedure as in the first embodiment.

最後に、応答提示手段1004は、差異明確化応答生成手段1003により生成された応答をユーザへ提示する(ステップS36)。   Finally, the response presentation unit 1004 presents the response generated by the difference clarification response generation unit 1003 to the user (step S36).

実施の形態4.
図8は、実施の形態4に係る対話装置の構成を示すブロック図である。同図において、1001は認識手段、2001は名称データベース、2002は検索手段、4001は差異抽出手段としての候補対差異抽出手段、4002は候補並べ替え手段、1003は差異明確化応答生成手段、1004は応答提示手段を表す。本実施の形態では、隣接する2候補間の差異が少なくなるように並べ替えて、応答を提示することで、ユーザに差異が明確になる応答を返すことができる。以下、各機能ブロックについて説明する。ただし、既に説明した機能ブロックについては、同一の番号を付し説明を省略する。
Embodiment 4 FIG.
FIG. 8 is a block diagram showing a configuration of the interactive apparatus according to the fourth embodiment. In the figure, 1001 is a recognition means, 2001 is a name database, 2002 is a search means, 4001 is a candidate-to-difference extraction means as a difference extraction means, 4002 is a candidate rearrangement means, 1003 is a difference clarification response generation means, and 1004 is Represents response presentation means. In the present embodiment, by rearranging so that the difference between two adjacent candidates is reduced and presenting the response, a response that makes the difference clear can be returned to the user. Hereinafter, each functional block will be described. However, the functional blocks that have already been described are assigned the same numbers, and descriptions thereof are omitted.

候補対差異抽出手段4001は、1つ以上のシンボル系列からなる候補のリストを読み込み、候補が複数の場合、適当な2候補間の差異の度合いを表す差異距離と差異内容を求め出力する。   The candidate pair difference extraction unit 4001 reads a list of candidates composed of one or more symbol series, and when there are a plurality of candidates, obtains and outputs a difference distance and a difference content indicating a degree of difference between two appropriate candidates.

候補並べ替え手段4002は、候補リスト、候補間の差異距離、差異内容を読み込み、制約条件の下で隣接する候補対ごとの差異距離の総和を最小化するように候補リストの順序を並べ替える。   Candidate rearranging means 4002 reads the candidate list, the difference distance between candidates, and the content of the difference, and rearranges the order of the candidate list so as to minimize the sum of the difference distances for adjacent candidate pairs under the constraint conditions.

次に、図9のフローチャートを参照し、本実施の形態の動作フローを説明する。ここでは、図4の通り認識手段1001の出力として、認識結果候補「○○百貨店」「○×百貨店」を得、それらを検索手段2002の入力として正式名称を得たとする。   Next, the operation flow of the present embodiment will be described with reference to the flowchart of FIG. Here, it is assumed that recognition result candidates “XX department store” and “XX department store” are obtained as outputs of the recognition unit 1001 as shown in FIG.

まず、応答提示手段1004により、「発声をどうぞ」という文字や音声ガイダンス等によるユーザへ入力を促すメッセージを送る(ステップS41)。   First, the response presenting means 1004 sends a message prompting the user to input using the text “Please speak” or voice guidance (step S41).

次に、認識手段1001はユーザの発声した入力を受理し、入力音声を解析・認識する(ステップS42)。ここでは、入力音声に対して、2個の認識結果「○○百貨店」「○×百貨店」が得られたとする。   Next, the recognizing unit 1001 receives the input uttered by the user, and analyzes and recognizes the input voice (step S42). Here, it is assumed that two recognition results “XX department store” and “XX department store” are obtained for the input voice.

次に、検索手段2002は、認識手段1001から得た認識結果の候補を入力として、名称データベース2001を検索して検索結果のリストを取得する(ステップS43)。検索手段2002による検索は認識結果の候補数だけ実施する。例えば、正しい施設名を調べるために、、名称データベース2001をアクセスして、ユーザが入力したキーワードに部分照合するあり得る施設の登録名称のリストを返す。その結果、図4に示したように「○○百貨店」という認識結果候補を検索キーワードとすると、r[1]=「○○百貨店・横浜店」、r[2]=「川崎・○○百貨店」という正式名称を得る。また、「○×百貨店」という認識結果候補を検索キーワードとすると、r[3]=「○×百貨店・横浜店」という正式名称を得る。   Next, the search means 2002 uses the recognition result candidate obtained from the recognition means 1001 as an input and searches the name database 2001 to obtain a list of search results (step S43). The search by the search means 2002 is performed for the number of recognition result candidates. For example, in order to find out the correct facility name, the name database 2001 is accessed, and a list of registered names of possible facilities that partially match the keyword entered by the user is returned. As a result, as shown in FIG. 4, when the recognition result candidate “XX department store” is a search keyword, r [1] = “XX department store / Yokohama store”, r [2] = “Kawasaki / XX department store” To get the official name. Also, if the recognition result candidate “XX department store” is a search keyword, the official name r [3] = “XX department store / Yokohama shop” is obtained.

次に、候補対差異抽出手段4001では、適当な2候補間の差異距離および差異内容を求める(ステップS44)。差異距離および差異内容の算出は、例えば、2個の候補のうち、一方でのみ出現したシンボルcにd(c ; r[1], r[2]) = 1 を付与し、両方で出現したシンボルcにd(c;r[1], r[2]) = 0を付与し、d(c; r[1], r[2]) = 1となるシンボルの数を差異距離、そのシンボルを差異内容とおくことができる。r[1]=「○○百貨店・横浜店」、r[2]=「○×百貨店・横浜店」の場合、下記のようになる。
d(○○百貨店 ; r[1], r[2]) = 2-1 = 1
d(○×百貨店 ; r[1], r[2]) = 2-1 = 1
d(横浜店 ; r[1], r[2]) = 2-2 = 0
よって、差異距離D(r[1], r[2])=2,差異内容{○○百貨店、○×百貨店}となる。同様に図10に示すように候補対の差異距離および差異内容を求める。
Next, the candidate pair difference extracting means 4001 obtains a suitable difference distance and difference contents between two candidates (step S44). For example, the difference distance and the difference contents are calculated by assigning d (c; r [1], r [2]) = 1 to the symbol c that appears only in one of the two candidates, and it appears in both Assign d (c; r [1], r [2]) = 0 to the symbol c, and set the number of symbols for which d (c; r [1], r [2]) = 1 as the difference distance, the symbol Can be the difference. When r [1] = “XX department store / Yokohama store” and r [2] = “○ × department store / Yokohama store”, it is as follows.
d (XX Department Store; r [1], r [2]) = 2-1 = 1
d (○ × Department store; r [1], r [2]) = 2-1 = 1
d (Yokohama store; r [1], r [2]) = 2-2 = 0
Therefore, the difference distance D (r [1], r [2]) = 2, the difference content {XX department store, XX department store}. Similarly, as shown in FIG. 10, the difference distance and difference contents of the candidate pair are obtained.

候補対は、n個の候補に対して順序を考慮するとn(n-1)存在する。図10の例は、D(X, Y)=D(Y, X)となっているため、半数を削減可能である。また、候補並べ替え手段4002において、例えば認識結果1位の検索結果を最初に提示するといった順序制約がある場合、必要な候補対についてのみ計算すればよい。異なる認識結果に対する認識結果候補とは順序を入れ替えないとしても良い。さらに、並べ替えを全く行わなくても良い。この場合、差異距離は算出不要であり、隣接候補間の差異明確化のみ行う。   There are n (n-1) candidate pairs in consideration of the order of n candidates. In the example of FIG. 10, since D (X, Y) = D (Y, X), half can be reduced. In addition, in the candidate rearranging means 4002, for example, when there is an order restriction such that the search result of the first recognition result is presented first, it is only necessary to calculate a necessary candidate pair. The order of recognition result candidates for different recognition results may not be changed. Furthermore, it is not necessary to rearrange at all. In this case, the difference distance does not need to be calculated, and only the difference between adjacent candidates is clarified.

次に、候補並べ替え手段4002は、得られた候補対の差異距離に基づき、並べ替えた後の隣接候補対の差異距離の総和が最小となるように、候補対を並べ替える(ステップS45)。図10の例では、「r[2]・r[1]・r[3]」と並べた場合、隣接する候補対の差異距離の総和は、D(r[2], r[1]) + D(r[1], r[3])=4となる。本例では差異距離が最小となるのは、上記例とその逆順の場合である。同じ距離となる場合はどちらを選んでも良い。また、提示順序に制約があり、認識結果1位のr[1]またはr[2]を先に表示するのであれば前者が選ばれる。   Next, the candidate rearranging means 4002 rearranges the candidate pairs based on the obtained difference distances of the candidate pairs so that the sum of the difference distances of the adjacent candidate pairs after the rearrangement is minimized (step S45). . In the example of FIG. 10, when “r [2] · r [1] · r [3]” are arranged, the sum of the difference distances between adjacent candidate pairs is D (r [2], r [1]). + D (r [1], r [3]) = 4. In this example, the difference distance is the smallest in the above example and in the reverse order. If the distance is the same, you can choose either one. In addition, if the presentation order is limited and r [1] or r [2] of the first recognition result is displayed first, the former is selected.

次に、差異明確化応答生成手段1003は、認識結果の候補と、候補を構成するシンボルに付与された差異指標値を読み込み、差異内容に基づいて検索結果の差異を明確化した応答を生成する(ステップS46)。この結果、例えば、検索結果:(1)『川崎』○○百貨店、(2)○○百貨店『横浜店』、(3)『○×百貨店』横浜店」のように差異が明確化され、かつ隣接する候補での差異が最小化するように並べられた、応答を生成する。音声による応答生成の場合も実施の形態1と同様の手順により差異を明確化した応答を生成できる。   Next, the difference clarification response generation means 1003 reads the recognition result candidate and the difference index value given to the symbols constituting the candidate, and generates a response that clarifies the difference in the search results based on the difference contents. (Step S46). As a result, for example, the search results: (1) “Kawasaki” XX department store, (2) XX department store “Yokohama store”, (3) “XX department store” Yokohama store ” Produce responses that are ordered to minimize differences between adjacent candidates. In the case of generating a response by voice, a response in which the difference is clarified can be generated by the same procedure as in the first embodiment.

最後に、応答提示手段1004は、差異明確化応答生成手段により生成された応答をユーザへ提示する(ステップS47)。   Finally, the response presentation unit 1004 presents the response generated by the difference clarification response generation unit to the user (step S47).

この結果、認識候補として得られた複数の候補に基づく検索結果について、差異を明確化した応答をユーザへ示すことができる。このため、ユーザは所望の候補の選択することが容易となる。   As a result, it is possible to show the user a response that clarifies the difference in the search results based on the plurality of candidates obtained as recognition candidates. For this reason, the user can easily select a desired candidate.

実施の形態5.
図11は、実施の形態5に係る対話装置の構成を示すブロック図である。同図において、1001は認識手段、2001は階層構造データベース、2002は検索手段、5001は差異抽出手段としての候補対階層構造差異抽出手段、4002は候補並べ替え手段、1003は差異明確化応答生成手段、1004は応答提示手段を表す。本実施の形態では、データベースの検索結果が階層構造を有する場合について、隣接する2候補間の差異が少なくなるように並べ替えて、応答を提示することで、ユーザに差異が明確になる応答を返すことができる。以下、各機能ブロックについて説明する。ただし、既に説明した機能ブロックについては、同一の番号を付し説明を省略する。
Embodiment 5. FIG.
FIG. 11 is a block diagram illustrating a configuration of the interactive apparatus according to the fifth embodiment. In the figure, 1001 is a recognition means, 2001 is a hierarchical structure database, 2002 is a search means, 5001 is a candidate versus hierarchical structure difference extraction means as a difference extraction means, 4002 is a candidate rearranging means, and 1003 is a difference clarification response generation means , 1004 represents response presentation means. In the present embodiment, when the search result of the database has a hierarchical structure, rearranging so that the difference between two adjacent candidates is reduced and presenting the response, a response that makes the difference clear to the user Can return. Hereinafter, each functional block will be described. However, the functional blocks that have already been described are assigned the same numbers, and descriptions thereof are omitted.

候補対階層構造差異抽出手段5001は、1つ以上のシンボル系列からなる候補のリストを読み込み、候補が複数の場合、適当な2候補間の階層構造を想定した差異の度合いを表す差異距離と差異内容を求めて出力する。   Candidate-to-hierarchical structure difference extraction means 5001 reads a candidate list consisting of one or more symbol sequences, and if there are multiple candidates, a difference distance and difference representing the degree of difference assuming a hierarchical structure between two appropriate candidates Find and output the contents.

次に、図12のフローチャートを参照し、本実施の形態の動作フローを説明する。ここでは、図13に示すように、認識手段1001の出力を検索手段2002の入力として階層構造データベース2001を検索した結果、階層構造の一例である住所情報を得たとする。   Next, the operation flow of this embodiment will be described with reference to the flowchart of FIG. Here, as shown in FIG. 13, it is assumed that address information, which is an example of a hierarchical structure, is obtained as a result of searching the hierarchical structure database 2001 using the output of the recognition means 1001 as the input of the searching means 2002.

まず、応答提示手段1004により、「発声をどうぞ」という文字や音声ガイダンス等によるユーザへ入力を促すメッセージを送る(ステップS51)。   First, the response presenting means 1004 sends a message prompting the user to input using the text “Please speak” or voice guidance (step S51).

次に、認識手段1001はユーザの発声した入力を受理し、解析・認識する(ステップS52)。ここでは、2個の認識結果「○○百貨店」「○×百貨店」が得られたとする。   Next, the recognizing unit 1001 receives the input uttered by the user, and analyzes and recognizes it (step S52). Here, it is assumed that two recognition results “XX department store” and “XX department store” are obtained.

次に、候補対階層構造差異抽出手段5001では、適当な2候補間の差異距離および差異内容を求める(ステップS54)。差異抽出において、検索結果は図14に示すような階層構造が仮定されている。このため、階層構造の差異が生じたシンボルより後の階層は差異の明確化に有効でない。そこで、2つの住所の差異距離を例えば、(最大の階層数L)−(差異が生じた階層番号)+1とする。また、差異内容として差異が生じた階層番号のシンボルの内容とする。例えば最大の階層数L=3としたとき、r[1]=「神奈川県・横浜市・西区」とr[2]=「神奈川県・川崎市・川崎区」の差異距離は2、差異内容は(横浜市、川崎市)となる。   Next, the candidate-to-hierarchical structure difference extracting unit 5001 obtains a suitable difference distance and difference content between two candidates (step S54). In the difference extraction, the search result is assumed to have a hierarchical structure as shown in FIG. For this reason, the hierarchy after the symbol in which the difference in the hierarchical structure occurs is not effective for clarifying the difference. Therefore, the difference distance between the two addresses is, for example, (maximum number of hierarchies L) − (hierarchy number where the difference occurs) +1. Further, the content of the symbol of the hierarchy number where the difference has occurred is used as the difference content. For example, when the maximum number of hierarchies is L = 3, the difference distance between r [1] = “Kanagawa Prefecture / Yokohama City / Nishi Ward” and r [2] = “Kanagawa Prefecture / Kawasaki City / Kawasaki Ward” is 2. (Yokohama City, Kawasaki City).

候補対は、n個の候補に対して順序を考慮するとn(n-1)存在する。図10の例は、D(X, Y)=D(Y, X)となっているため、半数を削減可能である。また、候補並べ替え手段4002において、認識結果1位の検索結果を最初に提示するというような、順序制約がある場合、必要な候補対についてのみ計算すればよい。異なる認識結果に対する認識結果候補とは順序を入れ替えないとしても良い。さらに、並べ替えを全く行わなくても良い。この場合、差異距離は算出不要であり、隣接候補間の差異明確化のみ行う。   There are n (n-1) candidate pairs in consideration of the order of n candidates. In the example of FIG. 10, since D (X, Y) = D (Y, X), half can be reduced. Further, if there is an order restriction such that the candidate rearranging means 4002 presents the search result of the first recognition result first, it is sufficient to calculate only the necessary candidate pairs. The order of recognition result candidates for different recognition results may not be changed. Furthermore, it is not necessary to rearrange at all. In this case, the difference distance does not need to be calculated, and only the difference between adjacent candidates is clarified.

次に、候補並べ替え手段4002は、得られた候補対の差異距離に基づき、並べ替えた後の隣接候補対の差異距離の総和が最小となるように、候補対を並べ替える(ステップS55)。ここでは、異なる認識結果の住所を並べ替えることはせず、r[1]〜r[3]のみに適用する。この例では、r[1]とr[3]が隣接していれば良く、例えばr[3]・r[1]・r[2]の順序とする。   Next, the candidate rearranging means 4002 rearranges the candidate pairs based on the obtained difference distances of the candidate pairs so that the sum of the difference distances of the adjacent candidate pairs after the rearrangement is minimized (step S55). . Here, the addresses of different recognition results are not rearranged, and are applied only to r [1] to r [3]. In this example, it is sufficient that r [1] and r [3] are adjacent to each other. For example, the order is r [3] · r [1] · r [2].

次に、差異明確化応答生成手段1003は、認識結果の候補と、候補を構成するシンボルに付与された差異指標値を読み込み、差異指標値に基づいて検索結果の差異を明確化した応答を生成する(ステップS46)。この結果、例えば、「検索結果:○○百貨店(1)神奈川県・横浜市・戸塚区、(2)西区、(3)川崎市・川崎区、○×百貨店(4)神奈川県・横浜市・西区」のように部分差異を明確にし、かつ隣接する候補での差異が最小化するように並べられた応答を生成する。音声による応答生成の場合も同様の手順により差異を明確化でき。例えば「○○百貨店は、3件ございます。住所は、神奈川県・横浜市・戸塚区および西区、川崎市・川崎区です。○×百貨店は1件ございます。住所は、神奈川県・横浜市・西区です。」のような応答を生成できる。   Next, the difference clarification response generation unit 1003 reads the recognition result candidate and the difference index value given to the symbols constituting the candidate, and generates a response that clarifies the difference in the search result based on the difference index value. (Step S46). As a result, for example, "Search results: XX department store (1) Kanagawa Prefecture / Yokohama City / Totsuka Ward, (2) Nishi Ward, (3) Kawasaki City / Kawasaki Ward, XX Department Store (4) Kanagawa Prefecture / Yokohama City / A response is generated in which partial differences are clarified, such as “Nishi-ku”, and are arranged so that differences between adjacent candidates are minimized. The same procedure can be used to clarify the difference when generating a response by voice. For example, “There are three XX department stores. The addresses are Kanagawa Prefecture, Yokohama City, Totsuka Ward and Nishi Ward, Kawasaki City, Kawasaki Ward. There is one XX Department Store. The address is Kanagawa Prefecture, Yokohama City. A response such as “Nishi Ward” can be generated.

最後に、応答提示手段1004は、差異明確化応答生成手段1003により生成された応答をユーザへ提示する(ステップS57)。   Finally, the response presentation unit 1004 presents the response generated by the difference clarification response generation unit 1003 to the user (step S57).

この結果、認識候補として得られた複数の候補に基づく階層的なデータベースの検索結果について、差異を明確化した応答をユーザへ示すことができる。このため、ユーザは所望の候補の選択することが容易となる。   As a result, it is possible to show the user a response that clarifies the difference in the hierarchical database search results based on the plurality of candidates obtained as recognition candidates. For this reason, the user can easily select a desired candidate.

なお、上記実施の形態1〜5において、データベース2001は対話装置に備えられたものでなく、通信回線等によって接続された外部のデータベースであってもよい。   In the first to fifth embodiments, the database 2001 is not provided in the dialogue apparatus, but may be an external database connected by a communication line or the like.

差異抽出手段が認識結果の候補間の差異を抽出して認識結果へ差異情報を付与し、差異明確化応答生成手段が、認識結果へ付与した差異情報に基づき差異が明確になる応答を生成するので、ユーザは認識結果候補間の差異が容易く見分けることができ、カーナビゲーション等に適用することでユーザの操作性が向上する。   The difference extraction means extracts the difference between the recognition result candidates and gives difference information to the recognition result, and the difference clarification response generation means generates a response that makes the difference clear based on the difference information given to the recognition result. Therefore, the user can easily distinguish the difference between the recognition result candidates, and the operability of the user is improved by applying it to car navigation or the like.

本発明の実施の形態1に係る対話装置の構成を示すブロック図である。It is a block diagram which shows the structure of the dialogue apparatus which concerns on Embodiment 1 of this invention. 実施の形態1の動作フローのフローチャートである。3 is a flowchart of an operation flow according to the first embodiment. 本発明の実施の形態2に係る対話装置の構成を示すブロック図である。It is a block diagram which shows the structure of the dialogue apparatus which concerns on Embodiment 2 of this invention. 施設名に関するデータベースの検索キーワードと検索結果の例を示す説明図である。It is explanatory drawing which shows the example of the search keyword of the database regarding a facility name, and a search result. 実施の形態2の動作フローを説明するフローチャートである。6 is a flowchart for explaining an operation flow of the second embodiment. 本発明の実施の形態3に係る対話装置の構成を示すブロック図である。It is a block diagram which shows the structure of the dialogue apparatus which concerns on Embodiment 3 of this invention. 実施の形態3の動作フローを説明するフローチャートである。12 is a flowchart for explaining an operation flow of the third embodiment. 本発明の実施の形態4に係る対話装置の構成を示すブロック図である。It is a block diagram which shows the structure of the dialogue apparatus which concerns on Embodiment 4 of this invention. 実施の形態4の動作フローを説明するフローチャートである。10 is a flowchart for explaining an operation flow of the fourth embodiment. 候補対の差異距離および差異内容の説明図である。It is explanatory drawing of the difference distance and difference content of a candidate pair. 本発明の実施の形態5に係る対話装置の構成を示すブロック図である。It is a block diagram which shows the structure of the dialogue apparatus which concerns on Embodiment 5 of this invention. 実施の形態5の動作フローを説明するフローチャートである。10 is a flowchart for explaining an operation flow of the fifth embodiment. 実施の形態5における認識手段による認識結果の説明図である。FIG. 10 is an explanatory diagram of a recognition result by a recognition unit in the fifth embodiment. 実施の形態5における検索結果の説明図である。FIG. 16 is an explanatory diagram of search results in the fifth embodiment.

符号の説明Explanation of symbols

1001:認識手段、1002:差異抽出手段、1003:差異明確化応答生成手段、1004:応答提示手段、2001:名称データベース、2002:検索手段、4001:候補対差異抽出手段、4002:候補並べ替え手段、5001:候補対階層構造差異抽出手段。   1001: Recognition means, 1002: Difference extraction means, 1003: Difference clarification response generation means, 1004: Response presentation means, 2001: Name database, 2002: Search means, 4001: Candidate versus difference extraction means, 4002: Candidate rearrangement means 5001: Candidate versus hierarchical structure difference extraction means.

Claims (11)

入力された音声を認識して認識結果の候補リストを出力する認識手段と、
認識結果の候補間の差異を抽出して認識結果へ差異情報を付与する差異抽出手段と、
認識結果へ付与した差異情報に基づき差異が明確になる応答を生成する差異明確化応答生成手段と、
生成した応答を提示する応答提示手段を備えることを特徴とする対話装置。
Recognizing means for recognizing input speech and outputting a candidate list of recognition results;
A difference extraction means for extracting differences between recognition result candidates and adding difference information to the recognition results;
A difference clarification response generating means for generating a response that makes the difference clear based on the difference information given to the recognition result;
A dialogue apparatus comprising response presentation means for presenting a generated response.
入力された検索キーワードを用いてデータベースを検索し複数の検索結果を出力する検索手段と、
得られた複数の検索結果間の差異および検索結果と入力検索キーワード間の差異を抽出して検索結果へ差異情報を付与する差異抽出手段と、
検索結果へ付与した差異情報に基づき差異が明確になる応答を生成する差異明確化応答生成手段と、
生成した応答を提示する応答提示手段を備えることを特徴とする対話装置。
Search means for searching the database using the input search keyword and outputting a plurality of search results;
A difference extracting means for extracting the difference between the plurality of obtained search results and the difference between the search result and the input search keyword and adding difference information to the search result;
A difference clarification response generating means for generating a response that makes the difference clear based on the difference information given to the search result;
A dialogue apparatus comprising response presentation means for presenting a generated response.
入力された音声を認識して認識結果の候補リストを出力する認識手段をさらに備え、
検索手段は認識結果の候補リストを入力検索キーワードとすることを特徴とする請求項2記載の対話装置。
Recognizing means for recognizing input speech and outputting a candidate list of recognition results;
3. The interactive apparatus according to claim 2, wherein the search means uses the recognition result candidate list as an input search keyword.
差異抽出手段は、検索結果間の差異を抽出して認識結果へ差異距離と差異内容を付与する構成にされ、
差異抽出手段によって付与された差異距離に基づき差異が明確になるように提示する候補の順序を並べ替える並べ替え手段をさらに備え、
差異明確化応答生成手段は、隣接した候補間の差異が明確になるように応答を生成する構成にされたことを特徴とする請求項3記載の対話装置。
The difference extraction means is configured to extract a difference between search results and add a difference distance and a difference content to the recognition result.
Sorting means for rearranging the order of the candidates to be presented so that the difference is clear based on the difference distance given by the difference extracting means,
4. The dialogue apparatus according to claim 3, wherein the difference clarification response generation unit is configured to generate a response so that a difference between adjacent candidates is clear.
検索手段は認識結果の候補リストを入力検索キーワードとし、データベースを検索し階層構造を有する検索結果を出力する構成にされたことを特徴とする請求項4記載の対話装置。   5. The interactive apparatus according to claim 4, wherein the search means is configured to search the database and output a search result having a hierarchical structure using the recognition result candidate list as an input search keyword. 差異抽出手段は候補を構成するシンボルへ差異指標値を付与し、差異明確化応答生成手段は付与された差異指標値に基づき提示形態を変化させる応答を生成することを特徴とする請求項1から5の何れかに記載の対話装置。   The difference extraction means assigns a difference index value to the symbols constituting the candidate, and the difference clarification response generation means generates a response for changing the presentation form based on the assigned difference index value. 6. The interactive apparatus according to any one of 5. 差異明確化応答生成手段はテキスト・画面による応答表現の生成において差異の度合いに応じて候補を構成するシンボルごとに表示位置または表示形態の少なくとも一方を変化させて候補間の差異を強調する応答を生成することを特徴とする請求項1から5の何れかに記載の対話装置。   The difference clarification response generating means generates a response that emphasizes the difference between candidates by changing at least one of the display position and the display form for each symbol constituting the candidate according to the degree of difference in generating the response expression by text / screen. The interactive device according to claim 1, wherein the interactive device is generated. 差異明確化応答生成手段はテキスト・画面による応答表現の生成において候補を構成する共通のシンボルは2回目の出現以降、同一であることを表す記号あるいは空白へ置換し差異部分を強調する応答を生成することを特徴とする請求項1から5の何れかに記載の対話装置。   Difference clarification response generation means generates a response that emphasizes the difference part by replacing the common symbols that make up the candidate in the generation of the response expression by text / screen with the same symbol or blank after the second appearance An interactive apparatus according to claim 1, wherein 差異明確化応答生成手段は音声による応答表現の生成において、差異の度合いに応じて候補を構成するシンボルごとに声の高さ・声の大きさ・発話速度・ポーズの少なくとも1つを通常発声と変えて差異を強調することを特徴とする請求項1から5の何れかに記載の対話装置。   The difference clarification response generation means generates at least one of a voice pitch, a loudness level, a speech rate, and a pause for each symbol constituting a candidate according to the degree of difference in generating a response expression by speech. 6. The dialogue apparatus according to claim 1, wherein the difference is emphasized by changing. 検索手段は入力された検索キーワードが施設名称の通称であるとき、施設名称の正式名称、施設ジャンル、住所の少なくとも1つを含む検索結果を出力することを特徴とする請求項2から5の何れかに記載の対話装置。   The search means outputs a search result including at least one of an official name of the facility name, a facility genre, and an address when the input search keyword is a common name of the facility name. The interactive device according to the above. 検索手段はデータベースの検索結果を所定の観点で区分され、かつ優先順位が定められた複数のフィールドに分類し、応答提示手段は優先順位が高いフィールドの検索結果に差異があれば、それよりも低い優先順位のフィールドの差異を提示しないことを特徴とした、請求項2から5の何れかに記載の対話装置。   The search means classifies the search results of the database into a plurality of fields that are classified from a predetermined point of view, and the response presenting means determines if there is a difference in the search results of the fields with high priority. 6. The interactive apparatus according to claim 2, wherein a difference in a low priority field is not presented.
JP2004202060A 2004-07-08 2004-07-08 Dialogue device Expired - Fee Related JP4684583B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004202060A JP4684583B2 (en) 2004-07-08 2004-07-08 Dialogue device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004202060A JP4684583B2 (en) 2004-07-08 2004-07-08 Dialogue device

Publications (2)

Publication Number Publication Date
JP2006023572A true JP2006023572A (en) 2006-01-26
JP4684583B2 JP4684583B2 (en) 2011-05-18

Family

ID=35796869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004202060A Expired - Fee Related JP4684583B2 (en) 2004-07-08 2004-07-08 Dialogue device

Country Status (1)

Country Link
JP (1) JP4684583B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213112A (en) * 2006-02-07 2007-08-23 Oki Electric Ind Co Ltd Data entry processing system
JP2009271117A (en) * 2008-04-30 2009-11-19 Mitsubishi Electric Corp Voice retrieval device and voice retrieval method
JP2010139826A (en) * 2008-12-12 2010-06-24 Toyota Motor Corp Voice recognition system
US8073845B2 (en) 2008-03-11 2011-12-06 Xanavi Informatics Corporation Information retrieval apparatus, information retrieval system, and information retrieval method
US8195461B2 (en) 2006-12-15 2012-06-05 Mitsubishi Electric Corporation Voice recognition system
JP2014194480A (en) * 2013-03-28 2014-10-09 Fujitsu Ltd Speech processing unit, speech processing system, and speech processing method
JP2015158563A (en) * 2014-02-24 2015-09-03 パナソニックIpマネジメント株式会社 Data input device, data input method, program and on-vehicle apparatus
WO2017168543A1 (en) * 2016-03-29 2017-10-05 三菱電機株式会社 Speech guidance device and speech guidance method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04232997A (en) * 1990-12-28 1992-08-21 Sharp Corp System for displaying result of recognition in speech recognition device
JPH0720979A (en) * 1993-07-02 1995-01-24 Mitsubishi Electric Corp Command input assistance system
JPH09114491A (en) * 1995-10-16 1997-05-02 Sony Corp Device and method for speech recognition, device and method for navigation, and automobile
JPH11242582A (en) * 1998-02-25 1999-09-07 Sharp Corp Character input device and recording medium recorded with character input program
JPH11250077A (en) * 1998-02-27 1999-09-17 Minolta Co Ltd Information processor, information processing method and record medium
JP2002358309A (en) * 2001-06-04 2002-12-13 Hitachi Software Eng Co Ltd Profile database and profile preparing method
JP2003186491A (en) * 2001-12-13 2003-07-04 Telecommunication Advancement Organization Of Japan Support system for preparing computerized text

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04232997A (en) * 1990-12-28 1992-08-21 Sharp Corp System for displaying result of recognition in speech recognition device
JPH0720979A (en) * 1993-07-02 1995-01-24 Mitsubishi Electric Corp Command input assistance system
JPH09114491A (en) * 1995-10-16 1997-05-02 Sony Corp Device and method for speech recognition, device and method for navigation, and automobile
JPH11242582A (en) * 1998-02-25 1999-09-07 Sharp Corp Character input device and recording medium recorded with character input program
JPH11250077A (en) * 1998-02-27 1999-09-17 Minolta Co Ltd Information processor, information processing method and record medium
JP2002358309A (en) * 2001-06-04 2002-12-13 Hitachi Software Eng Co Ltd Profile database and profile preparing method
JP2003186491A (en) * 2001-12-13 2003-07-04 Telecommunication Advancement Organization Of Japan Support system for preparing computerized text

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213112A (en) * 2006-02-07 2007-08-23 Oki Electric Ind Co Ltd Data entry processing system
US8195461B2 (en) 2006-12-15 2012-06-05 Mitsubishi Electric Corporation Voice recognition system
US8073845B2 (en) 2008-03-11 2011-12-06 Xanavi Informatics Corporation Information retrieval apparatus, information retrieval system, and information retrieval method
JP2009271117A (en) * 2008-04-30 2009-11-19 Mitsubishi Electric Corp Voice retrieval device and voice retrieval method
JP2010139826A (en) * 2008-12-12 2010-06-24 Toyota Motor Corp Voice recognition system
JP2014194480A (en) * 2013-03-28 2014-10-09 Fujitsu Ltd Speech processing unit, speech processing system, and speech processing method
JP2015158563A (en) * 2014-02-24 2015-09-03 パナソニックIpマネジメント株式会社 Data input device, data input method, program and on-vehicle apparatus
WO2017168543A1 (en) * 2016-03-29 2017-10-05 三菱電機株式会社 Speech guidance device and speech guidance method
JP6272594B1 (en) * 2016-03-29 2018-01-31 三菱電機株式会社 Voice guidance device and voice guidance method

Also Published As

Publication number Publication date
JP4684583B2 (en) 2011-05-18

Similar Documents

Publication Publication Date Title
US7949524B2 (en) Speech recognition correction with standby-word dictionary
US8380505B2 (en) System for recognizing speech for searching a database
EP2259252B1 (en) Speech recognition method for selecting a combination of list elements via a speech input
KR100679042B1 (en) Method and apparatus for speech recognition, and navigation system using for the same
JP3935844B2 (en) Transcription and display of input audio
JP5189874B2 (en) Multilingual non-native speech recognition
JP4680714B2 (en) Speech recognition apparatus and speech recognition method
US20080255841A1 (en) Voice search device
US20200410992A1 (en) Device for recognizing speech input from user and operating method thereof
KR20210001937A (en) The device for recognizing the user&#39;s speech input and the method for operating the same
JP5073024B2 (en) Spoken dialogue device
JP4684583B2 (en) Dialogue device
KR100467590B1 (en) Apparatus and method for updating a lexicon
JP2006189730A (en) Speech interactive method and speech interactive device
JP4661239B2 (en) Voice dialogue apparatus and voice dialogue method
JP4600706B2 (en) Voice recognition apparatus, voice recognition method, and recording medium
JP5004863B2 (en) Voice search apparatus and voice search method
JP2000056795A (en) Speech recognition device
JP3663012B2 (en) Voice input device
JP5596869B2 (en) Voice recognition device
JP2009025411A (en) Voice recognition device and program
JP2007535692A (en) System and method for computer recognition and interpretation of arbitrarily spoken characters
JP2001005483A (en) Word voice recognizing method and word voice recognition device
KR20040008546A (en) revision method of continuation voice recognition system
JPS6211732B2 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4684583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees