JP5378907B2 - Spoken dialogue apparatus and spoken dialogue program - Google Patents

Spoken dialogue apparatus and spoken dialogue program Download PDF

Info

Publication number
JP5378907B2
JP5378907B2 JP2009184946A JP2009184946A JP5378907B2 JP 5378907 B2 JP5378907 B2 JP 5378907B2 JP 2009184946 A JP2009184946 A JP 2009184946A JP 2009184946 A JP2009184946 A JP 2009184946A JP 5378907 B2 JP5378907 B2 JP 5378907B2
Authority
JP
Japan
Prior art keywords
word
search
voice
classification
voice command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009184946A
Other languages
Japanese (ja)
Other versions
JP2011039185A (en
Inventor
錦一 和田
位好 寺澤
利行 難波
義博 大栄
邦雄 横井
直樹 三浦
收 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Aisin AW Co Ltd
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd, Denso Corp, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Aisin AW Co Ltd
Priority to JP2009184946A priority Critical patent/JP5378907B2/en
Publication of JP2011039185A publication Critical patent/JP2011039185A/en
Application granted granted Critical
Publication of JP5378907B2 publication Critical patent/JP5378907B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音声で情報を検索するための音声対話に係り、検索効率の高い音声対話装置及び音声対話プログラムに関する。   The present invention relates to a voice dialog for searching for information by voice, and relates to a voice dialog device and a voice dialog program having high search efficiency.

従来、ユーザが発生した音声を認識し、その認識結果に基いて情報検索を行う技術が知られており、カーナビゲーション装置における施設検索などに用いられている。   Conventionally, a technique for recognizing a voice generated by a user and performing information retrieval based on the recognition result is known and used for facility retrieval in a car navigation device.

このような技術を利用したものとして、例えば、施設特定情報データベースに登録されたキーワードを元に音声認識キーワード辞書を拡張し、該キーワードを音声認識できた場合にはこれをキーワードとして利用して検索を行う施設検索装置(例えば、特許文献1参照。)やナビゲーション装置(例えば、特許文献2参照。)が提案されている。ここで、施設特定情報は、特許文献1の施設検索装置では、施設に関する道路名、施設が存在する町名、施設の建物名、施設のサービス内容であり、特許文献2のナビゲーション装置では、施設名、大ジャンル、小ジャンル、住所、位置、営業日、特徴、ユーザ評価などである。
特開2006−139203号公報 特開2007−163226号公報
As an example of using such a technology, for example, if a speech recognition keyword dictionary is expanded based on a keyword registered in a facility specifying information database, and the keyword can be recognized by speech, a search is performed using this keyword as a keyword. A facility search device (for example, see Patent Document 1) and a navigation device (for example, see Patent Document 2) have been proposed. Here, the facility identification information is a road name related to the facility, a town name where the facility exists, a building name of the facility, and a service content of the facility in the facility search device of Patent Document 1, and a facility name in the navigation device of Patent Document 2. , Large genre, small genre, address, position, business day, feature, user evaluation, and the like.
JP 2006-139203 A JP 2007-163226 A

しかしながら、特許文献1の施設検索装置や特許文献2のナビゲーション装置では、ユーザは装置が受付け可能なすべての検索キーワードを事前に知ることはできない。このため、ユーザが思いついた検索キーワードが、登録された全施設の属性情報に含まれないと、ユーザ発話の音声認識結果は誤認識あるいは不認識となってしまう。このような場合、ユーザは同じキーワードをもう一度言えば認識されるのか、そもそも無効なキーワードであるのかが分からずに、何度も音声入力を繰り返してしまう結果、検索効率が低下するという問題点がある。   However, in the facility search device of Patent Literature 1 and the navigation device of Patent Literature 2, the user cannot know in advance all the search keywords that the device can accept. For this reason, if the search keyword which the user came up with is not included in the attribute information of all the registered facilities, the speech recognition result of the user utterance will be erroneously recognized or unrecognized. In such a case, the user does not know whether the same keyword is recognized again or is an invalid keyword in the first place, and as a result of repeating voice input many times, search efficiency decreases. is there.

また、以前は検索キーワードとして音声入力できたキーワードが、施設情報の更新時に該当ずる施設が閉店などの理由で施設情報から削除されてしまった場合、ユーザはシステムが受付可能な検索キーワードが変更されたことを知ることができない。このため、ユーザは音声入力できるものと思い、何度も音声入力を繰り返してしまうという問題点もある。   In addition, if a keyword that could be input as a search keyword in the past has been deleted from the facility information due to reasons such as closing the facility when the facility information is updated, the search keyword that the system can accept is changed. I can't know that. For this reason, there is a problem that the user can input voices and repeats voice input many times.

本発明は、上記問題点を解決するために成されたものであり、ユーザ発話の誤認識や不認識を低減して、検索効率の高い音声対話装置及び音声対話プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide a spoken dialogue apparatus and a spoken dialogue program with high search efficiency by reducing misrecognition and unrecognition of user utterances. To do.

上記目的を達成するために、請求項1記載の音声対話装置は、音声コマンドである語と音声コマンドであることを示す分類との対からなる音声コマンドリストと、検索対象データベースの検索キーワードである語と検索キーワードであることを示す分類との対からなる検索キーワードリストと、前記音声コマンドでも前記検索キーワードでもなく検索対象外ワードである語と検索対象外ワードであることを示す分類との対からなる対象外ワードリストと、を有する音声認識辞書を記憶する音声認識辞書記憶手段と、ユーザにより入力された音声データを音声認識して、前記音声認識辞書記憶手段に記憶された音声認識辞書に含まれる語の各々及びその分類を抽出する音声認識手段と、前記音声認識手段により抽出された語の分類が、前記音声コマンド、前記検索キーワード及び前記対象外ワードの何れであるかを判定し、前記抽出された語の分類が音声コマンドを含まず、かつ、検索キーワード及び検索対象外ワードを含む場合には、該分類が検索キーワードである語に基づいて前記検索対象データベースを検索すると共に、該分類が検索対象外ワードである語が対象外ワードであることを示す応答を生成する対話制御手段と、前記対話制御手段により検索された検索結果、及び前記対話制御手段により生成された応答を提示する提示手段と、を備えている。 In order to achieve the above object, a spoken dialogue apparatus according to claim 1 is a voice command list comprising a pair of a word that is a voice command and a classification indicating that it is a voice command, and a search keyword in a search target database. A search keyword list comprising a pair of a word and a classification indicating that it is a search keyword, and a pair of a word that is not a search target word and not a voice command or the search keyword, and a classification that indicates a search non-search word A speech recognition dictionary storage means for storing a speech recognition dictionary having a non-target word list comprising: a speech recognition dictionary stored in the speech recognition dictionary storage means for speech recognition of speech data input by a user; a speech recognition means for extracting included word of each and their classification, the classification of each word extracted by the voice recognition unit, the sound Command, the search keyword and determine which of the non-target word, the classification of each word which is the extraction does not contain a voice command, and, when containing the search keyword and a search excluded words, the while searching the search target database classification based on the word is the search keyword, a dialogue control means for generating a response indicating that the word the classification is Ru Oh search covered word is excluded words, the interactive Presenting means for presenting a search result retrieved by the control means and a response generated by the dialogue control means.

請求項1記載の発明によれば、検索対象外ワードが入力された場合には、該ワードが検索対象外であることを提示し、ユーザに自分が発話したワードでは検索できないことを知らせることができる。また、検索キーワードが入力された場合には、検索キーワードに基づいて検索対象データベースを検索し、検索結果を提示することができる。
請求項2記載の音声対話装置は、請求項1記載の音声対話装置において、前記音声認識辞書記憶手段は、前記音声コマンドリストと、前記検索キーワードリストと、検索を行う際にオプション的に使われる可能性が高いキーワードである複数のオプション語からなるオプション語リストから前記音声コマンド及び前記検索キーワードを削除して得た前記検索対象外ワードである語と前記検索対象外ワードであることを示す分類との対からなる前記対象外ワードリストと、を有する音声認識辞書を記憶するものである。
請求項記載の音声対話装置は、請求項記載の音声対話装置において、音声コマンドである語を記憶した音声コマンド辞書と、前記オプション語を記憶したオプション語辞書と、検索対象となる要素項目の情報を示す語を記憶した前記検索対象データベース、を用いて、前記音声コマンド辞書に記憶された語と音声コマンドであることを示す分類とを対応付けることで前記音声コマンドリストを生成し、前記検索対象データベースに記憶された語と検索キーワードであることを示す分類とを対応付けることで前記検索キーワードリストを生成し、前記オプション語辞書に記憶され且つ前記音声コマンド辞書にも前記検索対象データベースにも記憶されていない語と検索対象外ワードであることを示す分類とを対応付けることで前記対象外ワードリストを生成し、該生成した前記音声コマンドリスト、前記検索キーワードリスト及び前記対象外ワードリストを登録することによって前記音声認識辞書を生成する音声認識辞書生成手段を更に備えている。
According to the first aspect of the present invention, when a word that is not a search target is input, the fact that the word is not a search target is presented, and the user is informed that the search cannot be performed using the word spoken by the user. it can. When a search keyword is input, the search target database can be searched based on the search keyword and the search result can be presented.
According to a second aspect of the present invention, in the voice interaction device according to the first aspect, the voice recognition dictionary storage means is optionally used when performing the search with the voice command list, the search keyword list, and the like. Classification indicating that the word is a non-search word and the non-search word obtained by deleting the voice command and the search keyword from an option word list including a plurality of option words that are highly likely keywords A speech recognition dictionary having the non-target word list consisting of a pair of
The voice dialogue system according to claim 3, wherein, in the voice dialogue system according to claim 2, wherein the voice command dictionary that stores word is a voice command, and options dictionary which stores the option word element item to be searched The speech command list is generated by associating a word stored in the voice command dictionary with a classification indicating a voice command using the search target database storing words indicating information of The search keyword list is generated by associating a word stored in the target database with a classification indicating a search keyword, stored in the option word dictionary, and stored in the voice command dictionary and the search target database. By associating a word that has not been searched with a classification indicating that the word is not a search target word, It generates Dorisuto, the voice command list thus generated further includes a speech recognition dictionary generating means for generating said speech recognition dictionary by registering the search keyword list and the non-target word list.

請求項記載の発明によれば、音声コマンド辞書と、検索対象データベースと、オプション語辞書とに基づいて、音声認識辞書を生成することができる。 According to the third aspect of the present invention, it is possible to generate a voice recognition dictionary based on the voice command dictionary, the search target database, and the option word dictionary.

請求項記載の音声対話装置は、請求項1から請求項3の何れか1項記載の音声対話装置において、前記対話制御手段は、前記抽出された語の分類が音声コマンドを含む場合には、該音声コマンドに対応する処理を実行する。 The voice interaction device according to claim 4 is the voice interaction device according to any one of claims 1 to 3 , wherein the dialogue control means is configured such that the extracted word classification includes a voice command. The process corresponding to the voice command is executed.

請求項記載の発明によれば、音声コマンドが入力された場合には、コマンドに対応する処理を実行することができる。 According to the fourth aspect of the present invention, when a voice command is input, processing corresponding to the command can be executed.

請求項5記載の音声対話プログラムは、コンピュータを、請求項1から請求項4の何れか1項記載の音声対話置を構成する各手段として機能させる。 Audio interactive program according to claim 5 causes the computer to function as each means constituting the voice interaction equipment according to any one of claims 1 to 4.

請求項5記載の発明によれば、検索対象外ワードが入力された場合には、該ワードが検索対象外であることを提示し、ユーザに自分が発話したワードでは検索できないことを知らせることができる。   According to the fifth aspect of the present invention, when a word that is not a search target is input, the fact that the word is not a search target is presented, and the user is notified that the search cannot be performed using the word spoken by the user. it can.

請求項6記載の音声対話プログラムは、コンピュータを、音声コマンドである語と音声コマンドであることを示す分類との対からなる音声コマンドリストと、検索対象データベースの検索キーワードである語と検索キーワードであることを示す分類との対からなる検索キーワードリストと、前記音声コマンドでも前記検索キーワードでもなく検索対象外ワードである語と検索対象外ワードであることを示す分類との対からなる対象外ワードリストと、を有する音声認識辞書を記憶する音声認識辞書記憶手段、ユーザにより入力された音声データを音声認識して、前記音声認識辞書記憶手段に記憶された音声認識辞書に含まれる語の各々及びその分類を抽出する音声認識手段、前記音声認識手段により抽出された語の分類が、前記音声コマンド、前記検索キーワード及び前記対象外ワードの何れであるかを判定し、前記抽出された語の分類が音声コマンドを含まず、かつ、検索キーワード及び検索対象外ワードを含む場合には、該分類が検索キーワードである語に基づいて前記検索対象データベースを検索すると共に、該分類が検索対象外ワードである語が対象外ワードであることを示す応答を生成する対話制御手段、及び前記対話制御手段により検索された検索結果、及び前記対話制御手段により生成された応答を提示する提示手段、として機能させる。 According to a sixth aspect of the present invention, there is provided a voice interaction program comprising: a voice command list comprising a pair of a word that is a voice command and a classification that indicates a voice command; a word that is a search keyword in a search target database; A search keyword list consisting of a pair with a classification indicating that it is present, and a non-target word consisting of a pair of a word that is not a search target word and not a voice command or the search keyword and a classification indicating that it is a non-search target word A voice recognition dictionary storage means for storing a voice recognition dictionary having a list, each of words included in the voice recognition dictionary stored in the voice recognition dictionary storage means for voice recognition of voice data input by a user, and voice recognition means to extract the classification, the classification of each word extracted by the voice recognition unit, said voice command , The search keyword and determine which of the non-target word, the classification of each word which is the extraction does not contain a voice command, and, when containing the search keyword and a search excluded words, the classification together but searching the retrieval target database based on word is the search keyword, dialogue control means for generating a response indicating that the word the classification is Ru Oh search covered word is pair Zogai word, and the interaction It is made to function as a presentation means for presenting a search result retrieved by the control means and a response generated by the dialogue control means.

請求項6記載の発明によれば、検索対象外ワードが入力された場合には、該ワードが検索対象外であることを提示し、ユーザに自分が発話したワードでは検索できないことを知らせることができる。   According to the sixth aspect of the present invention, when a word not to be searched is input, it is indicated that the word is not to be searched, and the user is informed that the word cannot be searched with the word spoken by himself / herself. it can.

以上説明したように、本発明によれば、ユーザ発話の誤認識や不認識を低減して、音声対話装置の利便性を向上することができるという効果が得られる。   As described above, according to the present invention, it is possible to reduce the misrecognition and unrecognition of the user utterance and improve the convenience of the voice interactive apparatus.

以下、本発明の実施の形態について図面を参照しながら詳細に説明する。本実施の形態では、音声認識機能を持つ車両用カーナビゲーションシステム(以下、「ナビ」という。)における施設検索に本発明に係る音声対話装置を用いた場合の対話制御に関して説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, dialogue control in the case where the voice dialogue apparatus according to the present invention is used for facility search in a vehicle car navigation system (hereinafter referred to as “navigation”) having a voice recognition function will be described.

図1は、本発明の実施の形態に係る音声対話装置の構成を示すブロック図である。同図に示すように、音声対話装置は、音声データ入力部11と、音声コマンド辞書12と、オプション語辞書13と、検索対象データベース14と、音声認識辞書生成部15と、音声認識辞書16と、音声認識部17と、対話制御部18と、情報検索部19と、提示部20と、を備えている。   FIG. 1 is a block diagram showing a configuration of a voice interaction apparatus according to an embodiment of the present invention. As shown in the figure, the voice interaction apparatus includes a voice data input unit 11, a voice command dictionary 12, an option word dictionary 13, a search target database 14, a voice recognition dictionary generation unit 15, and a voice recognition dictionary 16. , A voice recognition unit 17, a dialogue control unit 18, an information search unit 19, and a presentation unit 20.

音声データ入力部11は、マイクを含んで構成され、音声コマンドの実行や検索対象データベースの検索を行うために入力されるユーザの音声データを受理する。   The voice data input unit 11 includes a microphone, and accepts user voice data input to execute a voice command or search a search target database.

音声コマンド辞書12は、音声操作が可能なコマンドの名称を格納した辞書であり、音声コマンドを音声認識辞書16に登録するために用いられる。図2は、音声コマンド辞書12の構成例を示す。   The voice command dictionary 12 is a dictionary that stores the names of commands that can be operated by voice, and is used for registering voice commands in the voice recognition dictionary 16. FIG. 2 shows a configuration example of the voice command dictionary 12.

オプション語辞書13は、情報検索を行う際にユーザがオプション的に使う可能性が高いキーワードを格納する。例えば、大勢の一般ユーザに「施設検索を行う際に、エリアとジャンル以外にオプション的に使うキーワードは何ですか?」というアンケート調査を行い、得られた結果から施設の属性に関するキーワードを抽出し、オプション語辞書に格納するとよい。オプション語辞書13は、音声コマンド辞書12にも検索対象データベース14に含まれていないキーワードをユーザが発話しても音声認識できるように、音声認識辞書16を補填するために利用される。図3は、オプション語辞書13の構成例を示す。   The option word dictionary 13 stores keywords that are likely to be used optionally by the user when performing an information search. For example, we conducted a questionnaire survey to many general users, such as “What keyword is used as an option in addition to area and genre when searching for facilities?” And extracted keywords related to facility attributes from the results. It is good to store in the option word dictionary. The option word dictionary 13 is used to supplement the voice recognition dictionary 16 so that the user can utter a keyword even if the keyword is not included in the search target database 14 in the voice command dictionary 12. FIG. 3 shows a configuration example of the option word dictionary 13.

検索対象データベース14は、検索対象となる要素項目の様々な情報を格納したデータベースである。本実施の形態では音声対話装置をナビの施設検索に応用するので、要素項目は施設である。従って、検索対象データベース14は、施設の「名称」、「エリア」、「ジャンル」等の基本的な情報に加えて、施設の「属性」に関わる複数のキーワードを格納する。施設の属性に関わるキーワードは、例えば、施設の経営者などからアンケートによって収集した自己PRの内容を元に抽出するとよい。さらに、第三者へのアンケートやインターネット上の評判や口コミに関する情報を元にキーワードを抽出してもよいし、ユーザ自身が自由なキーワードを登録できるようにしてもよい。図4は、検索対象データベース14の構成例を示す。   The search target database 14 is a database that stores various pieces of information about element items to be searched. In this embodiment, since the voice interactive apparatus is applied to facility search for navigation, the element item is a facility. Accordingly, the search target database 14 stores a plurality of keywords related to the “attribute” of the facility, in addition to basic information such as the “name”, “area”, and “genre” of the facility. For example, keywords related to the attributes of the facility may be extracted based on the contents of the self-PR collected from the manager of the facility through a questionnaire. Further, keywords may be extracted based on information on questionnaires to third parties, reputations on the Internet, and word-of-mouth, or users may be able to register free keywords. FIG. 4 shows a configuration example of the search target database 14.

音声認識辞書生成部15は、音声コマンド辞書12、オプション語辞書13、および検索対象データベース14を元に、音声認識辞書16を生成する。音声認識辞書生成部15は、各キーワードに「音声コマンド」、「検索有効語彙」、「検索無効語彙」の分類情報を併せて格納する。   The voice recognition dictionary generation unit 15 generates a voice recognition dictionary 16 based on the voice command dictionary 12, the option word dictionary 13, and the search target database 14. The voice recognition dictionary generation unit 15 stores the classification information of “voice command”, “search effective vocabulary”, and “search invalid vocabulary” together with each keyword.

音声認識辞書16は、音声認識時に音声認識部17により参照される辞書である。複数のキーワードを含み、各キーワードには、「音声コマンド」、「検索有効語彙」、「検索無効語彙」の分類が付与されている。   The speech recognition dictionary 16 is a dictionary that is referred to by the speech recognition unit 17 during speech recognition. A plurality of keywords are included, and each keyword is assigned a classification of “voice command”, “search effective vocabulary”, and “search invalid vocabulary”.

音声認識部17は、音声データ入力部11により入力された音声データを音声認識辞書16を用いて音声認識する。認識した語には、「音声コマンド」、「検索有効語彙」、「検索無効語彙」の分類を付与して出力する。   The voice recognition unit 17 recognizes the voice data input by the voice data input unit 11 using the voice recognition dictionary 16. The recognized words are output with the classification of “voice command”, “search effective vocabulary”, and “search invalid vocabulary”.

対話制御部18は、音声認識部17により認識されたキーワードを元に、ユーザとの対話処理を行う。具体的には、対話制御部18は、音声認識部17による認識結果を示すための応答を生成したり、検索対象データベース14の検索を行うように情報検索部19を制御する。   The dialogue control unit 18 performs dialogue processing with the user based on the keyword recognized by the voice recognition unit 17. Specifically, the dialogue control unit 18 controls the information search unit 19 to generate a response for indicating a recognition result by the voice recognition unit 17 or to search the search target database 14.

情報検索部19は、音声認識部17により認識されたキーワードを検索条件にして検索対象データベース14を検索し、検索結果を対話制御部18に返す。   The information search unit 19 searches the search target database 14 using the keyword recognized by the voice recognition unit 17 as a search condition, and returns the search result to the dialogue control unit 18.

提示部20は、スピーカやディスプレイを含んで構成され、ユーザへの応答内容を音声や文字によって提示する。具体的には、提示部20は、対話制御部18により生成された応答や情報検索部19による検索結果を提示する。   The presentation unit 20 includes a speaker and a display, and presents response contents to the user by voice or text. Specifically, the presentation unit 20 presents the response generated by the dialogue control unit 18 and the search result by the information search unit 19.

以上のように構成された音声対話装置は、音声認識辞書16を生成し、生成した音声認識辞書16に基づいてユーザにより入力された音声データを認識して検索対象データベース14の情報検索などの処理を行う。図5は、音声認識辞書16の生成時の音声対話装置の作用の流れを示すフローチャートである。   The voice interaction apparatus configured as described above generates a voice recognition dictionary 16, recognizes voice data input by the user based on the generated voice recognition dictionary 16, and performs processing such as information search in the search target database 14. I do. FIG. 5 is a flowchart showing the flow of the operation of the voice interaction apparatus when the voice recognition dictionary 16 is generated.

まず、ステップ100では、音声認識辞書生成部15が、音声認識辞書16を初期化する。   First, in step 100, the speech recognition dictionary generation unit 15 initializes the speech recognition dictionary 16.

ステップ102では、音声認識辞書生成部15が、図2に示す音声コマンド辞書12に格納された各キーワードに“音声コマンド”の分類を付与して音声コマンド語彙リストを作成する。   In step 102, the voice recognition dictionary generation unit 15 creates a voice command vocabulary list by assigning a classification of “voice command” to each keyword stored in the voice command dictionary 12 shown in FIG.

ステップ104では、音声認識辞書生成部15が、作成した音声コマンド語彙リストを音声認識辞書16に登録する。ここで、音声コマンドの音声認識辞書16への登録は、音声コマンド辞書12に格納された全てのキーワードを登録してもよいし、あるいは、ユーザに現在提示している画面や応答メッセージの内容に合わせて、次にユーザが発話可能なキーワードのみに絞り込んでから登録してもよい。キーワードを絞り込んでからと登録することにより、音声認識の精度向上を図ることができる。   In step 104, the voice recognition dictionary generation unit 15 registers the created voice command vocabulary list in the voice recognition dictionary 16. Here, the voice command may be registered in the voice recognition dictionary 16 by registering all the keywords stored in the voice command dictionary 12 or by using the screen currently displayed to the user or the content of the response message. In addition, it may be registered after narrowing down to only keywords that the user can speak next. By registering after narrowing down keywords, the accuracy of speech recognition can be improved.

ステップ106では、音声認識辞書生成部15が、検索対象データベース14から検索条件となるキーワードを抽出する。音声認識辞書生成部15は、キーワードの抽出に際して、図4に示すエリア、ジャンル、属性情報をフィールドとして格納した検索対象データベース14を用いる場合、「エリア:都道府県」、「エリア:市区町村」、「ジャンル」、「属性情報(1)〜(5)」の各フィールドに含まれるキーワードを互いに重複することなく抽出する。   In step 106, the speech recognition dictionary generation unit 15 extracts keywords that serve as search conditions from the search target database 14. When the keyword recognition is performed, the speech recognition dictionary generation unit 15 uses “area: prefecture”, “area: city” when using the search target database 14 storing the area, genre, and attribute information shown in FIG. 4 as fields. , “Genre”, and “attribute information (1) to (5)” fields are extracted without overlapping each other.

ステップ108では、音声認識辞書生成部15が、検索対象データベース14より抽出した各キーワードに“検索有効語彙”分類を付与して検索有効語彙リスト作成する。この際、現在地周辺における施設検索ができるように、キーワード「現在地周辺」を検索有効語彙リストに追加するとよい。図6は、検索有効語彙リストの構成例を示す。   In step 108, the speech recognition dictionary generation unit 15 assigns a “search effective vocabulary” classification to each keyword extracted from the search target database 14 and creates a search effective vocabulary list. At this time, the keyword “around the current location” may be added to the search effective vocabulary list so that the facility search around the current location can be performed. FIG. 6 shows a configuration example of the search effective vocabulary list.

ステップ110では、音声認識辞書生成部15が、作成した検索有効語彙リストを音声認識辞書16に登録する。   In step 110, the speech recognition dictionary generation unit 15 registers the created search effective vocabulary list in the speech recognition dictionary 16.

ステップ112では、音声認識辞書生成部15が、図3に示すオプション語辞書13のキーワードから、前述の音声コマンド語彙リストまたは検索有効語彙リストに含まれるキーワードを削除した後、各キーワードに“検索無効語彙”の分類を付与して検索無効語彙リストを作成する。例えば、図3に示すオプション語辞書13を用いる場合、図6の検索有効語彙リストに含まれるキーワード「安い」、「宴会ができる」、「穴場的」が削除され、「すいている」「ランチがある」、「駐車場がある」、「美味しい」というキーワードが得られる。音声認識辞書生成部15は、これらのキーワードに分類が付与して検索無効語彙リストを作成する。   In step 112, the speech recognition dictionary generation unit 15 deletes the keywords included in the above-described speech command vocabulary list or search effective vocabulary list from the keywords in the option word dictionary 13 shown in FIG. A search invalid vocabulary list is created by assigning a classification of “vocabulary”. For example, when the option word dictionary 13 shown in FIG. 3 is used, the keywords “cheap”, “can banquet”, and “unknown” included in the search effective vocabulary list of FIG. There are keywords such as “There is parking”, “There is a parking lot”, and “Delicious”. The speech recognition dictionary generator 15 creates a search invalid vocabulary list by assigning classifications to these keywords.

図7は、このようにして最終的に得られる音声認識辞書16の生成例を示す。   FIG. 7 shows a generation example of the speech recognition dictionary 16 finally obtained in this way.

次に、音声対話による情報検索について説明する。図8は、情報検索時の音声対話装置の作用の流れを示すフローチャートである。   Next, information retrieval by voice dialogue will be described. FIG. 8 is a flowchart showing the flow of the operation of the voice interaction apparatus during information retrieval.

まず、ステップ200では、前述のようにして音声認識辞書生成部15が、音声認識辞書16を生成する。本実施の形態では、情報検索を行う毎に音声認識辞書16を生成することとしているが、音声認識辞書16を生成するタイミングはこれに限定するものではない。例えば、音声コマンド辞書12、オプション語辞書13、検索対象データベース14の何れかが更新されたタイミングに合わせて実行してもよい。その他にも、自車位置などから検索対象データベース14内の検索対象範囲を限定する機能を有するシステムに応用する場合には、検索対象範囲が変更されたタイミングに合わせて音声認識辞書16を生成してもよい。   First, in step 200, the speech recognition dictionary generation unit 15 generates the speech recognition dictionary 16 as described above. In the present embodiment, the speech recognition dictionary 16 is generated every time information search is performed, but the timing for generating the speech recognition dictionary 16 is not limited to this. For example, it may be executed at the timing when any one of the voice command dictionary 12, the option word dictionary 13, and the search target database 14 is updated. In addition, when applied to a system having a function of limiting the search target range in the search target database 14 based on the vehicle position or the like, the speech recognition dictionary 16 is generated in accordance with the timing when the search target range is changed. May be.

ステップ202では、音声データ入力部11が、ユーザがナビによる情報検索のために発した音声データを受理する。   In step 202, the voice data input unit 11 accepts voice data issued by the user for information retrieval by navigation.

ステップ204では、音声認識部17が、ユーザにより入力された音声データを、音声認識辞書16を用いて音声認識する。音声認識部17は、音声認識の結果として得られたキーワードと音声認識辞書16内の同じキーワード項目を探し、対応する分類と併せて結果を出力する。例えば、認識結果が「居酒屋」であった場合には、図7の音声認識辞書内の同じキーワードに付与された分類“検索有効語彙”と共に「居酒屋(検索有効語彙)」などの様式を用いて出力する。ユーザ1回の発話に複数のキーワードが認識された場合は、結果リストとして出力する。   In step 204, the voice recognition unit 17 recognizes voice data input by the user using the voice recognition dictionary 16. The speech recognition unit 17 searches for the same keyword item in the speech recognition dictionary 16 as the keyword obtained as a result of speech recognition, and outputs the result together with the corresponding classification. For example, when the recognition result is “Izakaya”, using a format such as “Izakaya (search effective vocabulary)” together with the classification “search effective vocabulary” assigned to the same keyword in the speech recognition dictionary of FIG. Output. When a plurality of keywords are recognized in one utterance of the user, it is output as a result list.

音声認識部17による音声認識は、公知の如何なる方法を用いてもよいが、例えば、次の方法によって行う。まず、音声データの音声特徴量の時系列データから音響モデルを参照して音素リストの候補を複数生成し、この音素リスト候補から音声認識辞書16に登録されている単語の組み合わせによって表現可能な音素リスト候補を抽出する。次に、音声特徴量の時系列データと音素リストから音響的な尤度を算出し、尤度の高い順に上位N個を抽出する。そして、音素リストを該当する音声認識辞書16の分類付きの認識ワードに置き換え、認識結果候補リストとする。この認識結果候補リストから文法的に成立する候補のみを抽出し、抽出された候補のうち最上位の候補を認識結果として出力する。文法的に成立する候補がない場合は、認識結果なしとする。   The voice recognition by the voice recognition unit 17 may be performed by any known method, for example, by the following method. First, a plurality of phoneme list candidates are generated by referring to an acoustic model from time-series data of speech feature values of speech data, and phonemes that can be expressed by combinations of words registered in the speech recognition dictionary 16 from the phoneme list candidates. Extract list candidates. Next, the acoustic likelihood is calculated from the time series data of the speech feature amount and the phoneme list, and the top N items are extracted in descending order of likelihood. Then, the phoneme list is replaced with a recognition word with classification in the corresponding speech recognition dictionary 16 to obtain a recognition result candidate list. Only candidates that are grammatically established are extracted from this recognition result candidate list, and the highest candidate among the extracted candidates is output as a recognition result. If there is no grammatical candidate, no recognition result is given.

ステップ206では、対話制御部18が、音声認識部17により認識されたキーワードの分類が音声コマンドか否かを判定し、音声コマンドの場合はステップ208に進み、音声コマンド尚場合にはステップ214に進む。   In step 206, the dialogue control unit 18 determines whether or not the keyword classification recognized by the voice recognition unit 17 is a voice command. If the command is a voice command, the process proceeds to step 208. If the voice command is not, the process proceeds to step 214. move on.

ステップ208では、対話制御部18が音声認識部17により認識された音声コマンドに対応する処理を実行し、提示部20が実行結果を提示する。   In step 208, the dialogue control unit 18 executes processing corresponding to the voice command recognized by the voice recognition unit 17, and the presentation unit 20 presents the execution result.

ステップ210では、対話制御部18が、音声コマンドが検索を終了するコマンドか否かを判定する。例えば、「目的地に設定する」など検索の次の段階の操作に移行する音声コマンドであった場合は、対話制御部18は、情報検索を終了する。また、音声コマンドが「戻る」など検索の操作を継続する音声コマンドの場合は、ステップ212に進む。   In step 210, the dialogue control unit 18 determines whether or not the voice command is a command for terminating the search. For example, in the case of a voice command that shifts to an operation at the next stage of search such as “Set as destination”, the dialogue control unit 18 ends the information search. If the voice command is a voice command that continues the search operation such as “return”, the process proceeds to step 212.

ステップ212では、対話制御部18が次の入力を促すメッセージを生成し、提示部20がメッセージを提示した後、ステップ202に戻る。   In step 212, the dialogue control unit 18 generates a message for prompting the next input, and after the presentation unit 20 presents the message, the process returns to step 202.

ステップ214では、対話制御部18が、音声認識部17により認識されたキーワードが検索有効語彙を1つ以上含むか否かを判定し、検索有効語彙を1つ以上含む場合にはステップ216に進み、含まない場合にはステップ222に進む。   In step 214, the dialogue control unit 18 determines whether or not the keyword recognized by the voice recognition unit 17 includes one or more search effective vocabularies. If the keyword includes one or more search effective vocabularies, the process proceeds to step 216. If not included, the process proceeds to step 222.

ステップ216では、対話制御部18が、認識されたキーワード毎に検索有効語彙か検索無効語彙かが分かるようにメッセージを生成し、提示部20がメッセージを提示する。   In step 216, the dialogue control unit 18 generates a message so that it can be identified whether the search effective vocabulary or the search invalid vocabulary for each recognized keyword, and the presentation unit 20 presents the message.

ステップ218では、情報検索部19が、認識されたキーワードのうちの検索有効語彙であるキーワードを検索条件として検索対象データベース14の検索を行う。   In step 218, the information search unit 19 searches the search target database 14 using a keyword that is a search effective vocabulary among the recognized keywords as a search condition.

ステップ220では、提示部20が情報検索部19による検索結果を提示する。また、対話制御部18が次の入力を促すメッセージを生成し、提示部20がメッセージを提示した後、ステップ202に戻る。   In step 220, the presentation unit 20 presents the search result by the information search unit 19. Further, after the dialogue control unit 18 generates a message for prompting the next input and the presentation unit 20 presents the message, the process returns to step 202.

情報検索部19による情報検索は、次のように行う。例えば、音声認識部17が、「現在地周辺でランチがあるレストラン」というユーザの発話から、「現在地周辺(検索有効語彙)」、「ランチがある(検索無効語彙)」、「レストラン(検索有効語彙)」という3つのキーワードを認識したとする。この場合、対話制御部18が、「“ランチがある”は、検索に無効なキーワードです。現在地周辺のレストランを条件として検索します。」のようにキーワードが有効か無効かを示すメッセージを生成し、提示部20がこれを提示する。その後、「現在地周辺」と「レストラン」という2つの条件で検索対象データベース14を検索した結果から、対話制御部18が、例えば、「5件見つかりました。」のようなメッセージを生成し、提示部20がこれを提示する。また、併せて、対話制御部18が、「一番近いのはレストラン○○です。目的地に設定しますか?次を提示しますか?」のように次の入力を促すメッセージを生成し、提示部20がこれを提示する。   Information retrieval by the information retrieval unit 19 is performed as follows. For example, the speech recognition unit 17 determines from the user's utterance “restaurant with lunch near the current location”, “around the current location (search effective vocabulary)”, “with lunch (search invalid vocabulary)”, “restaurant (search effective vocabulary). ) "Is recognized. In this case, the dialogue control unit 18 generates a message indicating whether the keyword is valid or invalid, such as ““ There is lunch ”is a keyword that is invalid for search. Then, the presentation unit 20 presents this. Thereafter, from the result of searching the search target database 14 under the two conditions “current location” and “restaurant”, the dialogue control unit 18 generates and presents a message such as “5 found”, for example. Part 20 presents this. At the same time, the dialogue control unit 18 generates a message for prompting the next input, such as “The nearest restaurant is XX. Do you want to set the destination? The presentation unit 20 presents this.

ステップ222では、対話制御部18が、認識されたキーワードが検索無効語彙であることを示すメッセージ、及び「もう一度言ってください。」など別の入力を促すメッセージを生成し、提示部20がこれらを提示した後、ステップ202に戻る。   In step 222, the dialogue control unit 18 generates a message indicating that the recognized keyword is a search invalid vocabulary, and a message for prompting another input such as “Please say again”. After the presentation, the process returns to step 202.

以上のように、本実施の形態に係る音声対話装置は、音声認識辞書16を生成する際に、音声コマンド辞書12にも検索対象データベース14にも含まれないキーワードを、オプション語辞書13を用いて補填し、検索キーワードとして有効か無効かを分類しておく。これにより、ユーザが情報検索時に使う可能性が高いキーワードの音声認識に対応することができる。また、認識したキーワードが検索に有効であるかどうかを即座にユーザに知らせることが可能となり、ユーザは無効なキーワードを何度も繰り返して音声入力することがなくなり、結果として情報検索を効率よく行うことができる。   As described above, the voice interaction apparatus according to the present embodiment uses the option word dictionary 13 for keywords not included in the voice command dictionary 12 or the search target database 14 when generating the voice recognition dictionary 16. And categorize whether the search keyword is valid or invalid. Thereby, it is possible to cope with voice recognition of a keyword that is highly likely to be used when the user searches for information. In addition, it is possible to immediately notify the user whether or not the recognized keyword is valid for the search, and the user does not repeatedly input the invalid keyword by voice many times, and as a result, information retrieval is efficiently performed. be able to.

なお、本発明は、上述の実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能である。例えば、楽曲検索などにも応用することができる。   In addition, this invention is not limited to the above-mentioned embodiment, It is applicable also to what changed the design within the range described in the claim. For example, it can be applied to music search.

本発明の実施の形態に係る音声対話装置の構成を示すブロック図であるIt is a block diagram which shows the structure of the voice interactive apparatus which concerns on embodiment of this invention. 音声コマンド辞書の構成例を示す図である。It is a figure which shows the structural example of a voice command dictionary. オプション語辞書の構成例を示す図である。It is a figure which shows the structural example of an option word dictionary. 検索対象データベースの構成例を示す図である。It is a figure which shows the structural example of a search object database. 本実施の形態に係る音声対話装置の音声認識辞書生成時の作用の流れを示すフローチャートである。It is a flowchart which shows the flow of an effect | action at the time of the speech recognition dictionary production | generation of the speech dialogue apparatus which concerns on this Embodiment. 検索有効語彙リストの構成例を示す図である。It is a figure which shows the structural example of a search effective vocabulary list. 音声認識辞書の構成例を示す図である。It is a figure which shows the structural example of a speech recognition dictionary. 本実施の形態に係る音声対話装置の情報検索時の作用の流れを示すフローチャートである。It is a flowchart which shows the flow of an effect | action at the time of the information search of the voice interactive apparatus which concerns on this Embodiment.

11 音声データ入力部
12 音声コマンド辞書
13 オプション語辞書
14 検索対象データベース
15 音声認識辞書生成部
16 音声認識辞書
17 音声認識部
18 対話制御部
19 情報検索部
20 提示部
DESCRIPTION OF SYMBOLS 11 Voice data input part 12 Voice command dictionary 13 Option word dictionary 14 Search object database 15 Voice recognition dictionary production | generation part 16 Voice recognition dictionary 17 Voice recognition part 18 Dialog control part 19 Information search part 20 Presentation part

Claims (6)

音声コマンドである語と音声コマンドであることを示す分類との対からなる音声コマンドリストと、検索対象データベースの検索キーワードである語と検索キーワードであることを示す分類との対からなる検索キーワードリストと、前記音声コマンドでも前記検索キーワードでもなく検索対象外ワードである語と検索対象外ワードであることを示す分類との対からなる対象外ワードリストと、を有する音声認識辞書を記憶する音声認識辞書記憶手段と、
ユーザにより入力された音声データを音声認識して、前記音声認識辞書記憶手段に記憶された音声認識辞書に含まれる語の各々及びその分類を抽出する音声認識手段と、
前記音声認識手段により抽出された語の分類が、前記音声コマンド、前記検索キーワード及び前記対象外ワードの何れであるかを判定し、前記抽出された語の分類が音声コマンドを含まず、かつ、検索キーワード及び検索対象外ワードを含む場合には、該分類が検索キーワードである語に基づいて前記検索対象データベースを検索すると共に、該分類が検索対象外ワードである語が対象外ワードであることを示す応答を生成する対話制御手段と、
前記対話制御手段により検索された検索結果、及び前記対話制御手段により生成された応答を提示する提示手段と、
を備えた音声対話装置。
A search keyword list consisting of a pair of a voice command list consisting of a word that is a voice command and a classification indicating that it is a voice command, and a pair indicating a word that is a search keyword in the search target database and a classification indicating that it is a search keyword And a speech recognition dictionary storing a speech recognition dictionary having a word list that is not a search target word but a word that is not a search target word and a classification indicating that it is a non-search target word Dictionary storage means;
Speech recognition means for speech recognition of speech data input by a user, and extracting each of words included in the speech recognition dictionary stored in the speech recognition dictionary storage means and their classification;
It is determined whether the classification of each word extracted by the voice recognition means is the voice command, the search keyword, or the non-target word, the classification of each extracted word does not include a voice command, and search keyword and a search in cases involving non-target word, with searching the retrieval target database based on word the classification is a search keyword, is exempt word Ah Ru words the classification is by not searched word A dialogue control means for generating a response indicating that
Presenting means for presenting a search result retrieved by the dialog control means and a response generated by the dialog control means;
Spoken dialogue device with
前記音声認識辞書記憶手段は、前記音声コマンドリストと、前記検索キーワードリストと、検索を行う際にオプション的に使われる可能性が高いキーワードである複数のオプション語からなるオプション語リストから前記音声コマンド及び前記検索キーワードを削除して得た前記検索対象外ワードである語と前記検索対象外ワードであることを示す分類との対からなる前記対象外ワードリストと、を有する音声認識辞書を記憶する請求項1記載の音声対話装置。The voice recognition dictionary storage means includes the voice command list, the search keyword list, and the voice command from an option word list including a plurality of option words that are keywords that are likely to be used optionally when performing a search. And a speech recognition dictionary having a non-search word list formed by pairs of words that are non-search words obtained by deleting the search keyword and classifications indicating non-search words. The voice interactive apparatus according to claim 1. 音声コマンドである語を記憶した音声コマンド辞書と、前記オプション語を記憶したオプション語辞書と、検索対象となる要素項目の情報を示す語を記憶した前記検索対象データベース、を用いて、前記音声コマンド辞書に記憶された語と音声コマンドであることを示す分類とを対応付けることで前記音声コマンドリストを生成し、前記検索対象データベースに記憶された語と検索キーワードであることを示す分類とを対応付けることで前記検索キーワードリストを生成し、前記オプション語辞書に記憶され且つ前記音声コマンド辞書にも前記検索対象データベースにも記憶されていない語と検索対象外ワードであることを示す分類とを対応付けることで前記対象外ワードリストを生成し、該生成した前記音声コマンドリスト、前記検索キーワードリスト及び前記対象外ワードリストを登録することによって前記音声認識辞書を生成する音声認識辞書生成手段を更に備えた請求項記載の音声対話装置。 Using a voice command dictionary that stores word is a voice command, and options dictionary which stores the option word, the search target database, which stores the word indicating information element item to be searched, the voice command The speech command list is generated by associating words stored in the dictionary with classifications indicating voice commands, and the words stored in the search target database are associated with classifications indicating search keywords. To generate a search keyword list and associate a word that is stored in the option word dictionary and not stored in the voice command dictionary or the search target database with a classification that indicates a word that is not a search target. The non-target word list is generated, the generated voice command list, the search key Dorisuto and voice dialogue system of the further claims 2, further comprising a speech recognition dictionary generating means for generating a speech recognition dictionary by registering the non-target word list. 前記対話制御手段は、前記抽出された語の分類が音声コマンドを含む場合には、該音声コマンドに対応する処理を実行する請求項1から請求項3の何れか1項記載の音声対話装置。 The dialogue control unit, when the extracted word classification includes voice command, voice dialogue system according to any one of claims 1 to 3 for executing a process corresponding to the voice command. コンピュータを、請求項1から請求項4の何れか1項記載の音声対話置を構成する各手段として機能させるための音声対話プログラム。 Computer, voice interaction program for functioning as each unit constituting the voice interaction equipment according to any one of claims 1 to 4. コンピュータを、
音声コマンドである語と音声コマンドであることを示す分類との対からなる音声コマンドリストと、検索対象データベースの検索キーワードである語と検索キーワードであることを示す分類との対からなる検索キーワードリストと、前記音声コマンドでも前記検索キーワードでもなく検索対象外ワードである語と検索対象外ワードであることを示す分類との対からなる対象外ワードリストと、を有する音声認識辞書を記憶する音声認識辞書記憶手段、
ユーザにより入力された音声データを音声認識して、前記音声認識辞書記憶手段に記憶された音声認識辞書に含まれる語の各々及びその分類を抽出する音声認識手段、
前記音声認識手段により抽出された語の分類が、前記音声コマンド、前記検索キーワード及び前記対象外ワードの何れであるかを判定し、前記抽出された語の分類が音声コマンドを含まず、かつ、検索キーワード及び検索対象外ワードを含む場合には、該分類が検索キーワードである語に基づいて前記検索対象データベースを検索すると共に、該分類が検索対象外ワードである語が対象外ワードであることを示す応答を生成する対話制御手段、及び
前記対話制御手段により検索された検索結果、及び前記対話制御手段により生成された応答を提示する提示手段、
として機能させる音声対話プログラム。
Computer
A search keyword list consisting of a pair of a voice command list consisting of a word that is a voice command and a classification indicating that it is a voice command, and a pair indicating a word that is a search keyword in the search target database and a classification indicating that it is a search keyword And a speech recognition dictionary storing a speech recognition dictionary having a word list that is not a search target word but a word that is not a search target word and a classification indicating that it is a non-search target word Dictionary storage means,
The voice data input by the user to recognize speech, the speech recognition means to extract each and that classification of words included in the stored speech recognition dictionaries in the speech recognition dictionary storing means,
It is determined whether the classification of each word extracted by the voice recognition means is the voice command, the search keyword, or the non-target word, the classification of each extracted word does not include a voice command, and search when a keyword and the search outside word, as well as searching for the search target database based on word the classification is a search keyword, the classification is the Ah Ru terms in the search target outside word pair Zogai Interaction control means for generating a response indicating a word; and
Presenting means for presenting a search result retrieved by the dialog control means and a response generated by the dialog control means;
Spoken dialogue program to function as.
JP2009184946A 2009-08-07 2009-08-07 Spoken dialogue apparatus and spoken dialogue program Active JP5378907B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009184946A JP5378907B2 (en) 2009-08-07 2009-08-07 Spoken dialogue apparatus and spoken dialogue program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009184946A JP5378907B2 (en) 2009-08-07 2009-08-07 Spoken dialogue apparatus and spoken dialogue program

Publications (2)

Publication Number Publication Date
JP2011039185A JP2011039185A (en) 2011-02-24
JP5378907B2 true JP5378907B2 (en) 2013-12-25

Family

ID=43767035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009184946A Active JP5378907B2 (en) 2009-08-07 2009-08-07 Spoken dialogue apparatus and spoken dialogue program

Country Status (1)

Country Link
JP (1) JP5378907B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6526399B2 (en) * 2014-09-10 2019-06-05 シャープ株式会社 Voice dialogue apparatus, control method of voice dialogue apparatus, and control program
JP6999230B2 (en) * 2018-02-19 2022-01-18 アルパイン株式会社 Information processing system and computer program
CN109725868A (en) * 2018-12-28 2019-05-07 苏州思必驰信息科技有限公司 The implementation method of the vehicle system of pure interactive voice, voice interaction device and system suitable for vehicle system
JP7254689B2 (en) * 2019-12-26 2023-04-10 本田技研工業株式会社 Agent system, agent method and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0778183A (en) * 1993-06-25 1995-03-20 Ricoh Co Ltd Data base retrieving system
JPH08190470A (en) * 1995-01-05 1996-07-23 Toshiba Corp Information providing terminal
JP3624698B2 (en) * 1998-07-01 2005-03-02 株式会社デンソー Voice recognition device, navigation system and vending system using the device
JP4652504B2 (en) * 1999-09-09 2011-03-16 クラリオン株式会社 Voice recognition device and voice recognition navigation device
JP2006171305A (en) * 2004-12-15 2006-06-29 Nissan Motor Co Ltd Navigation device, and information retrieval method using speech recognition for the navigation device
WO2008072413A1 (en) * 2006-12-15 2008-06-19 Mitsubishi Electric Corporation Voice recognition device

Also Published As

Publication number Publication date
JP2011039185A (en) 2011-02-24

Similar Documents

Publication Publication Date Title
US11380330B2 (en) Conversational recovery for voice user interface
US10719507B2 (en) System and method for natural language processing
US20190370398A1 (en) Method and apparatus for searching historical data
US10037758B2 (en) Device and method for understanding user intent
US10917758B1 (en) Voice-based messaging
JP5957269B2 (en) Voice recognition server integration apparatus and voice recognition server integration method
US7949524B2 (en) Speech recognition correction with standby-word dictionary
KR101309042B1 (en) Apparatus for multi domain sound communication and method for multi domain sound communication using the same
KR100755677B1 (en) Apparatus and method for dialogue speech recognition using topic detection
KR100679042B1 (en) Method and apparatus for speech recognition, and navigation system using for the same
JP5089955B2 (en) Spoken dialogue device
US11016968B1 (en) Mutation architecture for contextual data aggregator
US9594744B2 (en) Speech transcription including written text
CN113948083A (en) Improving automatic speech recognition based on user feedback
JP2001005488A (en) Voice interactive system
JP5703491B2 (en) Language model / speech recognition dictionary creation device and information processing device using language model / speech recognition dictionary created thereby
JP5753769B2 (en) Voice data retrieval system and program therefor
KR20060070605A (en) Using domain dialogue model and language model in intelligent robot speech recognition service device and method
JP5073024B2 (en) Spoken dialogue device
JP5378907B2 (en) Spoken dialogue apparatus and spoken dialogue program
JP5360414B2 (en) Keyword extraction model learning system, method and program
JP5158022B2 (en) Dialog processing device, dialog processing method, and dialog processing program
JP4528540B2 (en) Voice recognition method and apparatus, voice recognition program, and storage medium storing voice recognition program
JP2009282835A (en) Method and device for voice search
JP4930014B2 (en) Speech recognition apparatus and speech recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130527

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130926

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5378907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250