JP2004341724A - Interactive information retrieval system - Google Patents

Interactive information retrieval system Download PDF

Info

Publication number
JP2004341724A
JP2004341724A JP2003136078A JP2003136078A JP2004341724A JP 2004341724 A JP2004341724 A JP 2004341724A JP 2003136078 A JP2003136078 A JP 2003136078A JP 2003136078 A JP2003136078 A JP 2003136078A JP 2004341724 A JP2004341724 A JP 2004341724A
Authority
JP
Japan
Prior art keywords
user
input
information
voice
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003136078A
Other languages
Japanese (ja)
Other versions
JP4330924B2 (en
Inventor
Masashi Satomura
昌史 里村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2003136078A priority Critical patent/JP4330924B2/en
Publication of JP2004341724A publication Critical patent/JP2004341724A/en
Application granted granted Critical
Publication of JP4330924B2 publication Critical patent/JP4330924B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an interactive information retrieval system allowing retrieval of objective information in a short period of time even while changing contents of guidance according to a situation. <P>SOLUTION: A voice recognition device 2 recognizes utterance contents of a user of its own vehicle, and a voice synthesizer 5 provides an interactive response to the user as voice while an interactive control part 11 performs interactive control on the basis of a recognized input word. Thereby, when retrieving information about the input word and providing it to the user, an input word management means manages a plurality of input words inputted by a series of voice interaction, and a retrieval condition setting means including a voice interaction margin decision part 12 sets retrieval conditions of the information on the basis of an input state to the input word management means and a traveling state of the own vehicle decided by a vehicle state detection device 7. Thereby, as transiting voice interactive contents according to the utterance contents of the user, contents of the retrieved information are selected from the already inputted contents and a user's load situation based on the traveling state of the own vehicle, and are provided. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、利用者との対話形式により、該利用者が希望する情報を提供するための対話型情報検索システムに関する。
【0002】
【従来の技術】
従来、各種の機器の複雑な操作を、自由発話による対話形式で遂行することを可能とする音声対話システムがある。このシステムでは、対話処理専用の処理部が、対話の履歴を管理する対話履歴管理部を有し、対話の履歴に基づくシステムの案内の変更を可能にしている。また、対話履歴管理部は、音声認識手段のエラーの回数、音声認識手段の誤認識による発声のやり直しの回数、及び音声認識手段におけるタイムアウトの回数を管理する。これにより、それらの回数を条件とすることで、エラー及びやり直しの回数に応じて異なる対話の遷移を実現する。具体的には、音声認識手段が認識エラーを検出した際の発声のやり直しの回数や、音声認識手段が誤認識結果を出力した際の発声のやり直しの回数、あるいは利用者が発声可能なときに発声を行わなかった場合のタイムアウトの回数によって、ガイダンスの内容を変更することができる。従って、同じ操作を複数回行うことから生ずる利用者の不快感を、状況に応じて異なるガイダンスを提供することで軽減することができる(例えば、特許文献1参照。)。
【0003】
【特許文献1】
特開2001−125591号公報
【0004】
【発明が解決しようとする課題】
ところで、特許文献1に記載されているような従来のシステムでは、状況に応じてガイダンスの内容を変更し、同じ操作を複数回行うことから生ずる利用者の不快感を軽減することができるものの、要求された複数の入力項目の中で1項目でも不足していると、ガイダンスが変更された異なる内容からの発話誘導が何回も行われるため、利用者との対話形式により、該利用者が希望する情報を提供する対話型情報検索システムを構築しようとすると、希望の情報が検索されるまでに時間がかかるという問題があった。
【0005】
本発明は、上記課題に鑑みてなされたもので、状況に応じてガイダンスの内容を変更しながらも、短時間で目的の情報を検索可能な対話型情報検索システムを提供することを目的とする。
【0006】
【課題を解決するための手段】
上記課題を解決するために、請求項1の発明に係る対話型情報検索システムは、利用者の発話内容を認識する音声認識手段(例えば実施の形態の音声認識装置2、または音声認識装置42)と、前記音声認識手段により認識された入力語に基づいて、前記利用者への対話応答を制御する対話制御手段(例えば実施の形態の対話制御部11、または対話制御部51)と、前記利用者への対話応答を音声として提供する音声合成手段(例えば実施の形態の音声合成装置5、または音声合成装置45)とを備え、前記入力語に関連する情報を検索して前記利用者へ提供する対話型情報検索システムであって、前記対話制御手段が、一連の対話により入力される複数の前記入力語を管理する入力語管理手段(例えば実施の形態のステップS11からステップS14、ステップS26からステップS27、ステップS31からステップS32、ステップS36からステップS38)と、前記入力語管理手段に対する入力状態に基づいて、前記情報の検索条件を設定する検索条件設定手段(例えば実施の形態のステップS15からステップS25、ステップS28からステップS30、ステップS33からステップS35)とを備えたことを特徴とする。
【0007】
以上の構成を備えた対話型情報検索システムは、利用者の発話内容を音声認識手段により認識すると共に、認識された入力語に基づいて対話制御手段が対話制御を行いながら、音声合成手段が利用者への対話応答を音声として提供することで、入力語に関連する情報を検索して利用者へ提供する。この時、入力語管理手段が、一連の対話により入力される複数の入力語を管理すると共に、検索条件設定手段が、入力語管理手段に対する入力状態に基づいて、情報の検索条件を設定することで、利用者の発話内容に応じて対話内容を遷移させながら、入力済みの内容から検索する情報の内容を選択して提供することができる。
【0008】
請求項2の発明に係る対話型情報検索システムは、自車両の利用者の発話内容を認識する音声認識手段(例えば実施の形態の音声認識装置2、または音声認識装置42)と、前記音声認識手段により認識された入力語に基づいて、前記利用者への対話応答を制御する対話制御手段(例えば実施の形態の状態管理部3、または状態管理部43)と、前記利用者への対話応答を音声として提供する音声合成手段(例えば実施の形態の音声合成装置5、または音声合成装置45)と、前記自車両の走行状態を判定する走行状態判定手段(例えば実施の形態の車両状態検出装置7、またはナビゲーション装置32)とを備え、前記入力語に関連する情報を検索して前記利用者へ提供する対話型情報検索システムであって、前記対話制御手段が、一連の対話により入力される複数の前記入力語を管理する入力語管理手段(例えば実施の形態のステップS11からステップS14、ステップS26からステップS27、ステップS31からステップS32、ステップS36からステップS38)と、前記入力語管理手段に対する入力状態と前記走行状態判定手段により判定された前記自車両の走行状態とに基づいて、前記情報の検索条件を設定する検索条件設定手段(例えば実施の形態のステップS15からステップS25、ステップS28からステップS30、ステップS33からステップS35、及び対話余裕度判定部12または対話余裕度判定部52)とを備えたことを特徴とする。
【0009】
以上の構成を備えた対話型情報検索システムは、自車両の利用者の発話内容を音声認識手段により認識すると共に、認識された入力語に基づいて対話制御手段が対話制御を行いながら、音声合成手段が利用者への対話応答を音声として提供することで、入力語に関連する情報を検索して利用者へ提供する。この時、入力語管理手段が、一連の対話により入力される複数の入力語を管理すると共に、検索条件設定手段が、入力語管理手段に対する入力状態と、走行状態判定手段が判定する自車両の走行状態とに基づいて、情報の検索条件を設定することで、利用者の発話内容に応じて対話内容を遷移させながら、入力済みの内容と自車両の走行状態に基づく利用者の負荷状況とから検索する情報の内容を選択して提供することができる。
【0010】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態の対話型情報検索システムを示すブロック図である。図1において、音声入力用マイク1は、利用者の音声を入力するための音声入力手段であって、音声入力用マイク1を介して入力された利用者の音声は、音声認識装置2に入力される。
音声認識装置2では、利用者の入力する音声を所定の音声認識辞書と比較して音声認識を行い、認識結果を状態管理部3へ出力する。
【0011】
状態管理部3は、対話シナリオに沿ったガイダンス(音声、画像情報)に従って、音声認識装置2を介した音声入力用マイク1からの音声入力、または操作部(後述するディスプレイ8に備えられたタッチパネル等)からの入力により、車両の利用者に機器操作や情報検索を行わせる処理部であって、対話シナリオや利用者に提供される情報は、情報蓄積部4に記憶されている。
また、音声合成装置5は、利用者との対話において、状態管理部3が出力するガイダンスや利用者へ提供される情報を合成音声により通知する音声合成部であって、音声合成装置5が生成した合成音声はスピーカ6から出力される。
【0012】
また、状態管理部3には、GPS(Global Positioning System )を備えたナビゲーション装置や車両の走行速度を検出する速度センサ、更にはステアリングやブレーキ等に設けられたセンサにより、車両の走行位置や走行速度、利用者の運転操作等を含む車両の走行状況や運転状態を検出する車両状態検出装置7が接続されており、状態管理部3は、随時車両の位置情報や走行速度、運転状態等を取得することができる。
更に、状態管理部3には、利用者との対話において、状態管理部3が出力するガイダンスや利用者へ提供される情報を画像情報として表示すると共に、利用者が必要事項を入力するためのタッチパネルを備えたディスプレイ8や、音声入力時の発話トリガ用スイッチ9が接続されている。
【0013】
また、状態管理部3は、所定の対話シナリオに基づき、利用者との対話を制御する対話制御部11と、車両状態検出装置7により検出された車両の走行状況や運転状態に基づいて、利用者の対話に対する余裕度を判定する対話余裕度判定部12とを含んでいる。なお、対話余裕度判定部12は、車両状態検出装置7により検出された車両の走行位置や走行速度等の情報の他、音声認識装置2における音声認識率や音声認識時のノイズレベル、状態管理部3における対話時の応答レスポンスや対話が成立しているか等の情報も利用して利用者の対話に対する余裕度を判定する。
【0014】
(基本動作)
次に、本実施の形態の対話型情報検索システムの基本動作について、図面を参照して説明する。図2は、本実施の形態の対話型情報検索システムの基本動作を示すフローチャートである。
図2において、まず状態管理部3の対話制御部11は、車両の利用者の発話内容から抽出された入力語に基づいて、情報の検索条件を設定する検索条件設定処理を行う(ステップS1)。なお、検索条件設定処理の詳細は後述する。
次に、状態管理部3の対話余裕度判定部12は、車両状態検出装置7が取得する車両の走行位置や走行速度等の情報の他、音声認識装置2による音声認識率や音声認識時のノイズレベル、対話制御部11が検出する対話時の応答レスポンスや対話が成立しているか等の情報も利用して、利用者の対話に対する余裕度(対話余裕度)を算出すると共に、対話余裕度に基づいて、車両の利用者に対する車両負荷(運転負荷等)を判定する(ステップS2)。
【0015】
そして、対話余裕度判定部12は、対話余裕度に基づく車両の利用者に対する車両負荷(運転負荷等)が所定値より高いか否かを判定し(ステップS3)、車両の利用者に対する車両負荷(運転負荷等)が所定値より高い場合(ステップS3のYES)、利用者の要求事項により設定された検索条件に基づく情報検索範囲を、負荷状態に応じて要求事項より広く設定し、状態管理部3は検索処理を実行する(ステップS4)。
一方、ステップS3において、車両の利用者に対する車両負荷(運転負荷等)が所定値より低い場合(ステップS3のNO)、状態管理部3は利用者の要求事項により設定された検索条件に基づく情報検索範囲の検索処理を実行する(ステップS5)。
【0016】
(検索条件設定処理動作)
次に、本実施の形態の対話型情報検索システムの検索条件設定処理動作について、図面を参照して説明する。図3及び図4は、本実施の形態の対話型情報検索システムの検索条件設定処理動作を示すフローチャートである。なお、本実施の形態では、説明を簡単化するために、検索条件設定処理動作において利用者により入力される入力語の数(入力項目数)が3個の場合について説明する。
図3及び図4において、まず状態管理部3の対話制御部11は、音声合成装置5を用いて、スピーカ6から、例えば「知りたい区間あるいは地点と情報種類をおっしゃってください。」というメッセージを出力して発話誘導ガイダンスを行う(ステップS11)。
【0017】
次に、対話制御部11は、音声認識装置2を用いて、利用者により音声入力用マイク1から入力された音声を認識して入力語を取得し(ステップS12)、入力語に含まれる情報種類(type)、区間(posi1、posi2)または地点(posi1)を認識する(ステップS13)。
ここで、情報種類(type)とは、検索する情報の種類のことで、例えば交通情報や気象情報(天気)、更には販売店情報等が含まれる。また、区間(posi1、posi2)は、図5(a)に示すように、始点(posi1)と終点(posi2)とで示される2地点間の地域を示し、地点(posi1)は、図5(b)に示すように、地点(posi1)付近の地域を示す。
【0018】
また、情報種類と区間あるいは地点のいずれかを正常に取得できたか否かを判定し(ステップS14)、情報種類と区間あるいは地点のいずれかを正常に取得できていない場合(ステップS14のNO)、ステップS11へ戻り、上述の動作を繰り返す。
一方、ステップS14において、情報種類と区間あるいは地点のいずれかを正常に取得できている場合(ステップS14のYES)、対話制御部11は、取得できた入力語に基づいて、下記(A)から(E)の5種類の処理のいずれかを行う。
【0019】
(A)情報種類(type)と区間(posi1、posi2)に基づく検索条件設定処理。
(B)区間(posi1、posi2)に基づく検索条件設定処理。
(C)情報種類(type)と地点(posi1)に基づく検索条件設定処理。
(D)地点(posi1)に基づく検索条件設定処理。
(E)情報種類(type)に基づく検索条件設定処理。
【0020】
具体的には、ステップS14において、情報種類(type)と区間(posi1、posi2)が取得された場合(ステップS15)、対話制御部11は、音声合成装置5を用いて、スピーカ6から、例えば「%posi1から%posi2までの%type情報を検索します。」というメッセージを出力して入力内容ガイダンスを行う(ステップS16)。なお、メッセージ中の「%posi1、%posi2、%type」には、それぞれ取得された入力語が代入される。
【0021】
そして、例えば「よろしいですか?」というメッセージを出力して内容確認ガイダンスを行い(ステップS17)、対話制御部11は、音声認識装置2を用いて、利用者により音声入力用マイク1から入力された音声を認識して入力語を取得し(ステップS18)、入力語が同意を示す言葉(具体的には「はい。」や「OK」等)であるか否かを判定する(ステップS19)。
【0022】
もし、ステップS19において、入力語が同意を示す言葉ではなかった場合(ステップS19のNO)、ステップS11へ戻り、上述の動作を繰り返す。
また、ステップS19において、入力語が同意を示す言葉であった場合(ステップS19のYES)、利用者により入力された情報種類(type)と区間(posi1、posi2)を検索条件に設定する(ステップS20)。
【0023】
一方、ステップS14において、区間(posi1、posi2)のみが取得された場合(ステップS21)、対話制御部11は、音声合成装置5を用いて、スピーカ6から、例えば「%posi1から%posi2までの情報を検索します。」というメッセージを出力して入力内容ガイダンスを行う(ステップS22)。なお、メッセージ中の「%posi1、%posi2」には、それぞれ取得された入力語が代入される。そして、ステップS17へ進み、上述の動作を実行する。
【0024】
一方、ステップS14において、情報種類(type)と地点(posi1)が取得された場合(ステップS23)、対話制御部11は、音声合成装置5を用いて、スピーカ6から、例えば「%posi1付近の%type情報を検索します。」というメッセージを出力して入力内容ガイダンスを行う(ステップS24)。なお、メッセージ中の「%posi1、%type」には、それぞれ取得された入力語が代入される。
【0025】
そして、次に、例えば「区間を指定する場合は、終点(posi2)を指定してください。」というメッセージを出力して発話誘導ガイダンスを行い(ステップS25)、利用者に、地点(posi1)を始点とした場合に対応する終点(posi2)の入力を促す。
対話制御部11は、音声認識装置2を用いて、利用者により音声入力用マイク1から入力された音声を認識して入力語を取得し(ステップS26)、入力語が終点(posi2)を示す言葉であるか否かを判定する(ステップS27)。
【0026】
もし、ステップS27において、入力語が終点(posi2)を示す言葉であった場合(ステップS27のYES)、ステップS16へ進み、上述の動作を実行する。
また、ステップS27において、入力語が終点(posi2)を示す言葉ではなかった場合(ステップS27のNO)、ステップS20へ進み、利用者により入力された情報種類(type)と地点(posi1)を検索条件に設定する(ステップS20)。
【0027】
一方、ステップS14において、地点(posi1)のみが取得された場合(ステップS28)、対話制御部11は、音声合成装置5を用いて、スピーカ6から、例えば「%posi1付近の情報を検索します。」というメッセージを出力して入力内容ガイダンスを行う(ステップS29)。なお、メッセージ中の「%posi1」には、取得された入力語が代入される。
【0028】
そして、次に、例えば「区間を指定する場合は、終点(posi2)を指定してください。」というメッセージを出力して発話誘導ガイダンスを行い(ステップS30)、利用者に、地点(posi1)を始点とした場合に対応する終点(posi2)の入力を促す。
対話制御部11は、音声認識装置2を用いて、利用者により音声入力用マイク1から入力された音声を認識して入力語を取得し(ステップS31)、入力語が終点(posi2)を示す言葉であるか否かを判定する(ステップS32)。
【0029】
もし、ステップS32において、入力語が終点(posi2)を示す言葉であった場合(ステップS32のYES)、ステップS22へ進み、上述の動作を実行する。
また、ステップS32において、入力語が終点(posi2)を示す言葉ではなかった場合(ステップS32のNO)、ステップS20へ進み、利用者により入力された地点(posi1)を検索条件に設定する(ステップS20)。
【0030】
一方、ステップS14において、情報種類(type)のみが取得された場合(ステップS33)、対話制御部11は、音声合成装置5を用いて、スピーカ6から、例えば「%type情報を検索します。」というメッセージを出力して入力内容ガイダンスを行う(ステップS34)。なお、メッセージ中の「%type」には、取得された入力語が代入される。
【0031】
そして、次に、例えば「区間を指定する場合は、始点(posi1)と終点(posi2)を、地点を指定する場合は地点(posi1)を指定してください。」というメッセージを出力して発話誘導ガイダンスを行い(ステップS35)、対話制御部11は、音声認識装置2を用いて、利用者により音声入力用マイク1から入力された音声を認識して入力語を取得する(ステップS36)。
そして、まず、入力語が始点(posi1)と終点(posi2)を含む区間を示す言葉であるか否かを判定する(ステップS37)。
【0032】
もし、ステップS37において、入力語が始点(posi1)と終点(posi2)を含む区間を示す言葉であった場合(ステップS37のYES)、ステップS16へ進み、上述の動作を実行する。
また、ステップS37において、入力語が始点(posi1)と終点(posi2)を含む区間を示す言葉ではなかった場合(ステップS37のNO)、対話制御部11は、利用者により入力された入力語が地点(posi1)を示す言葉であるか否かを判定する(ステップS38)。
【0033】
もし、ステップS38において、入力語が地点(posi1)を示す言葉であった場合(ステップS38のYES)、ステップS24へ進み、上述の動作を実行する。
また、ステップS38において、入力語が地点(posi1)を示す言葉ではなかった場合(ステップS38のNO)、ステップS20へ進み、利用者により入力された情報種類(type)を検索条件に設定する(ステップS20)。
【0034】
なお、本実施の形態では、対話制御部11が入力語管理手段と、検索条件設定手段とを含んでいる。より具体的には、図3及び図4のステップS11からステップS14、ステップS26からステップS27、ステップS31からステップS32、ステップS36からステップS38が入力語管理手段に相当し、図3及び図4のステップS15からステップS25、ステップS28からステップS30、ステップS33からステップS35が検索条件設定手段に相当する。
【0035】
以上説明したように、本実施の形態の対話型情報検索システムは、自車両の利用者の発話内容を音声認識装置2により認識すると共に、認識された入力語に基づいて対話制御部11が対話制御を行いながら、音声合成装置5が利用者への対話応答を音声として提供することで、入力語に関連する情報を検索して利用者へ提供する際、対話制御部11に含まれる入力語管理手段が、一連の対話により入力される複数の入力語を管理すると共に、対話余裕度判定部12と対話制御部11に含まれる検索条件設定手段とが、入力語管理手段に対する入力状態と、車両状態検出装置7が判定する自車両の走行状態とに基づいて、情報の検索条件を設定することで、利用者の発話内容に応じて対話内容を遷移させながら、入力済みの内容と自車両の走行状態に基づく利用者の負荷状況とから検索する情報の内容を選択して提供することができる。
【0036】
従って、利用者の入力語の数(入力項目数)により検索される情報内容が決定されることで、入力項目数及びその内容に応じた情報を提供することが可能となり、利用者の目的や状態に応じた情報の検索及び取得が可能になるという効果が得られる。また、要求された複数の入力項目の中で、入力された項目が不足している場合でも、ガイダンスが変更された異なる内容からの発話誘導の回数を最小限に留めるため、情報検索において、希望の情報が検索されるまでの時間を短縮することができるという効果が得られる。
【0037】
(第2の実施の形態)
図6は、本発明の第2の実施の形態の対話型情報検索システムを示すブロック図である。第2の実施の形態の対話型情報検索システムは、第1の実施の形態の対話型情報検索システムが車両側のみに設けられた装置で構成されていたのに対して、音声を認識する装置と対話を制御する装置とが、車両と無線通信により接続される情報センタ側に設けられることを特徴とする。
図6において、音声入力用マイク31は、車両20側に設けられ、車両20の利用者の音声を入力するための音声入力手段であって、音声入力用マイク31を介して入力された利用者の音声は、ナビゲーション装置32に入力される。
【0038】
また、ナビゲーション装置32は、利用者とのインタフェース機能を備えると共に、GPS(Global Positioning System )や車両20の走行速度を検出する速度センサ、更にはステアリングやブレーキ等に設けられたセンサ等を備え、車両20の走行位置や走行速度、利用者の運転操作等を含む車両20の走行状況や運転状態を検出する車両状態検出装置であって、ナビゲーション装置32は、随時車両20の位置情報や走行速度、運転状態等を取得することができる。
【0039】
また、ナビゲーション装置32には、通信装置33やスピーカ34、更には利用者が必要事項を入力するためのタッチパネルを備えたディスプレイ35が接続され、音声入力用マイク31から入力された利用者の音声、またはタッチパネル等の操作部からの入力内容は、情報センタと無線通信回線を接続可能な通信装置33を介して情報センタ21へ送信され、一方、通信装置33が情報センタ21から受信した対話シナリオに沿ったガイダンス(音声、画像情報)や利用者へ提供される情報(音声、画像情報)は、ナビゲーション装置32を介して、音声はスピーカ34から出力され、画像情報はディスプレイ35に表示される。なお、ナビゲーション装置32には、利用者との対話において、音声入力時の発話トリガ用スイッチ36も接続されている。
【0040】
一方、車両20と無線通信により接続される情報センタ21には、車両20と無線通信回線を接続可能な通信装置41が設けられ、通信装置41を介して車両20から受信した利用者の音声は、音声認識装置42に入力される。音声認識装置42では、車両20から受信した利用者の音声を所定の音声認識辞書と比較して音声認識を行い、認識結果を状態管理部43へ出力する。
【0041】
また、状態管理部43は、対話シナリオに沿ったガイダンス(音声、画像情報)に従って、通信装置41と音声認識装置42を介した車両20からの音声入力、または通信装置41で受信した車両20の操作部(タッチパネル等)からの入力により、車両20の利用者に機器操作や情報検索を行わせる処理部であって、対話シナリオや利用者に提供される情報は、情報蓄積部44に記憶されている。なお、情報センタ21は複数の車両20と無線通信回線を接続できる。
【0042】
更に、状態管理部43について詳細に説明すると、状態管理部43は、所定の対話シナリオに基づき、利用者との対話を制御する対話制御部51と、車両20より受信した車両の走行状況や運転状態に基づいて、利用者の対話に対する余裕度を判定する対話余裕度判定部52とを含んでいる。なお、対話余裕度判定部52は、車両20より受信した車両の走行位置や走行速度等の情報の他、音声認識装置42における音声認識率や音声認識時のノイズレベル、状態管理部43における対話時の応答レスポンスや対話が成立しているか等の情報も利用して利用者の対話に対する余裕度を判定する。
【0043】
また、音声合成装置45は、車両20の利用者との対話において、状態管理部43が出力するガイダンスや利用者へ提供される情報を合成音声により通知する音声合成部であって、音声合成装置45が生成した合成音声は、通信装置41を介して車両20へ送信されると共に、車両20において通信装置33により受信され、ナビゲーション装置32を介してスピーカ34から出力される。
【0044】
(基本動作)
次に、本実施の形態の対話型情報検索システムの動作について説明すると、本実施の形態の対話型情報検索システムの動作は、車両20の利用者の音声が無線通信により情報センタ21へ送信されて音声認識されると共に、対話シナリオにそったガイダンスや利用者へ提供される情報に関する合成音声や画像情報が情報センタ21から車両20へ送信されて利用者に対して出力されることを除き、第1の実施の形態の対話型情報検索システムと基本的には変わりがない。
【0045】
すなわち、本実施の形態の対話型情報検索システムの基本動作は、まず状態管理部43の対話制御部51が、車両20の利用者の発話内容から抽出された入力語に基づいて、情報の検索条件を設定する検索条件設定処理を行う。
次に、状態管理部43の対話余裕度判定部52は、ナビゲーション装置32が取得する車両の走行位置や走行速度等の情報の他、音声認識装置42による音声認識率や音声認識時のノイズレベル、対話制御部51が検出する対話時の応答レスポンスや対話が成立しているか等の情報も利用して、利用者の対話に対する余裕度(対話余裕度)を算出すると共に、対話余裕度に基づいて、車両の利用者に対する車両負荷(運転負荷等)を判定する。
【0046】
そして、対話余裕度判定部52は、対話余裕度に基づく車両の利用者に対する車両負荷(運転負荷等)が所定値より高いか否かを判定し、車両の利用者に対する車両負荷(運転負荷等)が所定値より高い場合、利用者の要求事項により設定された検索条件に基づく情報検索範囲を、負荷状態に応じて要求事項より広く設定し、状態管理部43は検索処理を実行する。
また、車両の利用者に対する車両負荷(運転負荷等)が所定値より低い場合、状態管理部43は利用者の要求事項により設定された検索条件に基づく情報検索範囲の検索処理を実行する。
【0047】
(検索条件設定処理動作)
一方、本実施の形態の対話型情報検索システムの検索条件設定処理動作は、まず状態管理部43の対話制御部51が、音声合成装置45を用いて、車両20のスピーカ34から、例えば「知りたい区間あるいは地点と情報種類をおっしゃってください。」というメッセージを出力して発話誘導ガイダンスを行う。
次に、対話制御部51は、車両20の利用者により音声入力用マイク31から入力された音声を通信装置33及び通信装置41を介して取得すると共に、音声認識装置42を用いて、利用者により入力された音声を認識して入力語を取得し、入力語に含まれる情報種類(type)、区間(posi1、posi2)または地点(posi1)を認識する。
【0048】
また、情報種類と区間あるいは地点のいずれかを正常に取得できたか否かを判定し、情報種類と区間あるいは地点のいずれかを正常に取得できていない場合、最初の発話誘導ガイダンスから上述の動作を繰り返す。
一方、情報種類と区間あるいは地点のいずれかを正常に取得できている場合、対話制御部51は、取得できた入力語に基づいて、第1の実施の形態と同様に、下記5種類の処理のいずれかを行う。
【0049】
(A)情報種類(type)と区間(posi1、posi2)に基づく検索条件設定処理
(B)区間(posi1、posi2)に基づく検索条件設定処理
(C)情報種類(type)と地点(posi1)に基づく検索条件設定処理
(D)地点(posi1)に基づく検索条件設定処理
(E)情報種類(type)に基づく検索条件設定処理
【0050】
なお、対話制御部51が実施する5種類の検索条件設定処理の手順は、上述のように、対話制御部51が、音声合成装置45を用いて、ガイダンスに利用するメッセージを車両20のスピーカ34から出力することと、車両20の利用者により音声入力用マイク31から入力された音声を、通信装置33及び通信装置41を介して取得し、音声認識装置42を用いて、利用者により入力された音声を認識すること以外は、第1の実施の形態の対話制御部11が実施する5種類の検索条件設定処理と同一であるので、ここでは説明を省略する。
また、本実施の形態でも、対話制御部51が入力語管理手段と、検索条件設定手段とを含んでいる。
【0051】
以上説明したように、本実施の形態の対話型情報検索システムも、第1の実施の形態と同様に、車両20の利用者の発話内容を音声認識装置42により認識すると共に、認識された入力語に基づいて対話制御部51が対話制御を行いながら、音声合成装置45が利用者への対話応答を音声として提供することで、入力語に関連する情報を検索して利用者へ提供する際、対話制御部51に含まれる入力語管理手段が、一連の対話により入力される複数の入力語を管理すると共に、対話余裕度判定部52と対話制御部51に含まれる検索条件設定手段とが、入力語管理手段に対する入力状態と、ナビゲーション装置32が判定する自車両の走行状態とに基づいて、情報の検索条件を設定することで、利用者の発話内容に応じて対話内容を遷移させながら、入力済みの内容と自車両の走行状態に基づく利用者の負荷状況とから検索する情報の内容を選択して提供することができる。
【0052】
従って、利用者の目的や状態に応じた情報の検索及び取得が可能になると共に、情報検索において、希望の情報が検索されるまでの時間を短縮することができるという効果が得られる。また、情報センタ21側に音声認識装置42や状態管理部43、更には情報蓄積部44を設けることで、車両20側の装置の負担を減らして車両20の組立コストや部品コストを削減し、個々の車両に情報蓄積部等を設ける場合よりも総合的なコストを削減することができるという効果が得られる。
【0053】
【発明の効果】
以上の如く、本発明の対話型情報検索システムによれば、対話入力により入力された入力語に関連する情報を検索して利用者へ提供する際、入力語管理手段が、一連の対話により入力される複数の入力語を管理すると共に、検索条件設定手段が、入力語管理手段に対する入力状態に基づいて、あるいは入力語管理手段に対する入力状態と自車両の走行状態とに基づいて、情報の検索条件を設定することで、利用者の発話内容に応じて対話内容を遷移させながら、入力済みの内容と自車両の走行状態に基づく利用者の負荷状況とから検索する情報の内容を選択して提供することができる。
【0054】
従って、利用者の入力語の数(入力項目数)により検索される情報内容が決定されることで、入力項目数及びその内容に応じた情報を提供することが可能となり、利用者の目的や状態に応じた情報の検索及び取得が可能になるという効果が得られる。また、要求された複数の入力項目の中で、入力された項目が不足している場合でも、ガイダンスが変更された異なる内容からの発話誘導の回数を最小限に留めるため、情報検索において、希望の情報が検索されるまでの時間を短縮することができるという効果が得られる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の対話型情報検索システムを示すブロック図である。
【図2】同実施の形態の対話型情報検索システムの基本動作を示すフローチャートである。
【図3】同実施の形態の対話型情報検索システムの検索条件設定処理動作を示すフローチャートである。
【図4】同実施の形態の対話型情報検索システムの検索条件設定処理動作を示すフローチャートである。
【図5】同実施の形態の対話型情報検索システムにおいて定義された区間または地点を示す模式図である。
【図6】本発明の第2の実施の形態の対話型情報検索システムを示すブロック図である。
【符号の説明】
1、31 音声入力用マイク
2、42 音声認識装置(音声認識手段)
3、43 状態管理部(請求項2の対話制御手段)
4、44 情報蓄積部
5、45 音声合成装置(音声合成手段)
6、34 スピーカ
7 車両状態検出装置(走行状態判定手段)
8、35 ディスプレイ
9、36 発話トリガ用スイッチ
11、51 対話制御部(対話制御手段)
12、52 対話余裕度判定部(請求項2の検索条件設定手段)
20 車両
21 情報センタ
32 ナビゲーション装置(走行状態判定手段)
33、41 通信装置
S11〜S14、S26〜S27、S31〜S32、S36〜S38 入力語管理手段
S15〜S25、S28〜S30、S33〜S35 検索条件設定手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an interactive information retrieval system for providing information desired by a user in an interactive manner with the user.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is a voice dialogue system that enables a complicated operation of various devices to be performed in a dialogue form based on free speech. In this system, the processing unit dedicated to the interaction processing has an interaction history management unit that manages the history of the interaction, and can change the guidance of the system based on the history of the interaction. The dialogue history management unit manages the number of errors in the voice recognition unit, the number of times of re-utterance due to erroneous recognition of the voice recognition unit, and the number of timeouts in the voice recognition unit. Thus, by using the number of times as a condition, different dialog transitions are realized according to the number of errors and the number of redoes. Specifically, when the voice recognition means detects a recognition error, the number of re-utterances, when the voice recognition means outputs an erroneous recognition result, or when the user can speak. The content of the guidance can be changed depending on the number of timeouts when no utterance is made. Therefore, the discomfort of the user caused by performing the same operation a plurality of times can be reduced by providing different guidance depending on the situation (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP-A-2001-125591
[0004]
[Problems to be solved by the invention]
By the way, in the conventional system described in Patent Literature 1, although the content of the guidance is changed according to the situation, the discomfort of the user caused by performing the same operation a plurality of times can be reduced. If at least one of the plurality of requested input items is insufficient, utterance guidance from different contents whose guidance has been changed is performed many times. When trying to construct an interactive information retrieval system that provides desired information, there is a problem that it takes time until the desired information is retrieved.
[0005]
The present invention has been made in view of the above problems, and has as its object to provide an interactive information search system capable of searching for target information in a short time while changing the content of guidance according to the situation. .
[0006]
[Means for Solving the Problems]
In order to solve the above problem, an interactive information search system according to the first aspect of the present invention provides a voice recognition unit (for example, the voice recognition device 2 or the voice recognition device 42 of the embodiment) for recognizing the utterance content of a user. A dialogue control unit (for example, the dialogue control unit 11 or the dialogue control unit 51 of the embodiment) for controlling a dialogue response to the user based on the input word recognized by the voice recognition unit; And a voice synthesizing unit (for example, the voice synthesizing device 5 or the voice synthesizing device 45 of the embodiment) for providing a dialogue response to the user as voice, searching for information related to the input word and providing the information to the user. An interactive information retrieval system, wherein the interactive control means manages a plurality of input words input by a series of interactive actions (for example, from the step S11 in the embodiment). (Step S14, Steps S26 to S27, Steps S31 to S32, Steps S36 to S38) and a search condition setting means (for example, a search condition setting means for setting a search condition of the information based on an input state to the input word management means) The present embodiment is characterized in that it includes steps S15 to S25, steps S28 to S30, and steps S33 to S35 of the embodiment.
[0007]
The interactive information retrieval system having the above configuration recognizes the contents of the user's utterance by the voice recognition unit, and uses the voice synthesis unit while performing the dialog control by the dialog control unit based on the recognized input word. By providing a dialogue response to the user as voice, information related to the input word is retrieved and provided to the user. At this time, the input word management means manages a plurality of input words input by a series of dialogues, and the search condition setting means sets information search conditions based on an input state to the input word management means. Thus, it is possible to select and provide the content of the information to be searched from the input content, while changing the content of the dialog according to the utterance content of the user.
[0008]
According to a second aspect of the present invention, there is provided an interactive information search system, comprising: a voice recognition unit (for example, the voice recognition device 2 or the voice recognition device 42 of the embodiment) for recognizing the utterance content of a user of the own vehicle; A dialogue control unit (for example, the state management unit 3 or the state management unit 43 of the embodiment) for controlling a dialogue response to the user based on the input word recognized by the unit; and a dialogue response to the user. (For example, the voice synthesizing device 5 or the voice synthesizing device 45 according to the embodiment) that provides the vehicle as a voice, and running state determining means (for example, the vehicle state detecting device according to the embodiment) that determines the running state of the vehicle. 7, or a navigation device 32), and searches for information related to the input word and provides the information to the user. Input word management means (for example, steps S11 to S14, step S26 to step S27, step S31 to step S32, step S36 to step S38 of the embodiment) for managing a plurality of the input words input in a story; Search condition setting means for setting a search condition for the information based on an input state to the input word management means and a traveling state of the host vehicle determined by the traveling state determination means (for example, from step S15 to step S25, step S28 to step S30, step S33 to step S35, and the dialog margin determination unit 12 or the dialog margin determination unit 52).
[0009]
The interactive information retrieval system having the above configuration recognizes the utterance contents of the user of the own vehicle by the voice recognition unit, and performs the voice synthesis while the dialog control unit performs the dialog control based on the recognized input word. The means provides a dialogue response to the user as voice, so that information related to the input word is retrieved and provided to the user. At this time, the input word management means manages a plurality of input words input by a series of dialogues, and the search condition setting means determines the input state of the input word management means and the running state of the own vehicle determined by the traveling state determination means. By setting information search conditions based on the running state, the dialogue contents are changed according to the utterance contents of the user, and the user's load condition based on the input contents and the running state of the own vehicle. And the content of the information to be searched can be selected and provided.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First Embodiment)
FIG. 1 is a block diagram showing an interactive information search system according to the first embodiment of this invention. In FIG. 1, a voice input microphone 1 is voice input means for inputting a user voice, and a user voice input through the voice input microphone 1 is input to a voice recognition device 2. Is done.
The voice recognition device 2 performs voice recognition by comparing a voice input by the user with a predetermined voice recognition dictionary, and outputs a recognition result to the state management unit 3.
[0011]
The state management unit 3 receives a voice input from the voice input microphone 1 via the voice recognition device 2 or an operation unit (a touch panel provided on a display 8 described later) in accordance with guidance (voice, image information) according to the dialogue scenario. Etc.), the processing unit causes the vehicle user to perform device operation and information search. The dialogue scenario and information provided to the user are stored in the information storage unit 4.
The speech synthesizing device 5 is a speech synthesizing unit that notifies the guidance output by the state management unit 3 and information to be provided to the user by a synthetic voice in a dialogue with the user. The synthesized speech is output from the speaker 6.
[0012]
The state management unit 3 includes a navigation device equipped with a GPS (Global Positioning System), a speed sensor for detecting the running speed of the vehicle, and a sensor provided for the steering and brakes. A vehicle state detection device 7 for detecting a traveling state and a driving state of the vehicle including a speed, a driving operation of a user, and the like is connected, and the state management unit 3 updates the position information, the traveling speed, and the driving state of the vehicle at any time. Can be obtained.
Further, the state management unit 3 displays the guidance output by the state management unit 3 and information provided to the user as image information in the dialogue with the user, and allows the user to input necessary items. A display 8 having a touch panel and an utterance trigger switch 9 for voice input are connected.
[0013]
In addition, the state management unit 3 controls the dialogue with the user based on a predetermined dialogue scenario, and uses the vehicle based on the running state and driving state of the vehicle detected by the vehicle state detection device 7. And a dialog margin determining unit 12 for determining a margin for a dialog of the user. In addition, the dialog margin determination unit 12 includes, in addition to the information such as the traveling position and the traveling speed of the vehicle detected by the vehicle state detection device 7, a speech recognition rate in the speech recognition device 2, a noise level during speech recognition, and state management. Using the response response at the time of dialogue in the unit 3 and information such as whether or not the dialogue has been established, the margin of the user for the dialogue is determined.
[0014]
(basic action)
Next, the basic operation of the interactive information search system according to the present embodiment will be described with reference to the drawings. FIG. 2 is a flowchart showing a basic operation of the interactive information search system according to the present embodiment.
In FIG. 2, first, the dialogue control unit 11 of the state management unit 3 performs a search condition setting process for setting information search conditions based on input words extracted from the utterance content of the vehicle user (step S1). . The details of the search condition setting process will be described later.
Next, the dialog margin determination unit 12 of the state management unit 3 determines whether or not the information such as the traveling position and the traveling speed of the vehicle acquired by the vehicle state detection device 7 is used. Using the noise level, the response at the time of the dialogue detected by the dialogue control unit 11 and information such as whether or not the dialogue is established, a margin for the user's dialogue (dialogue margin) is calculated, and the dialogue margin is calculated. The vehicle load (driving load and the like) on the user of the vehicle is determined based on the vehicle load (step S2).
[0015]
Then, the dialog margin determination unit 12 determines whether the vehicle load (driving load or the like) for the user of the vehicle based on the dialog margin is higher than a predetermined value (step S3), and the vehicle load for the vehicle user. If (operating load, etc.) is higher than the predetermined value (YES in step S3), the information search range based on the search condition set according to the user's requirement is set wider than the requirement according to the load state, and state management is performed. The unit 3 executes a search process (Step S4).
On the other hand, if the vehicle load (driving load or the like) on the user of the vehicle is lower than the predetermined value in step S3 (NO in step S3), the state management unit 3 determines the information based on the search condition set by the user's requirements. A search process for a search range is executed (step S5).
[0016]
(Search condition setting processing operation)
Next, a search condition setting processing operation of the interactive information search system according to the present embodiment will be described with reference to the drawings. FIGS. 3 and 4 are flowcharts showing search condition setting processing operations of the interactive information search system according to the present embodiment. In this embodiment, to simplify the description, a case will be described in which the number of input words (the number of input items) input by the user in the search condition setting processing operation is three.
3 and 4, first, the dialogue control unit 11 of the state management unit 3 uses the speech synthesizer 5 to send, for example, a message “Please tell us the section or point you want to know and the type of information” from the speaker 6. The utterance guidance is output and output (step S11).
[0017]
Next, the dialog control unit 11 obtains an input word by recognizing the voice input from the voice input microphone 1 by the user using the voice recognition device 2 (step S12), and obtains information included in the input word. The type (type), the section (posi1, posi2) or the point (posi1) is recognized (step S13).
Here, the information type (type) is the type of information to be searched, and includes, for example, traffic information, weather information (weather), and store information. Also, as shown in FIG. 5A, the section (posi1, posi2) indicates an area between two points indicated by a start point (posi1) and an end point (posi2), and the point (posi1) is shown in FIG. As shown in b), the area near the point (posi1) is shown.
[0018]
Further, it is determined whether or not the information type and any of the section or the point have been normally obtained (step S14), and if the information type and any of the section or the point have not been normally obtained (NO in step S14). , And returns to step S11 to repeat the above operation.
On the other hand, if it is determined in step S14 that the information type and either the section or the point have been normally acquired (YES in step S14), the dialog control unit 11 performs the following (A) based on the acquired input word. One of the five types of processing (E) is performed.
[0019]
(A) Search condition setting processing based on information type (type) and section (posi1, posi2).
(B) Search condition setting processing based on the section (posi1, posi2).
(C) Search condition setting processing based on information type (type) and point (posi1).
(D) Search condition setting processing based on the point (posi1).
(E) Search condition setting processing based on information type (type).
[0020]
Specifically, when the information type (type) and the section (posi1, posi2) are acquired at step S14 (step S15), the dialogue control unit 11 uses the speech synthesizer 5 to output, for example, A message "Search for% type information from% posi1 to% posi2" is output to provide input content guidance (step S16). The acquired input words are substituted for "% posi1,% posi2,% type" in the message.
[0021]
Then, for example, a message “Is it OK?” Is output to provide the content confirmation guidance (step S17), and the dialogue control unit 11 is input from the voice input microphone 1 by the user using the voice recognition device 2. The input word is acquired by recognizing the input voice (step S18), and it is determined whether or not the input word is a word indicating consent (specifically, “Yes.” Or “OK”) (step S19). .
[0022]
If the input word is not a word indicating consent in step S19 (NO in step S19), the process returns to step S11, and the above-described operation is repeated.
If the input word is a word indicating consent in step S19 (YES in step S19), the information type (type) and the section (posi1, posi2) input by the user are set as search conditions (step S19). S20).
[0023]
On the other hand, when only the section (posi1, posi2) is acquired in step S14 (step S21), the dialogue control unit 11 uses the speech synthesizer 5 to output, for example, “% posi1 to% posi2” from the speaker 6. A message "Search for information." Is output to provide input content guidance (step S22). The acquired input words are substituted for “% posi1 and% posi2” in the message. Then, the process proceeds to step S17 to execute the above operation.
[0024]
On the other hand, when the information type (type) and the point (posi1) are acquired in step S14 (step S23), the dialogue control unit 11 uses the voice synthesizing device 5 to output, for example, “near% posi1” from the speaker 6. The message "% type information is searched." Is output and input content guidance is performed (step S24). Note that the obtained input words are substituted for “% posi1 and% type” in the message.
[0025]
Then, next, for example, a message “When specifying a section, specify the end point (posi2)” is output to provide utterance guidance (step S25), and the user is asked to specify a point (posi1). The user is prompted to input an end point (posi2) corresponding to the start point.
The dialog control unit 11 obtains an input word by recognizing the voice input by the user from the voice input microphone 1 using the voice recognition device 2 (step S26), and the input word indicates the end point (posi2). It is determined whether the word is a word (step S27).
[0026]
If the input word is a word indicating the end point (posi2) in step S27 (YES in step S27), the process proceeds to step S16, and the above-described operation is performed.
If the input word is not the word indicating the end point (posi2) in step S27 (NO in step S27), the process proceeds to step S20, and the information type (type) and the point (posi1) input by the user are searched. The condition is set (step S20).
[0027]
On the other hand, if only the point (posi1) is acquired in step S14 (step S28), the dialogue control unit 11 searches the speaker 6 for information such as "% posi1" using the speech synthesizer 5. . "Is output and input content guidance is performed (step S29). Note that the obtained input word is substituted for “% posi1” in the message.
[0028]
Then, next, for example, a message “When specifying a section, specify the end point (posi2)” is output to perform utterance guidance (step S30), and the point (posi1) is provided to the user. The user is prompted to input an end point (posi2) corresponding to the start point.
The dialog control unit 11 uses the voice recognition device 2 to recognize the voice input by the user from the voice input microphone 1 to obtain an input word (step S31), and the input word indicates an end point (posi2). It is determined whether the word is a word (step S32).
[0029]
If the input word is a word indicating the end point (posi2) in step S32 (YES in step S32), the process proceeds to step S22, and the above-described operation is performed.
If the input word is not the word indicating the end point (posi2) in step S32 (NO in step S32), the process proceeds to step S20, and the point (posi1) input by the user is set as a search condition (step S32). S20).
[0030]
On the other hand, when only the information type (type) is acquired in step S14 (step S33), the dialogue control unit 11 searches the speaker 6 for, for example, “% type information” using the speech synthesizer 5. Is output to provide input content guidance (step S34). Note that the obtained input word is substituted for “% type” in the message.
[0031]
Then, for example, a message “Specify the start point (posi1) and end point (posi2) when specifying a section, and specify the point (posi1) when specifying a point” is output, and the utterance guidance is performed. Guidance is provided (step S35), and the dialogue control unit 11 uses the voice recognition device 2 to recognize the voice input from the voice input microphone 1 by the user and obtain an input word (step S36).
Then, first, it is determined whether or not the input word is a word indicating a section including the start point (posi1) and the end point (posi2) (step S37).
[0032]
If the input word is a word indicating a section including the start point (posi1) and the end point (posi2) in step S37 (YES in step S37), the process proceeds to step S16 to execute the above-described operation.
If the input word is not the word indicating the section including the start point (posi1) and the end point (posi2) in step S37 (NO in step S37), the dialog control unit 11 determines that the input word input by the user is It is determined whether the word is a word indicating the point (posi1) (step S38).
[0033]
If the input word is a word indicating the point (posi1) in step S38 (YES in step S38), the process proceeds to step S24, and the above-described operation is performed.
If the input word is not the word indicating the point (posi1) in step S38 (NO in step S38), the process proceeds to step S20, and the information type (type) input by the user is set as the search condition ( Step S20).
[0034]
In the present embodiment, the dialog control unit 11 includes an input word management unit and a search condition setting unit. More specifically, Steps S11 to S14, Steps S26 to S27, Steps S31 to S32, and Steps S36 to S38 of FIGS. 3 and 4 correspond to the input word management means. Steps S15 to S25, steps S28 to S30, and steps S33 to S35 correspond to search condition setting means.
[0035]
As described above, in the interactive information search system according to the present embodiment, the speech recognition device 2 recognizes the utterance content of the user of the vehicle, and the dialog control unit 11 performs the dialog based on the recognized input word. While performing the control, the speech synthesizer 5 provides the dialogue response to the user as a voice, so that when the information related to the input word is retrieved and provided to the user, the input word included in the dialogue control unit 11 is included. The management unit manages a plurality of input words input by a series of dialogues, and the dialog margin determination unit 12 and the search condition setting unit included in the dialogue control unit 11 determine an input state to the input word management unit, By setting search conditions for information based on the traveling state of the own vehicle determined by the vehicle state detection device 7, the contents of the input and the own vehicle can be changed while transiting the dialog contents according to the utterance contents of the user. Traveling Select the contents of the information to be retrieved from the load status of the user based on the state can provide.
[0036]
Therefore, the information content to be searched is determined based on the number of input words (the number of input items) of the user, so that it is possible to provide information corresponding to the number of input items and the content thereof, and the purpose of the user and the like. An effect is obtained that information can be searched and obtained according to the state. In addition, even if the input item is insufficient among the plurality of requested input items, in order to minimize the number of utterance guidance from different contents whose guidance has been changed, The time required until the information is searched can be shortened.
[0037]
(Second embodiment)
FIG. 6 is a block diagram illustrating an interactive information search system according to the second embodiment of this invention. The interactive information search system according to the second embodiment is different from the interactive information search system according to the first embodiment in that the interactive information search system includes a device provided only on the vehicle side. And a device for controlling the dialogue are provided on an information center side connected to the vehicle by wireless communication.
In FIG. 6, a voice input microphone 31 is provided on the vehicle 20 side and is voice input means for inputting voice of a user of the vehicle 20, and a user input via the voice input microphone 31. Is input to the navigation device 32.
[0038]
The navigation device 32 has a function of interfacing with a user, a speed sensor for detecting a running speed of the GPS (Global Positioning System) or the vehicle 20, a sensor provided for a steering wheel, a brake, and the like, and the like. The navigation device 32 is a vehicle state detection device that detects a traveling position and a traveling state of the vehicle 20 including a traveling position and a traveling speed of the vehicle 20, a driving operation of a user, and the like. , Operating conditions and the like.
[0039]
The navigation device 32 is connected with a communication device 33, a speaker 34, and a display 35 provided with a touch panel for the user to input necessary items. The user's voice input from the voice input microphone 31 is connected to the navigation device 32. Or an input content from an operation unit such as a touch panel is transmitted to the information center 21 via a communication device 33 capable of connecting a wireless communication line to the information center, while the communication scenario received by the communication device 33 from the information center 21 is transmitted. (Voice, image information) and information (voice, image information) provided to the user are output from the speaker 34 via the navigation device 32, and the image information is displayed on the display 35. . Note that the navigation device 32 is also connected to an utterance trigger switch 36 at the time of voice input in a dialog with the user.
[0040]
On the other hand, the information center 21 connected to the vehicle 20 by wireless communication is provided with a communication device 41 capable of connecting the vehicle 20 to a wireless communication line, and a user's voice received from the vehicle 20 via the communication device 41 is Is input to the voice recognition device 42. The voice recognition device 42 performs voice recognition by comparing the user's voice received from the vehicle 20 with a predetermined voice recognition dictionary, and outputs a recognition result to the state management unit 43.
[0041]
Further, the state management unit 43 inputs a voice input from the vehicle 20 via the communication device 41 and the voice recognition device 42 or receives the voice of the vehicle 20 received by the communication device 41 according to guidance (voice, image information) according to the dialogue scenario. A processing unit that allows a user of the vehicle 20 to perform a device operation and information search by an input from an operation unit (such as a touch panel). A dialog scenario and information provided to the user are stored in an information storage unit 44. ing. The information center 21 can connect a plurality of vehicles 20 to a wireless communication line.
[0042]
Further, the state management unit 43 will be described in detail. The state management unit 43 includes a dialogue control unit 51 that controls a dialogue with a user based on a predetermined dialogue scenario, and a driving state and driving state of the vehicle received from the vehicle 20. A dialog margin determining unit 52 that determines a margin for a user's dialog based on the state. Note that the dialog margin determination unit 52 includes, in addition to the information such as the traveling position and the traveling speed of the vehicle received from the vehicle 20, the speech recognition rate in the speech recognition device 42, the noise level during speech recognition, and the conversation in the state management unit 43. A margin of the user's dialogue is also determined using the response at the time and information such as whether the dialogue has been established.
[0043]
The voice synthesizer 45 is a voice synthesizer that notifies the guidance output by the state management unit 43 and information provided to the user by a synthetic voice in a dialogue with the user of the vehicle 20. The synthesized voice generated by 45 is transmitted to the vehicle 20 via the communication device 41, received by the communication device 33 in the vehicle 20, and output from the speaker 34 via the navigation device 32.
[0044]
(basic action)
Next, the operation of the interactive information search system according to the present embodiment will be described. The operation of the interactive information search system according to the present embodiment is such that the voice of the user of the vehicle 20 is transmitted to the information center 21 by wireless communication. Except that the synthesized speech and image information relating to the guidance and information provided to the user along with the dialog scenario are transmitted from the information center 21 to the vehicle 20 and output to the user. There is basically no difference from the interactive information search system of the first embodiment.
[0045]
That is, the basic operation of the interactive information search system according to the present embodiment is as follows. First, the interactive control unit 51 of the state management unit 43 searches for information based on the input words extracted from the utterance contents of the user of the vehicle 20. Perform search condition setting processing for setting conditions.
Next, in addition to the information such as the travel position and the travel speed of the vehicle acquired by the navigation device 32, the dialog margin determination unit 52 of the state management unit 43 determines the speech recognition rate of the speech recognition device 42 and the noise level at the time of speech recognition. In addition, the information processing apparatus calculates a user's margin for interaction (interaction margin) using information such as a response response at the time of interaction detected by the interaction control unit 51 and whether or not the interaction is established, and based on the interaction margin. Then, the vehicle load (driving load and the like) on the user of the vehicle is determined.
[0046]
Then, the dialog margin determination unit 52 determines whether the vehicle load (driving load or the like) for the vehicle user based on the dialog margin is higher than a predetermined value, and determines whether the vehicle load (driving load or the like) for the vehicle user. ) Is higher than the predetermined value, the information search range based on the search condition set by the user's requirement is set wider than the requirement according to the load state, and the state management unit 43 executes the search processing.
When the vehicle load (driving load or the like) for the user of the vehicle is lower than a predetermined value, the state management unit 43 executes a search process of an information search range based on a search condition set according to a requirement of the user.
[0047]
(Search condition setting processing operation)
On the other hand, in the search condition setting operation of the interactive information search system according to the present embodiment, first, the dialogue control unit 51 of the state management unit 43 uses the speech synthesizer 45 to output, for example, Please tell us the section or point you want and the type of information. "
Next, the dialogue control unit 51 acquires the voice input from the voice input microphone 31 by the user of the vehicle 20 via the communication device 33 and the communication device 41, and uses the voice recognition device 42 to The input word is acquired by recognizing the voice input by (1), and the information type (type), section (posi1, posi2) or point (posi1) included in the input word is recognized.
[0048]
Also, it is determined whether or not any of the information type and the section or the point has been successfully obtained. repeat.
On the other hand, when either the information type and the section or the point have been normally acquired, the dialog control unit 51 performs the following five types of processing based on the acquired input words, as in the first embodiment. Do one of:
[0049]
(A) Search condition setting processing based on information type (type) and section (posi1, posi2)
(B) Search condition setting processing based on the section (posi1, posi2)
(C) Search condition setting processing based on information type (type) and point (posi1)
(D) Search condition setting processing based on the point (posi1)
(E) Search condition setting processing based on information type (type)
[0050]
As described above, the procedure of the five types of search condition setting processing performed by the dialogue control unit 51 is such that the dialogue control unit 51 uses the voice synthesizer 45 to send a message used for guidance to the speaker 34 of the vehicle 20. And the voice input from the voice input microphone 31 by the user of the vehicle 20 via the communication device 33 and the communication device 41, and is input by the user using the voice recognition device 42. Except for recognizing the spoken voice, it is the same as the five types of search condition setting processing performed by the dialogue control unit 11 of the first embodiment, and a description thereof will be omitted.
Further, also in the present embodiment, the dialog control unit 51 includes an input word management unit and a search condition setting unit.
[0051]
As described above, the interactive information retrieval system of the present embodiment also recognizes the utterance content of the user of the vehicle 20 by the speech recognition device 42 and recognizes the recognized input as in the first embodiment. When the dialogue control unit 51 performs the dialogue control based on the word, and the speech synthesizer 45 provides the dialogue response to the user as a voice, the information related to the input word is searched and provided to the user. The input word management unit included in the dialog control unit 51 manages a plurality of input words input by a series of dialogs, and the dialog margin determination unit 52 and the search condition setting unit included in the dialog control unit 51 include By setting search conditions for information based on the input state to the input word management means and the traveling state of the own vehicle determined by the navigation device 32, the content of the dialogue is changed according to the utterance content of the user. Reluctant, it can be provided by selecting the contents of the search information from the load status of the user based on the running state of the entered contents and the vehicle.
[0052]
Therefore, it is possible to search and acquire information according to the purpose and state of the user, and it is possible to shorten the time required for searching for desired information in the information search. In addition, by providing the voice recognition device 42, the state management unit 43, and the information storage unit 44 on the information center 21 side, the burden on the device on the vehicle 20 side is reduced, and the assembly cost and parts cost of the vehicle 20 are reduced. The effect is obtained that the total cost can be reduced as compared with the case where the information storage unit or the like is provided in each vehicle.
[0053]
【The invention's effect】
As described above, according to the interactive information search system of the present invention, when searching for information related to the input word input by the interactive input and providing the information to the user, the input word management unit performs input by a series of dialogs. And a search condition setting means for searching for information based on an input state to the input word management means or based on an input state to the input word management means and a traveling state of the own vehicle. By setting conditions, the content of the information to be searched is selected based on the input content and the user's load status based on the running state of the own vehicle while transitioning the dialog content according to the user's utterance content. Can be provided.
[0054]
Therefore, the information content to be searched is determined based on the number of input words (the number of input items) of the user, so that it is possible to provide information corresponding to the number of input items and the content thereof, and the purpose of the user and the like. An effect is obtained that information can be searched and obtained according to the state. In addition, even if the input item is insufficient among the plurality of requested input items, in order to minimize the number of utterance guidance from different contents whose guidance has been changed, The time required until the information is searched can be shortened.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an interactive information search system according to a first embodiment of this invention.
FIG. 2 is a flowchart showing a basic operation of the interactive information search system according to the embodiment;
FIG. 3 is a flowchart showing a search condition setting processing operation of the interactive information search system of the embodiment.
FIG. 4 is a flowchart showing a search condition setting processing operation of the interactive information search system of the embodiment.
FIG. 5 is a schematic diagram showing sections or points defined in the interactive information search system according to the embodiment;
FIG. 6 is a block diagram illustrating an interactive information search system according to a second embodiment of this invention.
[Explanation of symbols]
1,31 Voice input microphone
2,42 Speech recognition device (speech recognition means)
3, 43 state management unit (interaction control means of claim 2)
4,44 Information storage unit
5, 45 Voice synthesis device (voice synthesis means)
6, 34 speakers
7 Vehicle state detection device (running state determination means)
8,35 display
9,36 Utterance trigger switch
11, 51 Dialogue control unit (dialog control means)
12,52 Dialogue margin determination unit (search condition setting means of claim 2)
20 vehicles
21 Information Center
32 Navigation device (running state determination means)
33, 41 communication device
S11 to S14, S26 to S27, S31 to S32, S36 to S38 Input word management means
S15-S25, S28-S30, S33-S35 Search condition setting means

Claims (2)

利用者の発話内容を認識する音声認識手段と、
前記音声認識手段により認識された入力語に基づいて、前記利用者への対話応答を制御する対話制御手段と、
前記利用者への対話応答を音声として提供する音声合成手段と
を備え、前記入力語に関連する情報を検索して前記利用者へ提供する対話型情報検索システムであって、
前記対話制御手段が、
一連の対話により入力される複数の前記入力語を管理する入力語管理手段と、
前記入力語管理手段に対する入力状態に基づいて、前記情報の検索条件を設定する検索条件設定手段と
を備えたことを特徴とする対話型情報検索システム。
Voice recognition means for recognizing the utterance content of the user;
Dialogue control means for controlling a dialogue response to the user based on the input word recognized by the voice recognition means,
A voice synthesizing unit that provides a dialogue response to the user as voice, comprising:
The dialogue control means,
Input word management means for managing a plurality of the input words input by a series of dialogues,
A search condition setting unit configured to set a search condition of the information based on an input state of the input word management unit.
自車両の利用者の発話内容を認識する音声認識手段と、
前記音声認識手段により認識された入力語に基づいて、前記利用者への対話応答を制御する対話制御手段と、
前記利用者への対話応答を音声として提供する音声合成手段と、
前記自車両の走行状態を判定する走行状態判定手段と
を備え、前記入力語に関連する情報を検索して前記利用者へ提供する対話型情報検索システムであって、
前記対話制御手段が、
一連の対話により入力される複数の前記入力語を管理する入力語管理手段と、
前記入力語管理手段に対する入力状態と前記走行状態判定手段により判定された前記自車両の走行状態とに基づいて、前記情報の検索条件を設定する検索条件設定手段と
を備えたことを特徴とする対話型情報検索システム。
Voice recognition means for recognizing the utterance content of the user of the vehicle;
Dialogue control means for controlling a dialogue response to the user based on the input word recognized by the voice recognition means,
Voice synthesis means for providing an interactive response to the user as voice,
An interactive information search system comprising: a traveling state determination unit configured to determine a traveling state of the vehicle; and searching for information related to the input word and providing the information to the user.
The dialogue control means,
Input word management means for managing a plurality of the input words input by a series of dialogues,
A search condition setting unit configured to set a search condition of the information based on an input state to the input word management unit and a traveling state of the host vehicle determined by the traveling state determination unit. Interactive information retrieval system.
JP2003136078A 2003-05-14 2003-05-14 Interactive information retrieval system Expired - Fee Related JP4330924B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003136078A JP4330924B2 (en) 2003-05-14 2003-05-14 Interactive information retrieval system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003136078A JP4330924B2 (en) 2003-05-14 2003-05-14 Interactive information retrieval system

Publications (2)

Publication Number Publication Date
JP2004341724A true JP2004341724A (en) 2004-12-02
JP4330924B2 JP4330924B2 (en) 2009-09-16

Family

ID=33526157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003136078A Expired - Fee Related JP4330924B2 (en) 2003-05-14 2003-05-14 Interactive information retrieval system

Country Status (1)

Country Link
JP (1) JP4330924B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007047882A (en) * 2005-08-05 2007-02-22 Honda Motor Co Ltd Information retrieval device
JP2009535698A (en) * 2006-04-28 2009-10-01 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Dynamic data navigation
JP2015118709A (en) * 2013-12-18 2015-06-25 ハーマン インターナショナル インダストリーズ インコーポレイテッド Voice recognition query response system
CN108376057A (en) * 2017-02-01 2018-08-07 丰田自动车株式会社 The computer readable storage medium of board information terminal and storage information search program
US20190115020A1 (en) * 2016-03-23 2019-04-18 Clarion Co., Ltd. Server system, information system, and in-vehicle apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007047882A (en) * 2005-08-05 2007-02-22 Honda Motor Co Ltd Information retrieval device
JP4689401B2 (en) * 2005-08-05 2011-05-25 本田技研工業株式会社 Information retrieval device
JP2009535698A (en) * 2006-04-28 2009-10-01 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Dynamic data navigation
JP4945633B2 (en) * 2006-04-28 2012-06-06 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Dynamic data navigation
US8856105B2 (en) 2006-04-28 2014-10-07 Hewlett-Packard Development Company, L.P. Dynamic data navigation
JP2015118709A (en) * 2013-12-18 2015-06-25 ハーマン インターナショナル インダストリーズ インコーポレイテッド Voice recognition query response system
US20190115020A1 (en) * 2016-03-23 2019-04-18 Clarion Co., Ltd. Server system, information system, and in-vehicle apparatus
US10896676B2 (en) * 2016-03-23 2021-01-19 Clarion Co., Ltd. Server system, information system, and in-vehicle apparatus
CN108376057A (en) * 2017-02-01 2018-08-07 丰田自动车株式会社 The computer readable storage medium of board information terminal and storage information search program

Also Published As

Publication number Publication date
JP4330924B2 (en) 2009-09-16

Similar Documents

Publication Publication Date Title
JP6400109B2 (en) Speech recognition system
JP5637131B2 (en) Voice recognition device
US8903651B2 (en) Information terminal, server device, searching system, and searching method thereof
JP4260788B2 (en) Voice recognition device controller
US7822613B2 (en) Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus
US20080059175A1 (en) Voice recognition method and voice recognition apparatus
US20100229116A1 (en) Control aparatus
JP2008102384A (en) Voice input support program, voice input support device and voice input support method
JP3842497B2 (en) Audio processing device
JP5986468B2 (en) Display control apparatus, display system, and display control method
JP2004341724A (en) Interactive information retrieval system
JP4770374B2 (en) Voice recognition device
JP2004233676A (en) Interaction controller
JP4093394B2 (en) Voice recognition device
JP2002062893A (en) On-vehicle navigation device
JP2000020086A (en) Speech recognition apparatus, navigation system using this aperture and vending system
JP6987447B2 (en) Speech recognition device
JP2008310344A (en) Presentation device and presentation method
JP2005053331A (en) Information presenting device for vehicular instrument
JP2003005781A (en) Controller with voice recognition function and program
WO2011030404A1 (en) Operating system and operating method
JP2008233009A (en) Car navigation device, and program for car navigation device
WO2019058453A1 (en) Voice interaction control device and method for controlling voice interaction
JP7274901B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
JP2008145676A (en) Speech recognition device and vehicle navigation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090609

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090617

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120626

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130626

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130626

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140626

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees