JP2015028566A - 応答制御システム、車載器、およびセンター - Google Patents

応答制御システム、車載器、およびセンター Download PDF

Info

Publication number
JP2015028566A
JP2015028566A JP2013158282A JP2013158282A JP2015028566A JP 2015028566 A JP2015028566 A JP 2015028566A JP 2013158282 A JP2013158282 A JP 2013158282A JP 2013158282 A JP2013158282 A JP 2013158282A JP 2015028566 A JP2015028566 A JP 2015028566A
Authority
JP
Japan
Prior art keywords
response
center
voice data
answer
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013158282A
Other languages
English (en)
Other versions
JP6281202B2 (ja
Inventor
星野 賢一
Kenichi Hoshino
賢一 星野
健浩 阿部田
Takehiro Abeta
健浩 阿部田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013158282A priority Critical patent/JP6281202B2/ja
Publication of JP2015028566A publication Critical patent/JP2015028566A/ja
Application granted granted Critical
Publication of JP6281202B2 publication Critical patent/JP6281202B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】複数の応答システムが利用可能な構成において、ユーザは音声入力する際に当該音声入力に対する回答を求める応答システムを選択するためのユーザ操作を省略可能な応答制御システム、車載器、およびセンターを提供する。
【解決手段】回答側判定部32Aが第1センター3による音声認識処理の結果に基づいて第1センター3及び第2センター4のうち、いずれのセンターが入力音声データに対して応答するべきかを判定する。そして、回答出力部18Dは、回答側判定部32Aにおいて応答するべきであると判定された方のセンターからの応答音声データをスピーカ14に音声出力させる。
【選択図】図1

Description

本発明は、ユーザの入力した音声データに対して自動応答する技術に関する。
従来、ユーザから入力された音声データに対して音声認識処理を実施し、その認識処理結果に応じた種々の情報をユーザに提供する応答システムがある(例えば特許文献1)。この特許文献1に開示の応答システムは、車載器、及び車両外部に設けられて当該車載器と無線通信を実施する情報センターを備えている。
特許文献1に開示の応答システムでは、車載器は、ユーザの音声データを取得して情報センターに当該音声データを送信する。一方、情報センターは、当該音声データに対して音声認識処理を実施して、その認識処理結果に応じた応答音声データを車載器に返送する。そして、応答音声データの返送を受けた車載器では、当該応答音声データに従った音声出力を行う。
一方、携帯電話機においても、携帯電話会社の管理する情報センターと携帯電話機が無線通信することによって、ユーザの音声入力に対して種々の情報を提供する応答システムが普及してきている。なお、携帯電話機に限らず、様々な場面、環境においてユーザの入力した音声に対して自動応答する応答システムは利用されつつある。
特開2004−348658号公報
近年では、車載器と携帯電話機とを連携させて動作させる技術も開発されている。このように、車載器と携帯電話機とを連携して動作させる場合には、車載器を介して複数の応答システムが利用可能な構成となる。
しかしながら、このような構成ではユーザは、車載器を操作するなどして、複数の応答システムのうち、目的に応じた応答システムを選択してから音声入力をしなければならない。また、いったん応答システムを選択した後に、異なる応答システムを利用したい場合には、利用する応答システムを切り替えるための操作をしなければならない。
本発明は、この事情に基づいて成されたものであり、その目的とするところは、ユーザの音声入力に対する応答を行う応答システムを複数利用可能な場合に、応答を行わせる応答システムをユーザが選択する手間を省くことを可能にする応答制御システム、車載器、およびセンターを提供することにある。
その目的を達成するための応答制御システムの発明は、マイク(12)を介してユーザによる入力音声を入力音声データとして取得する音声取得部(18A)と、音声取得部が取得した入力音声データに対して音声認識処理を実施し、当該音声認識処理の結果に基づいて、入力音声データに対する応答となる第1の応答音声データを生成する第1の応答システム(3)と、音声取得部が取得した入力音声データに対して音声認識処理を実施し、当該音声認識処理の結果に基づいて、入力音声データに対する応答となる音声データである第2の応答音声データを生成する第2の応答システム(4)と、第1の応答システムによる音声認識処理の結果に基づいて、第1、第2の応答システムのうち、いずれの応答システムが入力音声データに対して応答するべきかを判定する回答側システム判定部(32A)と、回答側システム判定部において入力音声データに対して応答するべきと判定された方の応答システムである回答側応答システムが生成した応答音声データをスピーカ(14)に音声出力させる回答出力部(18D)と、を備えることを特徴とする。
以上の構成では、回答側システム判定部が第1の応答システムによる音声認識処理の結果に基づいて第1、第2の応答システムのうち、いずれの応答システムが入力音声データに対して応答するべきかを判定する。そして、回答出力部は、回答判定部において応答するべきであると判定された方の応答システムからの応答音声データをスピーカに音声出力させる。
このような構成によれば、回答側システム判定部が自動的に入力音声データの内容に応じた応答システムを選択するため、ユーザは質問する度に当該質問に対する回答を求める応答システムを選択する手間を省略することができ、ユーザの利便性を向上させる事ができる。
また、車載器の発明は、前記音声取得部と、前記回答出力部と、を備えることを特徴とする。
センターの発明は、前記第1の応答システムとしての機能を担うとともに、前記回答側システム判定部を備えることを特徴とする。
本実施形態にかかる応答制御システム100の概略的な構成の一例を示すブロック図である。 第1センター3の概略的な構成の一例を示すブロック図である。 制御部18の概略的な構成の一例を示すブロック図である。 制御部18が実施する応答切替処理の流れを示すフローチャートである。 第1センター側制御部32が実施する第1センター応答処理の流れを示すフローチャートである。 表示装置13の表示画面の例である。 変形例4の応答制御システム100Aの概略的な構成の一例を示すブロック図である。
以下、本発明の実施形態を図1〜図6を用いて説明する。図1は、本実施形態に係る応答制御システム100の概略的な構成の一例を示す図である。図1に示すように応答制御システム100は、ナビゲーション装置1、携帯電話機2、第1センター3、および第2センター4を備えている。ナビゲーション装置1と第1センター3、ナビゲーション装置1と携帯電話機2、携帯電話機2と第2センター4とは、それぞれ公知の無線通信技術を用いてデータの送受信を実施する。
本実施形態において第1センター3および第2センター4がそれぞれ応答システムとして動作し、ナビゲーション装置1は各応答システムを利用するためのユーザインターフェース(背景技術欄および請求項に記載の車載器)として動作する。第1センター3が請求項に記載の第1の応答システムに、第2センター4が請求項に記載の第2の応答システムに相当する。なお、以降ではナビゲーション装置1を搭載している車両を自車両と呼ぶ。
第1センター3は、一例として自動車会社の情報センターであって、ナビゲーション装置の操作や、渋滞情報、自車両の操作に関連する質問に対応したり、ナビゲーション装置1の機能を利用するための音声入力による命令(これを命令コマンドとする)に対応する。第1センター3の動作の概要としては、ナビゲーション装置1から送信されてくる音声データをもとに、音声認識処理を実施することでユーザの質問内容を解析する。そして、ユーザの質問に対して自センターが応答すべきかどうかを判定するとともに、ユーザの質問への応答となる応答音声データを生成してナビゲーション装置1に返送する。例えば、第1センター3は、ユーザの「コンビニはどこ?」という質問に対し、ユーザの現在地から最寄りのコンビニの位置を教えてくれるものである。以降では、この第1センター3の構成について図2を用いてより詳細に説明する。
図2に示すように第1センター3は、第1センター側通信部31、第1センター側制御部32、音声認識部33、音声認識データベース(以降、データベースはDBと略す)34、第1センター側メモリ35、および音声合成部36を備えている。第1センター側通信部31、第1センター側制御部32、音声認識部33、音声認識DB34、第1センター側メモリ35、音声合成部36は、それぞれ例えば公知の通信規格に準拠したバス37を介して相互通信可能に接続されている。
第1センター側通信部31は、データの送受信をするための変調/復調などの種々の信号処理を実施する機能を備え、例えば携帯電話網やインターネット網などのネットワークを介してナビゲーション装置1と通信を実施する。第1センター側通信部31は、ナビゲーション装置1から送られてくるデータを第1センター側制御部32に出力し、また、第1センター側制御部32から入力されるデータをナビゲーション装置1に送信する。なお、ナビゲーション装置1から第1センター3に送られてくるデータとしては、ユーザが発話した音声データの他、ナビゲーション装置1の現在地情報などがある。現在地情報などは逐次(例えば100ミリ秒毎)に送られてくるものとする。
音声認識DB34には、音声認識処理に必要なデータとして、例えば、人間の発声の小さな単位(音素)の音響特徴が記述されている音響モデル、音素の音響特徴と単語とを対応付ける認識辞書、単語間の連接関係を表現する言語モデルが格納されている。なお、本実施形態における音声認識DB34は、例えば千語から数万語に対応する大規模なデータベースであるものとする。また、音声認識DB34には、音声合成部36が応答音声データを生成するために用いる音声データも格納されている。
音声認識部33は、第1センター側制御部32から入力される入力音声データから、音声認識DB34に格納されている種々のデータを用いて、音声認識処理を実施する。音声認識処理は、公知の技術を用いればよいため、ここでの説明は省略する。音声認識処理の結果は、第1センター側制御部32に出力される。音声合成部36は、第1センター側制御部32からの指示に基づいて音声認識DB34に格納されている音声波形データを合成することで、応答音声データを生成する。生成された応答音声データは第1センター側制御部32に出力される。この第1センター3において生成される応答音声データが請求項に記載の第1の応答音声データに相当する。
第1センター側メモリ35は、書き込み可能なHDD(Hard Disk Drive)等の大容量記憶装置である。第1センター側メモリ35には、対応リスト35Aおよび応答用データ35Bが保存されている。対応リスト35Aには自センターが対応すべき質問や命令コマンドのリストが登録されている。また、応答用データ35Bは、ユーザからの質問や命令コマンドに応答するためのデータである。
例えば、応答用データ35Bには、対応リスト35Aに登録されている各質問に対応する回答や、命令コマンドに対応してナビゲーション装置1の動作を制御するための制御信号のパターンが登録されている。第1センター側制御部32は、応答用データ35Bに基づいて、ユーザの質問に対する応答音声データを返送したり、ナビゲーション装置1の動作を制御するための制御信号をナビゲーション装置1に返送したりする。
本実施形態において、応答音声データを生成するための応答用データ35Bは、応答音声データを生成するために必要な音声波形データを指定するコマンドの群とするが、これに限らない。対応リスト35Aに登録されている質問に対応する回答として予め登録してある音声データであってもよい。この場合、この音声データを応答音声データとしてナビゲーション装置1に返送すればよいため、第1センター3は音声合成部36を備える必要はない。
なお、本実施形態では第1センター側メモリ35としてHDDを用いる構成とするが、その他、DVDやフラッシュメモリなど公知の記憶媒体を用いてもよい。この第1センター側メモリ35が請求項に記載の対応リスト記憶部に相当する。
第1センター側制御部32は、コンピュータとして構成されており、周知のCPU、ROMやEEPROMなどの不揮発性メモリ、RAMなどの揮発性メモリ、I/O、及びこれらの構成を接続するバスライン(いずれも図示略)などを備えている。不揮発性メモリには、種々の処理を実行するためのプログラムが格納されている。第1センター側制御部32は、第1センター側通信部31や音声認識部33、音声合成部36が実施する処理を制御する。
例えば第1センター側制御部32は、ナビゲーション装置1から送られてくる音声データ(これを入力音声データとする)を第1センター側通信部31から取得した場合には、当該音声データを音声認識部33に出力し、音声認識部33に音声認識処理を実施させる。
そして、音声認識部33から取得する音声認識処理の結果をもとに、第1センター側メモリ35に保存されている応答用データ35Bを参照し、入力音声データに応じた応答音声データを音声合成部36に生成させる。応答音声データを音声合成部36から取得すると、当該応答音声データを第1センター側通信部31からナビゲーション装置1に送信させる。
また、第1センター側制御部32は、図2に示すように、機能ブロックとして回答側判定部32Aと、更新部32Bと、を備えている。更新部32Bは、図5に示すフローチャートのステップS219を実施する。更新部32Bについての詳細な説明は後述する。
回答側判定部32Aは、音声認識部33から取得する音声認識処理の結果と、対応リスト35Aと、から、入力音声データに対して自センターが応答すべきか否かを判定する。例えば、音声認識処理の結果、ユーザの質問がこの対応リスト35Aに登録されている範囲の質問である場合には、当該入力音声データに対して自センターが応答すべきであると判定する。
また、ユーザの質問がこの対応リスト35Aに登録されている範囲外の質問である場合には、当該入力音声データに対して自センターが応答すべきではないと判定する。判定の結果は、応答音声データの送信に先立って、判定結果信号としてナビゲーション装置1に送信する。この回答側判定部32Aが請求項に記載の回答側システム判定部に相当する。
なお、回答側判定部32Aにおいて自センターが回答すべきではないと判定された場合であっても、第1センター側制御部32は音声合成部36などと協働して「すみません。認識出来ませんでした」などの応答音声データを生成し、ナビゲーション装置1に返送する構成としておけば良い。回答側判定部32Aにおいて自センターが回答すべきではないと判定された場合の処理は、適宜設計されればよいが、何らかの応答音声データを生成してナビゲーション装置1に返送するものとする。
また、ナビゲーション装置1の動作を制御する制御信号を送信する場合でも、どのような動作をさせるのかをユーザが認識できるような応答音声データも送信するものとする。ただし、後述するように、入力音声データの内容が他のセンターからの回答を出力するように要求するものであった場合には、特に応答音声データを返送せずに、他のセンターからの回答を出力させる制御信号を送信すれば良い。
したがって、本実施形態においては、入力音声データの内容が他のセンターからの回答を出力するように要求するものであった場合を除いて、入力音声データを取得すると応答音声データを返送するものとする。もちろん、他の構成として、入力音声データの内容が命令コマンドであった場合には、応答音声データを返送しない構成としても良い。
携帯電話機2は、周知の携帯電話機であって、第2センター4とネットワークを介して通信を実施するとともに、ナビゲーション装置1が備える第2通信部17とも通信を実施する。例えば携帯電話機2は、第2通信部17から受信する信号を、携帯電話機2と第2センター4間の通信の規格に応じた信号に変換して、第2センター4に送信する。また、第2センター4から受信する信号を、携帯電話機2と第2通信部17間の通信の規格に応じた信号に変換して、第2通信部17に送信する。
第2センター4は、例えば携帯電話会社の情報センターであって、当該携帯電話会社の管理する携帯電話網を利用する携帯電話機2のユーザに対して種々のサービスを提供する。第2センター4は、回答側判定部32Aを備えていないことを除けば、第1センター3と同様の構成である。すなわち、ナビゲーション装置1から送信されてくる音声データをもとに、音声認識処理を実施することでユーザの質問内容を解析する。そして、ユーザの質問への応答となる応答音声データを生成してナビゲーション装置1に返送する。ただし、第2センター4は、回答側判定部32Aに相当する機能を備えていないため、ユーザの質問に対して自センターが応答すべきかどうかの判定は実施しない。
携帯電話会社が提供するサービスとしてスケジュール管理機能を想定した場合を例にとると、例えば、第2センター4は、ユーザの「今日の予定は?」という質問に対し、予め登録されているユーザのその日の予定を教えてくれるものである。なお、応答音声データを生成するための元となるデータ(その日のスケジュールの情報など)は、携帯電話機2と第2センター4とが種々のデータ通信を実施することで、第2センター4が取得する構成としてもよい。この第2センター4が生成する応答音声データが請求項に記載の第2の応答音声データに相当する。
ナビゲーション装置1は、車両に搭載されるものであって、一般的なナビゲーション装置と同様の経路案内を行う機能を有している他に、例えば、第1センター3や、携帯電話機2を介して第2センター4と通信を行う機能を有している。ナビゲーション装置1は、図1に示すように、トークスイッチ(以降、トークSW)11、マイクロフォン(以降、マイク)12、表示装置13、スピーカ14、メモリ15、第1通信部16、第2通信部17、および制御部18を備えている。
トークSW11は、ユーザ(運転者)が音声入力を開始する旨を指示するためのもので、例えばステアリングコラムカバーの側面部やシフトレバーの近傍などユーザが操作しやすい位置に設けられている。なお、トークSW11は一例として、いわゆるクリック方式のスイッチとし、トークSW11がユーザの操作によってオンに設定されると(すなわち、クリックされると)、オン信号を制御部18に出力する。
制御部18は、トークSW11からオン信号が入力されると、音声データを取得するための処理を実施するとともに、第1センター3および第2センター4との接続を開始する。ユーザは、トークSW11をオン操作した後、一定時間内(例えば1.5秒以内に)に発話し始めることで、その発話した音声をナビゲーション装置1に入力することができる。
なお、トークSW11を押下してから一定時間内に発話し始めた場合の、音声入力を終了するタイミングは後述するようにマイク12から入力される音声信号の電力レベルが一定閾値以下となった時とする。
マイク12は、例えば無指向性の小型マイクであり、ユーザが発話した音声や雑音などの周囲の音を集音し、電気的な音声信号に変換して、制御部18に出力する。マイク12は、例えばステアリングコラムカバーの上面部や運転席側のサンバイザー等のユーザの音声を拾いやすい位置に設けられる。
表示装置13は、制御部18からの入力に基づいてテキストや画像を表示し、種々の情報をユーザに報知する。表示装置13は、例えばインスツルメントパネルの中央、又は運転席の前方に設けられたコンビネーションメータ内等に配置されている。表示装置13は、例えばフルカラー表示が可能なものであり、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等を用いて構成することができる。
スピーカ14は、制御部18から入力された電気的な音声信号を音声(単なる音を含む)に変換して出力する。メモリ15は、種々のデータを記憶する記憶装置であり、主として、種々の通信部16、17を介して第1センター3や第2センター4から取得する応答音声データや、ユーザの音声データを保存する。メモリ15は、公知の記憶媒体を用いて構成すればよく、HDDや、比較的記憶容量の小さいリムーバブルなメモリ(例えばSDカードなど)であってもよい。
第1通信部16は、送受信アンテナ(図示略)を備え、通信網を介して、第1センター3との間で通信を行う。第1通信部16は、例えばテレマティクス通信に用いられるDCM(Data Communication Module)といった車載通信モジュールなどの様々なものを採用することができる。第1通信部16は、第1センター3から受信した信号を復調して制御部18に入力し、また、制御部18から入力されたデータを変調して第1センター3に送信する。
第2通信部17は、送受信アンテナ(図示略)を備え、携帯電話機2との間でBluetooth(登録商標)の規格に従った通信(以下、BT通信)を行うことで、情報のやり取りを行う。なお、本実施形態では、携帯電話機2と第2通信部17との間での通信を、BT通信で行う構成を示したが、必ずしもこれに限らない。例えばZigBee(登録商標)等の近距離無線通信規格やIEEE802.11等の無線LAN規格などに従った無線通信によって行う構成としてもよいし、USB通信等の有線通信によって行う構成としてもよい。第2通信部17は、携帯電話機2との通信規格に応じた変調/復調などの機能を備えていればよい。
制御部18は、通常のコンピュータとして構成されており、周知のCPU、ROMやEEPROMなどの不揮発性メモリ、RAMなどの揮発性メモリ、I/O、及びこれらの構成を接続するバスライン(いずれも図示略)などを備えている。不揮発性メモリには、種々の処理を実行するためのプログラムが格納されている。制御部18は、種々の処理を実行するための機能ブロックとして、図3に示すように、音声取得部18A、回答一時保存部18B、回答側センター設定部18C、回答出力部18D、回答フィードバック部18E、エージェント表示制御部18F、および別回答要求判定部18Gを備える。
音声取得部18Aは、トークSW11からのオン信号に基づいて、マイク12から入力される音声信号からノイズ成分を除去した音声データを取得する処理を実施する。例えば音声取得部18Aは、オン信号が入力されると、マイク12から入力される音声信号を音声データに変換可能な状態である待機状態となる。そして、待機状態となってから音声が入力されない状態が一定時間(例えば、1.5秒)以上継続すると、自動的に変換不可状態となる。一定時間内に音声が入力されているとの判定が為された場合には、音声の入力が終わったと判定されるまでのマイク12から入力される音声信号を音声データに変換する。
音声が入力されているか否か、および音声入力が終了したか否かは、公知技術を用いればよく、例えば音声信号の電力レベルが所定の閾値以上となったか否かによって判定すればよい。もちろん、このような構成においては閾値以上の電力レベルとなっている音声信号が入力された場合に、音声が入力されたと判定する。これら音声データの取得方法は、公知の技術を用いればよい。音声取得部18Aで取得した音声データは、VoIP(Voice over Internet Protocol)などの公知の技術を用いてデジタルのパケット信号に変換して第1通信部16を介して第1センター3に送信される。
回答一時保存部18Bは、第1センター3および第2センター4から受信した応答音声データをメモリ15に一時保存する。回答一時保存部18Bは、これらの音声データを受信してから、少なくとも例えば図4のステップS115でNOと判定されるまでは保存しておくものとする。この回答一時保存部18Bが請求項に記載の一時保存部に相当する。
回答側センター設定部18Cは、第1センター3から送られてくる判定結果信号に応じて、第1センター3および第2センター4のどちらから取得する応答音声データを、ユーザから入力された質問への回答としてスピーカ14から出力するかを決定する。そして、ユーザから入力された質問に回答する側のセンターを回答側センターに設定し、回答側センターに設定されていないほうのセンターを準回答側センターに設定する。
より具体的には、判定結果信号が、第1センター3が応答すべきであるという内容であった場合には、回答側センターとして第1センター3を採用し、第1センター3から取得した応答音声データを出力するように回答出力部18Dに指示する。また、判定結果信号が、第1センター3が応答すべきでないという内容であった場合には、回答側センターとして第2センター4を採用し、第2センター4から取得した応答音声データを出力するように回答出力部18Dに指示する。
なお、本実施形態ではこのように回答側センター設定部18Cにおいて、第1センター3および第2センター4のそれぞれを、回答側センターおよび準回答側センターに設定する構成とするが、この回答側センター設定部18Cは発明を実施する上で任意の要素である。回答側センターが請求項に記載の回答側応答システムに、準回答側センターが請求項に記載の準回答側応答システムにそれぞれ相当する。
回答出力部18Dは、回答側センター設定部18Cの指示またはユーザ操作に基づいて、第1センター3または第2センター4のどちらから取得した応答音声データを音声信号に変換してスピーカ14に出力し、スピーカ14に音声として出力させる。回答フィードバック部18E、エージェント表示制御部18F、別回答要求判定部18Gについては後述する。
(応答切替処理)
ここで、図4に示すフローチャートを用いて、ナビゲーション装置1の制御部18が実施する応答切替処理の流れを説明する。図4のフローチャートは、例えば自車両のイグニッションスイッチがオンされてナビゲーション装置1に電源供給されたときに開始されるものとする。
まず、ステップS101では、トークSW11からオン信号が入力された否かを判定する。トークSW11からオン信号が入力された場合には、ステップS101がYESとなってステップS103に移る。また、トークSW11からオン信号が入力されていない場合には、ステップS101がNOとなって、ステップS101に戻る。すなわち、ユーザによってトークSW11が押下されるまで待機する。
ステップS103では、制御部18は、第1センター3に接続し、第1センター3による応答システムを利用可能な状態にするとともに、携帯電話機2を介して第2センター4にも接続し、第2センター4による応答システムを利用可能な状態とする。すなわち、各応答システムは、ナビゲーション装置1から送信される音声データの受信を待機している状態とする。
また、それぞれの応答システムが利用可能な状態となると、エージェント表示制御部18Fは、表示装置13に図6(A)に示すように、それぞれの応答システムに対応するエージェントA、Bを同時に表示させる。図6中のエージェントAは、第1センター3による応答システムに対応するエージェントの画像であり、エージェントBが第2センター4による応答システムに対応するエージェントの画像である。なお、エージェントとは、架空の人物や擬人化された動物などのキャラクターである。
ある応答システムに応じたエージェントを表示する技術としては、例えば特開2006−195578に開示されている技術を適用すれば良い。ただし、特許文献1は、複数の応答システムのそれぞれに対応する複数のエージェントを表示するものではない。本実施形態のエージェント表示制御部18Fは、特許文献1などの公知の技術を用いて、それぞれの応答システムに対応するエージェント画像を生成し、それら複数のエージェントの画像を1つの画面に表示されるように合成または重畳して表示するものとする。
ステップS103での処理が終了すると、ステップS105に移る。なお、S103を実施している間も音声取得部18Aは、マイク12から音声データを取得している。
ステップS105では、マイク12からユーザによる音声が入力されたか否かを判定する。すなわち、ステップS101でトークSW11が押下されてから一定時間内にユーザからの音声が入力されなかった場合には、ステップS105がNOとなってステップS101に戻る。一方、ユーザから音声が入力された場合には、ステップS105がYESとなってステップS107に移る。ステップS107では、音声取得部18Aが取得した音声データを、VoIP技術などを用いて第1センター3および第2センター4に送信してステップS109に移る。
ステップS109では、第1センター3から送られてくる判定結果信号を、第1通信部16を介して取得して、ステップS111に移る。なお、判定結果信号を受信すると、回答側センター設定部18Cが、当該判定結果信号に基づいて、第1センター3および第2センター4をそれぞれ回答側センターまたは準回答側センターに設定する。
ステップS111では、第1センター3および第2センター4から送信される応答音声データを取得する。ここで、準回答側センターからの応答音声データは、回答一時保存部18Bによってメモリ15に一時保存される。なお、本実施形態では回答側センターからの応答音声データを取得したタイミングでステップS111からステップS113に移る構成とするが、両方のセンター3,4から応答音声データを取得してからステップS113に移る構成でもよい。
ステップS113では、回答出力部18Dが、回答側センター設定部18Cによって回答側センターからの応答音声データをスピーカ14に音声出力させる。また、回答側センターの応答音声データをスピーカ14から音声出力させるとともに、図6の(B)や(C)に示すように回答側センターに対応するエージェントを相対的に大きく表示し、かつ、当該エージェントが話しているように画像を表示させる。ステップS113を実施すると、ステップS115に移る。
なお、各センターから応答音声データとともに応答音声データの内容に対応するテキストデータも取得できる場合には、当該エージェントのそばに当該テキストを表示しても良い。当該エージェントが話しているように画像を表示させる視覚効果は適宜設計されれば良い。
ステップS115では、別回答要求判定部18Gが、ユーザから別の回答を要求する操作を受け付けたか否かを判定する。別の回答を要求する操作を受け付けた場合としては、例えば、表示装置13に積層されたタッチパネル(図示略)に対して、準回答側センターのエージェントが表示されている領域をユーザがタッチしたことを検出した場合とすればよい。
その他、ユーザは、準回答側センターに対応するエージェントの名前を音声入力することによって、別の回答を制御部18に要求してもよい。ただし、この場合、対応リスト35Aに、両センターの応答システムに対応するエージェントの名前をそれぞれ登録しておく必要がある。そして、第1センター側制御部32は、準回答側センターのエージェントの名前が呼ばれたことを検出することによって、準回答側センターの応答音声データを出力させる制御信号をナビゲーション装置1に送信する。
なお、ステップS115に遷移してから一定時間(例えば2秒)経過してもユーザから別の回答を要求する操作を受け付けていない場合には、ユーザから別の回答を要求する操作が為されなかったと判定する。
ユーザから別の回答を要求する操作を受け付けた場合には、ステップS115がYESとなってステップS117に移る。また、ユーザから別の回答を要求する操作が為されなかった場合には、ステップS115がNOとなってステップS119に移る。ステップS117では、準回答側センターからの応答音声データを、メモリ15から読み出し、スピーカ14から音声出力させる。また、準回答側センターの応答音声データをスピーカ14から音声出力するとともに、図6の(B)や(C)のように準回答側センターに対応するエージェントを相対的に大きく表示し、当該エージェントが話しているように画像を表示させる。ステップS117を実施すると、ステップS119に移る。
ステップS119では、回答フィードバック処理を実施して、再びステップS101の待機状態に戻る。この回答フィードバック処理では、判定結果信号の内容、すなわち、回答側判定部32Aの判定結果が正しかったか否かを第1センター3に送信する。例えば、ステップS115においてユーザから別の回答を要求する操作が為されなかった場合には、回答側判定部32Aの判定が正しかったとする内容の信号を第1センター3に送信する。一方、ステップS115においてユーザから別の回答を要求する操作を受け付けた場合には、回答側判定部32Aの判定が誤っていたとする内容の信号を第1センター3に送信する。
なお、本実施形態においては、いったんステップS103を実施した場合には、以降においても常に第1センター3および第2センター4との接続を維持するとともに、表示装置13にも図6の(A)を表示させておく構成とする。接続を維持する場合には一定周期(例えば200ミリ秒ごと)で接続が維持できているかを確認するための信号を送受信すればよい。そして、接続が切断している状態において、オン信号が入力された場合には再度ステップS103を実施すれば良い。もちろん、他の構成として、ステップS119を実施する度に、第1センター3および第2センター4との接続を切断する構成でもよい。
(第1センター応答処理)
次に、ナビゲーション装置1が実施する応答切替処理における各処理を受けて第1センター側制御部32が実施する第1センター応答処理について、図5に示すフローチャートを用いて説明する。図5に示すフローチャートは、ナビゲーション装置1から接続要求信号を受信したとき(図4のステップS103)に開始される。
まず、ステップS201では、ナビゲーション装置1からの接続要求信号に対して応答信号を返送し、ナビゲーション装置1および第1センター3間の接続を確立する。ナビゲーション装置1および第1センター3間の接続を確立すると、ステップS203に移る。ステップS203では、ナビゲーション装置1から入力音声データを取得したか否かを判定する。入力音声データを取得した場合には、ステップS203がYESとなってステップS205に移る。入力音声データを取得していない場合には、ステップS203がNOとなってステップS203に戻る。すなわち、入力音声データを取得するまで第1センター側制御部32は待機している状態である。
ステップS205では、入力音声データを音声認識部33に出力し、公知の音声認識処理を実施させる。音声認識部33から音声認識処理の結果を取得すると、ステップS207に移る。ステップS207では、回答側判定部32Aが、音声認識部33から取得する音声認識処理の結果と、対応リスト35Aと、から、入力音声データに対して自センターが応答すべきか否かを判定する。入力音声データに対して自センターが応答すべきであると判定した場合には、ステップS209がYESとなってステップS211に移る。また、入力音声データに対して自センターが応答すべきではないと判定した場合には、ステップS209がNOとなってステップS213に移る。
ステップS211では、回答側センターとして自センターを設定した判定結果信号をナビゲーション装置1に返送し、ステップS215に移る。またステップS213では、回答側センターとして他のセンターを設定した判定結果信号をナビゲーション装置1に返送し、ステップS215に移る。
ステップS215では、音声認識処理の結果をもとに、第1センター側メモリ35に保存されている応答用データ35Bを参照し、入力音声データの内容に応じた応答音声データを音声合成部36に生成させる。音声合成部36から応答音声データを取得するとステップS217に移る。ステップS217では、当該応答音声データを第1センター側通信部31からナビゲーション装置1に送信させ、ステップS219に移る。
ステップS219では、更新部32Bがフィードバック処理を実施する。このフィードバック処理では、まず、ナビゲーション装置1から回答側判定部32Aの判定結果が正しかったか否かの結果を取得する(図4のステップS119)。ナビゲーション装置1から回答側判定部32Aの判定が正しかったとする内容を取得した場合には、次回以降の判定も今回と同様に判定すれば良い。また、ナビゲーション装置1から回答側判定部32Aの判定が誤っていたとする内容を取得した場合には、次回以降の判定に対して今回とは異なる判定をするように対応リスト35Aを更新する。
なお、ナビゲーション装置1による応答切替処理を受けて、第2センターが実施する応答処理も、図5のステップS207〜S213を実施しない点を除けば、第1センター応答処理と同様であるため、ここでの詳細な説明は省略する。
以上で述べた応答制御システム100における、ユーザ操作に対する一連の作動について説明する。まず、ユーザがトークSW11を押下すると、表示装置13には図6(A)に示すように第1センター3および第2センター4のそれぞれの応答システムに対応するエージェントA,Bを表示する(ステップS103)。そして、ユーザから例えば「コンビニはどこ?」という発話に対応する音声信号が入力された場合には、ナビゲーション装置1は、この音声信号を音声データに変換して、第1センター3および第2センター4に送信する(ステップS107)。
第1センター3では、この音声データ(すなわち入力音声データ)を取得すると、音声認識処理を実施し(ステップS205)、回答判定処理を実施する(ステップS207)。ここでの例では入力音声データの内容がコンビニの位置を質問しているものであるため、音声認識処理の結果、道路案内の質問であると判定し、自センターが回答するべきであると判定する(ステップS209 YES)。そして、回答側センターとして自センター(すなわち、第1センター3)を設定した判定結果信号を出力する(ステップS211)。
ナビゲーション装置1の回答側センター設定部18Cは、この判定結果信号を受けて第1センター3を回答側センターに設定し、かつ、第2センター4を準回答側センターに設定して、各センター3,4から応答音声データから送られてくるのを待機する。その後、各センター3,4から応答音声データを取得すると、第1センター3からの応答音声データをスピーカ14から音声出力させ、第2センター4からの応答音声データを回答一時保存部18Bがメモリ15に一時保存する(ステップS113)。
なお、第1センター3からの応答音声データをスピーカ14から出力している間は、図6(B)に示すように第1センター3に対応するエージェントAを相対的に大きく表示するとともに、エージェントAが話しているように表示する。
その後、一定時間内にユーザから別の回答を要求する操作を受け付けた場合には(ステップS115 YES)、第2センター4からの応答音声データをスピーカ14から出力させる(ステップS117)。そして、ナビゲーション装置1は回答フィードバック処理を実施して、この「コンビニはどこ?」というユーザの発話に対する一連の応答切替処理を終了する。なお、以上では第1センター3が回答側センターとなる例を述べたが、第2センター4が回答側センターとなる場合であっても同様に処理すればよい。
(本実施形態のまとめ)
以上の構成では、回答側判定部32Aが第1センター3による音声認識処理の結果に基づいて前記第1、第2センターのうち、いずれのセンターが前記入力音声データに対して応答するべきかを判定し、その判定結果をナビゲーション装置1に送信する。ナビゲーション装置1では、回答側センター設定部18Cが当該判定結果に基づいて、回答側センターおよび準回答側センターを設定し、回答出力部が、回答側センターからの応答音声データをスピーカに音声出力させる。
このような構成によれば、回答側判定部32Aが自動的に入力音声データの内容に応じて、ユーザの音声入力に対して応答すべきセンター(すなわち応答システム)を選択するため、ユーザは応答を行わせる応答システムを選択する手間を省くことができ、ユーザの利便性を向上させる事ができる。
また、本実施形態では車両外のセンター(ここでは第1センター3)に回答側判定部32Aを備える構成とすることで、より多くのユーザからの回答フィードバック処理を受け付けることができる。これにともなって、回答側判定部32Aは、より的確な回答判定処理を実施することができるようになる。
また、回答一時保存部18Bが準回答側センターからの応答音声データをメモリ15に一時保存しておき、ステップS115においてユーザからの所定の操作入力(エージェント画像のタッチなど)を受け付けると、準回答側センターからの応答音声を音声出力する。これによって、回答側判定部32Aの判定結果が不適切であった場合であっても、同じ音声内容を再度入力すること無く、速やかに他のセンターからの回答を聞くことができる。
また、回答フィードバック処理およびフィードバック処理を実施する構成とした。これによって、回答側判定部32Aの判定結果に対するユーザの反応(回答側センターからの応答内容に満足したか否か)を、次回からの判定に反映することができ、より回答判定処理の精度を向上させることができる。
さらに、エージェント表示制御部が、表示装置13に各センターに対応するエージェントA、Bを表示し、回答出力部18Dによってスピーカ14から音声出力されている応答音声データを生成したセンターに対応するエージェントが話しているように表示する。これによって、ユーザは、自身の音声入力に対してどちらのセンターが対応しているのかが一目で認識することができる。
なお、本実施形態では、複数の応答システムを利用する際のインターフェースとしてナビゲーション装置1を用いる構成としたが、これに限らない。ナビゲーション機能を備えない車載器を、複数の応答システムを利用する際のインターフェースとして用いてもよい。
以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、以降に述べる種々の変形例も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。
(変形例1)
上述の実施形態では回答側判定部32Aを第1センター3に備えさせたが、もちろん、回答側判定部32Aは第2センター4に備えさせても良い。また、第1センター3として自動車会社の情報センターを想定し、第2センター4として携帯電話会社の情報センターを想定したが、これら以外の情報センターであってもよい。
(変形例2)
また、上述した実施形態では、第2センター4との通信は携帯電話機2を介して実施する構成としたが、これに限らない。携帯電話機2を介さずに、ナビゲーション装置1と第2センター4とが通信する構成でもよい。さらに、携帯電話機2に代わって、無線通信機能を有する他の携帯端末(例えば公知のタブレット端末など)を用いる構成であってもよい。なお、メモリ15は任意の要素としてもよい。
(変形例3)
前述の実施形態では、第1センター3が回答するのか、第2センター4が回答するのかを判定する回答側判定部32Aを第1センター3に備えさせたが、これに限らない。例えばナビゲーション装置1に、対応リスト35Aおよび回答側判定部32Aに相当する機能を備えさせても良い。
回答判定処理に用いる音声認識の結果は、第1センター3または第2センター4から取得する構成でも良いし、音声認識部33、音声認識DB34に相当する機能をナビゲーション装置1に備えさせても良い。この変形例1の構成によれば、ナビゲーション装置1において、回答側センターを判定できるため、応答制御システムの構成をより簡単にすることができる。
(変形例4)
なお、以上では、ユーザの入力音声データに応答する複数の応答システムがいずれも車両外のセンターに備えられている構成を示したが、これに限らない。たとえば図7に示すように、ナビゲーション装置1に第1センター3に相当する応答システム19が備えられている構成でもよい。この場合、通信は第2センター4とだけ実施するため、通信費を前述の実施形態よりも抑制することができる。
(変形例5)
一般に、音声認識処理はCPUに対して比較的高い処理能力を必要とするため、変形例4のようにナビゲーション装置1に音声認識処理などの機能を備えさせると、ナビゲーション装置1は高性能のCPUを備える必要性が生じ、ナビゲーション装置1が高価になってしまうことが懸念される。そこで、公知のDSR(Distributed Speech Recognition)技術を用いて、音声認識処理をナビゲーション装置1と、外部のセンター3,4とで、分担する構成としても良い。
例えば、ナビゲーション装置1にユーザの音声データに対して音響分析のみを実施する機能を実装し、音響分析によって得られる特徴量を外部のセンター3,4に送信する。外部のセンター3,4は、ナビゲーション装置1から送られてくる特徴量に基づいて音声認識処理を実行し、応答音声データをナビゲーション装置1に返送する。
(変形例6)
また、前述の実施形態では、回答側判定部32Aによる判定の精度を向上させるための学習方法として、ステップS119での回答フィードバック処理およびステップS219でのフィードバック処理を実施する構成としたが、これに限らない。
例えば、センター側制御部32は、ユーザが同じ或いは類似性の高い内容の質問を繰り返し入力したかどうかで、ユーザが回答に満足したかを判定してもよい。すなわち、センター側制御部32は、音声認識処理の結果、同じ或いは類似性の高い内容と推定される質問が一定時間(例えば1分)以内に再度為された場合には、前回(すなわち一回目に)スピーカ14より出力された回答に対してユーザが満足していなかったと判定する。この場合、回答側判定部32Aは、一回目では準回答側センターに設定したセンターを回答側センターに設定するとともに、対応リスト35Aの内容を、一回目で準回答側センターに設定したセンターを回答側センターに設定するように修正すればよい。
なお、入力音声データの内容が、以前に入力された入力音声データと同じ或いは類似性の高いものであるか否かの判定は、音声認識処理の結果、それぞれの入力音声データに出現する単語(その単語の類似語も含む)の一致度合いによって評価すれば良い。
ただし、ユーザが最初の応答音声データによる回答に満足していないからといって、回答側センターが不適切だったとは限らない。ユーザは、同じ回答側センターに対して異なる回答を求めている場合も考えられる。
そこで、回答側判定部32Aは、音声認識処理の結果と、対応リスト35Aとの一致度合いに基づいて、判定結果に対する確からしさを算出する。そして、その確からしさが所定閾値以上である場合には、対応リスト35Aは修正せずに、応答用データ35Bを修正してより適切な応答音声データが生成できるようにしてもよい。
なお、音声認識処理の結果と、対応リスト35Aとの一致度合いとは、対応リストと、ユーザの入力音声と対応リストに登録されている質問との意味の近さを評価したものと言い換えられる。
例えば、1回目に「近くのガソリンスタンドは?」という質問に対して、第1センター3が近くのA社のガソリンスタンドの場所を提示した後に、「B社のガソリンスタンドは?」という質問が入力された場合を想定する。
なお、第1センター3が応答すべき質問の内容として「ガソリンスタンドの場所」が対応リストに登録されており、1回目の入力音声も、2回目の入力音声も、ガソリンスタンドの場所を尋ねているため、第1センター3が応答すべきであるという判定結果の確からしさは所定の閾値以上となっているものとする。
このような場合には、回答側センターの判定結果は維持したまま、次回からはB社のガソリンスタンドを優先的に案内するように応答用データを修正する構成とすれば良い。この場合、各センターはユーザ毎の嗜好を反映した応答用データ35Bを備えていることが好ましい。
(変形例7)
なお、回答側判定部32Aを備えている第1センター3は、第2センター4の応答音声データを取り込んでもよい。第1センター3は、第2センター4の応答音声データを解析することにより、第1センター3の回答判定処理や応答用データ35Bに反映することで、ユーザの質問に対する回答の精度を向上させる事ができる。
特に、第1センター3と第2センター4とが、同様なサービス(周辺のレストラン検索など)を実施している場合には、第2センター4の応答音声データを取り込むことで、ユーザの嗜好などを反映することが期待される。
この場合、ナビゲーション装置1は、第2センター4から取得した応答音声データを回答一時保存部18Bに一時保存するとともに、第1通信部16を介して第1センター3に送信する。なお、第2センターの応答音声データを取り込む処理は、第1センター応答処理とは独立して行うことが好ましい。
(変形例8)
また、音声認識処理の結果、質問の内容が相対的にあいまいであった場合に、車両の状況によって質問の意図を推測する構成としても良い。例えば、のろのろ運転、ブレーキを頻繁に踏む、ウインカの急な操作等の運転動作や、現在の車両位置がユーザの普段の行動範囲外である場合に、「お腹すいた」といった内容の入力音声データを取得した場合には、レストランなどを探していると推定し、道案内が必要だと判定する。
そして、「この先にレストランがあります。目的地設定しますか?」といった応答音声データを返送する。車両の状況を推定するための車両情報(車両の速度、ブレーキ、ウインカ、車両位置など)は、ナビゲーション装置1を通して自動車会社のセンターへ送信するものとする。また、目的物を探している/道に迷っている等の判定は、自動車会社のセンターで行うものとする。なお、ナビゲーション装置1で車両情報に基づいて車両の状況を判定し、その判定結果を自動車会社のセンターへ送信してもよい。
このような構成によれば、ユーザの音声入力の内容が、あいまいなものであった場合にも車両情報から、ユーザの状況を推定することで、より適切な応答を実施することができるようになる。
(変形例9)
上述した実施形態では、対応リスト35Aには、第1センター3が対応すべき質問や命令コマンドのリストが登録されており、他のセンターが対応すべき質問や命令コマンドのリストについては登録されていない構成としたがこれに限らない。
すなわち、対応リスト35Aには、第1センター3が対応すべき質問や命令コマンドのリストに加えて、第2センター4が対応すべき質問や命令コマンドのリストを備えていてもよい。これによって、ユーザの質問の内容が、第2センター4が対応すべき質問であると対応リスト35Aに登録されている場合には、回答側判定部32Aは、単に自センター3が応答すべきではない、というだけでなく、当該ユーザの質問に対しては第2センター4が応答すべきであることまで判定することができるようになる。
また、これに伴って、回答側判定部32Aは、音声認識処理の結果と、センター毎の対応リスト35Aの内容との一致度に基づいて、センター毎にそのセンターが応答することの尤もらしさ(尤度)を算出し、尤度が高い方を回答側センターに設定しても良い。なお、回答側判定部32Aは、音声認識処理の結果と、センター毎の対応リスト35Aの内容との一致度が高いほど、尤度は高くなるものとする。
(変形例10)
なお、変形例9において、対応リスト35Aには各センターが対応すべき質問や命令コマンドのリストが登録されているものとしたが、これに限らない。例えば、対応リスト35Aには、センター毎に、そのセンターが実施するサービスと関連性の強い単語や薄い単語を定義しておき、回答側判定部32Aは、音声認識処理の結果に含まれる単語と各センターとの関連性を評価して、回答側センターを判定しても良い。
例えば、「道」「目的地」「道路」「渋滞」などの単語が含まれていた場合には、第1センター3を回答側センターに設定し、「電話」「(人物名詞)さん」「スケジュール」などの単語が含まれていた場合には、第2センター4を回答側センターに設定すればよい。センターが対応すべき質問と入力音声データとの一致度合いを評価する際に、これらの単語毎の重み付けを適用してもよい。
(変形例11)
また、以上の例では、ユーザが利用可能な応答システムとして、2つの応答システム(すなわち、センター)が利用可能な構成について説明したが、これに限らない。ユーザが利用可能なセンターは3つ以上であっても良い。すなわち、請求項に記載の第1の応答システムに相当する1つのセンターに対して、第2の応答システムに相当するセンターが複数あってもよい。
この場合、対応リスト35Aには、それぞれのセンターが応答するべき入力音声の内容を、センター毎に登録しておく。そして、回答側判定部32Aは、音声認識処理の結果と、対応リストと、に基づいて、ユーザが利用な可能な複数の応答システムのうち、いずれの応答システムが当該入力音声データに対して応答するべきかを判定すればよい。
例えば回答側判定部32Aは、音声認識処理の結果と、センター毎の対応リスト35Aの内容との一致度合いに基づいて、センター毎に尤度を算出する。そして最も尤度が高いセンターの応答音声データから優先的に音声出力させれば良い。
100 応答制御システム、1 ナビゲーション装置(車載器)、12 マイク、14 スピーカ、18 制御部、18A 音声取得部、18B 回答一時保存部、18C 回答側センター設定部、18D 回答出力部、18E 回答フィードバック部、18F エージェント表示制御部、18G 別回答要求判定部、2 携帯電話機、3 第1センター(第1の応答システム)、32 第1センター側制御部、32A 回答側判定部、32B 更新部、33 音声認識部、34 音声認識データベース、35 第1センター側メモリ、35A 対応リスト、35B 応答用データ、4…第2センター(第2の応答システム)

Claims (10)

  1. マイク(12)を介してユーザによる入力音声を入力音声データとして取得する音声取得部(18A)と、
    前記音声取得部が取得した前記入力音声データに対して音声認識処理を実施し、当該音声認識処理の結果に基づいて、前記入力音声データに対する応答となる第1の応答音声データを生成する第1の応答システム(3)と、
    前記音声取得部が取得した前記入力音声データに対して音声認識処理を実施し、当該音声認識処理の結果に基づいて、前記入力音声データに対する応答となる音声データである第2の応答音声データを生成する第2の応答システム(4)と、
    前記第1の応答システムによる前記音声認識処理の結果に基づいて、前記第1、第2の応答システムのうち、いずれの応答システムが前記入力音声データに対して応答するべきかを判定する回答側システム判定部(32A)と、
    前記回答側システム判定部において前記入力音声データに対して応答するべきと判定された方の応答システムである回答側応答システムが生成した応答音声データをスピーカ(14)に音声出力させる回答出力部(18D)と、を備えることを特徴とする応答制御システム。
  2. 請求項1において、
    前記第1の応答システムが応答するべき入力音声データの内容を記述した対応リスト(35A)を記憶する対応リスト記憶部(35)を備え、
    前記回答側システム判定部は、
    前記音声認識処理の結果が前記対応リストに対応付けられている場合には、前記入力音声データに対して前記第1の応答システムが応答するべきであると判定する一方、
    前記音声認識処理の結果が前記対応リストに対応付けられていない場合には、前記入力音声データに対して前記第2の応答システムが応答するべきであると判定することを特徴とする応答制御システム。
  3. 請求項2において、
    前記回答側システム判定部によって前記入力音声データに対して応答するべきと判定されなかった方の応答システムである準回答側応答システムが生成した応答音声データを前記スピーカに出力することを要求するユーザ操作を、受け付けたか否かを判定する別回答要求判定部(18G)を備え、
    前記回答出力部は、前記準回答側応答システムで前記ユーザ操作を受け付けたと前記別回答要求判定部が判定した場合には、前記準回答側応答システムの応答音声データを前記スピーカに音声出力させることを特徴とする応答制御システム。
  4. 請求項3において、
    前記準回答側応答システムより取得した前記応答音声データを、前記別回答要求判定部で前記ユーザ操作を受け付けなかったと判定されるまでは一時保存する一時保存部(18B)を備え、
    前記別回答要求判定部で前記ユーザ操作を受け付けたと判定した場合には、前記一時保存部に保存されている前記準回答側応答システムの前記応答音声データを前記スピーカに音声出力させることを特徴とする応答制御システム。
  5. 請求項4において、
    前記別回答要求判定部で前記ユーザ操作を受け付けたと判定した場合には、前記入力音声データへの前記音声認識処理の結果に対して、今回前記準回答側応答システムとした応答システムが次回以降は前記回答側応答システムとされるように、前記対応リストの内容を更新する更新部(32B)を備えることを特徴とする応答制御システム。
  6. 請求項3から5の何れか1項において、
    前記第1の応答システムによる前記音声認識処理の結果から同一或いは類似性の高い内容と判定される前記入力音声データが、一定時間以内に再度入力された場合には、
    前回に前記準回答側応答システムとした応答システムを前記回答側応答システムとするとともに、
    前回に前記準回答側応答システムとした応答システムが次回以降は前記回答側応答システムとされるように、前記対応リストの内容を更新することを特徴とする応答制御システム。
  7. 請求項1から6の何れか1項において、
    前記応答制御システムは、表示装置(13)と、
    前記第1、第2の応答システムのそれぞれに対応するエージェント画像を前記表示装置に同時に表示するエージェント表示制御部(18F)と、を備え、
    前記エージェント表示制御部は、前記回答出力部によって前記スピーカに出力されている前記応答音声データを生成した前記応答システムに対応する前記エージェント画像が話しているように表示することを特徴とする応答制御システム。
  8. 請求項1から7の何れか1項において、
    前記応答制御システムは、車両に搭載されている車載器(1)と、車両外部に設けられて前記車載器と無線通信を実施する第1センター(3)と、車両外部に設けられて前記車載器と無線通信を実施する第2センター(4)と、を備え、
    前記車載器が、前記音声取得部と、前記回答出力部と、を備え、
    前記第1センターが、前記第1の応答システムとしての機能を担うとともに、前記回答側システム判定部を備え、
    前記第2センターが、前記第2の応答システムとしての機能を担うことを特徴とする応答制御システム。
  9. 請求項8に記載の前記車載器の機能を備えることを特徴とする車載器。
  10. 請求項8に記載の前記第1センターの機能を備えることを特徴とするセンター。
JP2013158282A 2013-07-30 2013-07-30 応答制御システム、およびセンター Active JP6281202B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013158282A JP6281202B2 (ja) 2013-07-30 2013-07-30 応答制御システム、およびセンター

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013158282A JP6281202B2 (ja) 2013-07-30 2013-07-30 応答制御システム、およびセンター

Publications (2)

Publication Number Publication Date
JP2015028566A true JP2015028566A (ja) 2015-02-12
JP6281202B2 JP6281202B2 (ja) 2018-02-21

Family

ID=52492298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013158282A Active JP6281202B2 (ja) 2013-07-30 2013-07-30 応答制御システム、およびセンター

Country Status (1)

Country Link
JP (1) JP6281202B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017152948A (ja) * 2016-02-25 2017-08-31 株式会社三菱東京Ufj銀行 情報提供方法、情報提供プログラム、および情報提供システム
WO2017199545A1 (ja) * 2016-05-18 2017-11-23 シャープ株式会社 応答制御装置、制御プログラム、情報処理方法、および通信システム
JP2020144275A (ja) * 2019-03-07 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020154082A (ja) * 2019-03-19 2020-09-24 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
US11455338B2 (en) 2018-11-28 2022-09-27 Toyota Jidosha Kabushiki Kaisha Question answering device, question answering method, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250395A (ja) * 1998-02-27 1999-09-17 Aqueous Reserch:Kk エージェント装置
JP2003114875A (ja) * 2001-10-05 2003-04-18 Fujitsu Ltd サーバマシン、クライアントマシン、サーバプログラム、クライアントプログラム、サーバプログラム記憶媒体、およびクライアントプログラム記憶媒体
JP2004184858A (ja) * 2002-12-05 2004-07-02 Omron Corp 音声認識サービス仲介システムと、それに用いる音声認識マスター参照方法、プログラム、およびそのプログラムを内蔵する記憶媒体
JP2007121006A (ja) * 2005-10-26 2007-05-17 Kenwood Corp ナビゲーション装置、ナビゲーション方法、ナビゲーションシステム及びプログラム
JP2012013910A (ja) * 2010-06-30 2012-01-19 Denso Corp 音声認識端末
JP2012501480A (ja) * 2008-08-29 2012-01-19 マルチモーダル・テクノロジーズ・インク ハイブリッド型音声認識
JP2013064777A (ja) * 2011-09-15 2013-04-11 Ntt Docomo Inc 端末装置、音声認識プログラム、音声認識方法および音声認識システム
JP5220953B1 (ja) * 2012-12-01 2013-06-26 和夫 金子 商品情報提供システム、商品情報提供装置、及び商品情報出力装置
JP2013134302A (ja) * 2011-12-26 2013-07-08 Denso Corp 音声認識装置
JP2013140269A (ja) * 2012-01-05 2013-07-18 Denso Corp 音声認識装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250395A (ja) * 1998-02-27 1999-09-17 Aqueous Reserch:Kk エージェント装置
JP2003114875A (ja) * 2001-10-05 2003-04-18 Fujitsu Ltd サーバマシン、クライアントマシン、サーバプログラム、クライアントプログラム、サーバプログラム記憶媒体、およびクライアントプログラム記憶媒体
JP2004184858A (ja) * 2002-12-05 2004-07-02 Omron Corp 音声認識サービス仲介システムと、それに用いる音声認識マスター参照方法、プログラム、およびそのプログラムを内蔵する記憶媒体
JP2007121006A (ja) * 2005-10-26 2007-05-17 Kenwood Corp ナビゲーション装置、ナビゲーション方法、ナビゲーションシステム及びプログラム
JP2012501480A (ja) * 2008-08-29 2012-01-19 マルチモーダル・テクノロジーズ・インク ハイブリッド型音声認識
JP2012013910A (ja) * 2010-06-30 2012-01-19 Denso Corp 音声認識端末
JP2013064777A (ja) * 2011-09-15 2013-04-11 Ntt Docomo Inc 端末装置、音声認識プログラム、音声認識方法および音声認識システム
JP2013134302A (ja) * 2011-12-26 2013-07-08 Denso Corp 音声認識装置
JP2013140269A (ja) * 2012-01-05 2013-07-18 Denso Corp 音声認識装置
JP5220953B1 (ja) * 2012-12-01 2013-06-26 和夫 金子 商品情報提供システム、商品情報提供装置、及び商品情報出力装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017152948A (ja) * 2016-02-25 2017-08-31 株式会社三菱東京Ufj銀行 情報提供方法、情報提供プログラム、および情報提供システム
WO2017199545A1 (ja) * 2016-05-18 2017-11-23 シャープ株式会社 応答制御装置、制御プログラム、情報処理方法、および通信システム
US11455338B2 (en) 2018-11-28 2022-09-27 Toyota Jidosha Kabushiki Kaisha Question answering device, question answering method, and program
JP2020144275A (ja) * 2019-03-07 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020154082A (ja) * 2019-03-19 2020-09-24 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP7280074B2 (ja) 2019-03-19 2023-05-23 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム

Also Published As

Publication number Publication date
JP6281202B2 (ja) 2018-02-21

Similar Documents

Publication Publication Date Title
US7822613B2 (en) Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus
US8903651B2 (en) Information terminal, server device, searching system, and searching method thereof
US10679620B2 (en) Speech recognition arbitration logic
CN111095400A (zh) 选择系统和方法
US20150039316A1 (en) Systems and methods for managing dialog context in speech systems
JP6281202B2 (ja) 応答制御システム、およびセンター
US20150019219A1 (en) Systems and methods for spoken dialog service arbitration
US20190122661A1 (en) System and method to detect cues in conversational speech
CN102308182A (zh) 用于个人导航装置的车基系统接口
US20180052658A1 (en) Information processing device and information processing method
JP2023179631A (ja) 情報処理装置
JPWO2017175442A1 (ja) 情報処理装置、および情報処理方法
US9715878B2 (en) Systems and methods for result arbitration in spoken dialog systems
JP2020060861A (ja) エージェントシステム、エージェント方法、およびプログラム
US20200286479A1 (en) Agent device, method for controlling agent device, and storage medium
JP7274404B2 (ja) 情報提供装置、情報提供方法、およびプログラム
JP2014065359A (ja) 表示制御装置、表示システム及び表示制御方法
EP3855305A1 (en) Agent system, agent server, and agent program
WO2010073406A1 (ja) 情報提供装置、通信端末、情報提供システム、情報提供方法、情報出力方法、情報提供プログラム、情報出力プログラムおよび記録媒体
JP2017181667A (ja) 音声認識装置および音声認識方法
JP6552390B2 (ja) 移動体用支援装置および移動体用支援方法
WO2019234486A1 (en) Speech recognition system, information processing device and server
JP2020152298A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020060623A (ja) エージェントシステム、エージェント方法、およびプログラム
KR20060057726A (ko) 대화형 네비게이션 시스템 및 그 제어방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180108

R151 Written notification of patent or utility model registration

Ref document number: 6281202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250