JP4533705B2 - 車載対話装置 - Google Patents

車載対話装置 Download PDF

Info

Publication number
JP4533705B2
JP4533705B2 JP2004248992A JP2004248992A JP4533705B2 JP 4533705 B2 JP4533705 B2 JP 4533705B2 JP 2004248992 A JP2004248992 A JP 2004248992A JP 2004248992 A JP2004248992 A JP 2004248992A JP 4533705 B2 JP4533705 B2 JP 4533705B2
Authority
JP
Japan
Prior art keywords
user
unit
vehicle
information
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004248992A
Other languages
English (en)
Other versions
JP2005100382A5 (ja
JP2005100382A (ja
Inventor
貴弘 工藤
順 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2004248992A priority Critical patent/JP4533705B2/ja
Publication of JP2005100382A publication Critical patent/JP2005100382A/ja
Publication of JP2005100382A5 publication Critical patent/JP2005100382A5/ja
Application granted granted Critical
Publication of JP4533705B2 publication Critical patent/JP4533705B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、画面上に表示されたキャラクタ同士の対話を視聴しながらユーザに新たな知識の発見を促し、また、ユーザ自身も対話に参加することを可能にする対話装置等に関する。
近年、音声認識技術が実用化に耐えうる水準に達してきており、音声対話機能を備えた機器が開発されている。このような機器としてユーザの発声した音声を認識し、画面に表示されたキャラクタとの対話を通じて目的地設定を行ったり、ユーザをアシストしたりする機能を有するナビゲーションシステムがある(特許文献1参照)。ユーザは運転中、ハンドルを握っているため自由な機器操作ができず、また、視力を周囲の障害物監視に割かねばならないためナビゲーションシステムの画面を見て複雑な操作を行うことができないが、このシステムによれば、ユーザは通常の運転動作を妨げられることなくシステムへの入力を行い所定の目的を達成することができる。
また、インターネットの世界ではチャットシステムが広く利用されており、その中ではバーチャルなコミュニケーションに臨場感を出すために自分の分身であるアバタを用いる技術が開示されている(特許文献2参照)。この技術では、自分の画像などを取り込んで自分のアバタとし、その画像の動作を制御したり、また音声合成技術を利用してアバタがあたかもしゃべっているようにみせかけたりすることでリアリティを持たせている。
特開2003−22092号公報 特開2001−230801号公報
しかしながら、このように音声による入力手段を設けても、音声による入力は必ずしもユーザにとってメリットがあるものではない。というのも、音声による入力すら手間であると感じるユーザも多く、運転中にわざわざナビゲーションシステムと対話することを避けることもある。このような場合、ユーザが発声しない限り、ユーザは自分にとって必要な情報を得る、目的の機能をシステムに指示するなど、目的を達せられないという事態が起こる。
一方、自分が対話をする代わりに自分の分身であるアバタが自動的に対話を行って、必要な情報の取得や機能の実行を代理で行わせようとしても、特許文献2に開示されたアバタの技術では不可能である。
ユーザによる入力がない場合でもユーザが必要とする情報の提供や機能の実行を自動的に行おうとした場合には、そのタイミング、つまりユーザはいつそのような欲求を感じるのか、また、ユーザのモデリング、つまりユーザはどのような特性をもちどのような情報や機能を欲しているのか、などの問題を解決する必要がある。さらにはこのような自動化機能が実現され、ユーザにとって必要な情報や機能が提供された場合、ユーザにとってはなぜそのような情報が提供されたのかが示されなければ、いぶかしく感じてしまう。
そこで、本発明は、このような問題に鑑みてなされてものであり、ユーザが情報を必要としているタイミングでキャラクタ同士の自律的な対話が自動実行される対話装置を提供することを目的とする。
また、ユーザが特に入力したいという欲求を持った場合には、キャラクタ同士の対話に割り込み、自分の意思を伝えることのできる対話装置を提供することをも目的とする。
上記目的を達成するために、ユーザの嗜好や行動などのモデルを把握したユーザの分身でありユーザの意思を代弁、提案するユーザアバタと、ユーザの要求に応えてくれるエージェントという2つのキャラクタ同士の自律的な対話をユーザが視聴し、ユーザが特に入力をしない場合であっても、ユーザが情報や特定の機能を欲するタイミングを検出してそれらを提供することで、その提供プロセスを明らかにしながらユーザにとって未知の知識の発見を促したり、機能の自動実行を可能にしている。
つまり、上記目的を達成するために、本発明に係る対話装置は、画面に表示されるキャラクタによる対話を、車両を運転するユーザに対して表示する車載対話装置であって、ユーザが運転する車両の速度と方向指示器の少なくとも1つから車両の状況を検出する状況検出手段と、検出された車両の状況に基づいて、ユーザに代わってユーザが知りたいと思われることを代弁する役割を果たすキャラクタであるユーザアバタとその対話相手となるキャラクタであるエージェントとの対話からなるシナリオを決定するキャラクタ管理手段と、前記キャラクタ管理手段による決定に基づいて、前記ユーザアバタと前記エージェントを表示し、前記ユーザアバタと前記エージェントとの対話を音声出力する表示手段とを備え、前記キャラクタ管理手段は、複数の異なるシナリオを特定する複数のシナリオデータを記憶しているシナリオデータ記憶手段に記憶されたシナリオデータの中から、シナリオデータを選択するシナリオデータ選択手段と、前記選択されたシナリオデータに対応した、前記ユーザアバタと前記エージェントとの対話を制御する対話制御手段とを備え、前記対話制御手段は、前記状況検出手段により検出される車両の状況が変化し、前記シナリオデータ選択手段により選択されたシナリオデータに、ユーザからの入力を受け付ける旨の情報が存在している場合には、所定の時間だけ対話の進行を停止することを特徴とする。
れによって、ユーザの運転状況を加味した対話が実現され、運転者が慌てて対話に介入することがなくなるため、安全運転が確保される。
ここで、前記対話制御手段は、前記状況検出手段により検出される車両の速度情報から車両が後退状況にあることを検出したときには、ユーザから入力を受け付ける時間を長くしてもよい。
また、前記対話制御手段は、前記状況検出手段によって方向指示器が作動中であると検出されたときには、前記車両が右左折中であると判断し、ユーザから入力を受け付ける時間を長くしてもよい。
また、前記対話制御手段は、前記状況検出手段によって車両の速度情報が所定の閾値より小さいことが検出されたときにユーザから入力を受け付ける時間を長くする制御規則を有し、運転者の車載オーディオ機器に対する操作履歴と車両の速度履歴とを蓄積し、蓄積している操作履歴と速度履歴とに依存させて、前記所定の閾値を変更してもよい。
なお、本発明は、このような対話装置として実現することができるだけでなく、その特徴的な構成要素(手段)をステップとする対話方法、そのようなステップをコンピュータに実行させるプログラム等として実現することもできる。そして、そのプログラムをインターネット等の伝送媒体やDVD等の記録媒体を介して配布することができるのは言うまでもない。
本発明によれば、ユーザは特に何も入力をしなくても、現在おかれている状況を把握しているアバタとエージェントとの対話を俯瞰するだけで、自分に必要な情報を適切なタイミングで取得することができ、また、必要となる機能がタイミングよく代理実行なされることになる。さらには、ユーザごとの嗜好や行動をモデル化することで、ユーザに応じた対話がなされることになる。これにより、例えば運転中など他の作業に集中しなければならず対話や入力に手間を割けない場合や、その他手間をかけるのが面倒な場合であっても、ユーザは所望の要求を達成することが可能となる。
また、これらの処理がユーザの関知しないところで勝手になされた場合、ユーザは不信感を抱くことも考えられるが、本発明によればユーザはキャラクタ同士の対話を常に把握できるため、自動的になされる処理に透明性をもたせ、ユーザへの納得性を増すことができる。
さらに、キャラクタ同士の対話が必ずしも自分の思い通りではない場合には、対話に介入して自分の意思を伝えることも可能である。
以上のように、本発明によればユーザに負担をかけることなく、ユーザにとって有益な機能を提供し、ユーザの満足度を高めることができ、本発明の実用的価値は極めて高い。
以下、本発明の実施の形態について図面を用いて詳細に説明する。なお、本実施の形態では、対話装置をナビゲーション機能や音楽再生機能を有する車載装置に適用した例について述べる。
(実施の形態1)
図1は、本発明の実施の形態1(実施の形態2及び3についても共通)における対話装置100の全体構成を示す機能ブロック図である。この対話装置100は、キャラクタを表示させるためのイベントを検知するイベント検出部102、イベント検出部102の出力に従ってキャラクタの表示やシナリオを管理するキャラクタ管理部103、音声を出力するスピーカー104、キャラクタを表示する表示部101、音声による入力を行う入力部105を備える。本図において、エージェント106は、表示部101に表示されたキャラクタの一つであるエージェントである。ユーザアバタ107は、表示部101に表示されたキャラクタの一つであるユーザのアバタである。
なお、本実施の形態では、キャラクタとは、画面に表示される仮想人物であり、エージェント106とユーザアバタ107を指す。エージェント106はユーザにとって必要な情報をユーザに伝える役割を果たし、ユーザアバタ107はユーザに代わってユーザが知りたいと思われることを代弁する役割を果たす。また、イベントとは、ユーザの状態における変化とユーザが置かれている状況(環境)における変化とが含まれる。
図2は、図1に示された対話装置100におけるイベント検出部102の構成を示した機能ブロック図である。このイベント検出部102は、対話装置100の位置情報を検出する位置検出部201、ユーザにより設定された目的地や経路に従って経路案内を行う経路案内部202、ユーザが設定された経路から逸脱したことのある地点を記憶しておく逸脱地点記憶部203、位置検出部201により検出された対話装置100の位置情報が、経路案内部202により案内される経路から逸脱しているか、また、逸脱地点記憶部203により記憶されている地点と同一であるか、を判定する判定部204及び判定部204に基づいて所定の情報をキャラクタ管理部103へと送信する送信部205から構成される。
図3は、判定部204により経路の逸脱が判定される例を示した図である。図中、黒い実線矢印で示されたものが、設定されている経路を表す。位置検出部201はGPSなどのセンサを利用して自車の位置情報を検出し、検出された位置情報は図中の黒い三角で表される自車に反映される。設定された経路では交差点Aを直進し、次の交差点で左折する必要があるが、自車が図のように交差点Aを左折する、つまり設定されている経路ではない道を走行すると、判定部204は経路の逸脱、および逸脱の状況を判定する。逸脱の状況とは、例えば図3では早く左折しすぎたことであったり、また逆に左折すべき箇所を通過してしまったり、など様々に存在する。逸脱した地点に関する情報と、逸脱の状況に関する情報は、逸脱地点記憶部203において記憶される。
経路案内部202は、ユーザにより設定された目的地や経路までの経路案内をするとともに、判定部204により経路の逸脱が判定されると、逸脱して走行している位置や道路に関する情報と、あらかじめ設定されている目的地情報とを利用することで新たな経路を設定(リルート)し直す機能を有する。
判定部204はまた、自車の現在位置が逸脱地点記憶部203に記憶された地点、つまり過去に経路を逸脱して走行したことのある地点の近傍を走行しているかどうかの判定も行う。図4に示すように、ユーザが現在の走行を継続すると過去に経路を逸脱したことのある交差点Aに達すると予想される場合などはその例である。さらに、現在位置が交差点Aから所定の範囲(例えば半径200m)であることを基準として設けてもよい。
経路を逸脱した場合に経路案内部202によりリルートされた経路に関する情報と逸脱した状況を表す情報、または、逸脱地点記憶部203に記憶された地点の近傍を走行している場合にその地点に関する情報と逸脱した状況を表す情報は、送信部205によりキャラクタ管理部103へ送信される。
図5は、図1に示された対話装置100におけるキャラクタ管理部103の構成を示した図である。このキャラクタ管理部103は、イベント検出部102から所定の情報を受信する受信部501、キャラクタが対話を行うためのシナリオを1つ以上記憶しているシナリオデータ503、イベント検出部102から受信した情報に応じてシナリオデータ503からシナリオを選択するシナリオ選択部502、ユーザに表示するエージェント、ユーザアバタの画像や動画を記憶しておくキャラクタ記憶部506、表示部101においてキャラクタを表示する位置を決定するキャラクタ位置決定部504、及び、シナリオ選択部502により選択されたシナリオと、キャラクタ記憶部506に記録されているキャラクタと、キャラクタ位置決定部504により決定されるキャラクタの表示位置に基づいて表示部101に出力する内容を決定する出力内容決定部505とから構成される。
受信部501は、イベント検出部102の送信部205から、ユーザが経路を逸脱した場合に経路案内部202によりリルートされた経路に関する情報と逸脱した状況を表す情報、または、ユーザが逸脱地点記憶部203に記憶された地点の近傍を走行している場合にその地点に関する情報と逸脱した状況を表す情報、を受信する。
シナリオ選択部502は受信部501の受信情報に基づいてキャラクタが対話を行うシナリオを選択する。
図6に、シナリオデータ503の一例を示す。図中、シナリオ503aはユーザが曲がるべき交差点の手前で交差点を曲がったためにリルートが必要になったというイベントに対応したシナリオデータであり、シナリオ503bはユーザが曲がるべき交差点を過ぎてしまったためにリルートが必要になったというイベントに対応したシナリオデータ、シナリオ503cはユーザが曲がるべき交差点の手前で曲がったことのある交差点の近傍を走行しているというイベントに対応したシナリオデータである。例えば、受信部501が受信した情報が、ユーザが図3のように曲がるべき交差点の手前で左折してしまったことによるリルート情報である場合はシナリオ503a(turned earlier)が選択され、逆に交差点を通過してしまった場合にはシナリオ503b(turned later)が選択される。
シナリオ503aを例にとって詳細に説明する。なお、受信したリルート情報は、最初に「次の交差点を右折」、その後「しばらく直進」であるとする。エージェントとユーザアバタは、シナリオ503aに従うと次のように対話が進行する。まず、ユーザアバタに相当するキャラクタは、シーケンスの1である「早く曲がりすぎた」と発話する。次にエージェントはシーケンスの2に従ってリルート情報を発話する。このリルート情報1や後に述べるリルート情報2はパラメータであり、シナリオ選択部502により、受信部501で受信したリルート情報が充当される。ユーザアバタはシーケンス3に従って再び「その先は?」と発話し、エージェントがそれに続くリルート情報2を発話する。
具体的には次のようなものがある。
<ユーザアバタ>:早く曲がりすぎた。
<エージェント>:次の交差点を右折だ。(リルート情報1)
<ユーザアバタ>:その先は?
<エージェント>:しばらく直進だ。(リルート情報2)
ここで、受信したリルート情報「次の交差点を右折」、「しばらく直進」は上述したような口語調に変換する文体変換技術を利用することが考えられる。それ以外にも、単に文体のフォーマットを用意しておいてリルート情報を充当するだけでもよい。
またリルート情報は、ユーザがどこで、どのように経路を逸脱したのかによって異なるため、それらに応じて充当される。さらに、同一の逸脱状況(例えば、リルート turned earlier)であっても、それに対応するシナリオ、例えば、シナリオ503aのバリエーションを複数もっておき、逸脱の度にシナリオを選択するようにすることも可能である。この場合は、ランダムに選択してもよいし、最近最も選択されていないものから順に選択するのでもよい。
このように、逸脱した状況をアバタの台詞に取り入れることで、アバタがユーザの分身、代弁者であることにリアリティを増すことができる。
キャラクタ位置決定部504は、表示部101におけるエージェント、ユーザアバタの表示位置を決定する。決定するための基準は様々に考えることができる。例えば、運転席の位置が左であるか右であるかを識別する手段を設け表示部101において運転席に近いほうにユーザアバタ、遠いほうにエージェントを、対面させるように表示させることができるし、その逆であってもよい。前者の場合は、自分の分身であるアバタを近くにもってくることでより親密度が増し、エージェントが運転者の方を向いているように表示できるので運転者に向かって話しかけているような雰囲気をつくることができる。運転席が右にある場合の表示例を図7に示す。また後者の場合は、エージェントを近くに配置することで運転者にとってエージェントにより提供される情報が表示情報である場合に見やすくなるという効果がある。これは、運転者にとってよく知らない土地を走行している場合には特に有効となる。そこで、運転者の走行履歴を蓄積しておいて、運転者がその土地に対してどれくらい知っているか、を判定する基準を設けて、あまり知らない場合にはエージェントを近くに配置するようにしてもよい。
さらに、ユーザが過去に経路を逸脱したことのある交差点の近傍を走行している場合には、表示部101に表示されている地図におけるその交差点の位置に相当する場所から、ユーザアバタまたはエージェントを登場させるようにすることも考えられる。図8にその表示例を示す。このようにすることで以前ユーザが経路を逸脱した地点をユーザに明示することになり、現在の走行において注意を促すことが可能になる。
また自車位置にユーザアバタを表示し自車の走行にしたがってユーザアバタも移動するようにしておき、ユーザに通知したい情報がある地点(例えば上述した過去の経路逸脱地点や、特売情報がある店舗の位置など)にエージェントを配置しておき、自車位置とその地点の距離が一定以内になる、つまり、ユーザアバタとエージェントの間隔が表示上一定以内になったときに、所定のシナリオにしたがって対話を行うようにしてもよい。
なお、このような表示位置を決定する構成はなく、必ず定まった位置に表示されてもよいことは言うまでもない。
出力内容決定部505は、表示部101に表示すべきエージェントとユーザアバタの画像や動画をキャラクタ記憶部506から抽出し、キャラクタ位置決定部504により定められた位置にそれぞれのキャラクタを表示し、シナリオ選択部502により選択、充当されたシナリオに従って図7や図8に示すように対話内容を出力する。
なお、エージェントやユーザアバタにどのようなキャラクタを利用するかは様々に考えることができる。擬人化されたものを利用してもよいし、それ以外にも動物やアニメなどのキャラクタなどユーザが自由に設定できるようにしてもよい。また、本発明を車載機器へ適用する場合には、エージェントの画像として車や車載機器をイメージさせるようなものを利用してもよいし、本発明をTVや携帯電話などに適用した場合は、それぞれTVや携帯電話をイメージさせるような画像にしてもよい。ユーザアバタについても同様である。いずれにしても、対話を行う2つのキャラクタに対して、ユーザが、自分のアバタ、エージェントを識別できるのであればよい。
次に、このように構成されるイベント検出部102およびキャラクタ管理部103の一連の動作について、図9および図10をそれぞれ参照して述べる。
まず、図9を参照してイベント検出部102の動作を説明する。
位置検出部201では、所定のタイミングにおいて自車の位置情報が検出される(ステップS901)。
現在、経路案内部202による経路案内が行われている場合(ステップS902でYes)、判定部204において、位置検出部201により検出された自車位置情報と案内中の経路を対比し、経路を逸脱しているかどうかの判定がなされる(ステップS903)。
逸脱していないと判定された場合(ステップS903でNo)は、再び位置検出部201による自車位置検出が行われる。
逸脱していると判定されると(ステップS903でYes)、逸脱地点記憶部203では、逸脱した地点に関する情報と、逸脱した状況に関する情報が記憶される(ステップS904)。また、経路案内部202では改めて経路の設定が行われる(ステップS905)。
そして逸脱地点記憶部203に記憶される情報と、リルートに関する情報は送信部205によりキャラクタ管理部103へ送信される(ステップS906)。
一方、経路案内中でない場合(ステップS902でNo)、現在地が逸脱地点記憶部203に記憶されている、過去に経路を逸脱した地点の近傍であるかどうかの判定が、判定部204により行われる(ステップS907)。
過去に経路を逸脱した地点の近傍である場合(ステップS907でYes)、その地点に関する情報と、逸脱した状況に関する情報は、送信部205によりキャラクタ管理部103へ送信される(ステップS906)。
次に、図10を参照してキャラクタ管理部103の動作を説明する。
受信部501は、イベント検出部102の送信部205から情報の受信待ちを行う(ステップS1001)。
情報を受信すると(ステップS1001でYes)、シナリオ選択部502は、シナリオデータの中から受信した状況に該当するシナリオを選択し、リルート情報など、受信した情報の中から補充すべき内容がある場合はそれらの情報でシナリオを完成させる(ステップS1002)。
一方、キャラクタ位置決定部504では、受信した情報に応じてエージェント、およびユーザアバタを表示部101のどの場所に表示するか、また、どの場所から登場させるか、に関する決定が行われる(ステップS1006)。
出力内容決定部505では、表示部101に表示するユーザアバタとエージェントの画像や動画をキャラクタ記憶部506から抽出し(ステップS1003)、キャラクタ位置決定部504により決められた位置に表示させ、シナリオ選択部502で選択、充当されたシナリオに基づいて表示部101に表示する内容が決定され(ステップS1004)、表示部101に表示される(ステップS1005)。
以上のように、本実施の形態によれば、ユーザは特に何も入力をしなくても、現在おかれている状況を把握しているアバタとエージェントとの対話を俯瞰するだけで、自分に必要な情報を適切なタイミングで取得することができ、また、必要となる機能がタイミングよく代理実行なされることになる。これにより、例えば運転中など他の作業に集中しなければならず対話や入力に手間を割けない場合や、その他手間をかけるのが面倒な場合であっても、ユーザは所望の要求を達成することが可能となる。
なお本実施の形態では、過去に経路を逸脱した箇所は経路案内を行っていないときに表示する例を述べたが、当然経路案内中であっても表示してもよい。経路案内中でなければ特に注意が必要であるし、案内中であっても注意すべきポイントであるので、ユーザに通知することは有効である。
また、イベント検出部102が検出するイベントとしては上述した以外にも、渋滞に遭遇した、トンネルを抜けたのにヘッドライトが点いている、などを考えることができる。渋滞に遭遇しているというイベントの検出は、車速が一定速度以下で所定の時間走行しているという状態の検出やVICSなどによる交通情報の取得により可能となり、キャラクタ同士の対話の中で現在地周辺の渋滞を回避するルート情報をユーザに提供することが考えられる。また、トンネルを抜けたのにヘッドライトが点いているというイベントは、時刻が昼間でありマップマッチングの結果すでにトンネルを過ぎているという状態の検出により可能であり、ヘッドライトの消し忘れを通知する対話を行うことが考えられる。
また、キャラクタの表示は、イベント検出部102によるイベント検出により行われる例について示したが、それ以外にも、ユーザからのキャラクタ表示要求の入力に応じてキャラクタ管理部103が動作し、その後、そのときにユーザに起こっているイベント(経路を逸脱した、渋滞に遭遇している)を検出して対話を行うのでもよい。
さらに、キャラクタ管理部103(キャラクタ位置決定部504及び出力内容決定部505)は、イベント検出部102が検出したイベントの種類に応じて、表示部101に表示するキャラクタの出現タイミング、出現画面位置、出現方法、表情等を変化させてもよい。
例えば出現のタイミングとしては、自車の走行により、過去に経路を逸脱した箇所が画面内に表示されたタイミングが考えられる。また、自車位置と逸脱箇所との距離が所定の範囲になったときに、画面に表示されている地図の縮尺をそれら2つの位置が表示可能な縮尺に変更しキャラクタを出現させてもよい。これは、所定の距離を300mとした場合、画面に表示されている地図が50mの範囲しか表示できない縮尺であれば、これを少なくとも自車位置から300mの範囲表示可能な縮尺に変更するというものである。
また出現画面位置としては、設定されたルート上や、ユーザの走行履歴に基づいて走行が予想されるルート上にキャラクタが重ならないような位置に表示することなどが考えられる。
(実施の形態2)
本発明の第二の実施の形態について説明する。なお、本実施の形態における対話装置100の全体構成は図1に示された実施の形態1と同様であるが、イベント検出部とキャラクタ管理部の機能が異なる(ここでは、それぞれ、イベント検出部102a、キャラクタ管理部103aとする)。
図11は、本実施の形態におけるイベント検出部102aの構成を示した機能ブロック図である。このイベント検出部102aは、地図データを記憶している地図データ記憶部1101、対話装置100が搭載されている車の車内外の状況を検出する状況検出部1102、状況検出部1102により検出された状況を蓄積しておく履歴データ記憶部1103、目的地設定がなされない場合にユーザが向かおうとしている目的地や、ユーザに推薦するとメリットがあると考えられる目的地(例えば、昼食や夕食の時間帯であればレストランなど)、さらにはそれらの目的地が属するジャンルを予測する予測部1104、ネットワークを介して情報を取得する情報取得部1105、情報取得部1105で取得した情報の中で、予測部1104により予測された目的地やそのジャンルに関連する情報があるかどうかを判定する判定部204、経路案内を行う経路案内部202及び判定部204に従って、予測された目的地やそのジャンルに関する名称や情報取得部1105により取得した情報の中でそれらに関連する情報をキャラクタ管理部103へ送信する送信部205から構成される。
地図データ記憶部1101は、対話装置100に用いられる地図データ1101aや、走行経路を特定するためのノードデータベース1101b等を記憶しているハードディスク等である。ノードデータベース1101bは、図12に示されるように、全国における予め設定された主要な地点をノードとし、ノードごとの「ノード番号」、「種別、名称」、「東経」及び「北緯」を記録したデータベースである。ノードには、交差点やランドマーク、またエリアなどがある。
状況検出部1102は、その時点での車及び車がおかれた状況を検出する各種センサ等からなり、エンジンの状態(起動/停止)、車の位置、運転者、同乗者、天気等を検出する。具体的には、エンジンキーの位置等からエンジンの状態を検出し、対話装置100が備えるGPSによって現在位置を検出し、内蔵するカレンダー・タイマーによって日時を検出し、各座席に組み込まれた着座センサ、運転席のシート位置、ミラーの調整位置、エンジンキーと一体化された赤外線送信器からのID信号、乗車する人が所有する携帯電話機からの無線信号によるID又は電話番号等から運転者及び同乗者を検出し、ワイパーの動作状態、雨滴センサ、温度・湿度センサ等から天気を検出する。
履歴データ記憶部1103は、状況検出部1102から送られてくる状況信号に基づいて、走行状況の履歴データを蓄積する。履歴データは、図13に示されるように、エンジンが始動してから停止されるまで(あるいは、出発地から目的地に到着するまで)の走行に関する情報を集めたものを1つのエントリ(単位)として蓄積されたものであり、エントリごとに、その「日時」、エンジン始動から停止までの「所要時間」、「出発地」、「目的地」、ノードの連なりからなる「経路」、「天気」、「運転者」、「同乗者」等の項目を記録した情報である。状況検出部1102により検出された位置情報は、該当するノードのIDの系列に変換されて蓄積されることになる。また図13には図示していないが、ノードの系列には、そのノードを出発、通過、滞在した時刻、または、ノード間の走行に要した所要時間を合わせて蓄積しておくことが望ましい。
予測部1104は、状況検出部1102で検知された状況(日時、現在地、運転者、同乗者等)を履歴データ記憶部1103に記憶されたデータと照合することによって、現在の走行における目的地を予測する。例えば、現在状況における日時(時間帯、曜日)、現在地、運転者、同乗者それぞれと一致する「日時(時間帯、曜日)」「出発地」、「運転者」、「同乗者」が記録された全てのエントリを履歴データ記憶部1103に記憶されたデータから抽出し、抽出したエントリに記録された全ての「目的地」のうち最も頻度の多い「目的地」を予測目的地として予測する処理部である。予測部1104はさらに、蓄積されている経路情報を利用して目的地までの経路を予測することも可能である。
このとき、検索に用いる状況パラメータは必ずしも蓄積しているもの全てを用いる必要はない。例えば、全てのパラメータを利用した場合、履歴を検索して抽出されるエントリが10であったとする。この数値は統計的に信頼できる数値とはならない。そこで、「出発地」パラメータを除いて残りの状況パラメータで検索した場合にエントリが50抽出されたとする。これは全てのパラメータを利用するよりも統計的な確信度が高まるため、この50エントリの中から最も頻度の多い「目的地」を予測するということも考えられる。このように利用するパラメータは柔軟に変化させることが可能である。
また、図14に示すように、ランドマークとその属するジャンルが定義された情報が地図データ1101a内に記憶されている場合、ユーザの目的地の履歴をジャンルとして把握することができるため、予測部1104は目的地の名称ではなく、目的地が属するジャンルを予測することも可能となる。例えば、休日の12時から13時半の間に、「エムバーガー」、「ル・フラン」によく行っている場合、これを「レストラン」というジャンルを利用して、レストランによく行くというように予測をすることができる。
さらに、このようにユーザごとの履歴情報のみを利用するのではなく、一般的な知識を利用してもよい。一般的な知識とは、「昼食や夕食の時間帯であればレストランに行きやすい」、「休日であればレジャー施設やショッピングに行きやすい」、「雨が降っていれば屋内型レジャー施設に行きやすい」、「特売情報のあるスーパーには行きやすい」などの多くの人に適用できると考えられる規則である。このような一般的な知識と、ユーザごとの履歴情報を併用することで、例えば、夕食の時間帯であれば、レストランの中で、ユーザがよく行っているフランス料理の店舗を目的地として予測する、というようなことが可能である。
予測部1104による予測処理が行われるタイミングとしては、エンジンが起動された時、交差点を通過した時、情報取得部1105が情報を取得した時、など様々に考えることができる。
情報取得部1105は、ネットワークやVICSなどを介して交通情報や商用情報、施設情報など様々な情報を取得することができる。
判定部204は、情報取得部1105が取得した情報の中で、予測部1104により予測された目的地、ジャンル、経路に関連のある情報があるかどうかの判定処理を行う。情報の関連性は、例えば次のように判定される。予測部1104により経路が予測された場合、その経路に関連する交通情報や道路情報、また経路に沿った店舗や施設の情報などは、関連性があると判定される。また、目的地として固有名称(甲子園やエキスポランドなど)が予測された場合には、その施設の情報、ジャンル(運動施設やレストランなど)が予測された場合には、そのジャンルに属する施設や店舗の情報、は関連性があると判定される。
予測部1104と判定部204の処理の具体例として次のようなものを考える。
予測部1104は、現在以降のユーザの走行経路および目的地としてノード系列「C2→C8→C10→C18→C15→L124(職場)」と予測する。履歴データ記憶部1103に記憶されている過去のエントリからノード間の走行所要時間の平均を計算することができ、C8からC18までの予想所要時間が10分と算出される。
情報取得部1105は、ノードC8に相当する交差点名称「清滝東」とノードC18に相当する交差点名称「生駒登山口」を含んだ「清滝東〜生駒登山口まで、25分」という交通情報を受信する。
判定部204では、予測部1104により予測された経路と情報取得部1105により取得された情報に関連があると判定する。この場合交通情報により、C8からC18を走行するのに、予想された走行所要時間以上必要となるため、経路案内部202に対してC8からC18を回避するルートを探索するよう指示が出される。そして、予測された経路と目的地、関連する交通情報(受信情報や、予想所要時間と実際の所要時間の差に関する情報など)を送信部205へ通知する。
次に、本実施の形態におけるキャラクタ管理部103aの構成について図15の機能ブロック図を用いて説明する。このキャラクタ管理部103aは、受信部501、シナリオ選択部502、シナリオデータ503、キャラクタ位置決定部504、出力内容決定部505、キャラクタ記憶部506及びキャラクタ選択部1501から構成される。図中、実施の形態1に示した構成と同一の機能のものは同一番号を付与し、詳細な説明は省く。
図中、キャラクタ選択部1501は受信部501においてイベント検出部102aから受信した情報に応じて表示部101に表示するエージェント、ユーザアバタの画像や動画を選択するキャラクタ選択部である。
キャラクタ記憶部506には、図16のようにエージェント、およびユーザアバタに関するキャラクタが複数記憶されている。これらは、あらかじめ記憶されているものの他に、ネットワークや記録媒体を経由して外部から取り込むことも可能である。例えば、商用情報を提供したい店舗や施設などが、それらに応じたキャラクタを対話装置100内部に送り込んでもよい。さらには、ユーザアバタにはユーザの似顔絵や画像を利用すると、ユーザにとってはよりアバタに親近感がわくという効果もある。
キャラクタ選択部1501は、受信部501においてイベント検出部102aから受信した情報、および選択基準に基づいてキャラクタ記憶部506に記憶しているキャラクタの中から表示すべきキャラクタを選択する。
選択基準の例を図17に示す。選択基準には、キャラクタ選択基準1701aに示すようなイベントに応じて選択キャラクタが異なるという基準と、キャラクタ選択基準1701bに示すようにユーザの状態に応じて選択キャラクタが異なるという基準が設けられている。例えば、キャラクタ選択基準1701aでは、イベントとして「渋滞」を受信した場合に、通常の所要時間との差が10分未満であれば、ユーザアバタは「Avatar2」、エージェントは「Agent1」が選択され、10分以上かかるのであればユーザアバタは「Avatar3」、エージェントは「Agent3」が選択されることを表す。この他にも取得した商用情報が10%Off未満であるか以上であるか、さらには商用情報の対象となる店舗までの距離や所要時間の長さに応じて選択基準を設けてもよい。
また、キャラクタ選択基準1701bでは、ユーザの状態を定義しており、ユーザの疲労度や現在走行している地域にどれくらい詳しいかを判定するユーザモデリング部を新たに設け、ユーザモデリング部によって状態を判定し、それに応じてキャラクタを選択する基準を設けている。ユーザの疲労度は、走行を開始してからの運転時間の長さや、どのような道路、例えば、交通量の多い道、山道、平坦な道など、を走行してきたかによって定義することが考えられる。具体的には、運転時間と走行道路のそれぞれに対する疲労度合いを「運転時間が30分未満なら疲労度は1」、「運転時間が60分未満なら疲労度は2」、「運転時間が60分以上なら疲労度は4」、「走行道路が平坦な道なら疲労度は0」、「走行道路が交通量の多い道なら疲労度は2」、「走行道路が山道、細い道なら疲労度は3」のようにテーブルで定義しておけばよい。ここで、ユーザが実際に走行した道路の種別はデータベースとしてもっておくとよい。また地域にどれくらい詳しいか、は地図データ記憶部1101や履歴データ記憶部1103を参照して、ある地域を過去にどのくらいの頻度で走行しているか、その地域をどのくらいカバーしているか、などにより定義できる。ユーザの状態としてはこの他にも、実施の形態3で示すような現在聴いている音楽の好き嫌いの度合いや、目的地があらかじめ分かっている場合には目的地なども考えることができる。
上述したような、取得した情報の内容による外的要因やユーザの状態のほかに、システムの内部状態、例えば予測部1104による目的地の予測確率が80%を超えるか超えないか、というものや、状況検出部1102で検出される運転者や同乗者、日時、天候、現在地などのセンサ情報による選択基準を設けてもよい。
このような選択基準を設けることで具体例として以下のような選択が実現される。
◆ユーザの疲労度が強い場合には、ユーザアバタとして疲れている状態を表すキャラクタ、エージェントとして強い調子で注意を促す役割のキャラクタを選択する。
◆渋滞が10分以上かかる場合には、ユーザアバタとしてイライラしている状態を表すキャラクタ、エージェントとしてなだめる役割のキャラクタを選択する。
◆昼食時で食事に行くことが予測される場合には、ユーザアバタとして空腹状態を表すキャラクタ、エージェントとして飲食店を象徴するキャラクタを選択する。さらに商用情報と組み合わせることで、各店舗や施設が支払った広告料金に応じて表示するエージェントの優先度を決定する。また、各店舗や施設を象徴するキャラクタはネットワークなどを利用して取得することができる。各店舗や施設を象徴するようなキャラクタの出現位置としては、画面に表示される地図上におけるそれらの位置であることが考えられる。
このような選択基準により、エージェントとユーザアバタを表示したときに受ける印象に整合性を持たせることが可能となる。
ここでは選択基準を用いることで、ユーザアバタ、エージェントのキャラクタを変更する例について述べたが、この他にも同一キャラクタであってもその大きさや色、表情を変更するようにしてもよいし、ユーザアバタとエージェントの関係を指定するようにしてもよい。ここで述べる関係とは、それぞれのキャラクタが担う立場やキャラクタの大きさなどのことであり、立場に関しては、エージェントの立場を強くする、ユーザアバタの立場を強くする、それらを対等にする、というもの、大きさに関しては、ユーザアバタの大きさをエージェントより大きくする、エージェントの大きさをユーザアバタより大きくする、それらを同じ大きさにする、という指定の方法が考えられる。
受信部501により受信された情報が、イベントとして渋滞であり、所要時間が通常より15分多く要するというものであった場合には、キャラクタ選択部1501は選択基準1701bに基づいてユーザアバタとして「Avatar3」、エージェントとして「Agent3」を選択する。
次に、図18に本実施の形態におけるシナリオデータの例を示す。シナリオ選択部502においても、受信部501により受信された情報に基づいてシナリオの選択が行われる。同様に、シナリオ503eが選択されることになる。503eを詳細に説明する。まず、ユーザアバタがシナリオ1に従って「(Destination)へ行くんだけど。」と発話する。ここで(Destination)はパラメータであり、シナリオ選択部502は、予測部1104により予測された目的地をここに充当する。今回の例では、目的地はL124(職場)である。次にエージェントはシナリオ2に従って、渋滞情報を発話する。この渋滞情報と後で述べるリルート情報は、実施の形態1で述べたようにパラメータである。さらにユーザアバタが「回避ルートは?」と発話してエージェントがリルート情報を述べる。
具体的には次のようになる。
<ユーザアバタ>:職場へ行くんだけど。
<エージェント>:清滝東〜生駒登山口まで、25分です。(渋滞情報)
<ユーザアバタ>:回避ルートは?
<エージェント>:清滝西交差点を右折です。(リルート情報)
出力内容決定部505は、キャラクタ選択部1501で選択されたキャラクタを、キャラクタ位置決定部504により決定された位置に表示し、シナリオ選択部502で選択されたシナリオをキャラクタに発話させる。
次に、このように構成されるイベント検出部102aおよびキャラクタ管理部103aの一連の動作について、図19および図20をそれぞれ参照して述べる。
まず、図19を参照してイベント検出部102aの動作を説明する。イベント検出部102aの動作は、図19(a)に示す履歴情報を蓄積する処理と、図19(b)に示す目的地を予測する処理に分かれる。
<履歴蓄積処理>
状況検出部1102は、まず、エンジンが始動されたことを検出すると(ステップS1901でYes)、車の位置と現在日時とを検出し(ステップS1902)、検出した位置と地図データ記憶部1101のノードデータベース1101bに登録された各ノードの位置とを照合することによって、車がいずれかのノードに位置するか否かの判断を繰り返す(ステップS1903)。たとえば、検出した位置がノードデータベース1101bに登録されたノードの位置から一定範囲内に位置する場合に、その車は、そのノードに位置すると判断し(ステップS1903でYes)、続いて、運転者の検出(ステップS1904)、同乗者の検出(ステップS1905)、天気の検出(ステップS1906)を行い、その検出結果を履歴データ記憶部1103に蓄積する(ステップS1907)。
具体的には、履歴データ記憶部1103は、状況検出部1102によってエンジン始動後に最初に検出された日時及び車の位置(ノード)を、それぞれ、履歴データの「日時」及び「出発地」として記録し、目的地に到達するまでの各ノードにおいて状況検出部1102によって検出された車の位置(ノード)、天気、運転者、同乗者を、それぞれ、履歴データの「経路」、「天気」、「運転者」、「同乗者」として記録し、状況検出部1102によってエンジン停止直前に検出された車の位置(ノード)及び日時から算出される所要時間を、それぞれ、履歴データの「目的地」及び「所要時間」として記録する。
そしてエンジンが停止すれば(ステップS1908でYes)作業を終了する。
<目的地予測処理>
状況検出部1102において、現在が予測を行うタイミングであると検出すると(ステップS1910でYes)、その時点における車の状況を検出する(ステップS1911)。具体的には、日時、現在地、運転者、同乗者等を検出し、予測部1104に通知する。
予測部1104は、状況検出部1102から通知された状況データ(日時、現在地、運転者、同乗者等)を履歴データ記憶部1103に記憶された履歴データと照合することによって目的地やジャンル、経路などを予測する(ステップS1912)。
次に、情報取得部1105は受信情報があるかどうかの確認を行い、情報があった場合には(ステップS1913でYes)、判定部204により、受信情報と、予測結果に対して関連があるかどうかの判定が行われる。
関連ありと判定された場合には(ステップS1914でYes)、送信部205は、所定の情報をキャラクタ管理部103aに対して送信する(ステップS1915)。
次に、図20を参照してキャラクタ管理部103aの動作を説明する。
受信部501は、イベント検出部102aの送信部205から情報の受信待ちを行う(ステップS2001)。
情報を受信すると(ステップS2001でYes)、シナリオ選択部502は、シナリオデータの中から受信した状況に該当するシナリオを選択し、リルート情報など、受信した情報の中から補充すべき内容がある場合はそれらの情報でシナリオを完成させる(ステップS2003)。
一方、キャラクタ位置決定部504では、受信した情報に応じてエージェント、およびユーザアバタを表示部101のどの場所に表示するか、また、どの場所から登場させるか、に関する決定が行われる(ステップS2004)。
また、キャラクタ選択部1501では、受信した情報に応じて選択基準をもとにキャラクタ記憶部506から所定のキャラクタを選択する(ステップS2002)。
出力内容決定部505では、表示部101に表示するユーザアバタとエージェントの画像や動画をキャラクタ記憶部506から抽出し、キャラクタ位置決定部504により決められた位置に表示させ、シナリオ選択部502で選択、充当されたシナリオに基づいて表示部101に表示する内容が決定され(ステップS2005)、表示部101に表示される(ステップS2006)。
以上のように、本実施の形態によれば、必要なタイミングで自動的にアバタとエージェントとの対話が開始されるだけでなく、ユーザごとの嗜好や行動がモデル化され(ユーザに性質に対応したキャラクタの選択とシナリオの選択が行われ)、ユーザにとって親近感をもてる仮想対話がなされることになる。これにより、必要なタイミングでユーザの注意が喚起され、例えば、運転中において、安全運転を確保するための各種情報が確実にユーザに提供されることになる。
なお、判定部204の基準としては、予測部1104により予測された経路や目的地、ジャンルと関連のある情報を取得するというもの以外に、情報の緊急度や重要度、さらにキャラクタ選択部1501の選択基準で述べたユーザモデリング部の判定に応じて関連性を判定してもよい。例えば、情報の緊急度という観点では、情報に対応する位置と現在の自車位置との距離が選択基準となり得るし、また情報が指し示す日時または有効期限であってもよい。また重要度という観点では、予測部1104による予測確率を選択基準として予測確率が高いほど重要度を高くするようにしてもよい。そして、シナリオデータを階層化しておき、そのような重要度や緊急度に応じて、対応するシナリオデータを選択してもよい。
また、図19のフローチャートにおいて、予測部1104による予測は一度だけでなく、予測のタイミングの度に、関連情報を取得するまでの間に何度行ってもよい。つまり、予測処理と情報取得処理は並列で動作し、それぞれが更新されるたびに関連情報があるかどうかの判断がなされるのでもよい。
また、履歴データ記憶部1103において記憶される経路情報は、本実施の形態で示したように交差点をノードとして、ノードの系列で蓄積する以外にも、走行した道路情報(交差点と交差点を結ぶリンク)を利用して蓄積してもよい。ノードC2とC8を結ぶ道路をリンクL(2,8)と表現すると、例えば図13における「2003年5月16日8時20分」のエントリにおける経路は、「L(2,8)→L(8,5)→L(5,6)→L(5,17)→L(17,27)」というように記録されることになる。このような表現であっても、予測部1104による予測は、交差点を蓄積する場合と同様の方法で可能である。
なお、予測部1104による目的地や経路の予測は、今後走行する可能性のある広範囲な経路を把握できるため、実施の形態1で述べたような現在地近辺の経路において渋滞を回避する以上の効果を生むことができる。
また、キャラクタやシナリオデータの選択は、本実施の形態で述べた要因だけに限られず、車の走行に関連するあらゆるイベント、例えば、走行時間、道路状況(信号が多い等)、時間帯(夕方、夜等)、交通状況、走行状態(速度、蛇行等)、天気・湿度、現在地等の要因に依存して決定されてもよい。
(実施の形態3)
本発明の第三の実施の形態について説明する。なお、本実施の形態における対話装置100の全体構成は図1に示された実施の形態1と同様であるが、イベント検出部とキャラクタ管理部の機能が異なる(ここでは、それぞれ、イベント検出部102b、キャラクタ管理部103bとする)。
本実施の形態におけるイベント検出部102bの構成について図21の機能ブロック図を用いて説明する。図中、実施の形態2に示した構成と同一の機能のものは同一番号を付与し、詳細な説明は省く。
このイベント検出部102bは、地図データ記憶部1101、状況検出部1102、判定部204、音楽データを記憶しておく音楽データ記憶部2101、音楽データ記憶部2101に記憶されている音楽を再生する再生部2102、実施の形態2で示した履歴データに加えて再生部2102により再生されている音楽の履歴を記憶しておく履歴データ記憶部1103、履歴データ記憶部1103に記憶されている履歴データをもとに、状況検出部1102により検出される状況と、再生部2102により再生される音楽との相関を抽出する相関抽出部2103及びキャラクタ管理部103aとデータの送受信を行うデータ送受信部2104から構成される。
音楽データ記憶部2101は、音楽コンテンツであるコンテンツデータ2101a及びその一覧を示すメタデータ2101bを記憶しているHDDやCD、DVD−RAM等の記憶装置である。メタデータ2101bは、図22に示されるように、記憶されているコンテンツデータ2101aに含まれる全ての曲を識別する「曲ID」、「アーティスト」、「ジャンル」及び「曲調」等の属性が記録されたディレクトリデータである。
図23は、本実施の形態において履歴データ記憶部1103に記憶されている履歴データの一例である。実施の形態2に示した履歴データに比べて、さらに再生部2102により再生された音楽の履歴が記憶されている。音楽の履歴は、図のように再生された音楽のみをエントリ単位で記憶しておく以外にも、演奏が開始された時刻や経路(例えば、C8→C5)や、スキップやリピートなどその音楽に対してユーザによりなされた操作とともに記憶しておくのでもよい。ここで、スキップとは再生されている音楽を聴くのを中止してそれ以外の音楽を聴くための操作であり、リピートとは再生されている音楽を2回以上繰り返して聴くための操作である。
図24は、相関抽出部2103による相関の抽出及び最も強い相関の特定の詳細な処理手順を示すフローチャートである。
まず、相関抽出部2103は、現在状況を構成する項目(「運転者」、「同乗者」、「目的地」、「曜日」など)のうち、予め設定された項目の組み合わせ(図25に示されたNo.1〜nまでの「相関抽出に使用する項目」)を1つ選択し(ステップS2401)、内容が一致する全てのエントリを履歴データ記憶部1103の履歴データから抽出し(ステップS2402)、それらエントリに記録された「曲」について、最も選曲件数の多いアーティスト、ジャンル及び曲調それぞれを特定し(ステップS2403)、特定した最頻度のアーティスト、ジャンル及び曲調の選曲比率(それぞれ、抽出した全エントリに記録された全アーティスト、全ジャンル、全曲調に対する最頻度のアーティスト、最頻度のジャンル、最頻度の曲調が選択された割合)を算出する(ステップS2404)。
そしてまだ選択されていない組み合わせがあれば(ステップS2405でYes)、ステップS2401から同様の処理を繰り返す。
そして、予め設定された全ての組み合わせ(図25に示されたNo.1〜nまでの「相関抽出に使用する項目」)について算出した最頻度のアーティスト、ジャンル、曲調の選曲比率の中から、最も高い選曲比率の特性(具体的なアーティスト、ジャンル、曲調)を最も相関の強い曲の特性として決定する(ステップS2406)。
たとえば、現在状況の「運転者」が「お父さん」、「同乗者」が「なし」、「目的地」が「会社」、「曜日」が「平日」である場合には、相関抽出部2103は、以下のようにして、最も相関の強い曲の特性を決定する。
まず、図25に示されたNo.1の項目の組み合わせ(「運転者」及び「目的地」)について現在状況と一致するエントリ、つまり、「運転者」が「お父さん」で、かつ、「目的地」が「会社」である全てのエントリを履歴データから読み出し、それらのエントリに記録された全ての「曲」について、アーティスト、ジャンル及び曲調ごとに集計することで、最も多く選曲されたアーティスト、ジャンル及び曲調とそれぞれの選曲比率(例えば、最頻度で選択されたアーティストが「F」でその選択比率が25%、最頻度で選択されたジャンルが「J−POP」で選択比率が42%、最頻度で選択された曲調が「躍動感」でその選択比率が34%)を算出する。
同様にして、図25に示されたNo.2の項目の組み合わせ(「運転者」、「目的地」及び「同乗者」)について現在状況と一致するエントリ、つまり、「運転者」が「お父さん」で、かつ、「目的地」が「会社」で、かつ、「同乗者」が「なし」である全てのエントリを履歴データから読み出し、それらのエントリに記録された全ての「曲」について集計することで、最も多く選曲されたアーティスト、ジャンル及び曲調とそれぞれの選曲比率を算出する。
以下、同様にして、図25に示されたNo.3〜No.nの項目の組み合わせそれぞれについて、最も多く選曲されたアーティスト、ジャンル及び曲調とそれぞれの選曲比率を算出し、最後に、算出された合計3n個の選曲比率の中から最も高いものを特定し、その選曲比率に対応する曲の特性(例えば、ジャンル「J−POP」)が現在状況と最も相関が強い曲の特性と決定する。
図26は、以上のような手順によって自動選曲される曲と現在状況との組み合わせの例を示す図である。ここでは、例えば、車で、「平日」に「お父さん」が「会社」に行くときには、ジャンル「J−POP」の曲が自動演奏され、「お母さん」が「スーパーA」に行くときには、ジャンル「洋楽」の曲が自動演奏され、「休日(「土・日」)」に「家族(運転者が「お父さん」で同乗者が「お母さん」)で経路「C6−C8(海岸沿いの道)」を走行するときには、曲調「爽快」な曲が自動演奏され、食事(「目的地」が「レストランB」)に行くときには、ジャンル「バラード」の曲が自動演奏され、「長男A」が運転するときには、「アーティストC」の曲が自動演奏される例が示されている。
相関抽出部2103はまた、データ送受信部2104によりキャラクタ管理部103aから受信したデータに基づいて、履歴データ記憶部1103から抽出した相関の修正を行う。具体的には、図26の相関において、曜日が「土・日」であり、経路が「C6―C8」、運転手が「お父さん」、同乗者が「お母さん」という状況での好みの音楽は「爽快」であるが、この状況においてキャラクタ管理部103aから「躍動」に相当する音楽を再生するよう指示が与えられると(詳細については後述する)、図27で示される相関を図28のように修正する。さらにこの指示に従って再生部2102に対して「躍動」の音楽を再生するよう指示し、再生部2102は、音楽データ記憶部2101から「躍動」の音楽を選択して再生を行うことになる。
判定部204は、履歴データ記憶部1103に記憶されている履歴に基づいてイベントの発生を判定する。イベントとは具体的には、曲ID001からID010の音楽をまとまりとしたときにこのまとまりが複数回繰り返して再生されている、ユーザが複数回繰り返してスキップ操作を行った、同じ音楽が累計で幾度となく再生されておりユーザにとって目新しさがなくなった、などユーザが現在再生されている音楽に対して食傷気味であると判断される状態である。これ以外にも、自動選曲機能や音楽検索機能などが備わっている場合には、ユーザがこの機能の実行を明示的に指示してもよい。さらには、音楽再生機能を所定時間以上利用していない、FMやAM放送、音楽再生機能などをザッピングしている、渋滞している、運転者や同乗者が眠くなっている、などの状態を検出するのでもよい。このうち眠くなっている状態の検出方法は、カメラでユーザの顔を撮影し解析するのでもよいし、ユーザの体と接触している箇所に脈拍を検知するセンサを設けて、脈拍が安定している状態を検出するのでもよい。
データ送受信部2104は判定部204の判定に従って、相関抽出部2103により抽出されたユーザの好みの音楽に関する情報をキャラクタ管理部103aへ送信する。また、キャラクタ管理部103aから所定の情報を受信する。
次にこのように構成されるイベント検出部102bにおけるイベント検知、およびデータの送受信に関する動作について、図28のフローチャートを用いて説明する。
相関抽出部2103により、履歴データ記憶部1103のデータから現在の状況において好まれる音楽に関する相関が抽出されると(ステップS2801)、判定部204において上述したイベントが発生しているかどうかの判定が行われる。イベントが発生したと判定されると(ステップS2802でYes)、データ送受信部2104により現在の状況においてユーザに好まれる音楽に関する情報がキャラクタ管理部103aに送信される(ステップS2803)。
データ送受信部2104では、キャラクタ管理部103aからのデータ受信待ち状態にはいり、データを受信すると(ステップS2804でYes)、相関抽出部2103では現在の状況と好みの音楽の相関を修正する必要があるかどうか判定する。修正する必要があれば(ステップS2805でYes)、相関を修正し(ステップS2807)、データ送受信部2104において受信したデータに基づいて音楽の再生を行う(ステップS2805)。
次に、本実施の形態におけるキャラクタ管理部103bの構成について図29の機能ブロック図を用いて説明する。図中、実施の形態1、2に示した構成と同一の機能のものは同一番号を付与し、詳細な説明は省く。
このキャラクタ管理部103bは、表示部101、シナリオ選択部502、シナリオデータ503、出力内容決定部505、キャラクタ記憶部506、イベント検出部102bとデータの送受信を行う送受信部2901、ユーザと対話装置100との対話を制御する対話制御部2906、ユーザからの入力を受け付ける入力部105、入力される語彙の一覧を記憶しておく入力語彙記憶部2904、入力語彙記憶部2904に記憶されている語彙の一覧の中で現在の状態においてユーザからの入力の可能性がある候補を作成する入力候補作成部2905、及び、入力部105に入力された内容を解釈する解釈部2903から構成される。
本実施の形態においてシナリオデータに記憶されるシナリオの例を図30に示す。図中、シーケンス1とシーケンス4(Yes)の後に設けられた「Wait user input」は、それぞれの発話が終わった後、所定の時間(例えば、5秒)ユーザからの入力待ち状態に入ることを示している。詳しく述べると、シーケンス1の後はエージェントによる問いかけの後の肯定、否定に関するユーザからの入力を、そして、シーケンス4(Yes)の後はユーザの好みの音楽ジャンルに関する自由な入力を待つことになる。また、シーケンス1の後は、ユーザからの肯定、否定の入力に応じてその後のシナリオが変化する。ユーザから肯定的な入力があった場合は、図のシーケンス2(Yes)からシーケンス6(Yes)までのシナリオが実行され、否定的な入力があった場合は、シーケンス2(No)からシーケンス3(No)が実行される。ユーザからの入力は必ずしも必要ではなく、ユーザからの入力がない場合には、デフォルトとしてシーケンス2(Yes)からシーケンス6(Yes)のシナリオを実行するようにするとよい。また、図中シーケンス3(Yes)の後に設けられた「Display favorite genre List」は、相関抽出部2103により抽出される、現在のシチュエーションにおいてユーザが好むと考えられる音楽のジャンルがリスト形式でユーザに提示されることを示している。シーケンス5(Yes)、6(Yes)において(genre)はパラメータであり、ユーザから入力された音楽ジャンル、または、入力がない場合にユーザの好みにしたがって自動的に選択されたジャンルの名称が充当される。
次にこのように構成されるキャラクタ管理部103bの一連の動作について、図31のフローチャートを用いて説明する。
送受信部2901において、イベント検出部102bからデータを受信すると(ステップS3101でYes)、シナリオ選択部502は、シナリオデータ503の中から所定のシナリオを選択する(ステップS3102)。なお、本実施の形態では簡単のためシナリオを1種類にしているが、当然、実施の形態1や2のように、イベント検出部102bからの受信内容に応じてシナリオを選択するようにしてもよい。
対話制御部2906では、選択されたシナリオに基づいて発話内容を順次決定していく(ステップS3103)。図30のシナリオに従うと、まずシーケンス1の「そろそろ違う曲にしましょか」というエージェントの発話が行われる。表示部101における表示例を図32に示す。
シーケンス1の後は「Wait user input」により入力待ち状態にはいるため(ステップS3104でYes)、入力候補作成部2905ではユーザからの入力の可能性にしたがって入力語彙記憶部2904の語彙の取捨選択が行われる(ステップS3105)。
入力候補作成部2905の動作について説明する。図33の2904aに入力語彙記憶部2904に記憶されている語彙の例を示す。シーケンスに基づくと、シーケンス1の発話のあとは、ユーザからの肯定、否定を表す表現の入力があると予想されるため、入力候補作成部2905は2904aの中からカテゴリ「Yes/No」に属する3301に示される語彙のみを抽出して、入力候補として作成する。このとき、入力の可能性のある語彙を完全に3301に限定してしまうのではなく、他の語彙に比べて入力可能性の優先度を高めるという処理を施すのでもかまわない。
対話制御部2906では所定時間以内に入力があるかどうかの判定を行い、なければ(ステップS3106でNo)シナリオにしたがってシーケンス2(Yes)、シーケンス3(Yes)の発話を行う。表示例を図34に示す。
シーケンス3(Yes)の発話のあとは、「Display favorite genre List」であるので、送受信部2901で受信したユーザの好みの音楽のリストを表示し、シーケンス4(Yes)の発話を行い、さらに「Wait user input」によりユーザからの入力待ちを行う(ステップS3104でYes)。表示例を図35に示す。
入力候補作成部2905では、同様に入力候補の取捨選択が行われる(ステップS3105)。ここでは、(User Favorite genre)の入力待ちであるので、2904aに示す語彙の中から、送受信部2901で受信したユーザの好みの音楽を表す語彙を抽出する。抽出された語彙を3601に示す。
ここで、図37に示すように所定時間内にユーザから入力「躍動」があると(ステップS3106でYes)、対話制御部2906では入力内容を記憶しておき(ステップS3107)、シナリオに発話内容が残っていれば(ステップS3108でYes)、残りの発話を行う。表示例を図38に示す。
シーケンスが終了すると(ステップS3108でNo)、対話制御部2906に記憶されているユーザからの入力内容は、送受信部2106によりイベント検出部102bへ送信される(ステップS3109)。
なお、図30に示したシナリオのほかに、図39に示すようなシナリオを考えることができる。このシナリオでは、ジャンルリストをユーザに提示して選択してもらうのではなく、エージェントがジャンルを1つずつ提示し、それに対するユーザの反応や応答に応じて対話が進んでいく。図中、(genre1)や(genre2)は、ユーザが好む音楽のジャンルを表すパラメータであり、シーケンス3においてエージェントが(genre1)を提示したあと、「Wait user input」により入力待ち状態となり、ユーザから肯定的な入力があれば、シーケンス4(Yes)に進み、エージェントが発話をしてシナリオは終了する。一方、否定的な入力があった場合や入力がなにもない場合には、シーケンス4(No)に進み、ユーザアバタが他にジャンルを推薦するように働きかける発話を行う。それに対してエージェントはシーケンス5(No)で、別のジャンルである(genre2)を提示し、入力待ち状態に入る。肯定的な入力があればシーケンス6(Yes)で終了し、それ以外であればシーケンス6(No)で終了する。このように、エージェントが順にジャンルを提示するようなシナリオでは、ユーザは特に表示部101に視線を向ける必要がなく、その他の行為を阻害することがなくなるという利点がある。
以上のように、本実施の形態によれば、キャラクタ同士の対話が必ずしも自分の思い通りではない場合には、ユーザは、対話に介入して自分の意思を伝えることができる。したがって、ユーザにとって興味のもてないキャラクタ同士の対話が勝手に進んでいくという不具合が回避される。
なお、データ送受信部2104によって車の外部からダウンロードする情報は、音楽データ等のコンテンツだけに限られず、キャラクタ記憶部506に記憶させるキャラクタデータやシナリオデータ503であってもよい。これによって、車載の対話装置100が保持するキャラクタデータやシナリオデータを動的に増加させたり更新したりすることが可能になる。例えば、走行している地域に合ったキャラクをエージェントやユーザアバタとして採用することで、ユーザによる注目度を向上させ、その結果として、ユーザに有益な情報が提供され得る。
また、シナリオデータを構成しているシーケンスの構造によっては、シナリオデータの選択(切り替え)によって、シナリオ全体が異なる内容になったり、シナリオの一部だけだ異なる内容になったりする。これらは、シナリオを構成するシーケンスをいかに定義するかによって、適宜決定されることになる。
(実施の形態4)
実施の形態1から3においては、車両の状況に応じてアバタとエージェントの対話のシナリオを選択する方法について述べた。本実施の形態においては、シナリオが選択された後に、さらに、アバタとエージェントが対話の間隔を制御する例について述べる。
本実施の形態における対話装置の構成を図40に示す。この対話装置は、シナリオデータ記憶部4101、キャラクタ記憶部4102、シナリオ選択部4103、キャラクタ位置決定部4104、車両状況検出部4105、対話間隔制御部4106、出力内容制御部4107及び表示部4108を備える。なお、これらの構成要素のうち、シナリオデータ記憶部4101、キャラクタ記憶部4102、シナリオ選択部4103、キャラクタ位置決定部4104、出力内容制御部4107及び表示部4108は、それぞれ、実施の形態1におけるシナリオデータ503、キャラクタ記憶部506、シナリオ選択部502、キャラクタ位置決定部504、出力内容決定部505及び表示部101と同様であるため、ここでは説明を省略する。
車両状況検出部4105は、ウインカー、ブレーキペダル、アクセルペダル、ハンドブレーキ、ハンドル、ライト、スピードメータ等、車両の状況に関する情報を検出するものである。これにより、ドライバの運転状況を検出することができる。例えば、交差点のカーブを走行中であったり、車線を変更している途中であったり、バックにて車両を後退させようとしている状態であるなどの状況を検出することが可能である。
対話間隔制御部4106は、車両状況検出部4105の状況に応じてアバタとエージェントとの対話間隔を制御するものである。実施の形態3でも述べたように、エージェントからの情報提供に対して、ユーザに代わってアバタが応答を生成する。これにより、運転者がエージェントからの情報に対して、逐次、応答することなく、自動的に対話が進行する。さらに、エージェントとアバタとの対話において、ユーザはエージェントから提供された情報に対して介入することが可能である。しかしながら、ユーザが運転に集中しなければならないときには、ユーザが対話に対して介入するタイミングを逃してしまうことがある。そこで、ユーザの運転状況に応じてアバタとエージェントとの対話の間隔を制御することで、ユーザが運転に集中しなければならないときには、介入できるタイミングを多くとり、ユーザが運転にそれほど集中する必要がないとき(停車中等)は、テンポよく対話をすすめることが好ましい。
いま、図42の画面表示例に示されるように、エージェントからの提案である「そろそろポップ系の楽曲にしましょうか?」という発話に対して、アバタが「他のジャンルがいいなぁ」という発話をするシナリオがシナリオ選択部4103によって選択され、出力内容制御部4107によって表示されるとする。もし、ユーザがポップ系の楽曲の再生を希望したときには、音声入力等により、アバタとエージェントとの対話に介入することができる。しかしながら、運転に集中しなければならないときには、対話に介入するタイミングを逃してしまう。そこで、例えば、車両の速度が時速20KM以上で方向指示器(ウインカー)が作動中であると車両状況検出部4105によって検出された場合は、対話間隔制御部4106は、車両が車線変更を行っているか、交差点の右左折中であると判断し、エージェントの発話から20秒経過してからアバタが発話を生成するように、出力内容制御部4107を制御する。一方、車両が停車中または、上記の車両の速度が時速20KM以下であると車両状況検出部4105によって検出された場合には、対話間隔制御部4106は、エージェントの発話から3秒経過した時点でアバタが発話を生成するように、出力内容制御部4107を制御する。
このようにして、車両の状況に応じて、対話の間隔を制御することで、ユーザの運転状況を加味した対話を実現することが可能になる。運転者が慌てて、対話に介入することがなくなるため、安全運転を実現することが可能になる。
上記の動作を図41のフローを用いて説明する。はじめに、実施の形態1と同様に、シナリオ選択部4103及びキャラクタ位置決定部4104は、それぞれ、対話のシナリオ及びキャラクタを選択・決定する(ステップS4201)。この選択・決定に基づいて、出力内容制御部4107により、エージェントまたは、アバタの発話が開始される(ステップS4202)。出力内容制御部4107は、エージェントまたはアバタの発話が完了したか否かを検出し、発話が完了している場合には、次のステップ(ステップS4204)へ進む(ステップS4203)。発話が完了していない場合には、本ステップを繰り返す。
次の発話があるか否かを判断する(ステップS4204)。次の発話がある場合には、ステップS4205へ進む。一方、本発話で終了の場合には、フローを終了する。
次の発話がある場合には、車両状況検出部4105は、車両の状況を検出する(ステップS4205)。検出された車両の状況に応じて、対話間隔制御部4106は、対話の間隔を制御する。例えば、車両の速度が時速20KM以上で方向指示器を出している場合は、車両の状況が運転に集中しなければならない状況と判断し、次の発話まで20秒の間隔をとる。車両がそれ以外の状態の場合には、次の発話まで3秒の時間をとる。そして、ステップS4202へ戻る。
以上の操作を繰り返すことにより、車両の状況に応じて、対話の間隔を制御することが可能になる。特に、アバタとエージェントとの対話に対して、運転者が介入できる場合には、運転者の状況に応じて、対話の間隔を制御する必要がある。
なお、本実施の形態においては、車両の速度と方向指示器の操作に応じて、対話の間隔の制御規則をあらかじめ設定されており、全ての運転者に対して同一の制御を行っている。しかしながら運転者の運転技能は、全ての運転者にとって同一ではないため、運転者毎に制御規則を設定する必要がある。そこで、普段の運転時の車載機器に対する操作履歴から、対話を制御するための制御規則を抽出することも可能である。例えば、車載オーディオ機器の操作履歴を蓄積し、その操作履歴と車両の速度との関係を抽出することで、対話の間隔を制御する規則を決定することも可能である。具体的には、車載オーディオ機器に対する操作の90%が車両の速度が時速10KM以下であることが検出できた場合には、対話制御の間隔を制御する閾値を時速10KMと設定することも可能である。これにより、運転者の技能に応じて対話制御の間隔を決定することが可能になる。
なお、本実施の形態においては、車両の状況として、車両の速度と方向指示器のセンサ情報から車両の状況を判断したが、さらに、車両の走行履歴を蓄積し、運転者が慣れている道路であるかどうかをもとに、対話の間隔を制御してもよい。また、周辺の地図情報を取得し、単位面積あたりの交差点が多い状況では、運転に集中すべきと判断し、対話の間隔を長めにとるようにしてもよい。なお、単位面積あたりの道路の数等により道路の複雑度を評価し、運転者が運転に集中すべき度合いをもとに対話の間隔を制御してもよい。
また、本実施の形態においては、20秒と3秒という不連続な対話間隔で制御していたが、車両の状況を連続的な値で評価できる場合には、度合いを用いて連続的に対話間隔を制御してもよい。
なお、本実施の形態においては、車両の状況に応じて対話間隔を制御する例について述べた。しかし、地図情報によってエージェントとアバタのキャラクタの位置関係(表示上の位置関係)を制御することも可能である。そのような変形例に係る対話装置の構成を図43に示す。図43においては、地図情報検出部4405、キャラクタ位置決定部4404以外の部分は、図40に示された同一名の構成要素と同じ機能であるため説明を省略する。
地図情報検出部4405は、現在、表示部において表示されている地図情報を検出する。
キャラクタ位置決定部4404は、対話シナリオが地図情報に関連するものである場合には、地図情報検出部4405で検出された地図情報を用いてエージェントを表示する位置を決定する。一方、地図情報と関連のないシナリオの場合には、地図情報とは独立してエージェントとアバタの位置関係を決定する。例えば、図44(a)の画面表示例に示されるように、ハンバーガー店に関する情報をエージェントが発話する場合には、表示されている地図上に所定のハンバーガー店がある場合には、そこにエージェントを表示させ、それに対応して、対話できる位置にアバタを表示させる。また逆に、地図情報に関連のない、音楽の推薦情報に関する対話シナリオの場合には、図44(b)の画面表示例に示されるようにエージェントとアバタを横に並べて対話するような位置関係に表示する。このように対話する内容に応じてエージェントとアバタの位置関係を変更することにより、対話によって提供される情報を容易に確認することが可能になる。
なお、上記の実施の形態においては、エージェントとアバタの位置関係の決定例について述べた。しかし、エージェントやアバタは常に表示されている必要がなく、対話の音声のみを確認できたらいい場合もある。そのような要求に応える変形例に係る対話装置の構成を図45に示す。図45において、キャラクタ表示制御部4605以外の部分は、図40に示された同一名の構成要素と同様であるため説明を省略する。
キャラクタ表示制御部4605は、車両状況検出部4604によって車両が停車中であるか否かが検出されると、図46(a)の画面表示例に示されるように、車両が走行中のときには、キャラクタを画面上に表示することなく、音声のみで対話を運転者に伝える。逆に、車両が停車中の場合には、図46(b)の画面表示例に示されるように、キャラクタを表示し、音声と画像で対話内容を運転者に伝える。このようなキャラクタ表示のON/OFF制御により、走行中は、画面の変化を少なくし、運転に集中することができ、停車中は対話内容から情報を取得しやすくなるという効果がある。なお、エージェントとアバタの表示に関しては、独立で表示の制御を行ってもよい。
(実施の形態5)
上記実施の形態4においては、シナリオに基づく対話の間隔の制御やキャラクタの表示位置・表示/非表示の制御を車両の状況や地図情報を基に行った。本実施の形態においては、対話中に他の情報を取得した場合の対話制御について述べる。
一般に、道路ビーコンから取得される情報は、道路を通過したときに取得され、同時に、その情報を音声等で再生するものである。そのため、対話中に情報を取得した場合には、対話が中断されてしまうことになる。そこで、本実施の形態は、VICS等で取得された情報であっても、対話と整合がとれる形で、運転者に情報を提供できるようにしたものである。
本実施の形態における対話装置の構成を図47に示す。この対話装置は、シナリオデータ記憶部4801、キャラクタ記憶部4802、シナリオ選択部4803、キャラクタ位置決定部4804、情報読上げ制御部4805、対話進行制御部4806、出力内容制御部4807及び表示部4808を備える。なお、これらの構成要素のうち、情報読上げ制御部4805及び対話進行制御部4806以外は、図40に示された同一名の構成要素と同様であるため、説明を省略する。
情報読上げ制御部4805は、VICS、ネットワーク等により、取得した情報の読上げを制御する処理部である。例えば、道路ビーコンから渋滞状況等の交通情報を取得し、その情報を読上げることがある。また、FM多重放送等から天気予報を取得し、明日の天気を読上げることも可能である。
対話進行制御部4806は、情報読上げ制御部で読上げる情報があった場合に、エージェントとアバタとの対話の進行を制御するものである。例えば、図49に示されるように、いま、情報読上げ制御部4805が、エージェントとアバタとの対話中にVICS交通情報を取得したとする。エージェントとアバタとの対話は、エージェントからの提案に対して、アバタが応答するというシナリオになっており、対話のクラスタがあらかじめ設定されているものとする。このとき、本図に示されるように、(エージェント提案1−アバタ応答1)および(エージェント提案2−アバタ応答2)の間のタイミングでVICS交通情報を取得した場合には、取得したタイミングで交通情報の読上げをおこない、エージェントとアバタとの対話の妨げになることがない。
しかしながら、図50に示されるように、情報読上げ制御部4805が、エージェント提案1とアバタ応答1との間でVICS情報を取得したとする。このとき、取得と同時に、読上げ再生を行うと、エージェントとアバタとの対話の途中で、異なる情報が挿入され、運転者に混乱を招くおそれがある。そこで、取得した情報が天気予報等の、すぐに運転者に伝えなければならない情報でない場合には、対話進行制御部4806は、アバタ応答1の再生後に、VICS情報の読上げを行うように出力内容制御部4807を制御する。これにより、エージェントとアバタの対話の途中で、異なる情報が挿入されることがなくなる。
一方、VICS等で取得した情報が、交通情報等で、ユーザに早急に知らせる必要がある情報である場合もある。このときの対話制御を、図51を用いて説明する。図51は、図50と同様に、対話の途中で交通情報を取得した例を示している。この場合、VICSで取得した交通情報をエージェント提案1とアバタ応答1の間に再生し、その後、アバタによる補間応答を挿入するように、対話進行制御部4806は出力内容制御部4807を制御する。具体的には、図51の例に示されるように、「さっき、なんて?」というようなアバタからの補間応答を再生し、再び、エージェント提案1からのシーケンスを再生するに出力内容制御部4807を制御する。これにより、早急に伝えなければならない交通情報を優先して即座にユーザに伝え、自然な対話も実現することが可能になる。
上記の動作を図48のフローチャートを用いて説明する。対話進行制御部4806は、情報読上げ制御部4805がVICSやネットワークにより割り込み読上げ情報を取得したか否かを判断する(ステップS4901)。取得していた場合には、次のステップ(ステップS4902)へ進む。取得していない場合には、本ステップを繰り返す。
割り込み情報を取得したときに、対話進行制御部4806は、提案―応答のような組となる対話中であるか否かを判断する(ステップS4902)。対話中でない場合には、読上げ情報を再生するように出力内容制御部4807を制御する(ステップS4903)。対話の途中である場合には、次のステップ(ステップS4904)へ進み、対話進行制御部4806は、割り込み情報が交通情報のように即時性を重視する情報であるか否かを判断する(ステップS4904)。即時性のない情報の場合には、ステップS4905へすすみ、対話が終了してから、読上げ情報を再生するように出力内容制御部4807を制御する。即時性のある情報である場合には、ステップS4906へ進み、取得した情報の読上げ再生を行い、読上げ後、「さっき、なんて」というような補間応答を再生し、再び、対話の組の再生を行うように出力内容制御部4807を制御する(ステップS4907)。
以上の動作により、エージェントとアバタの対話中に、他の情報の読上げ等を行わなければならないときでも、自然な対話を実現することが可能になる。
なお、本実施の形態では、単一の補間応答の例について説明したが、さらに、自然な対話を実現するためには、複数の補間応答を状況によって選択することも可能である。例えば、図51において「ポップ系は、いかがでしょう」の発話と「○○交差点渋滞しております」という発話との間の時間によって、アバタの補間応答を変更してもよい。具体的には、エージェントの発話と割り込み発話との間の時間が2秒間と短いときには、アバタの補間応答は「もう、一回言って」という応答が補間され、5秒間以上と長いときには、アバタのほか応答は「さっき、なんていいましたっけ」という応答が補間されてもよい。これにより、エージェントとアバタの対話に割り込み発話が挿入されたときにでも、自然な対話を実現することができる。
(実施の形態6)
上記実施の形態4及び5においては、対話の制御について説明した。しかしながら、エージェントとアバタとの対話は、自動的に進行するため、ユーザが聞き逃すことなく、全ての対話を聞き取れる保証はない。そこで、対話した内容について、車両を停車したときには、ユーザが、自動的に進行した情報を振り返ることができるようにした形態を、本実施の形態で説明する。
本実施の形態における対話装置の構成を図52に示す。この対話装置は、シナリオデータ記憶部5301、キャラクタ記憶部5302、シナリオ選択部5303、キャラクタ選択部5304、車両状況検出部5305、対話内容蓄積部5306、出力内容制御部5307及び表示部5308を備える。なお、本図においては、対話内容蓄積部5306以外は、41に示された同一名の構成要素と同様であるため説明を省略する。
対話内容蓄積部5306は、シナリオにそってエージェントとアバタとの対話内容を蓄積する。そして、車両状況検出部5305によって車両が停車したことが確認されると、対話内容蓄積部5306は、蓄積した対話内容を表示部5308に出力することで、これまでの対話において提供した情報の概要を表示部5308に表示させる。
例えば、図54の画面表示例に示されるように、ユーザが車両を運転中にエージェントとアバタとの間で、いくつかの対話がなされた場合において、対話内容蓄積部5306は、それらの対話履歴を蓄積し、車両状況検出部5305によって、車両のサイドブレーキ等がかけられ、車両が停止したと判断された場合には、蓄積した対話履歴を表示部5308に送ることで、図54の右下に示される画面表示例のように、それまでの対話で提供された楽曲に関する情報のインデクス(「ジャンル」、「ポップ」、「ジャズ」、「演歌」)を表示させる。これにより、エージェントとアバタとの対話中には、運転に集中していたために、聞き逃した情報であっても、車両を停車したときには、確認することが可能になる。
上記の動作を図53のフローチャートを用いて説明する。シナリオ選択部5303及びキャラクタ選択部5304は、それぞれ、シナリオとキャラクタを選択する(ステップS5401)。選択されたシナリオとキャラクタに応じて、出力内容制御部5307により、エージェントまたは、アバタの対話が開始される(ステップS5402)。車両状況検出部5305は、サイドブレーキがかけられているか否かを検出することで、車両が停車しているかを判断する(ステップS5403)。車両が停止していていない場合には、対話内容蓄積部5306は、エージェントとアバタが対話している内容を蓄積する(ステップS5404)。さらに、対話を継続させ(ステップS5405)、ステップS5403へ戻る。
車両が停止していた場合には、ステップS5406へ進む。対話内容蓄積部5306は、蓄積した対話の内容(履歴)を表示部5308に出力して表示する。表示された内容に対しては、ユーザはリモコンや音声等の手段を用いて、選択し、その内容を確認することが可能である。
このように、車両が停止してから、エージェントとアバタによって対話された内容を確認することができるため、対話中に聞き逃した内容であっても、車両を停車することで確認することが可能になる。
本発明にかかる対話装置は、キャラクタによる対話を表示する表示装置等として、特に、ナビゲーションや音楽の再生を行う車載装置等として有用である。またTVや携帯電話、PDA等、表示部を有する機器全般にも応用できる。
本発明の実施の形態全体における対話装置の構成図である。 本発明の実施の形態1におけるイベント検出部の構成図である。 経路間違いを示す図である。 経路逸脱個所の近傍を示す図である。 本発明の実施の形態1におけるキャラクタ管理部の構成図である。 シナリオデータを示す図である。 キャラクタの表示例を示す図である。 キャラクタの表示例を示す図である。 本発明の実施の形態1におけるイベント検出部の動作を示すフローチャートである。 本発明の実施の形態1におけるキャラクタ管理部の動作を示すフローチャートである。 本発明の実施の形態2におけるイベント検出部の構成図である。 地図データ記憶部に記憶されているノードデータを示す図である。 履歴データ記憶部に記憶されている履歴データを示す図である。 ランドマークと、その属するジャンルを定義した図である。 本発明の実施の形態2におけるキャラクタ管理部の構成図である。 キャラクタ記憶部に記憶されているエージェント、ユーザアバタの一例を示す図である。 キャラクタ選択部によるキャラクタ選択の基準を示す図である。 シナリオデータを示す図である。 本発明の実施の形態2におけるイベント検出部の動作を示すフローチャートであり、(a)は履歴情報を蓄積する処理を、(b)は目的地を予測する処理のフローチャートである。 本発明の実施の形態2におけるキャラクタ管理部の動作を示すフローチャートである。 本発明の実施の形態3におけるイベント検出部の構成図である。 音楽データ記憶部に記憶されたメタデータの一例を示す図である。 履歴データ記憶部に記憶されている履歴データを示す図である。 相関抽出部の動作を示すフローチャートである。 相関抽出部による相関抽出に使用される項目の例を示す図である。 現在状況とその状況で好む曲との組み合わせの例を示す図である。 現在状況とその状況で好む曲との組み合わせが修正された様子を示す図である。 本発明の実施の形態3におけるイベント検出部の動作を示すフローチャートである。 本発明の実施の形態2におけるキャラクタ管理部の構成図である。 シナリオデータを示す図である。 本発明の実施の形態3におけるキャラクタ管理部の動作を示すフローチャートである。 キャラクタの表示例を示す図である。 入力語彙記憶部に記憶されている語彙と、入力候補作成部により作成される語彙の例を示す図である。 キャラクタの表示例を示す図である。 キャラクタの表示例を示す図である。 入力語彙記憶部に記憶されている語彙と、入力候補作成部により作成される語彙の例を示す図である。 キャラクタの表示例と、ユーザによる入力を示す図である。 キャラクタの表示例を示す図である。 シナリオデータを示す図である。 本発明の実施の形態4における対話装置の構成を示すブロック図である。 実施の形態4における対話装置の動作を示すフローチャートである。 キャラクタの表示例を示す図である。 変形例に係る対話装置の構成を示すブロック図である。 キャラクタの表示例を示す図である。 変形例に係る対話装置の構成を示すブロック図である。 キャラクタの表示例を示す図である。 本発明の実施の形態5における対話装置の構成を示すブロック図である。 実施の形態5における対話装置の動作を示すフローチャートである。 エージェントとアバタとの対話の進行例を示す図である。 エージェントとアバタとの対話の進行例を示す図である。 エージェントとアバタとの対話の進行例を示す図である。 本発明の実施の形態6における対話装置の構成を示すブロック図である。 実施の形態6における対話装置の動作を示すフローチャートである。 キャラクタの表示例を示す図である。
符号の説明
100 対話装置
101、4108、4407、4607、4808、5308 表示部
102、102a、102b イベント検出部
103、103a、103b キャラクタ管理部
104 スピーカー
105 入力部
106 エージェント
107 ユーザアバタ
201 位置検出部
202 経路案内部
203 逸脱地点記憶部
204 判定部
205 送信部
501 受信部
502、4103、4403、4603、4803、5303 シナリオ選択部
503 シナリオデータ
503a シナリオデータの一例
503b シナリオデータの一例
503c シナリオデータの一例
503d シナリオデータの一例
503e シナリオデータの一例
503f シナリオデータの一例
503g シナリオデータの一例
503h シナリオデータの一例
504 キャラクタ位置決定部
505 出力内容決定部
506、4102、4402、4602、4802、5302 キャラクタ記憶部
1101 地図データ記憶部
1101a 地図データ
1101b ノードデータ
1102 状況検出部
1103 履歴データ記憶部
1104 予測部
1105 情報取得部
1501 キャラクタ選択部
1701a キャラクタ選択基準
1701b キャラクタ選択基準
2101 音楽データ記憶部
2101a コンテンツデータ
2101b メタデータ
2102 再生部
2103 相関抽出部
2104 データ送受信部
2901 送受信部
2903 解釈部
2904 入力語彙記憶部
2904a 入力語彙記憶部の語彙の一例
2905 入力候補作成部
2906 対話管理部
3301 入力候補作成部により作成される入力候補の一例
3601 入力候補作成部により作成される入力候補の一例
4101、4401、4601、4801、5301 シナリオデータ記憶部
4107、4406、4606、4807、5307 出力内容制御部
4104 キャラクタ位置決定部
4105、4604、5305 車両状況検出部
4106 対話間隔制御部
4404、4804 キャラクタ位置決定部
4405 地図情報検出部
4605 キャラクタ表示制御部
4805 情報読上げ制御部
4806 対話進行制御部
5306 対話内容蓄積部

Claims (4)

  1. 画面に表示されるキャラクタによる対話を、車両を運転するユーザに対して表示する車載対話装置であって、
    ユーザが運転する車両の速度と方向指示器の少なくとも1つから車両の状況を検出する状況検出手段と
    検出された車両の状況に基づいて、ユーザに代わってユーザが知りたいと思われることを代弁する役割を果たすキャラクタであるユーザアバタとその対話相手となるキャラクタであるエージェントとの対話からなるシナリオを決定するキャラクタ管理手段と、
    前記キャラクタ管理手段による決定に基づいて、前記ユーザアバタと前記エージェントを表示し、前記ユーザアバタと前記エージェントとの対話を音声出力する表示手段とを備え、
    前記キャラクタ管理手段は、
    複数の異なるシナリオを特定する複数のシナリオデータを記憶しているシナリオデータ記憶手段に記憶されたシナリオデータの中から、シナリオデータを選択するシナリオデータ選択手段と、
    前記選択されたシナリオデータに対応した、前記ユーザアバタと前記エージェントとの対話を制御する対話制御手段とを備え、
    前記対話制御手段は、前記状況検出手段により検出される車両の状況が変化し、前記シナリオデータ選択手段により選択されたシナリオデータに、ユーザからの入力を受け付ける旨の情報が存在している場合には、所定の時間だけ対話の進行を停止する
    ことを特徴とする車載対話装置。
  2. 前記対話制御手段は、前記状況検出手段により検出される車両の速度情報から車両が後退状況にあることを検出したときには、ユーザから入力を受け付ける時間を長くする
    ことを特徴とする請求項1記載の車載対話装置。
  3. 前記対話制御手段は、前記状況検出手段によって方向指示器が作動中であると検出されたときには、前記車両が右左折中であると判断し、ユーザから入力を受け付ける時間を長くする
    ことを特徴とする請求項1記載の車載対話装置。
  4. 前記対話制御手段は、
    前記状況検出手段によって車両の速度情報が所定の閾値より小さいことが検出されたときにユーザから入力を受け付ける時間を長くする制御規則を有し、
    運転者の車載オーディオ機器に対する操作履歴と車両の速度履歴とを蓄積し、蓄積している操作履歴と速度履歴とに依存させて、前記所定の閾値を変更する
    ことを特徴とする請求項1記載の車載対話装置。
JP2004248992A 2003-09-01 2004-08-27 車載対話装置 Expired - Fee Related JP4533705B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004248992A JP4533705B2 (ja) 2003-09-01 2004-08-27 車載対話装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003309360 2003-09-01
JP2004248992A JP4533705B2 (ja) 2003-09-01 2004-08-27 車載対話装置

Publications (3)

Publication Number Publication Date
JP2005100382A JP2005100382A (ja) 2005-04-14
JP2005100382A5 JP2005100382A5 (ja) 2007-10-18
JP4533705B2 true JP4533705B2 (ja) 2010-09-01

Family

ID=34467487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004248992A Expired - Fee Related JP4533705B2 (ja) 2003-09-01 2004-08-27 車載対話装置

Country Status (1)

Country Link
JP (1) JP4533705B2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5011856B2 (ja) * 2006-07-11 2012-08-29 株式会社Jvcケンウッド コンテンツ提案装置、コンテンツ提案方法及びプログラム
CN101669090A (zh) * 2007-04-26 2010-03-10 福特全球技术公司 情绪提示系统和方法
ES2378580T3 (es) * 2007-12-20 2012-04-16 Tomtom International B.V. Dispositivo y método de navegación mejorados
US20090177391A1 (en) 2008-01-07 2009-07-09 Hakan Yakali Navigation device and method
JP5232629B2 (ja) * 2008-12-25 2013-07-10 アイシン・エィ・ダブリュ株式会社 車両運転ログ処理システムと車両運転ログ処理プログラム
WO2012173265A1 (ja) * 2011-06-14 2012-12-20 日本電気株式会社 地域精通度算出装置、地域精通度算出方法、及び、地域精通度算出プログラム
US9305555B2 (en) * 2012-06-25 2016-04-05 Mitsubishi Electric Corporation Onboard information device
CN104937375B (zh) * 2013-01-21 2017-05-10 三菱电机株式会社 目的地预测装置
JP5993421B2 (ja) * 2014-09-22 2016-09-14 ソフトバンク株式会社 会話処理システム及びプログラム
JP6432312B2 (ja) * 2014-11-28 2018-12-05 アイシン・エィ・ダブリュ株式会社 ナビゲーションシステム、ナビゲーション方法、及びナビゲーションプログラム
EP3506083A4 (en) * 2016-08-29 2019-08-07 Sony Corporation INFORMATION PRESENTATION DEVICE AND INFORMATION PRESENTATION PROCEDURE
CN107888653A (zh) * 2016-09-30 2018-04-06 本田技研工业株式会社 发话装置、沟通装置和移动体
JP6756236B2 (ja) 2016-10-31 2020-09-16 富士通株式会社 アクション指示プログラム、アクション指示方法及び画像生成装置
KR102338990B1 (ko) * 2017-01-23 2021-12-14 현대자동차주식회사 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
US10929818B2 (en) 2017-02-16 2021-02-23 Seoul National University R&Db Foundation Wearable sensor-based automatic scheduling device and method
KR102463581B1 (ko) * 2017-12-05 2022-11-07 현대자동차주식회사 대화 시스템 및 이를 포함하는 차량
WO2019142420A1 (ja) * 2018-01-22 2019-07-25 ソニー株式会社 情報処理装置および情報処理方法
WO2019188336A1 (ja) * 2018-03-26 2019-10-03 本田技研工業株式会社 サービス提供システムおよびサービス提供方法
JP2021182172A (ja) * 2018-07-31 2021-11-25 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
JP6708273B1 (ja) * 2019-02-08 2020-06-10 スズキ株式会社 車両用対話装置
JP7239366B2 (ja) * 2019-03-26 2023-03-14 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
WO2021006359A1 (ko) * 2019-07-05 2021-01-14 엘지전자 주식회사 자율주행시스템에서 장난감 장치를 활용한 차량 제어 방법 및 이를 위한 장치
JP7213594B2 (ja) * 2020-06-23 2023-01-27 株式会社ユピテル 運転支援システムおよび運転支援プログラム
JP6990461B2 (ja) * 2020-06-23 2022-01-12 株式会社ユピテル システム及びプログラム
JP7030950B2 (ja) * 2020-12-25 2022-03-07 パイオニア株式会社 情報提供装置、制御方法、プログラム、及び記憶媒体
WO2024127692A1 (ja) * 2022-12-12 2024-06-20 パイオニア株式会社 情報処理装置、情報処理方法及び情報処理用プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137766A (ja) * 1997-07-22 1999-02-12 Aqueous Res:Kk エージェント装置
JP2001195430A (ja) * 1999-11-02 2001-07-19 Atr Media Integration & Communications Res Lab 知識共有促進システム
JP2003131691A (ja) * 2001-10-23 2003-05-09 Fujitsu Ten Ltd 音声対話システム
JP2003157489A (ja) * 2002-06-03 2003-05-30 Equos Research Co Ltd 操作制御装置
JP2003178328A (ja) * 2001-12-07 2003-06-27 Sony Corp 三次元仮想空間表示装置、三次元仮想空間表示方法、プログラム及びそのプログラムを格納した記録媒体
JP2004037953A (ja) * 2002-07-04 2004-02-05 Equos Research Co Ltd 車載装置、データ作成装置、及びデータ作成プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137766A (ja) * 1997-07-22 1999-02-12 Aqueous Res:Kk エージェント装置
JP2001195430A (ja) * 1999-11-02 2001-07-19 Atr Media Integration & Communications Res Lab 知識共有促進システム
JP2003131691A (ja) * 2001-10-23 2003-05-09 Fujitsu Ten Ltd 音声対話システム
JP2003178328A (ja) * 2001-12-07 2003-06-27 Sony Corp 三次元仮想空間表示装置、三次元仮想空間表示方法、プログラム及びそのプログラムを格納した記録媒体
JP2003157489A (ja) * 2002-06-03 2003-05-30 Equos Research Co Ltd 操作制御装置
JP2004037953A (ja) * 2002-07-04 2004-02-05 Equos Research Co Ltd 車載装置、データ作成装置、及びデータ作成プログラム

Also Published As

Publication number Publication date
JP2005100382A (ja) 2005-04-14

Similar Documents

Publication Publication Date Title
JP4533705B2 (ja) 車載対話装置
CN105606100B (zh) 导航系统中用于聚类感兴趣点的装置、系统及方法
CN101992779B (zh) 车辆中的智能音乐选择方法
JP4258585B2 (ja) 目的地設定装置
US20040225416A1 (en) Data creation apparatus
JP5148119B2 (ja) 音楽選曲再生方法
EP1920534A2 (en) A method for selecting audio content to be played in a vehicle
US20150168165A1 (en) Navigation system
US20090234565A1 (en) Navigation Device and Method for Receiving and Playing Sound Samples
JP4497528B2 (ja) カーナビゲーション装置、カーナビゲーション方法及びプログラム
JP2006317573A (ja) 情報端末
JP2004340967A (ja) オフロードナビゲーションおよび対応するナビゲーションシステムを支援する方法
US20220365991A1 (en) Method and apparatus for enhancing a geolocation database
JP4387148B2 (ja) コンテンツ配信システム及びコンテンツ受信再生装置
JP4749923B2 (ja) 音声案内装置
JP2005208943A (ja) サービス候補提供システム及びユーザ側通信装置並びにサービス候補提供サーバ
JP2010032514A (ja) カーナビゲーション装置、カーナビゲーション方法及びプログラム
JP4256357B2 (ja) カーナビゲーションシステム及びプログラム
JP4793480B2 (ja) カーナビゲーション装置、カーナビゲーション方法及びプログラム
JP2004286872A (ja) 広告方法とその方法に使用する広告システム
JP4793481B2 (ja) カーナビゲーション装置、カーナビゲーション方法及びプログラム
JP2010042788A (ja) 車載表示装置及び表示方法
JP5345723B2 (ja) 音楽選曲再生方法
JP4356450B2 (ja) 車載装置
WO2022254563A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

R150 Certificate of patent or registration of utility model

Ref document number: 4533705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees