JP2005100382A - Dialog system and dialog method - Google Patents

Dialog system and dialog method Download PDF

Info

Publication number
JP2005100382A
JP2005100382A JP2004248992A JP2004248992A JP2005100382A JP 2005100382 A JP2005100382 A JP 2005100382A JP 2004248992 A JP2004248992 A JP 2004248992A JP 2004248992 A JP2004248992 A JP 2004248992A JP 2005100382 A JP2005100382 A JP 2005100382A
Authority
JP
Japan
Prior art keywords
user
dialogue
character
event
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004248992A
Other languages
Japanese (ja)
Other versions
JP2005100382A5 (en
JP4533705B2 (en
Inventor
Takahiro Kudo
貴弘 工藤
Jun Ozawa
順 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004248992A priority Critical patent/JP4533705B2/en
Publication of JP2005100382A publication Critical patent/JP2005100382A/en
Publication of JP2005100382A5 publication Critical patent/JP2005100382A5/ja
Application granted granted Critical
Publication of JP4533705B2 publication Critical patent/JP4533705B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a dialog system by which information required for a user is acquired without any action by the user and a function is executed. <P>SOLUTION: The dialog system 100 conducting a dialog complying with the state of the user by characters comprises: an event detection section 102 detecting an even required for the user; the characters 106, 107; a character management section 103 managing the characters: a display section 101 displaying the characters: a speaker 104; and an input section 105 receiving input by the user. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画面上に表示されたキャラクタ同士の対話を視聴しながらユーザに新たな知識の発見を促し、また、ユーザ自身も対話に参加することを可能にする対話装置等に関する。   The present invention relates to an interactive device that prompts a user to discover new knowledge while viewing a dialogue between characters displayed on a screen, and enables the user to participate in the dialogue.

近年、音声認識技術が実用化に耐えうる水準に達してきており、音声対話機能を備えた機器が開発されている。このような機器としてユーザの発声した音声を認識し、画面に表示されたキャラクタとの対話を通じて目的地設定を行ったり、ユーザをアシストしたりする機能を有するナビゲーションシステムがある(特許文献1参照)。ユーザは運転中、ハンドルを握っているため自由な機器操作ができず、また、視力を周囲の障害物監視に割かねばならないためナビゲーションシステムの画面を見て複雑な操作を行うことができないが、このシステムによれば、ユーザは通常の運転動作を妨げられることなくシステムへの入力を行い所定の目的を達成することができる。   In recent years, speech recognition technology has reached a level where it can be put into practical use, and devices having a speech dialogue function have been developed. As such a device, there is a navigation system that has a function of recognizing a voice uttered by a user and setting a destination through an interaction with a character displayed on a screen or assisting the user (see Patent Document 1). . While the user holds the steering wheel while driving, the user cannot operate the device freely.Also, the user must divide his visual acuity to monitor the surrounding obstacles. According to this system, the user can achieve a predetermined purpose by inputting to the system without being disturbed by a normal driving operation.

また、インターネットの世界ではチャットシステムが広く利用されており、その中ではバーチャルなコミュニケーションに臨場感を出すために自分の分身であるアバタを用いる技術が開示されている(特許文献2参照)。この技術では、自分の画像などを取り込んで自分のアバタとし、その画像の動作を制御したり、また音声合成技術を利用してアバタがあたかもしゃべっているようにみせかけたりすることでリアリティを持たせている。
特開2003−22092号公報 特開2001−230801号公報
In addition, chat systems are widely used in the Internet world, and a technique for using an avatar that is a part of oneself in order to give a sense of reality to virtual communication is disclosed (see Patent Document 2). With this technology, you can capture your own images and use them as your avatars to control the movement of those images, or use speech synthesis technology to make them appear as if they were speaking. ing.
JP 2003-22092 A JP 2001-230801 A

しかしながら、このように音声による入力手段を設けても、音声による入力は必ずしもユーザにとってメリットがあるものではない。というのも、音声による入力すら手間であると感じるユーザも多く、運転中にわざわざナビゲーションシステムと対話することを避けることもある。このような場合、ユーザが発声しない限り、ユーザは自分にとって必要な情報を得る、目的の機能をシステムに指示するなど、目的を達せられないという事態が起こる。   However, even if voice input means is provided in this way, voice input does not necessarily have a merit for the user. This is because many users feel that even voice input is troublesome, and they sometimes avoid having to interact with the navigation system while driving. In such a case, unless the user speaks, the user cannot achieve the purpose, such as obtaining information necessary for the user or instructing the target function to the system.

一方、自分が対話をする代わりに自分の分身であるアバタが自動的に対話を行って、必要な情報の取得や機能の実行を代理で行わせようとしても、特許文献2に開示されたアバタの技術では不可能である。   On the other hand, an avatar disclosed in Patent Document 2 may be used to automatically obtain necessary information and execute a function on behalf of an avatar that is a substitute for the avatar instead of having a dialogue. This is not possible with this technology.

ユーザによる入力がない場合でもユーザが必要とする情報の提供や機能の実行を自動的に行おうとした場合には、そのタイミング、つまりユーザはいつそのような欲求を感じるのか、また、ユーザのモデリング、つまりユーザはどのような特性をもちどのような情報や機能を欲しているのか、などの問題を解決する必要がある。さらにはこのような自動化機能が実現され、ユーザにとって必要な情報や機能が提供された場合、ユーザにとってはなぜそのような情報が提供されたのかが示されなければ、いぶかしく感じてしまう。   Even if there is no input from the user, if the user tries to automatically provide the necessary information or execute the function, the timing, that is, when the user feels such a desire, and the user's modeling In other words, it is necessary to solve problems such as what characteristics and what information and functions the user wants. Furthermore, when such an automatic function is realized and necessary information and functions are provided to the user, it will be frustrating if the user does not indicate why such information is provided.

そこで、本発明は、このような問題に鑑みてなされてものであり、ユーザが情報を必要としているタイミングでキャラクタ同士の自律的な対話が自動実行される対話装置を提供することを目的とする。   Accordingly, the present invention has been made in view of such a problem, and an object thereof is to provide an interactive device in which an autonomous dialogue between characters is automatically executed at a timing when a user needs information. .

また、ユーザが特に入力したいという欲求を持った場合には、キャラクタ同士の対話に割り込み、自分の意思を伝えることのできる対話装置を提供することをも目的とする。   It is another object of the present invention to provide an interactive device that can interrupt a dialogue between characters and transmit his / her intention when the user has a particular desire to input.

上記目的を達成するために、ユーザの嗜好や行動などのモデルを把握したユーザの分身でありユーザの意思を代弁、提案するユーザアバタと、ユーザの要求に応えてくれるエージェントという2つのキャラクタ同士の自律的な対話をユーザが視聴し、ユーザが特に入力をしない場合であっても、ユーザが情報や特定の機能を欲するタイミングを検出してそれらを提供することで、その提供プロセスを明らかにしながらユーザにとって未知の知識の発見を促したり、機能の自動実行を可能にしている。   In order to achieve the above-mentioned purpose, a user avatar who understands the user's preference and behavior model, speaks out the user's intention, proposes a user avatar, and an agent who responds to the user's request. Even when a user views an autonomous conversation and the user does not input anything, it is possible to detect the timing when the user wants information and a specific function and provide them to clarify the provision process. It encourages users to discover unknown knowledge and enables automatic execution of functions.

つまり、上記目的を達成するために、本発明に係る対話装置は、画面に表示される仮想人物であるキャラクタによる対話を表示する対話装置であって、ユーザの状態における変化又はユーザが置かれている状況における変化であるイベントを検出するイベント検出手段と、検出されたイベントに基づいて、ユーザに対応するキャラクタであるユーザアバタとその対話相手となるキャラクタであるエージェントとの対話に関するシナリオを決定するキャラクタ管理手段と、前記キャラクタ管理手段による決定に基づいて、前記ユーザアバタと前記エージェントとの対話を表示する表示手段とを備えることを特徴とする。ここで、前記キャラクタ管理手段は、例えば、複数の異なるシナリオを特定する複数のシナリオデータを記憶しているシナリオデータ記憶手段と、前記イベントに対応するシナリオデータを前記シナリオデータ記憶手段に記憶されたシナリオデータの中から選択するシナリオデータ選択手段とを有し、前記表示手段は、前記シナリオデータ選択手段で選択されたシナリオデータが示すシナリオに従って前記ユーザアバタと前記エージェントとの対話を表示する。これによって、ユーザが情報や特定の機能を欲するタイミングがイベントとして検出され、キャラクタによる対話が自動実行される。   In other words, in order to achieve the above object, the interactive apparatus according to the present invention is an interactive apparatus that displays a conversation by a character that is a virtual person displayed on a screen, and a change in a user's state or a user is placed thereon. An event detection means for detecting an event that is a change in a situation, and a scenario relating to a dialogue between a user avatar that is a character corresponding to the user and an agent that is a character that is a conversation partner, based on the detected event Character management means, and display means for displaying a dialogue between the user avatar and the agent based on the determination by the character management means. Here, the character management means stores, for example, scenario data storage means storing a plurality of scenario data for specifying a plurality of different scenarios, and scenario data corresponding to the event is stored in the scenario data storage means. Scenario data selection means for selecting from among scenario data, and the display means displays an interaction between the user avatar and the agent according to a scenario indicated by the scenario data selected by the scenario data selection means. As a result, the timing at which the user desires information or a specific function is detected as an event, and the dialogue by the character is automatically executed.

このとき、前記イベント検出手段は、例えば、前記ユーザが乗車する車両の状況における変化を前記イベントとして検出してもよい。そして、前記対話装置はさらに、前記車両の状況に応じて、前記ユーザアバタ−と前記エージェントとの対話における時間間隔を制御する対話間隔制御手段を備えてもよい。これによって、ユーザの運転状況を加味した対話が実現され、運転者が慌てて対話に介入することがなくなるため、安全運転が確保される。   At this time, the event detection means may detect, for example, a change in a situation of a vehicle on which the user gets as the event. The dialogue apparatus may further include dialogue interval control means for controlling a time interval in the dialogue between the user avatar and the agent according to the situation of the vehicle. As a result, a dialogue that takes into account the user's driving situation is realized, and the driver does not hurry and intervene in the dialogue, thereby ensuring safe driving.

また、前記対話装置はさらに、前記車両の周辺の地図情報を取得し、取得した地図情報に応じて、前記ユーザアバタ−と前記エージェントとの対話における時間間隔を制御する対話間隔制御手段を備えてもよい。これによって、例えば、周辺の地図情報を取得し、単位面積あたりの交差点が多い状況では、運転に集中すべきと判断し、対話の間隔を長めにとることで、安全運転が確保される。   The dialogue apparatus further includes dialogue interval control means for obtaining map information around the vehicle and controlling a time interval in dialogue between the user avatar and the agent according to the obtained map information. Also good. Thus, for example, in a situation where map information of the surrounding area is acquired and there are many intersections per unit area, it is determined that the driver should concentrate on driving, and safe driving is ensured by taking longer intervals between conversations.

また、前記対話装置はさらに、前記シナリオデータ選択手段で選択されたシナリオに応じて、前記表示手段によって表示される前記ユーザアバタと前記エージェントの表示上の位置関係を制御するキャラクタ位置制御手段を備えてもよい。これによって、対話の内容に応じてエージェントとアバタの位置関係が変更されるので、対話によって提供される情報を容易に確認することができる。   The interactive apparatus further includes character position control means for controlling a positional relationship on display between the user avatar displayed by the display means and the agent according to the scenario selected by the scenario data selection means. May be. As a result, the positional relationship between the agent and the avatar is changed according to the content of the dialogue, so that the information provided by the dialogue can be easily confirmed.

また、前記対話装置はさらに、前記車両の状況に応じて、前記表示手段による前記ユーザアバタ−及び前記エージェントの表示をON又はOFFに制御するキャラクタ表示制御手段を備えてもよい。これによって、例えば、走行中は画面の変化を少なくし、運転に集中することができ、停車中は対話内容から情報を取得しやすくなるという効果が発揮される。   The interactive apparatus may further include character display control means for controlling the display of the user avatar and the agent by the display means to be ON or OFF according to the situation of the vehicle. As a result, for example, the change in the screen can be reduced during driving and the driver can concentrate on driving, and the information can be easily obtained from the conversation contents while the vehicle is stopped.

また、前記表示手段はさらに、音声を出力し、前記対話装置はさらに、前記表示手段によって表示される対話中に音声として挿入する情報である読上げ情報を取得する読上げ情報取得手段と、取得された前記読上げ情報に応じて、前記ユーザアバタと前記エージェントの対話を制御する対話進行制御手段とを備えてもよい。たとえば、前記対話進行制御手段は、前記ユーザアバタと前記エージェントとの対話の進行状況に応じて、前記読上げ情報を読上げるタイミングを制御する。これによって、VICS等で取得された情報であっても、対話と整合がとれる形で、運転者に情報が提供される。   Further, the display means further outputs a voice, and the dialogue apparatus further obtains a reading information acquisition means for acquiring reading information that is information to be inserted as a voice during the dialogue displayed by the display means. A dialogue progress control means for controlling dialogue between the user avatar and the agent according to the reading information may be provided. For example, the dialogue progress control means controls the timing for reading the reading information in accordance with the progress of the dialogue between the user avatar and the agent. As a result, even if the information is acquired by VICS or the like, the information is provided to the driver in a form that is consistent with the dialogue.

また、前記対話進行制御手段は、前記読上げ情報に応じて、前記ユーザアバタまたは前記エージェントが補間発話を発声するように前記表示手段を制御してもよい。これによって、例えば、早急に伝えなければならない交通情報を優先して即座にユーザに伝え、自然な対話も実現することが可能になる。   Further, the dialogue progress control means may control the display means so that the user avatar or the agent utters an interpolated utterance according to the reading information. As a result, for example, it is possible to give priority to traffic information that should be immediately transmitted to the user immediately and to realize natural dialogue.

また、前記対話装置はさらに、前記ユーザアバタと前記エージェントとの対話履歴を蓄積し、前記車両の状況に応じて、前記対話履歴に関する情報を表示する対話内容蓄積手段を備えてもよい。これによって、例えば、車両を停車したときには、それまでに自動的に進行した情報(ユーザアバタとエージェントとの対話)を振り返ることができる。   Further, the dialogue apparatus may further comprise dialogue content accumulation means for accumulating a dialogue history between the user avatar and the agent and displaying information related to the dialogue history according to the state of the vehicle. As a result, for example, when the vehicle is stopped, it is possible to look back on information (dialogue between the user avatar and the agent) that has automatically progressed until then.

また、前記イベント検出手段は、前記ユーザが乗車している車両の現在地を検出する位置検出手段と、検出された車両の現在地と走行する予定となっている経路とを比較することで、前記車両が予定されている経路を逸脱したか否かを判定する判定手段と、逸脱したと判定された場合に、その事象を前記イベントとして検出する検出手段とを有し、前記シナリオデータ選択手段は、前記イベント検出によって前記車両が前記経路を逸脱した旨のイベントが検出された場合に、当該イベントに対応するシナリオデータを選択したり、前記イベント検出手段はさらに、前記逸脱判定手段によって前記車両が前記経路を逸脱したと判定された場合に、逸脱した地点を示す逸脱地点情報を記憶する逸脱地点記憶手段を備え、前記判定手段はさらに、前記位置検出手段によって検出された車両の現在地と前記逸脱地点記憶手段に記憶されている逸脱地点情報が示す地点とを比較することで、過去に経路を逸脱したことのある地点の近傍を前記車両が走行しているか否かを判定し、前記検出手段は、前記地点の近傍を前記車両が走行していると判定された場合に、その事象を前記イベントとして検出し、前記シナリオデータ選択手段は、前記イベント検出によって前記地点の近傍を前記車両が走行している旨のイベントが検出された場合に、当該イベントに対応するシナリオデータを選択したりする。これによって、車両が経路を逸脱したり、過去に逸脱した地点に接近したりしたときに、そのような状況に対応したシナリオでキャラクタ同士の対話が始まるので、ユーザに対して注意が喚起される。   Further, the event detection means compares the position detection means for detecting the current location of the vehicle on which the user is boarded with a route planned to travel with the current location of the detected vehicle, thereby A determination unit that determines whether or not the route has deviated from the planned route, and a detection unit that detects the event as the event when it is determined that the route has deviated, and the scenario data selection unit includes: When an event indicating that the vehicle has deviated from the route is detected by the event detection, scenario data corresponding to the event is selected, or the event detection unit is further configured to select the scenario by the departure determination unit. When it is determined that the vehicle has deviated from the route, the vehicle includes departure point storage means for storing departure point information indicating the departure point. By comparing the current location of the vehicle detected by the position detection means and the point indicated by the departure point information stored in the departure point storage means, the vehicle can detect the vicinity of a point that has deviated from the route in the past. It is determined whether or not the vehicle is traveling, and the detection unit detects the event as the event when it is determined that the vehicle is traveling in the vicinity of the point, and the scenario data selection unit includes: When an event indicating that the vehicle is traveling in the vicinity of the point is detected by the event detection, scenario data corresponding to the event is selected. As a result, when the vehicle deviates from the route or approaches a point deviating in the past, the dialogue between the characters starts in a scenario corresponding to such a situation, so the user is alerted. .

また、前記キャラクタ管理手段はさらに、複数の異なる種類のキャラクタを特定する複数のキャラクタデータを記憶しているキャラクタデータ記憶手段と、前記キャラクタデータ記憶手段に記憶されたキャラクタデータの中から、前記イベント検出手段によって検出されたイベントに対応する少なくとも1種類のキャラクタデータを選択し、選択した少なくとも1種類のキャラクタデータが示すキャラクタをそれぞれ前記ユーザアバタ及び前記エージェントに割り当てるキャラクタデータ選択手段とを有し、前記表示手段は、前記キャラクタデータ選択手段によって割り当てられたユーザアバタとエージェントとの対話を表示してもよい。ここで、前記イベント検出手段は、前記ユーザが乗車する車両の状況における変化を前記イベントとして検出してもよい。たとえば、前記イベント検出手段は、前記ユーザが乗車している車両の走行経路及び時間を検出する走行状況検出手段と、検出された車両の走行経路及び時間と当該走行経路について予め設定されている標準的な走行時間とを比較することで、前記車両が渋滞に遭遇しているか否かを判定する判定手段と、渋滞に遭遇していると判定された場合に、その事象を前記イベントとして検出する検出手段とを有し、前記キャラクタデータ選択手段は、前記イベント検出によって前記車両が渋滞に遭遇している旨のイベントが検出された場合に、当該イベントに対応するユーザアバタ及びエージェントのキャラクタを示すキャラクタデータを選択したり、前記イベント検出手段は、前記ユーザが乗車している車両の走行時間を検出する走行状況検出手段と、検出された車両の走行時間と予め設定されているしきい値とを比較することで、前記ユーザの運転による疲労度が一定以上に達しているか否かを判定する判定手段と、疲労度が一定以上に達していると判定された場合に、その事象を前記イベントとして検出する検出手段とを有し、前記キャラクタデータ選択手段は、前記イベント検出によって前記ユーザの疲労度が一定以上に達している旨のイベントが検出された場合に、当該イベントに対応するユーザアバタ及びエージェントのキャラクタを示すキャラクタデータを選択したり、前記イベント検出手段は、前記ユーザが乗車している車両の走行状況を検出する走行状況検出手段と、前記ユーザが乗車している車両の外部から無線で情報を取得する情報取得手段と、取得された情報と前記走行状況検出手段で検出された走行状況とが予め定められた一定の関係にある否かを判定する判定手段と、一定の関係にあると判定された場合に、その事象を前記イベントとして検出する検出手段とを有し、前記キャラクタデータ選択手段は、前記イベント検出によって前記情報と前記走行状況とが一定の関係にある旨のイベントが検出された場合に、当該イベントに対応するユーザアバタ及びエージェントのキャラクタを示すキャラクタデータを選択したりする。これによって、車両が渋滞したり、外部から取得された情報がユーザの置かれた状況と関連しているという外的要因が発生したり、運転者が疲労するというユーザの状態に変化が生じたときに、そのようなユーザの状態に対応したキャラクタが対話を開始するので、ユーザは、キャラクタに親近感をもち、キャラクタの対話から有益な情報を得ることができる。   The character management means may further include a character data storage means storing a plurality of character data for specifying a plurality of different types of characters, and the event data from among the character data stored in the character data storage means. Character data selection means for selecting at least one type of character data corresponding to the event detected by the detection means, and assigning the character indicated by the selected at least one type of character data to the user avatar and the agent, respectively; The display means may display a dialogue between the user avatar assigned by the character data selection means and the agent. Here, the event detection means may detect a change in a situation of a vehicle on which the user gets as the event. For example, the event detection means includes a travel condition detection means for detecting a travel route and time of a vehicle on which the user is on, a standard set in advance for the detected travel route and time of the vehicle and the travel route. A determination means for determining whether or not the vehicle has encountered a traffic jam by comparing with a typical travel time, and when it is determined that the vehicle has encountered a traffic jam, the event is detected as the event And a character data selection means that indicates a user avatar and an agent character corresponding to the event when an event indicating that the vehicle encounters a traffic jam is detected by the event detection. The character data is selected, and the event detection means is a travel condition detection unit that detects the travel time of the vehicle on which the user is riding. And a determination means for determining whether or not the fatigue level due to the driving of the user has reached a certain level or more by comparing the detected traveling time of the vehicle with a preset threshold value, Detecting means for detecting the event as the event, and the character data selecting means has the user's fatigue level reaching a predetermined value or more by the event detection. When an event indicating that the user is present is detected, the user avatar corresponding to the event and the character data indicating the agent character are selected. A traveling condition detecting means for detecting, an information acquiring means for acquiring information wirelessly from the outside of the vehicle on which the user is riding, and the acquired information The determination means for determining whether or not the driving situation detected by the driving condition detection means has a predetermined fixed relationship, and when it is determined that the driving situation is in a predetermined relationship, the event is detected as the event The character data selection means, when an event indicating that the information and the running situation are in a certain relationship is detected by the event detection, the character data selection means, and a user avatar corresponding to the event and Select character data indicating the agent's character. This caused an external factor that the vehicle was congested, the information obtained from the outside was related to the situation where the user was placed, or the user's condition that the driver was tired changed. Sometimes, a character corresponding to such a user's state starts a dialogue, so that the user has a sense of familiarity with the character and can obtain useful information from the character's dialogue.

また、前記対話装置はさらに、ユーザの指示を取得する入力手段と、前記シナリオデータ選択手段はさらに、前記入力手段で取得された指示に従って前記シナリオデータを選択してもよい。このとき、前記入力手段は、前記ユーザから音声による指示を取得し、前記キャラクタ管理手段はさらに、音声による複数の指示を予め記憶している入力語彙記憶手段と、前記入力手段で取得された音声と前記入力語彙記憶手段に記憶されている音声とを照合することで、前記入力手段で取得された音声を解釈する解釈手段とを有し、前記シナリオデータ選択手段は、前記解釈手段による解釈に従って前記シナリオデータを選択してもよい。このとき、前記解釈手段は、シナリオのシーケンス又はユーザの嗜好に従って、ユーザから入力される可能性がある語彙を絞り込んだうえで、前記照合を行ってもよい。これによって、ユーザは、キャラクタ同士の対話に参加することができ、自分が欲する情報を入手したり、所望の目的を達成したりすることができる。   Further, the dialogue apparatus may further select an input means for acquiring a user instruction, and the scenario data selection means may further select the scenario data in accordance with the instruction acquired by the input means. At this time, the input means obtains voice instructions from the user, the character management means further includes input vocabulary storage means for storing a plurality of voice instructions in advance, and the voice obtained by the input means. And interpretation means for interpreting the voice acquired by the input means by comparing the voice stored in the input vocabulary storage means, and the scenario data selection means according to the interpretation by the interpretation means The scenario data may be selected. At this time, the interpretation unit may perform the collation after narrowing down a vocabulary that may be input from the user in accordance with a scenario sequence or a user preference. Thereby, the user can participate in the dialogue between the characters, and can obtain information desired by the user or achieve a desired purpose.

なお、本発明は、このような対話装置として実現することができるだけでなく、その特徴的な構成要素(手段)をステップとする対話方法、そのようなステップをコンピュータに実行させるプログラム等として実現することもできる。そして、そのプログラムをインターネット等の伝送媒体やDVD等の記録媒体を介して配布することができるのは言うまでもない。   Note that the present invention can be realized not only as such an interactive apparatus, but also as an interactive method using the characteristic components (means) as steps, a program for causing a computer to execute such steps, and the like. You can also. Needless to say, the program can be distributed via a transmission medium such as the Internet or a recording medium such as a DVD.

本発明によれば、ユーザは特に何も入力をしなくても、現在おかれている状況を把握しているアバタとエージェントとの対話を俯瞰するだけで、自分に必要な情報を適切なタイミングで取得することができ、また、必要となる機能がタイミングよく代理実行なされることになる。さらには、ユーザごとの嗜好や行動をモデル化することで、ユーザに応じた対話がなされることになる。これにより、例えば運転中など他の作業に集中しなければならず対話や入力に手間を割けない場合や、その他手間をかけるのが面倒な場合であっても、ユーザは所望の要求を達成することが可能となる。   According to the present invention, even if the user does not input anything, it is possible to obtain the necessary information at an appropriate timing simply by looking down on the dialogue between the avatar and the agent who knows the current situation. In addition, necessary functions can be obtained by proxy at a timely manner. Furthermore, by modeling the preference and behavior for each user, a dialogue according to the user is performed. As a result, the user achieves a desired request even when he / she has to concentrate on other tasks such as driving and cannot spend time on dialogue and input, or when it is troublesome to spend other time. It becomes possible.

また、これらの処理がユーザの関知しないところで勝手になされた場合、ユーザは不信感を抱くことも考えられるが、本発明によればユーザはキャラクタ同士の対話を常に把握できるため、自動的になされる処理に透明性をもたせ、ユーザへの納得性を増すことができる。   In addition, when these processes are performed without the user's knowledge, the user may be distrusted. However, according to the present invention, the user can always grasp the dialogue between the characters, and is automatically performed. The process can be made transparent and the user can be satisfied.

さらに、キャラクタ同士の対話が必ずしも自分の思い通りではない場合には、対話に介入して自分の意思を伝えることも可能である。
以上のように、本発明によればユーザに負担をかけることなく、ユーザにとって有益な機能を提供し、ユーザの満足度を高めることができ、本発明の実用的価値は極めて高い。
Furthermore, if the dialogue between the characters is not exactly what you want, you can also intervene in the dialogue to convey your intention.
As described above, according to the present invention, functions that are useful to the user can be provided without imposing a burden on the user, the user's satisfaction can be increased, and the practical value of the present invention is extremely high.

以下、本発明の実施の形態について図面を用いて詳細に説明する。なお、本実施の形態では、対話装置をナビゲーション機能や音楽再生機能を有する車載装置に適用した例について述べる。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, an example in which the interactive device is applied to an in-vehicle device having a navigation function and a music playback function will be described.

(実施の形態1)
図1は、本発明の実施の形態1(実施の形態2及び3についても共通)における対話装置100の全体構成を示す機能ブロック図である。この対話装置100は、キャラクタを表示させるためのイベントを検知するイベント検出部102、イベント検出部102の出力に従ってキャラクタの表示やシナリオを管理するキャラクタ管理部103、音声を出力するスピーカー104、キャラクタを表示する表示部101、音声による入力を行う入力部105を備える。本図において、エージェント106は、表示部101に表示されたキャラクタの一つであるエージェントである。ユーザアバタ107は、表示部101に表示されたキャラクタの一つであるユーザのアバタである。
(Embodiment 1)
FIG. 1 is a functional block diagram showing an overall configuration of interactive apparatus 100 in Embodiment 1 of the present invention (common to Embodiments 2 and 3). This interactive device 100 includes an event detection unit 102 that detects an event for displaying a character, a character management unit 103 that manages character display and a scenario according to an output of the event detection unit 102, a speaker 104 that outputs sound, a character A display unit 101 for displaying and an input unit 105 for inputting by voice are provided. In this figure, an agent 106 is an agent that is one of the characters displayed on the display unit 101. The user avatar 107 is a user avatar that is one of the characters displayed on the display unit 101.

なお、本実施の形態では、キャラクタとは、画面に表示される仮想人物であり、エージェント106とユーザアバタ107を指す。エージェント106はユーザにとって必要な情報をユーザに伝える役割を果たし、ユーザアバタ107はユーザに代わってユーザが知りたいと思われることを代弁する役割を果たす。また、イベントとは、ユーザの状態における変化とユーザが置かれている状況(環境)における変化とが含まれる。   In the present embodiment, the character is a virtual person displayed on the screen and refers to the agent 106 and the user avatar 107. The agent 106 serves to convey information necessary for the user to the user, and the user avatar 107 serves to represent what the user wants to know on behalf of the user. An event includes a change in the user's state and a change in the situation (environment) in which the user is placed.

図2は、図1に示された対話装置100におけるイベント検出部102の構成を示した機能ブロック図である。このイベント検出部102は、対話装置100の位置情報を検出する位置検出部201、ユーザにより設定された目的地や経路に従って経路案内を行う経路案内部202、ユーザが設定された経路から逸脱したことのある地点を記憶しておく逸脱地点記憶部203、位置検出部201により検出された対話装置100の位置情報が、経路案内部202により案内される経路から逸脱しているか、また、逸脱地点記憶部203により記憶されている地点と同一であるか、を判定する判定部204及び判定部204に基づいて所定の情報をキャラクタ管理部103へと送信する送信部205から構成される。   FIG. 2 is a functional block diagram showing the configuration of the event detection unit 102 in the interactive apparatus 100 shown in FIG. The event detection unit 102 includes a position detection unit 201 that detects position information of the interactive device 100, a route guide unit 202 that performs route guidance according to a destination and a route set by the user, and that the user deviates from the set route. The location information of the dialogue apparatus 100 detected by the departure point storage unit 203 and the position detection unit 201 that stores a certain point deviates from the route guided by the route guide unit 202, and the departure point storage It is comprised from the transmission part 205 which transmits predetermined | prescribed information to the character management part 103 based on the determination part 204 which determines whether it is the same as the point memorize | stored by the part 203, and the determination part 204.

図3は、判定部204により経路の逸脱が判定される例を示した図である。図中、黒い実線矢印で示されたものが、設定されている経路を表す。位置検出部201はGPSなどのセンサを利用して自車の位置情報を検出し、検出された位置情報は図中の黒い三角で表される自車に反映される。設定された経路では交差点Aを直進し、次の交差点で左折する必要があるが、自車が図のように交差点Aを左折する、つまり設定されている経路ではない道を走行すると、判定部204は経路の逸脱、および逸脱の状況を判定する。逸脱の状況とは、例えば図3では早く左折しすぎたことであったり、また逆に左折すべき箇所を通過してしまったり、など様々に存在する。逸脱した地点に関する情報と、逸脱の状況に関する情報は、逸脱地点記憶部203において記憶される。   FIG. 3 is a diagram illustrating an example in which a departure from the route is determined by the determination unit 204. In the figure, a black solid line arrow indicates a set route. The position detection unit 201 detects the position information of the own vehicle using a sensor such as a GPS, and the detected position information is reflected on the own vehicle represented by a black triangle in the drawing. In the set route, it is necessary to go straight at the intersection A and turn left at the next intersection, but if the vehicle turns left at the intersection A as shown in the figure, that is, if the vehicle runs on a road that is not the set route, 204 determines the path deviation and the situation of the deviation. There are various situations such as a situation where the vehicle deviates too quickly in FIG. 3, for example, or the vehicle has passed a portion where it should turn left. Information on the point of departure and information on the state of departure are stored in the departure point storage unit 203.

経路案内部202は、ユーザにより設定された目的地や経路までの経路案内をするとともに、判定部204により経路の逸脱が判定されると、逸脱して走行している位置や道路に関する情報と、あらかじめ設定されている目的地情報とを利用することで新たな経路を設定(リルート)し直す機能を有する。   The route guidance unit 202 guides the route to the destination or route set by the user. When the determination unit 204 determines that the route has deviated, the route guidance unit 202 includes information on the position and road where the vehicle deviates and It has a function of setting (rerouting) a new route by using destination information set in advance.

判定部204はまた、自車の現在位置が逸脱地点記憶部203に記憶された地点、つまり過去に経路を逸脱して走行したことのある地点の近傍を走行しているかどうかの判定も行う。図4に示すように、ユーザが現在の走行を継続すると過去に経路を逸脱したことのある交差点Aに達すると予想される場合などはその例である。さらに、現在位置が交差点Aから所定の範囲(例えば半径200m)であることを基準として設けてもよい。   The determination unit 204 also determines whether or not the vehicle's current position is traveling in the vicinity of the point stored in the departure point storage unit 203, that is, in the vicinity of a point that has traveled past the route. As shown in FIG. 4, for example, the user is expected to reach an intersection A that has deviated from the route in the past when continuing the current travel. Furthermore, the current position may be provided based on a predetermined range (for example, a radius of 200 m) from the intersection A.

経路を逸脱した場合に経路案内部202によりリルートされた経路に関する情報と逸脱した状況を表す情報、または、逸脱地点記憶部203に記憶された地点の近傍を走行している場合にその地点に関する情報と逸脱した状況を表す情報は、送信部205によりキャラクタ管理部103へ送信される。   Information about the route rerouted by the route guidance unit 202 when deviating from the route and information indicating the deviating situation, or information about the point when traveling in the vicinity of the point stored in the departure point storage unit 203 The information indicating the situation that deviates is transmitted to the character management unit 103 by the transmission unit 205.

図5は、図1に示された対話装置100におけるキャラクタ管理部103の構成を示した図である。このキャラクタ管理部103は、イベント検出部102から所定の情報を受信する受信部501、キャラクタが対話を行うためのシナリオを1つ以上記憶しているシナリオデータ503、イベント検出部102から受信した情報に応じてシナリオデータ503からシナリオを選択するシナリオ選択部502、ユーザに表示するエージェント、ユーザアバタの画像や動画を記憶しておくキャラクタ記憶部506、表示部101においてキャラクタを表示する位置を決定するキャラクタ位置決定部504、及び、シナリオ選択部502により選択されたシナリオと、キャラクタ記憶部506に記録されているキャラクタと、キャラクタ位置決定部504により決定されるキャラクタの表示位置に基づいて表示部101に出力する内容を決定する出力内容決定部505とから構成される。   FIG. 5 is a diagram showing the configuration of the character management unit 103 in the interactive apparatus 100 shown in FIG. The character management unit 103 includes a reception unit 501 that receives predetermined information from the event detection unit 102, scenario data 503 that stores one or more scenarios for a character to interact, and information received from the event detection unit 102 The scenario selection unit 502 for selecting a scenario from the scenario data 503 according to the above, an agent to be displayed to the user, a character storage unit 506 for storing a user avatar image and video, and a position for displaying a character on the display unit 101 are determined. Display unit 101 based on the scenario selected by character position determination unit 504 and scenario selection unit 502, the character recorded in character storage unit 506, and the display position of the character determined by character position determination unit 504 Output to determine what to output Consisting of content determining section 505 Metropolitan.

受信部501は、イベント検出部102の送信部205から、ユーザが経路を逸脱した場合に経路案内部202によりリルートされた経路に関する情報と逸脱した状況を表す情報、または、ユーザが逸脱地点記憶部203に記憶された地点の近傍を走行している場合にその地点に関する情報と逸脱した状況を表す情報、を受信する。   The receiving unit 501 receives information about the route rerouted by the route guide unit 202 when the user deviates from the transmission unit 205 of the event detection unit 102 and information indicating the deviating situation, or the user departs from the departure point storage unit When traveling in the vicinity of the point stored in 203, information regarding the point and information indicating a deviating situation are received.

シナリオ選択部502は受信部501の受信情報に基づいてキャラクタが対話を行うシナリオを選択する。
図6に、シナリオデータ503の一例を示す。図中、シナリオ503aはユーザが曲がるべき交差点の手前で交差点を曲がったためにリルートが必要になったというイベントに対応したシナリオデータであり、シナリオ503bはユーザが曲がるべき交差点を過ぎてしまったためにリルートが必要になったというイベントに対応したシナリオデータ、シナリオ503cはユーザが曲がるべき交差点の手前で曲がったことのある交差点の近傍を走行しているというイベントに対応したシナリオデータである。例えば、受信部501が受信した情報が、ユーザが図3のように曲がるべき交差点の手前で左折してしまったことによるリルート情報である場合はシナリオ503a(turned earlier)が選択され、逆に交差点を通過してしまった場合にはシナリオ503b(turned later)が選択される。
The scenario selection unit 502 selects a scenario in which the character interacts based on the reception information of the reception unit 501.
FIG. 6 shows an example of scenario data 503. In the figure, scenario 503a is scenario data corresponding to an event that a reroute is necessary because the user has bent an intersection before the intersection to be bent, and scenario 503b is a reroute because the user has passed the intersection to be bent. Scenario data corresponding to the event that the user needs to be, scenario 503c is scenario data corresponding to the event that the user is driving in the vicinity of the intersection that has been bent before the intersection to be bent. For example, when the information received by the receiving unit 501 is reroute information due to the user turning left before the intersection to be turned as shown in FIG. 3, the scenario 503a (turned earlier) is selected, and conversely If it has passed, scenario 503b (turned later) is selected.

シナリオ503aを例にとって詳細に説明する。なお、受信したリルート情報は、最初に「次の交差点を右折」、その後「しばらく直進」であるとする。エージェントとユーザアバタは、シナリオ503aに従うと次のように対話が進行する。まず、ユーザアバタに相当するキャラクタは、シーケンスの1である「早く曲がりすぎた」と発話する。次にエージェントはシーケンスの2に従ってリルート情報を発話する。このリルート情報1や後に述べるリルート情報2はパラメータであり、シナリオ選択部502により、受信部501で受信したリルート情報が充当される。ユーザアバタはシーケンス3に従って再び「その先は?」と発話し、エージェントがそれに続くリルート情報2を発話する。   The scenario 503a will be described in detail as an example. It is assumed that the received reroute information is “turn right at the next intersection” first and then “go straight ahead for a while”. When the agent and the user avatar follow the scenario 503a, the dialogue proceeds as follows. First, the character corresponding to the user avatar utters “turned too early”, which is 1 in the sequence. Next, the agent speaks the reroute information according to sequence 2. The reroute information 1 and the reroute information 2 described later are parameters, and the scenario selection unit 502 applies the reroute information received by the reception unit 501. The user avatar speaks “Where is ahead” again according to the sequence 3, and the agent speaks the reroute information 2 that follows.

具体的には次のようなものがある。
<ユーザアバタ>:早く曲がりすぎた。
<エージェント>:次の交差点を右折だ。(リルート情報1)
<ユーザアバタ>:その先は?
<エージェント>:しばらく直進だ。(リルート情報2)
ここで、受信したリルート情報「次の交差点を右折」、「しばらく直進」は上述したような口語調に変換する文体変換技術を利用することが考えられる。それ以外にも、単に文体のフォーマットを用意しておいてリルート情報を充当するだけでもよい。
Specifically, there are the following.
<User avatar>: It turned too quickly.
<Agent>: Turn right at the next intersection. (Reroute information 1)
<User avatar>: What is the future?
<Agent>: Go straight ahead for a while. (Reroute information 2)
Here, it is conceivable that the received reroute information “turn right at the next intersection” and “go straight for a while” use the style conversion technology for converting into the colloquial tone as described above. In addition, it is also possible to simply prepare a stylistic format and apply the reroute information.

またリルート情報は、ユーザがどこで、どのように経路を逸脱したのかによって異なるため、それらに応じて充当される。さらに、同一の逸脱状況(例えば、リルート turned earlier)であっても、それに対応するシナリオ、例えば、シナリオ503aのバリエーションを複数もっておき、逸脱の度にシナリオを選択するようにすることも可能である。この場合は、ランダムに選択してもよいし、最近最も選択されていないものから順に選択するのでもよい。   In addition, the reroute information varies depending on where and how the user deviates from the route, and is therefore applied accordingly. Furthermore, even in the same deviation situation (for example, reroute turned earlier), it is possible to have a plurality of variations of the corresponding scenario, for example, the scenario 503a, and select the scenario for each deviation. . In this case, the selection may be made at random or may be selected in order from the least recently selected.

このように、逸脱した状況をアバタの台詞に取り入れることで、アバタがユーザの分身、代弁者であることにリアリティを増すことができる。
キャラクタ位置決定部504は、表示部101におけるエージェント、ユーザアバタの表示位置を決定する。決定するための基準は様々に考えることができる。例えば、運転席の位置が左であるか右であるかを識別する手段を設け表示部101において運転席に近いほうにユーザアバタ、遠いほうにエージェントを、対面させるように表示させることができるし、その逆であってもよい。前者の場合は、自分の分身であるアバタを近くにもってくることでより親密度が増し、エージェントが運転者の方を向いているように表示できるので運転者に向かって話しかけているような雰囲気をつくることができる。運転席が右にある場合の表示例を図7に示す。また後者の場合は、エージェントを近くに配置することで運転者にとってエージェントにより提供される情報が表示情報である場合に見やすくなるという効果がある。これは、運転者にとってよく知らない土地を走行している場合には特に有効となる。そこで、運転者の走行履歴を蓄積しておいて、運転者がその土地に対してどれくらい知っているか、を判定する基準を設けて、あまり知らない場合にはエージェントを近くに配置するようにしてもよい。
In this way, by incorporating the deviated situation into the avatar's dialogue, it is possible to increase the reality that the avatar is the user's alternation and spokesperson.
The character position determination unit 504 determines the display positions of the agent and user avatar on the display unit 101. Various criteria can be considered for determination. For example, a means for identifying whether the position of the driver's seat is left or right can be provided, and the display unit 101 can display the user avatar closer to the driver's seat and the agent facing away from the driver's seat. Or vice versa. In the former case, bringing the avatar that is your alternation closer will increase the intimacy, and it can be displayed as if the agent is facing the driver, so the atmosphere is like talking to the driver Can be made. A display example when the driver's seat is on the right is shown in FIG. In the latter case, by arranging the agent close to the driver, there is an effect that it is easy for the driver to see when the information provided by the agent is display information. This is especially effective when driving on land that is not well known to the driver. Therefore, by accumulating the driving history of the driver, a criterion for judging how much the driver knows about the land is set, and if the driver does not know much, an agent is arranged nearby. Also good.

さらに、ユーザが過去に経路を逸脱したことのある交差点の近傍を走行している場合には、表示部101に表示されている地図におけるその交差点の位置に相当する場所から、ユーザアバタまたはエージェントを登場させるようにすることも考えられる。図8にその表示例を示す。このようにすることで以前ユーザが経路を逸脱した地点をユーザに明示することになり、現在の走行において注意を促すことが可能になる。   Furthermore, when the user is driving near an intersection that has deviated from the route in the past, the user avatar or agent is selected from the location corresponding to the position of the intersection on the map displayed on the display unit 101. It is possible to make it appear. FIG. 8 shows an example of the display. In this way, a point where the user has deviated from the route is clearly indicated to the user, and attention can be urged in the current traveling.

また自車位置にユーザアバタを表示し自車の走行にしたがってユーザアバタも移動するようにしておき、ユーザに通知したい情報がある地点(例えば上述した過去の経路逸脱地点や、特売情報がある店舗の位置など)にエージェントを配置しておき、自車位置とその地点の距離が一定以内になる、つまり、ユーザアバタとエージェントの間隔が表示上一定以内になったときに、所定のシナリオにしたがって対話を行うようにしてもよい。   In addition, the user avatar is displayed at the own vehicle position, and the user avatar is also moved according to the traveling of the own vehicle, and the point where there is information to be notified to the user (for example, the above-mentioned past route deviation point or the store having the sale information) If an agent is placed at the position of the vehicle and the distance between the vehicle position and the point is within a certain range, that is, the distance between the user avatar and the agent is within a certain range on the display, the predetermined scenario is followed. A dialogue may be performed.

なお、このような表示位置を決定する構成はなく、必ず定まった位置に表示されてもよいことは言うまでもない。
出力内容決定部505は、表示部101に表示すべきエージェントとユーザアバタの画像や動画をキャラクタ記憶部506から抽出し、キャラクタ位置決定部504により定められた位置にそれぞれのキャラクタを表示し、シナリオ選択部502により選択、充当されたシナリオに従って図7や図8に示すように対話内容を出力する。
Needless to say, such a display position is not determined and may be displayed at a fixed position.
The output content determination unit 505 extracts agents and user avatar images and moving images to be displayed on the display unit 101 from the character storage unit 506, displays each character at a position determined by the character position determination unit 504, and executes a scenario. The dialogue contents are output as shown in FIGS. 7 and 8 according to the scenario selected and applied by the selection unit 502.

なお、エージェントやユーザアバタにどのようなキャラクタを利用するかは様々に考えることができる。擬人化されたものを利用してもよいし、それ以外にも動物やアニメなどのキャラクタなどユーザが自由に設定できるようにしてもよい。また、本発明を車載機器へ適用する場合には、エージェントの画像として車や車載機器をイメージさせるようなものを利用してもよいし、本発明をTVや携帯電話などに適用した場合は、それぞれTVや携帯電話をイメージさせるような画像にしてもよい。ユーザアバタについても同様である。いずれにしても、対話を行う2つのキャラクタに対して、ユーザが、自分のアバタ、エージェントを識別できるのであればよい。   Various characters can be considered for the agent or user avatar. Anthropomorphic material may be used, or the user may freely set other characters such as animals and animation. In addition, when the present invention is applied to an in-vehicle device, an agent image that makes an image of a car or an in-vehicle device may be used, or when the present invention is applied to a TV or a mobile phone, You may make it an image which makes TV and a mobile phone image, respectively. The same applies to the user avatar. In any case, it suffices if the user can identify his / her avatar and agent for the two characters having a conversation.

次に、このように構成されるイベント検出部102およびキャラクタ管理部103の一連の動作について、図9および図10をそれぞれ参照して述べる。
まず、図9を参照してイベント検出部102の動作を説明する。
Next, a series of operations of the event detection unit 102 and the character management unit 103 configured as described above will be described with reference to FIGS. 9 and 10, respectively.
First, the operation of the event detection unit 102 will be described with reference to FIG.

位置検出部201では、所定のタイミングにおいて自車の位置情報が検出される(ステップS901)。
現在、経路案内部202による経路案内が行われている場合(ステップS902でYes)、判定部204において、位置検出部201により検出された自車位置情報と案内中の経路を対比し、経路を逸脱しているかどうかの判定がなされる(ステップS903)。
The position detection unit 201 detects the position information of the own vehicle at a predetermined timing (step S901).
If route guidance is currently being performed by the route guidance unit 202 (Yes in step S902), the determination unit 204 compares the vehicle position information detected by the position detection unit 201 with the route being guided, and determines the route. It is determined whether or not there is a deviation (step S903).

逸脱していないと判定された場合(ステップS903でNo)は、再び位置検出部201による自車位置検出が行われる。
逸脱していると判定されると(ステップS903でYes)、逸脱地点記憶部203では、逸脱した地点に関する情報と、逸脱した状況に関する情報が記憶される(ステップS904)。また、経路案内部202では改めて経路の設定が行われる(ステップS905)。
If it is determined that the vehicle has not deviated (No in step S903), the vehicle position detection by the position detection unit 201 is performed again.
If it is determined that the vehicle has deviated (Yes in step S903), the departure point storage unit 203 stores information on the point of departure and information on the state of departure (step S904). Further, the route guidance unit 202 sets the route again (step S905).

そして逸脱地点記憶部203に記憶される情報と、リルートに関する情報は送信部205によりキャラクタ管理部103へ送信される(ステップS906)。
一方、経路案内中でない場合(ステップS902でNo)、現在地が逸脱地点記憶部203に記憶されている、過去に経路を逸脱した地点の近傍であるかどうかの判定が、判定部204により行われる(ステップS907)。
Information stored in the departure point storage unit 203 and information on reroute are transmitted to the character management unit 103 by the transmission unit 205 (step S906).
On the other hand, when route guidance is not being performed (No in step S902), the determination unit 204 determines whether the current location is stored in the departure point storage unit 203 and is in the vicinity of a point that has deviated from the route in the past. (Step S907).

過去に経路を逸脱した地点の近傍である場合(ステップS907でYes)、その地点に関する情報と、逸脱した状況に関する情報は、送信部205によりキャラクタ管理部103へ送信される(ステップS906)。   If it is in the vicinity of a point that has deviated from the path in the past (Yes in step S907), information regarding the point and information regarding the deviating situation are transmitted to the character management unit 103 by the transmission unit 205 (step S906).

次に、図10を参照してキャラクタ管理部103の動作を説明する。
受信部501は、イベント検出部102の送信部205から情報の受信待ちを行う(ステップS1001)。
Next, the operation of the character management unit 103 will be described with reference to FIG.
The reception unit 501 waits for information reception from the transmission unit 205 of the event detection unit 102 (step S1001).

情報を受信すると(ステップS1001でYes)、シナリオ選択部502は、シナリオデータの中から受信した状況に該当するシナリオを選択し、リルート情報など、受信した情報の中から補充すべき内容がある場合はそれらの情報でシナリオを完成させる(ステップS1002)。   When the information is received (Yes in step S1001), the scenario selection unit 502 selects a scenario corresponding to the received situation from the scenario data, and there is content to be supplemented from the received information such as reroute information. Completes the scenario with such information (step S1002).

一方、キャラクタ位置決定部504では、受信した情報に応じてエージェント、およびユーザアバタを表示部101のどの場所に表示するか、また、どの場所から登場させるか、に関する決定が行われる(ステップS1006)。   On the other hand, the character position determination unit 504 determines in which position on the display unit 101 the agent and the user avatar are to be displayed and where the agent and the user avatar are to appear (step S1006). .

出力内容決定部505では、表示部101に表示するユーザアバタとエージェントの画像や動画をキャラクタ記憶部506から抽出し(ステップS1003)、キャラクタ位置決定部504により決められた位置に表示させ、シナリオ選択部502で選択、充当されたシナリオに基づいて表示部101に表示する内容が決定され(ステップS1004)、表示部101に表示される(ステップS1005)。   The output content determination unit 505 extracts user avatar and agent images and videos to be displayed on the display unit 101 from the character storage unit 506 (step S1003), displays them at the position determined by the character position determination unit 504, and selects a scenario. The content to be displayed on the display unit 101 is determined based on the scenario selected and applied by the unit 502 (step S1004) and displayed on the display unit 101 (step S1005).

以上のように、本実施の形態によれば、ユーザは特に何も入力をしなくても、現在おかれている状況を把握しているアバタとエージェントとの対話を俯瞰するだけで、自分に必要な情報を適切なタイミングで取得することができ、また、必要となる機能がタイミングよく代理実行なされることになる。これにより、例えば運転中など他の作業に集中しなければならず対話や入力に手間を割けない場合や、その他手間をかけるのが面倒な場合であっても、ユーザは所望の要求を達成することが可能となる。   As described above, according to the present embodiment, even if the user does not input anything, he / she only has a bird's-eye view of the conversation between the avatar and the agent who knows the current situation. Necessary information can be acquired at an appropriate timing, and necessary functions are proxy-executed in a timely manner. As a result, the user achieves a desired request even when he / she has to concentrate on other tasks such as driving and cannot spend time on dialogue and input, or when it is troublesome to spend other time. It becomes possible.

なお本実施の形態では、過去に経路を逸脱した箇所は経路案内を行っていないときに表示する例を述べたが、当然経路案内中であっても表示してもよい。経路案内中でなければ特に注意が必要であるし、案内中であっても注意すべきポイントであるので、ユーザに通知することは有効である。   In this embodiment, an example has been described in which a location that has deviated from the route in the past is displayed when route guidance is not being performed, but it may be displayed even during route guidance. If route guidance is not in progress, special attention is required, and even during guidance, it is a point to be careful of, so it is effective to notify the user.

また、イベント検出部102が検出するイベントとしては上述した以外にも、渋滞に遭遇した、トンネルを抜けたのにヘッドライトが点いている、などを考えることができる。渋滞に遭遇しているというイベントの検出は、車速が一定速度以下で所定の時間走行しているという状態の検出やVICSなどによる交通情報の取得により可能となり、キャラクタ同士の対話の中で現在地周辺の渋滞を回避するルート情報をユーザに提供することが考えられる。また、トンネルを抜けたのにヘッドライトが点いているというイベントは、時刻が昼間でありマップマッチングの結果すでにトンネルを過ぎているという状態の検出により可能であり、ヘッドライトの消し忘れを通知する対話を行うことが考えられる。   In addition to the events described above, the event detection unit 102 can also consider that a traffic jam has occurred, a headlight is turned on after passing through a tunnel, or the like. The detection of an event of encountering traffic jams is possible by detecting the state that the vehicle speed is below a certain speed and traveling for a predetermined time, and acquiring traffic information by VICS, etc. It is conceivable to provide the user with route information that avoids traffic jams. In addition, the event that the headlight is turned on after passing through the tunnel can be detected by detecting that the time is in the daytime and the map matching has already passed the tunnel. It is conceivable to have a dialogue.

また、キャラクタの表示は、イベント検出部102によるイベント検出により行われる例について示したが、それ以外にも、ユーザからのキャラクタ表示要求の入力に応じてキャラクタ管理部103が動作し、その後、そのときにユーザに起こっているイベント(経路を逸脱した、渋滞に遭遇している)を検出して対話を行うのでもよい。   In addition, although the example in which the character display is performed by event detection by the event detection unit 102 has been described, the character management unit 103 operates in response to the input of the character display request from the user. Sometimes it is possible to detect and interact with events happening to the user (departing the route, encountering a traffic jam).

さらに、キャラクタ管理部103(キャラクタ位置決定部504及び出力内容決定部505)は、イベント検出部102が検出したイベントの種類に応じて、表示部101に表示するキャラクタの出現タイミング、出現画面位置、出現方法、表情等を変化させてもよい。   Furthermore, the character management unit 103 (the character position determination unit 504 and the output content determination unit 505), depending on the type of event detected by the event detection unit 102, the appearance timing of the character displayed on the display unit 101, the appearance screen position, The appearance method, facial expression, etc. may be changed.

例えば出現のタイミングとしては、自車の走行により、過去に経路を逸脱した箇所が画面内に表示されたタイミングが考えられる。また、自車位置と逸脱箇所との距離が所定の範囲になったときに、画面に表示されている地図の縮尺をそれら2つの位置が表示可能な縮尺に変更しキャラクタを出現させてもよい。これは、所定の距離を300mとした場合、画面に表示されている地図が50mの範囲しか表示できない縮尺であれば、これを少なくとも自車位置から300mの範囲表示可能な縮尺に変更するというものである。   For example, the timing of appearance may be a timing at which a location that deviates from the route in the past is displayed on the screen due to traveling of the host vehicle. Further, when the distance between the vehicle position and the departure point falls within a predetermined range, the scale of the map displayed on the screen may be changed to a scale that can display the two positions, and the character may appear. . If the predetermined distance is 300 m and the map displayed on the screen is a scale that can display only a range of 50 m, this is changed to a scale that can display a range of at least 300 m from the vehicle position. It is.

また出現画面位置としては、設定されたルート上や、ユーザの走行履歴に基づいて走行が予想されるルート上にキャラクタが重ならないような位置に表示することなどが考えられる。   Moreover, as an appearance screen position, displaying on the position which a character does not overlap on the set route or the route where a run is predicted based on a user's run history etc. can be considered.

(実施の形態2)
本発明の第二の実施の形態について説明する。なお、本実施の形態における対話装置100の全体構成は図1に示された実施の形態1と同様であるが、イベント検出部とキャラクタ管理部の機能が異なる(ここでは、それぞれ、イベント検出部102a、キャラクタ管理部103aとする)。
(Embodiment 2)
A second embodiment of the present invention will be described. The overall configuration of the interactive device 100 in the present embodiment is the same as that of the first embodiment shown in FIG. 1, but the functions of the event detection unit and the character management unit are different (here, the event detection unit 102a, character management unit 103a).

図11は、本実施の形態におけるイベント検出部102aの構成を示した機能ブロック図である。このイベント検出部102aは、地図データを記憶している地図データ記憶部1101、対話装置100が搭載されている車の車内外の状況を検出する状況検出部1102、状況検出部1102により検出された状況を蓄積しておく履歴データ記憶部1103、目的地設定がなされない場合にユーザが向かおうとしている目的地や、ユーザに推薦するとメリットがあると考えられる目的地(例えば、昼食や夕食の時間帯であればレストランなど)、さらにはそれらの目的地が属するジャンルを予測する予測部1104、ネットワークを介して情報を取得する情報取得部1105、情報取得部1105で取得した情報の中で、予測部1104により予測された目的地やそのジャンルに関連する情報があるかどうかを判定する判定部204、経路案内を行う経路案内部202及び判定部204に従って、予測された目的地やそのジャンルに関する名称や情報取得部1105により取得した情報の中でそれらに関連する情報をキャラクタ管理部103へ送信する送信部205から構成される。   FIG. 11 is a functional block diagram showing the configuration of the event detection unit 102a in the present embodiment. The event detection unit 102a is detected by a map data storage unit 1101 that stores map data, a situation detection unit 1102 that detects a situation inside and outside the vehicle on which the interactive device 100 is mounted, and a situation detection unit 1102. A history data storage unit 1103 for accumulating the situation, a destination that the user is going to go to when the destination is not set, and a destination that can be recommended to the user (for example, lunch or dinner time) If the belt is a restaurant, etc.), the prediction unit 1104 that predicts the genre to which those destinations belong, the information acquisition unit 1105 that acquires information via the network, and the information acquired by the information acquisition unit 1105 Determination unit 204 for determining whether there is information related to the destination predicted by the unit 1104 or its genre, and a route In accordance with the route guidance unit 202 and the determination unit 204 that perform the inside, a transmission unit that transmits information related to the predicted destination and its genre name and information acquired by the information acquisition unit 1105 to the character management unit 103 205.

地図データ記憶部1101は、対話装置100に用いられる地図データ1101aや、走行経路を特定するためのノードデータベース1101b等を記憶しているハードディスク等である。ノードデータベース1101bは、図12に示されるように、全国における予め設定された主要な地点をノードとし、ノードごとの「ノード番号」、「種別、名称」、「東経」及び「北緯」を記録したデータベースである。ノードには、交差点やランドマーク、またエリアなどがある。   The map data storage unit 1101 is a hard disk or the like that stores map data 1101a used for the interactive device 100, a node database 1101b for specifying a travel route, and the like. As shown in FIG. 12, the node database 1101b records the “node number”, “type, name”, “east longitude”, and “north latitude” for each node, with major points set in advance in the country as nodes. It is a database. Nodes include intersections, landmarks, and areas.

状況検出部1102は、その時点での車及び車がおかれた状況を検出する各種センサ等からなり、エンジンの状態(起動/停止)、車の位置、運転者、同乗者、天気等を検出する。具体的には、エンジンキーの位置等からエンジンの状態を検出し、対話装置100が備えるGPSによって現在位置を検出し、内蔵するカレンダー・タイマーによって日時を検出し、各座席に組み込まれた着座センサ、運転席のシート位置、ミラーの調整位置、エンジンキーと一体化された赤外線送信器からのID信号、乗車する人が所有する携帯電話機からの無線信号によるID又は電話番号等から運転者及び同乗者を検出し、ワイパーの動作状態、雨滴センサ、温度・湿度センサ等から天気を検出する。   The situation detection unit 1102 includes a vehicle at that time and various sensors that detect the situation where the car is placed, and detects an engine state (start / stop), a vehicle position, a driver, a passenger, weather, and the like. To do. Specifically, the state of the engine is detected from the position of the engine key, the current position is detected by the GPS provided in the dialogue apparatus 100, the date and time is detected by a built-in calendar timer, and the seating sensor incorporated in each seat The driver's seat and the driver's seat from the seat position of the driver's seat, the mirror adjustment position, the ID signal from the infrared transmitter integrated with the engine key, the ID or telephone number by the wireless signal from the mobile phone owned by the rider A person is detected, and the weather is detected from the operation state of the wiper, raindrop sensor, temperature / humidity sensor and the like.

履歴データ記憶部1103は、状況検出部1102から送られてくる状況信号に基づいて、走行状況の履歴データを蓄積する。履歴データは、図13に示されるように、エンジンが始動してから停止されるまで(あるいは、出発地から目的地に到着するまで)の走行に関する情報を集めたものを1つのエントリ(単位)として蓄積されたものであり、エントリごとに、その「日時」、エンジン始動から停止までの「所要時間」、「出発地」、「目的地」、ノードの連なりからなる「経路」、「天気」、「運転者」、「同乗者」等の項目を記録した情報である。状況検出部1102により検出された位置情報は、該当するノードのIDの系列に変換されて蓄積されることになる。また図13には図示していないが、ノードの系列には、そのノードを出発、通過、滞在した時刻、または、ノード間の走行に要した所要時間を合わせて蓄積しておくことが望ましい。   The history data storage unit 1103 accumulates travel status history data based on the status signal sent from the status detection unit 1102. As shown in FIG. 13, the history data is a single entry (unit) that is a collection of information related to traveling from when the engine is started until it is stopped (or from the departure point to the destination). For each entry, its “date and time”, “time required” from engine start to stop, “departure point”, “destination”, “route” consisting of a series of nodes, “weather” , “Driver”, “passenger”, and other items. The position information detected by the situation detection unit 1102 is converted into an ID series of the corresponding node and accumulated. Although not shown in FIG. 13, it is desirable to accumulate in the node series the time when the node departed, passed, stayed, or the time required for traveling between the nodes.

予測部1104は、状況検出部1102で検知された状況(日時、現在地、運転者、同乗者等)を履歴データ記憶部1103に記憶されたデータと照合することによって、現在の走行における目的地を予測する。例えば、現在状況における日時(時間帯、曜日)、現在地、運転者、同乗者それぞれと一致する「日時(時間帯、曜日)」「出発地」、「運転者」、「同乗者」が記録された全てのエントリを履歴データ記憶部1103に記憶されたデータから抽出し、抽出したエントリに記録された全ての「目的地」のうち最も頻度の多い「目的地」を予測目的地として予測する処理部である。予測部1104はさらに、蓄積されている経路情報を利用して目的地までの経路を予測することも可能である。   The prediction unit 1104 compares the situation (date and time, current location, driver, passenger, etc.) detected by the situation detection unit 1102 with the data stored in the history data storage unit 1103, thereby determining the destination in the current travel. Predict. For example, the date and time (time zone, day of the week) in the current situation, the current location, the driver, and the passenger are recorded as “date and time (time zone, day of the week)”, “departure place”, “driver”, and “passenger”. The process of extracting all the entries from the data stored in the history data storage unit 1103 and predicting the “destination” having the highest frequency among all the “destinations” recorded in the extracted entry as a predicted destination Part. The prediction unit 1104 can also predict a route to the destination using the accumulated route information.

このとき、検索に用いる状況パラメータは必ずしも蓄積しているもの全てを用いる必要はない。例えば、全てのパラメータを利用した場合、履歴を検索して抽出されるエントリが10であったとする。この数値は統計的に信頼できる数値とはならない。そこで、「出発地」パラメータを除いて残りの状況パラメータで検索した場合にエントリが50抽出されたとする。これは全てのパラメータを利用するよりも統計的な確信度が高まるため、この50エントリの中から最も頻度の多い「目的地」を予測するということも考えられる。このように利用するパラメータは柔軟に変化させることが可能である。   At this time, it is not always necessary to use all the stored situation parameters. For example, when all parameters are used, it is assumed that 10 entries are extracted by searching the history. This number is not statistically reliable. Therefore, it is assumed that 50 entries are extracted when searching with the remaining situation parameters except for the “departure place” parameter. Since this increases the statistical certainty compared to using all parameters, it is conceivable that the most frequently used “destination” is predicted from the 50 entries. The parameters used in this way can be changed flexibly.

また、図14に示すように、ランドマークとその属するジャンルが定義された情報が地図データ1101a内に記憶されている場合、ユーザの目的地の履歴をジャンルとして把握することができるため、予測部1104は目的地の名称ではなく、目的地が属するジャンルを予測することも可能となる。例えば、休日の12時から13時半の間に、「エムバーガー」、「ル・フラン」によく行っている場合、これを「レストラン」というジャンルを利用して、レストランによく行くというように予測をすることができる。   Further, as shown in FIG. 14, when information defining a landmark and its genre is stored in the map data 1101a, the history of the user's destination can be grasped as a genre. In 1104, it is possible to predict the genre to which the destination belongs instead of the name of the destination. For example, if you frequently go to “M Burger” or “Le Franc” between 12 o'clock and 13:30 on a holiday, use this genre called “restaurant” to go to restaurants often. Can make predictions.

さらに、このようにユーザごとの履歴情報のみを利用するのではなく、一般的な知識を利用してもよい。一般的な知識とは、「昼食や夕食の時間帯であればレストランに行きやすい」、「休日であればレジャー施設やショッピングに行きやすい」、「雨が降っていれば屋内型レジャー施設に行きやすい」、「特売情報のあるスーパーには行きやすい」などの多くの人に適用できると考えられる規則である。このような一般的な知識と、ユーザごとの履歴情報を併用することで、例えば、夕食の時間帯であれば、レストランの中で、ユーザがよく行っているフランス料理の店舗を目的地として予測する、というようなことが可能である。   Furthermore, general knowledge may be used instead of using only the history information for each user. General knowledge is that “it is easy to go to restaurants during lunch and dinner”, “is easy to go to leisure facilities and shopping during holidays”, “if it is raining, go to indoor leisure facilities It is a rule that can be applied to many people, such as “Easy” and “Easy to go to a supermarket with special sale information”. By using such general knowledge and history information for each user in combination, for example, in the time of dinner, a French restaurant often used by a user in a restaurant is predicted as a destination. It is possible to do that.

予測部1104による予測処理が行われるタイミングとしては、エンジンが起動された時、交差点を通過した時、情報取得部1105が情報を取得した時、など様々に考えることができる。   The timing at which the prediction processing by the prediction unit 1104 is performed can be variously considered such as when the engine is started, when an intersection is passed, when the information acquisition unit 1105 acquires information, and so on.

情報取得部1105は、ネットワークやVICSなどを介して交通情報や商用情報、施設情報など様々な情報を取得することができる。
判定部204は、情報取得部1105が取得した情報の中で、予測部1104により予測された目的地、ジャンル、経路に関連のある情報があるかどうかの判定処理を行う。情報の関連性は、例えば次のように判定される。予測部1104により経路が予測された場合、その経路に関連する交通情報や道路情報、また経路に沿った店舗や施設の情報などは、関連性があると判定される。また、目的地として固有名称(甲子園やエキスポランドなど)が予測された場合には、その施設の情報、ジャンル(運動施設やレストランなど)が予測された場合には、そのジャンルに属する施設や店舗の情報、は関連性があると判定される。
The information acquisition unit 1105 can acquire various information such as traffic information, commercial information, and facility information via a network or VICS.
The determination unit 204 determines whether there is information related to the destination, genre, and route predicted by the prediction unit 1104 among the information acquired by the information acquisition unit 1105. Information relevance is determined, for example, as follows. When the route is predicted by the prediction unit 1104, it is determined that traffic information and road information related to the route, information on stores and facilities along the route, and the like are relevant. In addition, when a unique name (such as Koshien or Expoland) is predicted as a destination, information on the facility or genre (such as an exercise facility or restaurant) is predicted. Information is determined to be relevant.

予測部1104と判定部204の処理の具体例として次のようなものを考える。
予測部1104は、現在以降のユーザの走行経路および目的地としてノード系列「C2→C8→C10→C18→C15→L124(職場)」と予測する。履歴データ記憶部1103に記憶されている過去のエントリからノード間の走行所要時間の平均を計算することができ、C8からC18までの予想所要時間が10分と算出される。
Consider the following as a specific example of the processing of the prediction unit 1104 and the determination unit 204.
The prediction unit 1104 predicts the node series “C2 → C8 → C10 → C18 → C15 → L124 (workplace)” as the travel route and destination of the user after the current time. The average travel time between nodes can be calculated from past entries stored in the history data storage unit 1103, and the expected travel time from C8 to C18 is calculated as 10 minutes.

情報取得部1105は、ノードC8に相当する交差点名称「清滝東」とノードC18に相当する交差点名称「生駒登山口」を含んだ「清滝東〜生駒登山口まで、25分」という交通情報を受信する。   The information acquisition unit 1105 receives traffic information “25 minutes from Kiyotaki Higashi to Ikoma Climbing Exit” including the intersection name “Kiyotaki Higashi” corresponding to node C8 and the intersection name “Ikoma Climbing Exit” corresponding to node C18. To do.

判定部204では、予測部1104により予測された経路と情報取得部1105により取得された情報に関連があると判定する。この場合交通情報により、C8からC18を走行するのに、予想された走行所要時間以上必要となるため、経路案内部202に対してC8からC18を回避するルートを探索するよう指示が出される。そして、予測された経路と目的地、関連する交通情報(受信情報や、予想所要時間と実際の所要時間の差に関する情報など)を送信部205へ通知する。   The determination unit 204 determines that the route predicted by the prediction unit 1104 and the information acquired by the information acquisition unit 1105 are related. In this case, since it takes more than the estimated travel time to travel from C8 to C18 based on the traffic information, the route guidance unit 202 is instructed to search for a route that avoids C8 to C18. Then, the predicted route, the destination, and related traffic information (reception information, information on the difference between the estimated required time and the actual required time, etc.) are notified to the transmitting unit 205.

次に、本実施の形態におけるキャラクタ管理部103aの構成について図15の機能ブロック図を用いて説明する。このキャラクタ管理部103aは、受信部501、シナリオ選択部502、シナリオデータ503、キャラクタ位置決定部504、出力内容決定部505、キャラクタ記憶部506及びキャラクタ選択部1501から構成される。図中、実施の形態1に示した構成と同一の機能のものは同一番号を付与し、詳細な説明は省く。   Next, the configuration of character management unit 103a in the present embodiment will be described using the functional block diagram of FIG. The character management unit 103a includes a reception unit 501, a scenario selection unit 502, scenario data 503, a character position determination unit 504, an output content determination unit 505, a character storage unit 506, and a character selection unit 1501. In the figure, components having the same functions as those shown in the first embodiment are given the same reference numerals, and detailed description thereof is omitted.

図中、キャラクタ選択部1501は受信部501においてイベント検出部102aから受信した情報に応じて表示部101に表示するエージェント、ユーザアバタの画像や動画を選択するキャラクタ選択部である。   In the figure, a character selection unit 1501 is a character selection unit that selects an agent, an image of a user avatar, or a video to be displayed on the display unit 101 in accordance with information received from the event detection unit 102a in the reception unit 501.

キャラクタ記憶部506には、図16のようにエージェント、およびユーザアバタに関するキャラクタが複数記憶されている。これらは、あらかじめ記憶されているものの他に、ネットワークや記録媒体を経由して外部から取り込むことも可能である。例えば、商用情報を提供したい店舗や施設などが、それらに応じたキャラクタを対話装置100内部に送り込んでもよい。さらには、ユーザアバタにはユーザの似顔絵や画像を利用すると、ユーザにとってはよりアバタに親近感がわくという効果もある。   The character storage unit 506 stores a plurality of characters relating to agents and user avatars as shown in FIG. These can be imported from the outside via a network or a recording medium in addition to those stored in advance. For example, a store or facility that wants to provide commercial information may send a character corresponding to the information into the interactive device 100. Furthermore, if a user's portrait or image is used for the user avatar, there is an effect that the avatar is more familiar to the user.

キャラクタ選択部1501は、受信部501においてイベント検出部102aから受信した情報、および選択基準に基づいてキャラクタ記憶部506に記憶しているキャラクタの中から表示すべきキャラクタを選択する。   The character selection unit 1501 selects a character to be displayed from the characters stored in the character storage unit 506 based on the information received from the event detection unit 102a in the reception unit 501 and the selection criteria.

選択基準の例を図17に示す。選択基準には、キャラクタ選択基準1701aに示すようなイベントに応じて選択キャラクタが異なるという基準と、キャラクタ選択基準1701bに示すようにユーザの状態に応じて選択キャラクタが異なるという基準が設けられている。例えば、キャラクタ選択基準1701aでは、イベントとして「渋滞」を受信した場合に、通常の所要時間との差が10分未満であれば、ユーザアバタは「Avatar2」、エージェントは「Agent1」が選択され、10分以上かかるのであればユーザアバタは「Avatar3」、エージェントは「Agent3」が選択されることを表す。この他にも取得した商用情報が10%Off未満であるか以上であるか、さらには商用情報の対象となる店舗までの距離や所要時間の長さに応じて選択基準を設けてもよい。   An example of selection criteria is shown in FIG. The selection criterion includes a criterion that the selected character is different depending on the event as shown in the character selection criterion 1701a and a criterion that the selected character is different depending on the state of the user as shown in the character selection criterion 1701b. . For example, in the character selection criterion 1701a, when “congestion” is received as an event, if the difference from the normal required time is less than 10 minutes, “Avatar2” for the user avatar and “Agent1” for the agent are selected. If it takes 10 minutes or more, it means that “Avatar3” is selected for the user avatar and “Agent3” is selected for the agent. In addition to this, selection criteria may be set according to whether the acquired commercial information is less than or equal to 10% Off, or further depending on the distance to the store that is the target of the commercial information and the length of the required time.

また、キャラクタ選択基準1701bでは、ユーザの状態を定義しており、ユーザの疲労度や現在走行している地域にどれくらい詳しいかを判定するユーザモデリング部を新たに設け、ユーザモデリング部によって状態を判定し、それに応じてキャラクタを選択する基準を設けている。ユーザの疲労度は、走行を開始してからの運転時間の長さや、どのような道路、例えば、交通量の多い道、山道、平坦な道など、を走行してきたかによって定義することが考えられる。具体的には、運転時間と走行道路のそれぞれに対する疲労度合いを「運転時間が30分未満なら疲労度は1」、「運転時間が60分未満なら疲労度は2」、「運転時間が60分以上なら疲労度は4」、「走行道路が平坦な道なら疲労度は0」、「走行道路が交通量の多い道なら疲労度は2」、「走行道路が山道、細い道なら疲労度は3」のようにテーブルで定義しておけばよい。ここで、ユーザが実際に走行した道路の種別はデータベースとしてもっておくとよい。また地域にどれくらい詳しいか、は地図データ記憶部1101や履歴データ記憶部1103を参照して、ある地域を過去にどのくらいの頻度で走行しているか、その地域をどのくらいカバーしているか、などにより定義できる。ユーザの状態としてはこの他にも、実施の形態3で示すような現在聴いている音楽の好き嫌いの度合いや、目的地があらかじめ分かっている場合には目的地なども考えることができる。   The character selection criterion 1701b defines the user's state, and a user modeling unit is newly provided to determine how much the user's fatigue level and the current driving area are detailed. The user modeling unit determines the state. Therefore, a reference for selecting a character is provided. The user's fatigue level may be defined by the length of driving time since the start of driving and what kind of road, for example, a road with high traffic volume, a mountain road, a flat road, etc. . Specifically, the fatigue level for each of the driving time and the driving road is “fatigue degree is 1 if the driving time is less than 30 minutes”, “fatigue degree is 2 if the driving time is less than 60 minutes”, and “driving time is 60 minutes. Fatigue level is 4 if the road is above, "Fatigue level is 0 if the road is flat," "Fatigue level is 2 if the road is heavy," "Fatigue is if the road is mountainous or thin. It may be defined in a table like “3”. Here, the type of road on which the user actually traveled may be stored in a database. Also, how much is known about an area is defined by referring to the map data storage unit 1101 and the history data storage unit 1103 based on how often the area has been driven in the past and how much the area is covered. it can. In addition to this, as the user's state, the degree of likes and dislikes of the music currently being listened to as shown in the third embodiment and the destination when the destination is known in advance can be considered.

上述したような、取得した情報の内容による外的要因やユーザの状態のほかに、システムの内部状態、例えば予測部1104による目的地の予測確率が80%を超えるか超えないか、というものや、状況検出部1102で検出される運転者や同乗者、日時、天候、現在地などのセンサ情報による選択基準を設けてもよい。   As described above, in addition to external factors depending on the content of the acquired information and the user's state, the internal state of the system, for example, whether the prediction probability of the destination by the prediction unit 1104 exceeds or exceeds 80%, In addition, a selection criterion based on sensor information such as a driver or a passenger detected by the situation detection unit 1102, the date, weather, and the current location may be provided.

このような選択基準を設けることで具体例として以下のような選択が実現される。
◆ユーザの疲労度が強い場合には、ユーザアバタとして疲れている状態を表すキャラクタ、エージェントとして強い調子で注意を促す役割のキャラクタを選択する。
◆渋滞が10分以上かかる場合には、ユーザアバタとしてイライラしている状態を表すキャラクタ、エージェントとしてなだめる役割のキャラクタを選択する。
◆昼食時で食事に行くことが予測される場合には、ユーザアバタとして空腹状態を表すキャラクタ、エージェントとして飲食店を象徴するキャラクタを選択する。さらに商用情報と組み合わせることで、各店舗や施設が支払った広告料金に応じて表示するエージェントの優先度を決定する。また、各店舗や施設を象徴するキャラクタはネットワークなどを利用して取得することができる。各店舗や施設を象徴するようなキャラクタの出現位置としては、画面に表示される地図上におけるそれらの位置であることが考えられる。
By providing such a selection criterion, the following selection is realized as a specific example.
When the user's fatigue level is strong, a character representing a tired state as a user avatar and a character with a role of prompting attention with a strong tone as an agent are selected.
If the traffic jam takes more than 10 minutes, select the character that represents the frustrated state as a user avatar, and the character that has a role of soothing as an agent.
If it is predicted to go to a meal at lunch time, a character representing a hungry state as a user avatar and a character symbolizing a restaurant as an agent are selected. Further, by combining with commercial information, the priority of the agent to be displayed is determined according to the advertisement fee paid by each store or facility. In addition, a character symbolizing each store or facility can be acquired using a network or the like. The appearance positions of characters that symbolize each store or facility may be their positions on a map displayed on the screen.

このような選択基準により、エージェントとユーザアバタを表示したときに受ける印象に整合性を持たせることが可能となる。
ここでは選択基準を用いることで、ユーザアバタ、エージェントのキャラクタを変更する例について述べたが、この他にも同一キャラクタであってもその大きさや色、表情を変更するようにしてもよいし、ユーザアバタとエージェントの関係を指定するようにしてもよい。ここで述べる関係とは、それぞれのキャラクタが担う立場やキャラクタの大きさなどのことであり、立場に関しては、エージェントの立場を強くする、ユーザアバタの立場を強くする、それらを対等にする、というもの、大きさに関しては、ユーザアバタの大きさをエージェントより大きくする、エージェントの大きさをユーザアバタより大きくする、それらを同じ大きさにする、という指定の方法が考えられる。
Such a selection criterion can make the impression received when the agent and the user avatar are displayed consistent.
Here, an example of changing the character of the user avatar and the agent by using the selection criterion has been described. However, the size, color, and facial expression of the same character may be changed. You may make it designate the relationship between a user avatar and an agent. The relationship described here refers to the position of each character and the size of the character. Regarding the position, the agent's position is strengthened, the user avatar's position is strengthened, and they are equalized. Regarding the size, the user avatar may be larger than the agent, the agent may be larger than the user avatar, or the same size.

受信部501により受信された情報が、イベントとして渋滞であり、所要時間が通常より15分多く要するというものであった場合には、キャラクタ選択部1501は選択基準1701bに基づいてユーザアバタとして「Avatar3」、エージェントとして「Agent3」を選択する。   If the information received by the receiving unit 501 is a traffic jam as an event and the required time is 15 minutes longer than usual, the character selecting unit 1501 sets “Avatar3” as a user avatar based on the selection criterion 1701b. “Agent3” is selected as the agent.

次に、図18に本実施の形態におけるシナリオデータの例を示す。シナリオ選択部502においても、受信部501により受信された情報に基づいてシナリオの選択が行われる。同様に、シナリオ503eが選択されることになる。503eを詳細に説明する。まず、ユーザアバタがシナリオ1に従って「(Destination)へ行くんだけど。」と発話する。ここで(Destination)はパラメータであり、シナリオ選択部502は、予測部1104により予測された目的地をここに充当する。今回の例では、目的地はL124(職場)である。次にエージェントはシナリオ2に従って、渋滞情報を発話する。この渋滞情報と後で述べるリルート情報は、実施の形態1で述べたようにパラメータである。さらにユーザアバタが「回避ルートは?」と発話してエージェントがリルート情報を述べる。   Next, FIG. 18 shows an example of scenario data in the present embodiment. The scenario selection unit 502 also selects a scenario based on the information received by the reception unit 501. Similarly, the scenario 503e is selected. 503e will be described in detail. First, the user avatar utters “I'm going to (Destination)” according to scenario 1. Here, (Destination) is a parameter, and the scenario selection unit 502 applies the destination predicted by the prediction unit 1104 here. In this example, the destination is L124 (workplace). Next, the agent speaks traffic information according to scenario 2. This traffic jam information and reroute information described later are parameters as described in the first embodiment. Further, the user avatar speaks “What is the avoidance route?” And the agent describes the reroute information.

具体的には次のようになる。
<ユーザアバタ>:職場へ行くんだけど。
<エージェント>:清滝東〜生駒登山口まで、25分です。(渋滞情報)
<ユーザアバタ>:回避ルートは?
<エージェント>:清滝西交差点を右折です。(リルート情報)
出力内容決定部505は、キャラクタ選択部1501で選択されたキャラクタを、キャラクタ位置決定部504により決定された位置に表示し、シナリオ選択部502で選択されたシナリオをキャラクタに発話させる。
Specifically:
<User avatar>: I'm going to work.
<Agent>: It is 25 minutes from Kiyotaki Higashi to Ikoma Mountain Entrance. (Congestion information)
<User avatar>: What is the avoidance route?
<Agent>: Turn right at Kiyotaki Nishi intersection. (Reroute information)
The output content determination unit 505 displays the character selected by the character selection unit 1501 at the position determined by the character position determination unit 504, and causes the character to utter the scenario selected by the scenario selection unit 502.

次に、このように構成されるイベント検出部102aおよびキャラクタ管理部103aの一連の動作について、図19および図20をそれぞれ参照して述べる。
まず、図19を参照してイベント検出部102aの動作を説明する。イベント検出部102aの動作は、図19(a)に示す履歴情報を蓄積する処理と、図19(b)に示す目的地を予測する処理に分かれる。
Next, a series of operations of the event detection unit 102a and the character management unit 103a configured as described above will be described with reference to FIGS. 19 and 20, respectively.
First, the operation of the event detection unit 102a will be described with reference to FIG. The operation of the event detection unit 102a is divided into a process of accumulating history information shown in FIG. 19A and a process of predicting the destination shown in FIG.

<履歴蓄積処理>
状況検出部1102は、まず、エンジンが始動されたことを検出すると(ステップS1901でYes)、車の位置と現在日時とを検出し(ステップS1902)、検出した位置と地図データ記憶部1101のノードデータベース1101bに登録された各ノードの位置とを照合することによって、車がいずれかのノードに位置するか否かの判断を繰り返す(ステップS1903)。たとえば、検出した位置がノードデータベース1101bに登録されたノードの位置から一定範囲内に位置する場合に、その車は、そのノードに位置すると判断し(ステップS1903でYes)、続いて、運転者の検出(ステップS1904)、同乗者の検出(ステップS1905)、天気の検出(ステップS1906)を行い、その検出結果を履歴データ記憶部1103に蓄積する(ステップS1907)。
<History accumulation processing>
First, when detecting that the engine has been started (Yes in step S1901), the situation detection unit 1102 detects the position of the vehicle and the current date and time (step S1902), and the detected position and the node of the map data storage unit 1101 The collation with the position of each node registered in the database 1101b is repeated to determine whether the car is located at any node (step S1903). For example, when the detected position is located within a certain range from the position of the node registered in the node database 1101b, the vehicle is determined to be located at that node (Yes in step S1903), and then the driver's Detection (step S1904), passenger detection (step S1905), weather detection (step S1906) are performed, and the detection results are accumulated in the history data storage unit 1103 (step S1907).

具体的には、履歴データ記憶部1103は、状況検出部1102によってエンジン始動後に最初に検出された日時及び車の位置(ノード)を、それぞれ、履歴データの「日時」及び「出発地」として記録し、目的地に到達するまでの各ノードにおいて状況検出部1102によって検出された車の位置(ノード)、天気、運転者、同乗者を、それぞれ、履歴データの「経路」、「天気」、「運転者」、「同乗者」として記録し、状況検出部1102によってエンジン停止直前に検出された車の位置(ノード)及び日時から算出される所要時間を、それぞれ、履歴データの「目的地」及び「所要時間」として記録する。   Specifically, the history data storage unit 1103 records the date and time and the vehicle position (node) first detected after the engine is started by the situation detection unit 1102 as “date and time” and “departure place” of the history data, respectively. The vehicle position (node), the weather, the driver, and the passenger detected by the situation detection unit 1102 at each node until the destination is reached, respectively, are “route”, “weather”, “ Recorded as “driver” and “passenger” and the required time calculated from the position (node) and date / time of the vehicle detected immediately before the engine is stopped by the situation detection unit 1102, respectively, Record as “Time Required”.

そしてエンジンが停止すれば(ステップS1908でYes)作業を終了する。
<目的地予測処理>
状況検出部1102において、現在が予測を行うタイミングであると検出すると(ステップS1910でYes)、その時点における車の状況を検出する(ステップS1911)。具体的には、日時、現在地、運転者、同乗者等を検出し、予測部1104に通知する。
If the engine stops (Yes in step S1908), the operation is finished.
<Destination prediction process>
When the situation detection unit 1102 detects that the current timing is the prediction timing (Yes in step S1910), the situation of the vehicle at that time is detected (step S1911). Specifically, the date, current location, driver, passenger, etc. are detected and notified to the prediction unit 1104.

予測部1104は、状況検出部1102から通知された状況データ(日時、現在地、運転者、同乗者等)を履歴データ記憶部1103に記憶された履歴データと照合することによって目的地やジャンル、経路などを予測する(ステップS1912)。   The prediction unit 1104 collates the situation data notified from the situation detection unit 1102 (date and time, current location, driver, passengers, etc.) with the history data stored in the history data storage unit 1103, so that the destination, genre, route Etc. are predicted (step S1912).

次に、情報取得部1105は受信情報があるかどうかの確認を行い、情報があった場合には(ステップS1913でYes)、判定部204により、受信情報と、予測結果に対して関連があるかどうかの判定が行われる。   Next, the information acquisition unit 1105 confirms whether there is reception information. If there is information (Yes in step S1913), the determination unit 204 relates the reception information to the prediction result. A determination is made whether or not.

関連ありと判定された場合には(ステップS1914でYes)、送信部205は、所定の情報をキャラクタ管理部103aに対して送信する(ステップS1915)。
次に、図20を参照してキャラクタ管理部103aの動作を説明する。
If it is determined that there is a relationship (Yes in step S1914), the transmission unit 205 transmits predetermined information to the character management unit 103a (step S1915).
Next, the operation of the character management unit 103a will be described with reference to FIG.

受信部501は、イベント検出部102aの送信部205から情報の受信待ちを行う(ステップS2001)。
情報を受信すると(ステップS2001でYes)、シナリオ選択部502は、シナリオデータの中から受信した状況に該当するシナリオを選択し、リルート情報など、受信した情報の中から補充すべき内容がある場合はそれらの情報でシナリオを完成させる(ステップS2003)。
The reception unit 501 waits for reception of information from the transmission unit 205 of the event detection unit 102a (step S2001).
When the information is received (Yes in step S2001), the scenario selection unit 502 selects a scenario corresponding to the received situation from the scenario data, and there is content to be supplemented from the received information such as reroute information. Completes the scenario with such information (step S2003).

一方、キャラクタ位置決定部504では、受信した情報に応じてエージェント、およびユーザアバタを表示部101のどの場所に表示するか、また、どの場所から登場させるか、に関する決定が行われる(ステップS2004)。   On the other hand, the character position determination unit 504 determines in which position on the display unit 101 the agent and the user avatar are to be displayed and where the agent and the user avatar are to appear (step S2004). .

また、キャラクタ選択部1501では、受信した情報に応じて選択基準をもとにキャラクタ記憶部506から所定のキャラクタを選択する(ステップS2002)。
出力内容決定部505では、表示部101に表示するユーザアバタとエージェントの画像や動画をキャラクタ記憶部506から抽出し、キャラクタ位置決定部504により決められた位置に表示させ、シナリオ選択部502で選択、充当されたシナリオに基づいて表示部101に表示する内容が決定され(ステップS2005)、表示部101に表示される(ステップS2006)。
The character selection unit 1501 selects a predetermined character from the character storage unit 506 based on the selection criteria according to the received information (step S2002).
The output content determination unit 505 extracts user avatar and agent images and moving images to be displayed on the display unit 101 from the character storage unit 506, displays them at the position determined by the character position determination unit 504, and selects them by the scenario selection unit 502. The content to be displayed on the display unit 101 is determined based on the assigned scenario (step S2005) and displayed on the display unit 101 (step S2006).

以上のように、本実施の形態によれば、必要なタイミングで自動的にアバタとエージェントとの対話が開始されるだけでなく、ユーザごとの嗜好や行動がモデル化され(ユーザに性質に対応したキャラクタの選択とシナリオの選択が行われ)、ユーザにとって親近感をもてる仮想対話がなされることになる。これにより、必要なタイミングでユーザの注意が喚起され、例えば、運転中において、安全運転を確保するための各種情報が確実にユーザに提供されることになる。   As described above, according to the present embodiment, not only the conversation between the avatar and the agent is automatically started at the necessary timing, but also the preference and behavior for each user are modeled (corresponding to the nature of the user). Character selection and scenario selection are performed), and a virtual dialogue with a sense of familiarity to the user is performed. Thereby, the user's attention is alerted at a necessary timing, and for example, various information for ensuring safe driving is reliably provided to the user during driving.

なお、判定部204の基準としては、予測部1104により予測された経路や目的地、ジャンルと関連のある情報を取得するというもの以外に、情報の緊急度や重要度、さらにキャラクタ選択部1501の選択基準で述べたユーザモデリング部の判定に応じて関連性を判定してもよい。例えば、情報の緊急度という観点では、情報に対応する位置と現在の自車位置との距離が選択基準となり得るし、また情報が指し示す日時または有効期限であってもよい。また重要度という観点では、予測部1104による予測確率を選択基準として予測確率が高いほど重要度を高くするようにしてもよい。そして、シナリオデータを階層化しておき、そのような重要度や緊急度に応じて、対応するシナリオデータを選択してもよい。   Note that the criteria of the determination unit 204 include, other than the acquisition of information related to the route, destination, and genre predicted by the prediction unit 1104, the urgency and importance of information, and the character selection unit 1501. The relevance may be determined according to the determination of the user modeling unit described in the selection criteria. For example, from the viewpoint of the urgency of information, the distance between the position corresponding to the information and the current vehicle position can be a selection criterion, and the date / time or expiration date indicated by the information may be used. In terms of importance, the prediction probability by the prediction unit 1104 may be used as a selection criterion, and the importance may be increased as the prediction probability is higher. Then, scenario data may be hierarchized, and corresponding scenario data may be selected according to such importance and urgency.

また、図19のフローチャートにおいて、予測部1104による予測は一度だけでなく、予測のタイミングの度に、関連情報を取得するまでの間に何度行ってもよい。つまり、予測処理と情報取得処理は並列で動作し、それぞれが更新されるたびに関連情報があるかどうかの判断がなされるのでもよい。   In the flowchart of FIG. 19, the prediction by the prediction unit 1104 may be performed not only once but the number of times until the related information is acquired at each prediction timing. In other words, the prediction process and the information acquisition process may be operated in parallel, and it may be determined whether there is related information each time each is updated.

また、履歴データ記憶部1103において記憶される経路情報は、本実施の形態で示したように交差点をノードとして、ノードの系列で蓄積する以外にも、走行した道路情報(交差点と交差点を結ぶリンク)を利用して蓄積してもよい。ノードC2とC8を結ぶ道路をリンクL(2,8)と表現すると、例えば図13における「2003年5月16日8時20分」のエントリにおける経路は、「L(2,8)→L(8,5)→L(5,6)→L(5,17)→L(17,27)」というように記録されることになる。このような表現であっても、予測部1104による予測は、交差点を蓄積する場合と同様の方法で可能である。   Further, the route information stored in the history data storage unit 1103 is not limited to accumulating in a series of nodes with intersections as nodes as shown in the present embodiment, but also road information (links connecting intersections and intersections). ) May be used for accumulation. When the road connecting the nodes C2 and C8 is expressed as a link L (2,8), for example, the route in the entry “May 16, 2003, 8:20” in FIG. 13 is “L (2,8) → L (8,5) → L (5,6) → L (5,17) → L (17,27) ”. Even with such an expression, the prediction by the prediction unit 1104 can be performed in the same manner as in the case of accumulating intersections.

なお、予測部1104による目的地や経路の予測は、今後走行する可能性のある広範囲な経路を把握できるため、実施の形態1で述べたような現在地近辺の経路において渋滞を回避する以上の効果を生むことができる。   In addition, since the prediction of the destination and the route by the prediction unit 1104 can grasp a wide range of routes that may travel in the future, it is more effective than avoiding congestion on the route near the current location as described in the first embodiment. Can give birth.

また、キャラクタやシナリオデータの選択は、本実施の形態で述べた要因だけに限られず、車の走行に関連するあらゆるイベント、例えば、走行時間、道路状況(信号が多い等)、時間帯(夕方、夜等)、交通状況、走行状態(速度、蛇行等)、天気・湿度、現在地等の要因に依存して決定されてもよい。   In addition, the selection of characters and scenario data is not limited to the factors described in the present embodiment, and any event related to the driving of the car, for example, driving time, road conditions (such as many signals), time zone (evening) , Night, etc.), traffic conditions, driving conditions (speed, meandering, etc.), weather / humidity, current location, etc.

(実施の形態3)
本発明の第三の実施の形態について説明する。なお、本実施の形態における対話装置100の全体構成は図1に示された実施の形態1と同様であるが、イベント検出部とキャラクタ管理部の機能が異なる(ここでは、それぞれ、イベント検出部102b、キャラクタ管理部103bとする)。
(Embodiment 3)
A third embodiment of the present invention will be described. The overall configuration of the interactive device 100 in the present embodiment is the same as that of the first embodiment shown in FIG. 1, but the functions of the event detection unit and the character management unit are different (here, the event detection unit 102b, character management unit 103b).

本実施の形態におけるイベント検出部102bの構成について図21の機能ブロック図を用いて説明する。図中、実施の形態2に示した構成と同一の機能のものは同一番号を付与し、詳細な説明は省く。   The configuration of the event detection unit 102b in the present embodiment will be described with reference to the functional block diagram of FIG. In the figure, components having the same functions as those shown in the second embodiment are given the same reference numerals, and detailed description thereof is omitted.

このイベント検出部102bは、地図データ記憶部1101、状況検出部1102、判定部204、音楽データを記憶しておく音楽データ記憶部2101、音楽データ記憶部2101に記憶されている音楽を再生する再生部2102、実施の形態2で示した履歴データに加えて再生部2102により再生されている音楽の履歴を記憶しておく履歴データ記憶部1103、履歴データ記憶部1103に記憶されている履歴データをもとに、状況検出部1102により検出される状況と、再生部2102により再生される音楽との相関を抽出する相関抽出部2103及びキャラクタ管理部103aとデータの送受信を行うデータ送受信部2104から構成される。   The event detection unit 102b is a map data storage unit 1101, a situation detection unit 1102, a determination unit 204, a music data storage unit 2101 for storing music data, and a reproduction for reproducing music stored in the music data storage unit 2101. Unit 2102, history data storage unit 1103 for storing the history of music played back by playback unit 2102 in addition to the history data shown in Embodiment 2, and history data stored in history data storage unit 1103. Based on the above, it includes a correlation extraction unit 2103 that extracts a correlation between a situation detected by the situation detection unit 1102 and music reproduced by the reproduction unit 2102 and a data transmission / reception unit 2104 that exchanges data with the character management unit 103a. Is done.

音楽データ記憶部2101は、音楽コンテンツであるコンテンツデータ2101a及びその一覧を示すメタデータ2101bを記憶しているHDDやCD、DVD−RAM等の記憶装置である。メタデータ2101bは、図22に示されるように、記憶されているコンテンツデータ2101aに含まれる全ての曲を識別する「曲ID」、「アーティスト」、「ジャンル」及び「曲調」等の属性が記録されたディレクトリデータである。   The music data storage unit 2101 is a storage device such as an HDD, a CD, or a DVD-RAM that stores content data 2101a, which is music content, and metadata 2101b indicating a list thereof. As shown in FIG. 22, the metadata 2101b records attributes such as “song ID”, “artist”, “genre”, and “musical tone” for identifying all the songs included in the stored content data 2101a. Directory data.

図23は、本実施の形態において履歴データ記憶部1103に記憶されている履歴データの一例である。実施の形態2に示した履歴データに比べて、さらに再生部2102により再生された音楽の履歴が記憶されている。音楽の履歴は、図のように再生された音楽のみをエントリ単位で記憶しておく以外にも、演奏が開始された時刻や経路(例えば、C8→C5)や、スキップやリピートなどその音楽に対してユーザによりなされた操作とともに記憶しておくのでもよい。ここで、スキップとは再生されている音楽を聴くのを中止してそれ以外の音楽を聴くための操作であり、リピートとは再生されている音楽を2回以上繰り返して聴くための操作である。   FIG. 23 is an example of history data stored in the history data storage unit 1103 in the present embodiment. Compared with the history data shown in the second embodiment, a history of music reproduced by the reproduction unit 2102 is further stored. As shown in the figure, the history of music is not limited to storing only played music in units of entries as shown in the figure. The music history includes the time and path when the performance is started (for example, C8 → C5), skipping, and repeating. It may be stored together with the operation performed by the user. Here, skip is an operation to stop listening to the music being played and listen to the other music, and repeat is an operation to listen to the music being played more than once. .

図24は、相関抽出部2103による相関の抽出及び最も強い相関の特定の詳細な処理手順を示すフローチャートである。
まず、相関抽出部2103は、現在状況を構成する項目(「運転者」、「同乗者」、「目的地」、「曜日」など)のうち、予め設定された項目の組み合わせ(図25に示されたNo.1〜nまでの「相関抽出に使用する項目」)を1つ選択し(ステップS2401)、内容が一致する全てのエントリを履歴データ記憶部1103の履歴データから抽出し(ステップS2402)、それらエントリに記録された「曲」について、最も選曲件数の多いアーティスト、ジャンル及び曲調それぞれを特定し(ステップS2403)、特定した最頻度のアーティスト、ジャンル及び曲調の選曲比率(それぞれ、抽出した全エントリに記録された全アーティスト、全ジャンル、全曲調に対する最頻度のアーティスト、最頻度のジャンル、最頻度の曲調が選択された割合)を算出する(ステップS2404)。
FIG. 24 is a flowchart showing a detailed processing procedure of correlation extraction by the correlation extraction unit 2103 and identification of the strongest correlation.
First, the correlation extraction unit 2103 sets a combination of preset items (shown in FIG. 25) among the items constituting the current situation (such as “driver”, “passenger”, “destination”, “day of the week”). No. 1 to “Items used for correlation extraction”) are selected (step S2401), and all entries whose contents match are extracted from the history data in the history data storage unit 1103 (step S2402). ), For each “song” recorded in these entries, the artist, genre, and music tone with the largest number of music selections are identified (step S2403), and the music selection ratio of the most frequently identified artist, genre, and music tone (each extracted) Select all artists, all genres, and most frequent artists, most frequent genres, most frequent tunes for all entries recorded in all entries. Have been proportion) (step S2404).

そしてまだ選択されていない組み合わせがあれば(ステップS2405でYes)、ステップS2401から同様の処理を繰り返す。
そして、予め設定された全ての組み合わせ(図25に示されたNo.1〜nまでの「相関抽出に使用する項目」)について算出した最頻度のアーティスト、ジャンル、曲調の選曲比率の中から、最も高い選曲比率の特性(具体的なアーティスト、ジャンル、曲調)を最も相関の強い曲の特性として決定する(ステップS2406)。
If there is a combination that has not yet been selected (Yes in step S2405), the same processing is repeated from step S2401.
Then, from among the preset frequency selection ratios of artists, genres, and tunes calculated for all the preset combinations (“items used for correlation extraction” from No. 1 to n shown in FIG. 25), The characteristic of the highest music selection ratio (specific artist, genre, music tone) is determined as the characteristic of the music with the strongest correlation (step S2406).

たとえば、現在状況の「運転者」が「お父さん」、「同乗者」が「なし」、「目的地」が「会社」、「曜日」が「平日」である場合には、相関抽出部2103は、以下のようにして、最も相関の強い曲の特性を決定する。   For example, if the “driver” in the current situation is “dad”, the “passenger” is “none”, the “destination” is “company”, and the “day of the week” is “weekdays”, the correlation extracting unit 2103 The characteristics of the music with the strongest correlation are determined as follows.

まず、図25に示されたNo.1の項目の組み合わせ(「運転者」及び「目的地」)について現在状況と一致するエントリ、つまり、「運転者」が「お父さん」で、かつ、「目的地」が「会社」である全てのエントリを履歴データから読み出し、それらのエントリに記録された全ての「曲」について、アーティスト、ジャンル及び曲調ごとに集計することで、最も多く選曲されたアーティスト、ジャンル及び曲調とそれぞれの選曲比率(例えば、最頻度で選択されたアーティストが「F」でその選択比率が25%、最頻度で選択されたジャンルが「J−POP」で選択比率が42%、最頻度で選択された曲調が「躍動感」でその選択比率が34%)を算出する。   First, No. 1 shown in FIG. For the combination of items 1 ("driver" and "destination"), all entries that match the current situation, that is, "driver" is "dad" and "destination" is "company" The entries are read from the history data, and all the “songs” recorded in the entries are totaled for each artist, genre, and tune, so that the most selected artist, genre, tune, and selection ratio (for example, The most frequently selected artist is “F” and the selection ratio is 25%, the most frequently selected genre is “J-POP” and the selection ratio is 42%. The selection ratio is 34%).

同様にして、図25に示されたNo.2の項目の組み合わせ(「運転者」、「目的地」及び「同乗者」)について現在状況と一致するエントリ、つまり、「運転者」が「お父さん」で、かつ、「目的地」が「会社」で、かつ、「同乗者」が「なし」である全てのエントリを履歴データから読み出し、それらのエントリに記録された全ての「曲」について集計することで、最も多く選曲されたアーティスト、ジャンル及び曲調とそれぞれの選曲比率を算出する。   Similarly, No. 1 shown in FIG. For the combination of the two items ("Driver", "Destination" and "Passenger"), the entry that matches the current situation, that is, "Driver" is "Dad" and "Destination" is "Company" ”And“ Passenger ”is“ None ”, all entries are read from the history data, and all“ Songs ”recorded in those entries are aggregated, so that the most selected artist and genre are selected. And the music tone and each music selection ratio are calculated.

以下、同様にして、図25に示されたNo.3〜No.nの項目の組み合わせそれぞれについて、最も多く選曲されたアーティスト、ジャンル及び曲調とそれぞれの選曲比率を算出し、最後に、算出された合計3n個の選曲比率の中から最も高いものを特定し、その選曲比率に対応する曲の特性(例えば、ジャンル「J−POP」)が現在状況と最も相関が強い曲の特性と決定する。   Hereinafter, in the same manner, No. 1 shown in FIG. 3-No. For each combination of n items, calculate the most selected artist, genre, and tune and the selection ratio of each, and finally specify the highest one among the calculated 3n selection ratios. The music characteristic (for example, genre “J-POP”) corresponding to the music selection ratio is determined as the music characteristic most strongly correlated with the current situation.

図26は、以上のような手順によって自動選曲される曲と現在状況との組み合わせの例を示す図である。ここでは、例えば、車で、「平日」に「お父さん」が「会社」に行くときには、ジャンル「J−POP」の曲が自動演奏され、「お母さん」が「スーパーA」に行くときには、ジャンル「洋楽」の曲が自動演奏され、「休日(「土・日」)」に「家族(運転者が「お父さん」で同乗者が「お母さん」)で経路「C6−C8(海岸沿いの道)」を走行するときには、曲調「爽快」な曲が自動演奏され、食事(「目的地」が「レストランB」)に行くときには、ジャンル「バラード」の曲が自動演奏され、「長男A」が運転するときには、「アーティストC」の曲が自動演奏される例が示されている。   FIG. 26 is a diagram showing an example of a combination of a song automatically selected by the procedure as described above and the current situation. Here, for example, when “dad” goes to “company” on “weekdays” by car, a song of the genre “J-POP” is automatically played, and when “mother” goes to “Super A”, the genre “ Western music is automatically played, and on "Holiday (" Saturday and Sunday ")", "Family (driver is" dad "and passenger is" mother ")" route "C6-C8 (road along the coast)" When traveling, the song “Exhilarating” is automatically played, and when going to a meal (“Destination” is “Restaurant B”), the song of the genre “Ballade” is automatically played and “The eldest son A” is driving. In some cases, a song of “Artist C” is automatically played.

相関抽出部2103はまた、データ送受信部2104によりキャラクタ管理部103aから受信したデータに基づいて、履歴データ記憶部1103から抽出した相関の修正を行う。具体的には、図26の相関において、曜日が「土・日」であり、経路が「C6―C8」、運転手が「お父さん」、同乗者が「お母さん」という状況での好みの音楽は「爽快」であるが、この状況においてキャラクタ管理部103aから「躍動」に相当する音楽を再生するよう指示が与えられると(詳細については後述する)、図27で示される相関を図28のように修正する。さらにこの指示に従って再生部2102に対して「躍動」の音楽を再生するよう指示し、再生部2102は、音楽データ記憶部2101から「躍動」の音楽を選択して再生を行うことになる。   The correlation extraction unit 2103 also corrects the correlation extracted from the history data storage unit 1103 based on the data received from the character management unit 103a by the data transmission / reception unit 2104. Specifically, in the correlation of FIG. 26, the favorite music in the situation where the day of the week is “Saturday and Sunday”, the route is “C6-C8”, the driver is “dad”, and the passenger is “mother” is In this situation, when the character management unit 103a gives an instruction to play music corresponding to “lively” (details will be described later), the correlation shown in FIG. 27 is shown in FIG. To correct. Further, in accordance with this instruction, the playback unit 2102 is instructed to play the “live” music, and the playback unit 2102 selects and plays the “live” music from the music data storage unit 2101.

判定部204は、履歴データ記憶部1103に記憶されている履歴に基づいてイベントの発生を判定する。イベントとは具体的には、曲ID001からID010の音楽をまとまりとしたときにこのまとまりが複数回繰り返して再生されている、ユーザが複数回繰り返してスキップ操作を行った、同じ音楽が累計で幾度となく再生されておりユーザにとって目新しさがなくなった、などユーザが現在再生されている音楽に対して食傷気味であると判断される状態である。これ以外にも、自動選曲機能や音楽検索機能などが備わっている場合には、ユーザがこの機能の実行を明示的に指示してもよい。さらには、音楽再生機能を所定時間以上利用していない、FMやAM放送、音楽再生機能などをザッピングしている、渋滞している、運転者や同乗者が眠くなっている、などの状態を検出するのでもよい。このうち眠くなっている状態の検出方法は、カメラでユーザの顔を撮影し解析するのでもよいし、ユーザの体と接触している箇所に脈拍を検知するセンサを設けて、脈拍が安定している状態を検出するのでもよい。   The determination unit 204 determines the occurrence of an event based on the history stored in the history data storage unit 1103. More specifically, an event is a set of music IDs 001 to ID010 that is repeatedly played a plurality of times. The user repeatedly skips a number of times, and the same music is repeated several times. This is a state in which the user is judged to be bitter with respect to the currently played music, such as being played back and becoming novel for the user. In addition to this, when an automatic music selection function or a music search function is provided, the user may explicitly instruct the execution of this function. In addition, the state where the music playback function has not been used for a predetermined time, FM or AM broadcasting, music playback function zapping, traffic jams, drivers and passengers are sleepy, etc. It may be detected. Of these, the sleepiness detection method may be to capture and analyze the user's face with a camera, or to provide a sensor for detecting a pulse at a location in contact with the user's body so that the pulse is stable. It is also possible to detect a state of being.

データ送受信部2104は判定部204の判定に従って、相関抽出部2103により抽出されたユーザの好みの音楽に関する情報をキャラクタ管理部103aへ送信する。また、キャラクタ管理部103aから所定の情報を受信する。   In accordance with the determination by the determination unit 204, the data transmission / reception unit 2104 transmits information related to the user's favorite music extracted by the correlation extraction unit 2103 to the character management unit 103a. Also, predetermined information is received from the character management unit 103a.

次にこのように構成されるイベント検出部102bにおけるイベント検知、およびデータの送受信に関する動作について、図28のフローチャートを用いて説明する。
相関抽出部2103により、履歴データ記憶部1103のデータから現在の状況において好まれる音楽に関する相関が抽出されると(ステップS2801)、判定部204において上述したイベントが発生しているかどうかの判定が行われる。イベントが発生したと判定されると(ステップS2802でYes)、データ送受信部2104により現在の状況においてユーザに好まれる音楽に関する情報がキャラクタ管理部103aに送信される(ステップS2803)。
Next, operations relating to event detection and data transmission / reception in the event detection unit 102b configured as described above will be described with reference to the flowchart of FIG.
When the correlation extraction unit 2103 extracts the correlation related to the music preferred in the current situation from the data in the history data storage unit 1103 (step S2801), the determination unit 204 determines whether the event described above has occurred. Is called. If it is determined that an event has occurred (Yes in step S2802), the data transmission / reception unit 2104 transmits information related to music preferred by the user in the current situation to the character management unit 103a (step S2803).

データ送受信部2104では、キャラクタ管理部103aからのデータ受信待ち状態にはいり、データを受信すると(ステップS2804でYes)、相関抽出部2103では現在の状況と好みの音楽の相関を修正する必要があるかどうか判定する。修正する必要があれば(ステップS2805でYes)、相関を修正し(ステップS2807)、データ送受信部2104において受信したデータに基づいて音楽の再生を行う(ステップS2805)。   When the data transmission / reception unit 2104 enters a state of waiting for data reception from the character management unit 103a and receives data (Yes in step S2804), the correlation extraction unit 2103 needs to correct the correlation between the current situation and the favorite music. Determine whether or not. If correction is necessary (Yes in step S2805), the correlation is corrected (step S2807), and music is played back based on the data received by the data transmitting / receiving unit 2104 (step S2805).

次に、本実施の形態におけるキャラクタ管理部103bの構成について図29の機能ブロック図を用いて説明する。図中、実施の形態1、2に示した構成と同一の機能のものは同一番号を付与し、詳細な説明は省く。   Next, the configuration of character management unit 103b in the present embodiment will be described using the functional block diagram of FIG. In the figure, components having the same functions as those shown in the first and second embodiments are given the same numbers, and detailed descriptions thereof are omitted.

このキャラクタ管理部103bは、表示部101、シナリオ選択部502、シナリオデータ503、出力内容決定部505、キャラクタ記憶部506、イベント検出部102bとデータの送受信を行う送受信部2901、ユーザと対話装置100との対話を制御する対話制御部2906、ユーザからの入力を受け付ける入力部105、入力される語彙の一覧を記憶しておく入力語彙記憶部2904、入力語彙記憶部2904に記憶されている語彙の一覧の中で現在の状態においてユーザからの入力の可能性がある候補を作成する入力候補作成部2905、及び、入力部105に入力された内容を解釈する解釈部2903から構成される。   The character management unit 103b includes a display unit 101, a scenario selection unit 502, scenario data 503, an output content determination unit 505, a character storage unit 506, a transmission / reception unit 2901 that transmits / receives data to / from the event detection unit 102b, and a user / interactive device 100. A dialogue control unit 2906 that controls dialogue with the user, an input unit 105 that accepts input from the user, an input vocabulary storage unit 2904 that stores a list of input vocabularies, and the vocabulary stored in the input vocabulary storage unit 2904 The list includes an input candidate creation unit 2905 that creates a candidate that may be input by the user in the current state, and an interpretation unit 2903 that interprets the content input to the input unit 105.

本実施の形態においてシナリオデータに記憶されるシナリオの例を図30に示す。図中、シーケンス1とシーケンス4(Yes)の後に設けられた「Wait user input」は、それぞれの発話が終わった後、所定の時間(例えば、5秒)ユーザからの入力待ち状態に入ることを示している。詳しく述べると、シーケンス1の後はエージェントによる問いかけの後の肯定、否定に関するユーザからの入力を、そして、シーケンス4(Yes)の後はユーザの好みの音楽ジャンルに関する自由な入力を待つことになる。また、シーケンス1の後は、ユーザからの肯定、否定の入力に応じてその後のシナリオが変化する。ユーザから肯定的な入力があった場合は、図のシーケンス2(Yes)からシーケンス6(Yes)までのシナリオが実行され、否定的な入力があった場合は、シーケンス2(No)からシーケンス3(No)が実行される。ユーザからの入力は必ずしも必要ではなく、ユーザからの入力がない場合には、デフォルトとしてシーケンス2(Yes)からシーケンス6(Yes)のシナリオを実行するようにするとよい。また、図中シーケンス3(Yes)の後に設けられた「Display favorite genre List」は、相関抽出部2103により抽出される、現在のシチュエーションにおいてユーザが好むと考えられる音楽のジャンルがリスト形式でユーザに提示されることを示している。シーケンス5(Yes)、6(Yes)において(genre)はパラメータであり、ユーザから入力された音楽ジャンル、または、入力がない場合にユーザの好みにしたがって自動的に選択されたジャンルの名称が充当される。   An example of a scenario stored in the scenario data in the present embodiment is shown in FIG. In the figure, “Wait user input” provided after the sequence 1 and the sequence 4 (Yes) indicates that the user waits for input from the user for a predetermined time (for example, 5 seconds) after each utterance is finished. Show. More specifically, after sequence 1, the user waits for input from the user regarding affirmation and denial after the inquiry, and after sequence 4 (Yes), the user waits for free input regarding the user's favorite music genre. . Further, after sequence 1, the subsequent scenario changes in response to an affirmative or negative input from the user. When there is a positive input from the user, the scenario from the sequence 2 (Yes) to the sequence 6 (Yes) is executed, and when there is a negative input, the sequence 2 (No) to the sequence 3 is executed. (No) is executed. Input from the user is not necessarily required. When there is no input from the user, it is preferable to execute the scenario from sequence 2 (Yes) to sequence 6 (Yes) as a default. In addition, “Display favorite genre List” provided after sequence 3 (Yes) in the figure is a list format of music genres extracted by the correlation extraction unit 2103 and considered to be preferred by the user in the current situation. Indicates that it will be presented. In sequences 5 (Yes) and 6 (Yes), (genre) is a parameter, and the music genre input by the user or the name of the genre automatically selected according to the user's preference when there is no input is used. Is done.

次にこのように構成されるキャラクタ管理部103bの一連の動作について、図31のフローチャートを用いて説明する。
送受信部2901において、イベント検出部102bからデータを受信すると(ステップS3101でYes)、シナリオ選択部502は、シナリオデータ503の中から所定のシナリオを選択する(ステップS3102)。なお、本実施の形態では簡単のためシナリオを1種類にしているが、当然、実施の形態1や2のように、イベント検出部102bからの受信内容に応じてシナリオを選択するようにしてもよい。
Next, a series of operations of the character management unit 103b configured as described above will be described with reference to the flowchart of FIG.
When the transmission / reception unit 2901 receives data from the event detection unit 102b (Yes in step S3101), the scenario selection unit 502 selects a predetermined scenario from the scenario data 503 (step S3102). In this embodiment, one type of scenario is used for the sake of simplicity. Naturally, as in the first and second embodiments, a scenario may be selected according to the content received from the event detection unit 102b. Good.

対話制御部2906では、選択されたシナリオに基づいて発話内容を順次決定していく(ステップS3103)。図30のシナリオに従うと、まずシーケンス1の「そろそろ違う曲にしましょか」というエージェントの発話が行われる。表示部101における表示例を図32に示す。   The dialogue control unit 2906 sequentially determines utterance contents based on the selected scenario (step S3103). According to the scenario of FIG. 30, first, the agent utters “Let's make a different song soon” in Sequence 1. A display example on the display unit 101 is shown in FIG.

シーケンス1の後は「Wait user input」により入力待ち状態にはいるため(ステップS3104でYes)、入力候補作成部2905ではユーザからの入力の可能性にしたがって入力語彙記憶部2904の語彙の取捨選択が行われる(ステップS3105)。   After sequence 1, the input candidate creation unit 2905 selects the vocabulary in the input vocabulary storage unit 2904 according to the possibility of input from the user because it waits for input by “Wait user input” (Yes in step S3104). Is performed (step S3105).

入力候補作成部2905の動作について説明する。図33の2904aに入力語彙記憶部2904に記憶されている語彙の例を示す。シーケンスに基づくと、シーケンス1の発話のあとは、ユーザからの肯定、否定を表す表現の入力があると予想されるため、入力候補作成部2905は2904aの中からカテゴリ「Yes/No」に属する3301に示される語彙のみを抽出して、入力候補として作成する。このとき、入力の可能性のある語彙を完全に3301に限定してしまうのではなく、他の語彙に比べて入力可能性の優先度を高めるという処理を施すのでもかまわない。   The operation of the input candidate creation unit 2905 will be described. An example of vocabulary stored in the input vocabulary storage unit 2904 is shown in 2904a of FIG. Based on the sequence, after the utterance of the sequence 1, it is expected that there is an input of an expression representing affirmation or denial from the user, so the input candidate creation unit 2905 belongs to the category “Yes / No” from 2904a. Only the vocabulary indicated by 3301 is extracted and created as input candidates. At this time, the vocabulary that can be input is not limited to 3301 but may be processed to increase the priority of input possibility compared to other vocabularies.

対話制御部2906では所定時間以内に入力があるかどうかの判定を行い、なければ(ステップS3106でNo)シナリオにしたがってシーケンス2(Yes)、シーケンス3(Yes)の発話を行う。表示例を図34に示す。   The dialogue control unit 2906 determines whether or not there is an input within a predetermined time. If not (No in step S3106), the sequence 2 (Yes) and the sequence 3 (Yes) are uttered according to the scenario. A display example is shown in FIG.

シーケンス3(Yes)の発話のあとは、「Display favorite genre List」であるので、送受信部2901で受信したユーザの好みの音楽のリストを表示し、シーケンス4(Yes)の発話を行い、さらに「Wait user input」によりユーザからの入力待ちを行う(ステップS3104でYes)。表示例を図35に示す。   After the utterance of the sequence 3 (Yes), since it is “Display favorite genre List”, the user's favorite music list received by the transmission / reception unit 2901 is displayed, and the utterance of the sequence 4 (Yes) is performed. It waits for an input from the user by “Wait user input” (Yes in step S3104). A display example is shown in FIG.

入力候補作成部2905では、同様に入力候補の取捨選択が行われる(ステップS3105)。ここでは、(User Favorite genre)の入力待ちであるので、2904aに示す語彙の中から、送受信部2901で受信したユーザの好みの音楽を表す語彙を抽出する。抽出された語彙を3601に示す。   The input candidate creation unit 2905 selects input candidates in the same manner (step S3105). Here, since it is waiting for input of (User Favorite genre), the vocabulary representing the user's favorite music received by the transmission / reception unit 2901 is extracted from the vocabulary indicated by 2904a. The extracted vocabulary is shown at 3601.

ここで、図37に示すように所定時間内にユーザから入力「躍動」があると(ステップS3106でYes)、対話制御部2906では入力内容を記憶しておき(ステップS3107)、シナリオに発話内容が残っていれば(ステップS3108でYes)、残りの発話を行う。表示例を図38に示す。   Here, as shown in FIG. 37, if there is an input “lively” from the user within a predetermined time (Yes in step S3106), the dialogue control unit 2906 stores the input content (step S3107), and the utterance content in the scenario Is left (Yes in step S3108), the remaining speech is performed. A display example is shown in FIG.

シーケンスが終了すると(ステップS3108でNo)、対話制御部2906に記憶されているユーザからの入力内容は、送受信部2106によりイベント検出部102bへ送信される(ステップS3109)。   When the sequence ends (No in step S3108), the input content from the user stored in the dialogue control unit 2906 is transmitted to the event detection unit 102b by the transmission / reception unit 2106 (step S3109).

なお、図30に示したシナリオのほかに、図39に示すようなシナリオを考えることができる。このシナリオでは、ジャンルリストをユーザに提示して選択してもらうのではなく、エージェントがジャンルを1つずつ提示し、それに対するユーザの反応や応答に応じて対話が進んでいく。図中、(genre1)や(genre2)は、ユーザが好む音楽のジャンルを表すパラメータであり、シーケンス3においてエージェントが(genre1)を提示したあと、「Wait user input」により入力待ち状態となり、ユーザから肯定的な入力があれば、シーケンス4(Yes)に進み、エージェントが発話をしてシナリオは終了する。一方、否定的な入力があった場合や入力がなにもない場合には、シーケンス4(No)に進み、ユーザアバタが他にジャンルを推薦するように働きかける発話を行う。それに対してエージェントはシーケンス5(No)で、別のジャンルである(genre2)を提示し、入力待ち状態に入る。肯定的な入力があればシーケンス6(Yes)で終了し、それ以外であればシーケンス6(No)で終了する。このように、エージェントが順にジャンルを提示するようなシナリオでは、ユーザは特に表示部101に視線を向ける必要がなく、その他の行為を阻害することがなくなるという利点がある。   In addition to the scenario shown in FIG. 30, a scenario as shown in FIG. 39 can be considered. In this scenario, the genre list is not presented to the user for selection, but the agent presents the genre one by one, and the dialogue proceeds according to the user's reaction and response to it. In the figure, (genre1) and (genre2) are parameters representing the music genre preferred by the user. After the agent presents (genre1) in sequence 3, the state waits for input by “Wait user input”, and the user waits for input. If there is a positive input, the process proceeds to sequence 4 (Yes), the agent speaks, and the scenario ends. On the other hand, when there is a negative input or when there is no input, the process proceeds to sequence 4 (No), and the user avatar performs an utterance that encourages other genres to be recommended. On the other hand, the agent presents another genre (genre2) in sequence 5 (No) and enters an input waiting state. If there is an affirmative input, the process ends in sequence 6 (Yes). Otherwise, the process ends in sequence 6 (No). As described above, in a scenario in which an agent presents genres in order, there is an advantage that the user does not particularly have to look at the display unit 101 and other actions are not hindered.

以上のように、本実施の形態によれば、キャラクタ同士の対話が必ずしも自分の思い通りではない場合には、ユーザは、対話に介入して自分の意思を伝えることができる。したがって、ユーザにとって興味のもてないキャラクタ同士の対話が勝手に進んでいくという不具合が回避される。   As described above, according to the present embodiment, when the dialogue between the characters is not necessarily as intended, the user can intervene in the dialogue and convey his / her intention. Therefore, the problem that the dialogue between characters that are not of interest to the user proceeds without permission is avoided.

なお、データ送受信部2104によって車の外部からダウンロードする情報は、音楽データ等のコンテンツだけに限られず、キャラクタ記憶部506に記憶させるキャラクタデータやシナリオデータ503であってもよい。これによって、車載の対話装置100が保持するキャラクタデータやシナリオデータを動的に増加させたり更新したりすることが可能になる。例えば、走行している地域に合ったキャラクをエージェントやユーザアバタとして採用することで、ユーザによる注目度を向上させ、その結果として、ユーザに有益な情報が提供され得る。   Information downloaded from the outside of the vehicle by the data transmitting / receiving unit 2104 is not limited to content such as music data, but may be character data or scenario data 503 stored in the character storage unit 506. As a result, it is possible to dynamically increase or update the character data and scenario data held by the in-vehicle interactive device 100. For example, by adopting a character suitable for a traveling area as an agent or a user avatar, the degree of attention by the user can be improved, and as a result, useful information can be provided to the user.

また、シナリオデータを構成しているシーケンスの構造によっては、シナリオデータの選択(切り替え)によって、シナリオ全体が異なる内容になったり、シナリオの一部だけだ異なる内容になったりする。これらは、シナリオを構成するシーケンスをいかに定義するかによって、適宜決定されることになる。   Moreover, depending on the structure of the sequence that constitutes the scenario data, the scenario data is selected (switched), so that the entire scenario has different contents or only a part of the scenario has different contents. These are determined as appropriate depending on how the sequence constituting the scenario is defined.

(実施の形態4)
実施の形態1から3においては、車両の状況に応じてアバタとエージェントの対話のシナリオを選択する方法について述べた。本実施の形態においては、シナリオが選択された後に、さらに、アバタとエージェントが対話の間隔を制御する例について述べる。
(Embodiment 4)
In the first to third embodiments, the method for selecting the avatar-agent dialogue scenario according to the vehicle situation has been described. In this embodiment, an example will be described in which the avatar and the agent further control the dialogue interval after the scenario is selected.

本実施の形態における対話装置の構成を図40に示す。この対話装置は、シナリオデータ記憶部4101、キャラクタ記憶部4102、シナリオ選択部4103、キャラクタ位置決定部4104、車両状況検出部4105、対話間隔制御部4106、出力内容制御部4107及び表示部4108を備える。なお、これらの構成要素のうち、シナリオデータ記憶部4101、キャラクタ記憶部4102、シナリオ選択部4103、キャラクタ位置決定部4104、出力内容制御部4107及び表示部4108は、それぞれ、実施の形態1におけるシナリオデータ503、キャラクタ記憶部506、シナリオ選択部502、キャラクタ位置決定部504、出力内容決定部505及び表示部101と同様であるため、ここでは説明を省略する。   FIG. 40 shows the configuration of the interactive apparatus in the present embodiment. This dialogue apparatus includes a scenario data storage unit 4101, a character storage unit 4102, a scenario selection unit 4103, a character position determination unit 4104, a vehicle situation detection unit 4105, a dialogue interval control unit 4106, an output content control unit 4107 and a display unit 4108. . Of these components, the scenario data storage unit 4101, the character storage unit 4102, the scenario selection unit 4103, the character position determination unit 4104, the output content control unit 4107, and the display unit 4108 are respectively the scenarios in the first embodiment. Since it is the same as the data 503, the character storage unit 506, the scenario selection unit 502, the character position determination unit 504, the output content determination unit 505, and the display unit 101, description thereof is omitted here.

車両状況検出部4105は、ウインカー、ブレーキペダル、アクセルペダル、ハンドブレーキ、ハンドル、ライト、スピードメータ等、車両の状況に関する情報を検出するものである。これにより、ドライバの運転状況を検出することができる。例えば、交差点のカーブを走行中であったり、車線を変更している途中であったり、バックにて車両を後退させようとしている状態であるなどの状況を検出することが可能である。   The vehicle status detection unit 4105 detects information related to the vehicle status, such as a winker, a brake pedal, an accelerator pedal, a hand brake, a handle, a light, and a speedometer. Thereby, the driving | running state of a driver is detectable. For example, it is possible to detect a situation where the vehicle is traveling along an intersection curve, is in the middle of changing a lane, or is in a state where the vehicle is being moved backwards.

対話間隔制御部4106は、車両状況検出部4105の状況に応じてアバタとエージェントとの対話間隔を制御するものである。実施の形態3でも述べたように、エージェントからの情報提供に対して、ユーザに代わってアバタが応答を生成する。これにより、運転者がエージェントからの情報に対して、逐次、応答することなく、自動的に対話が進行する。さらに、エージェントとアバタとの対話において、ユーザはエージェントから提供された情報に対して介入することが可能である。しかしながら、ユーザが運転に集中しなければならないときには、ユーザが対話に対して介入するタイミングを逃してしまうことがある。そこで、ユーザの運転状況に応じてアバタとエージェントとの対話の間隔を制御することで、ユーザが運転に集中しなければならないときには、介入できるタイミングを多くとり、ユーザが運転にそれほど集中する必要がないとき(停車中等)は、テンポよく対話をすすめることが好ましい。   The dialogue interval control unit 4106 controls the dialogue interval between the avatar and the agent according to the situation of the vehicle situation detection unit 4105. As described in the third embodiment, the avatar generates a response on behalf of the user in response to information provision from the agent. As a result, the conversation automatically proceeds without sequentially responding to the information from the agent. Furthermore, in the interaction between the agent and the avatar, the user can intervene on the information provided from the agent. However, when the user has to concentrate on driving, the user may miss the time to intervene in the dialogue. Therefore, by controlling the interval between the avatar and agent's interaction according to the user's driving situation, when the user has to concentrate on driving, it is necessary to increase the timing at which intervention is possible and the user needs to concentrate on driving so much. When there is no such vehicle (when the vehicle is stopped, etc.), it is preferable to proceed with a dialogue with good tempo.

いま、図42の画面表示例に示されるように、エージェントからの提案である「そろそろポップ系の楽曲にしましょうか?」という発話に対して、アバタが「他のジャンルがいいなぁ」という発話をするシナリオがシナリオ選択部4103によって選択され、出力内容制御部4107によって表示されるとする。もし、ユーザがポップ系の楽曲の再生を希望したときには、音声入力等により、アバタとエージェントとの対話に介入することができる。しかしながら、運転に集中しなければならないときには、対話に介入するタイミングを逃してしまう。そこで、例えば、車両の速度が時速20KM以上で方向指示器(ウインカー)が作動中であると車両状況検出部4105によって検出された場合は、対話間隔制御部4106は、車両が車線変更を行っているか、交差点の右左折中であると判断し、エージェントの発話から20秒経過してからアバタが発話を生成するように、出力内容制御部4107を制御する。一方、車両が停車中または、上記の車両の速度が時速20KM以下であると車両状況検出部4105によって検出された場合には、対話間隔制御部4106は、エージェントの発話から3秒経過した時点でアバタが発話を生成するように、出力内容制御部4107を制御する。   Now, as shown in the screen display example of FIG. 42, in response to the utterance “Would you like to make pop music soon?”, Which is a proposal from the agent, the avatar uttered “Is other genres good?” The scenario selection unit 4103 selects the scenario to be displayed and the output content control unit 4107 displays it. If the user wishes to play pop music, the user can intervene in the dialogue between the avatar and the agent by voice input or the like. However, when you have to concentrate on driving, you miss the timing to intervene in the dialogue. Therefore, for example, when the vehicle state detection unit 4105 detects that the speed of the vehicle is 20 KM or more per hour and the direction indicator (blinker) is operating, the dialogue interval control unit 4106 causes the vehicle to change lanes. The output content control unit 4107 is controlled so that the avatar generates an utterance after 20 seconds have passed since the utterance of the agent. On the other hand, if the vehicle state detection unit 4105 detects that the vehicle is stopped or the speed of the vehicle is 20 KM or less per hour, the dialogue interval control unit 4106 will wait for 3 seconds after the agent utters. The output content control unit 4107 is controlled so that the avatar generates an utterance.

このようにして、車両の状況に応じて、対話の間隔を制御することで、ユーザの運転状況を加味した対話を実現することが可能になる。運転者が慌てて、対話に介入することがなくなるため、安全運転を実現することが可能になる。   In this way, it is possible to realize a dialogue that takes into account the user's driving situation by controlling the dialogue interval according to the situation of the vehicle. Since the driver does not rush and intervene in the dialogue, safe driving can be realized.

上記の動作を図41のフローを用いて説明する。はじめに、実施の形態1と同様に、シナリオ選択部4103及びキャラクタ位置決定部4104は、それぞれ、対話のシナリオ及びキャラクタを選択・決定する(ステップS4201)。この選択・決定に基づいて、出力内容制御部4107により、エージェントまたは、アバタの発話が開始される(ステップS4202)。出力内容制御部4107は、エージェントまたはアバタの発話が完了したか否かを検出し、発話が完了している場合には、次のステップ(ステップS4204)へ進む(ステップS4203)。発話が完了していない場合には、本ステップを繰り返す。   The above operation will be described with reference to the flowchart of FIG. First, as in the first embodiment, the scenario selection unit 4103 and the character position determination unit 4104 select and determine a dialogue scenario and a character, respectively (step S4201). Based on this selection / determination, the output content control unit 4107 starts the utterance of the agent or avatar (step S4202). The output content control unit 4107 detects whether or not the agent or avatar utterance has been completed. If the utterance has been completed, the process proceeds to the next step (step S4204) (step S4203). If the utterance has not been completed, repeat this step.

次の発話があるか否かを判断する(ステップS4204)。次の発話がある場合には、ステップS4205へ進む。一方、本発話で終了の場合には、フローを終了する。
次の発話がある場合には、車両状況検出部4105は、車両の状況を検出する(ステップS4205)。検出された車両の状況に応じて、対話間隔制御部4106は、対話の間隔を制御する。例えば、車両の速度が時速20KM以上で方向指示器を出している場合は、車両の状況が運転に集中しなければならない状況と判断し、次の発話まで20秒の間隔をとる。車両がそれ以外の状態の場合には、次の発話まで3秒の時間をとる。そして、ステップS4202へ戻る。
It is determined whether or not there is a next utterance (step S4204). If there is a next utterance, the process proceeds to step S4205. On the other hand, if the utterance ends, the flow ends.
When there is the next utterance, the vehicle situation detection unit 4105 detects the situation of the vehicle (step S4205). The dialogue interval control unit 4106 controls the dialogue interval according to the detected vehicle condition. For example, when the speed of the vehicle is 20 KM / h or more and the direction indicator is issued, it is determined that the situation of the vehicle must concentrate on driving, and an interval of 20 seconds is taken until the next utterance. If the vehicle is in any other state, it takes 3 seconds until the next utterance. Then, the process returns to step S4202.

以上の操作を繰り返すことにより、車両の状況に応じて、対話の間隔を制御することが可能になる。特に、アバタとエージェントとの対話に対して、運転者が介入できる場合には、運転者の状況に応じて、対話の間隔を制御する必要がある。   By repeating the above operation, it is possible to control the interval of dialogue according to the situation of the vehicle. In particular, when the driver can intervene in the dialogue between the avatar and the agent, it is necessary to control the interval of the dialogue according to the situation of the driver.

なお、本実施の形態においては、車両の速度と方向指示器の操作に応じて、対話の間隔の制御規則をあらかじめ設定されており、全ての運転者に対して同一の制御を行っている。しかしながら運転者の運転技能は、全ての運転者にとって同一ではないため、運転者毎に制御規則を設定する必要がある。そこで、普段の運転時の車載機器に対する操作履歴から、対話を制御するための制御規則を抽出することも可能である。例えば、車載オーディオ機器の操作履歴を蓄積し、その操作履歴と車両の速度との関係を抽出することで、対話の間隔を制御する規則を決定することも可能である。具体的には、車載オーディオ機器に対する操作の90%が車両の速度が時速10KM以下であることが検出できた場合には、対話制御の間隔を制御する閾値を時速10KMと設定することも可能である。これにより、運転者の技能に応じて対話制御の間隔を決定することが可能になる。   In the present embodiment, a control rule for the dialogue interval is set in advance according to the speed of the vehicle and the operation of the direction indicator, and the same control is performed for all drivers. However, since the driver's driving skill is not the same for all drivers, it is necessary to set a control rule for each driver. Therefore, it is possible to extract a control rule for controlling the dialogue from the operation history for the in-vehicle device during normal driving. For example, it is possible to determine a rule for controlling the interval of dialogue by accumulating the operation history of the in-vehicle audio device and extracting the relationship between the operation history and the vehicle speed. Specifically, if 90% of the operations on the in-vehicle audio device can detect that the vehicle speed is 10 KM / h or less, the threshold for controlling the interactive control interval can be set to 10 KM / h. is there. Thereby, it becomes possible to determine the interval of dialog control according to the skill of the driver.

なお、本実施の形態においては、車両の状況として、車両の速度と方向指示器のセンサ情報から車両の状況を判断したが、さらに、車両の走行履歴を蓄積し、運転者が慣れている道路であるかどうかをもとに、対話の間隔を制御してもよい。また、周辺の地図情報を取得し、単位面積あたりの交差点が多い状況では、運転に集中すべきと判断し、対話の間隔を長めにとるようにしてもよい。なお、単位面積あたりの道路の数等により道路の複雑度を評価し、運転者が運転に集中すべき度合いをもとに対話の間隔を制御してもよい。   In the present embodiment, the vehicle status is determined from the vehicle speed and the sensor information of the direction indicator as the vehicle status. Further, the vehicle travel history is accumulated, and the road that the driver is accustomed to Based on whether or not, the interval of dialogue may be controlled. Further, it is possible to acquire surrounding map information, and in a situation where there are many intersections per unit area, it may be determined that the driver should concentrate on driving, and a longer interval between dialogues may be taken. Note that the complexity of the road may be evaluated based on the number of roads per unit area, and the dialog interval may be controlled based on the degree to which the driver should concentrate on driving.

また、本実施の形態においては、20秒と3秒という不連続な対話間隔で制御していたが、車両の状況を連続的な値で評価できる場合には、度合いを用いて連続的に対話間隔を制御してもよい。   In the present embodiment, the control is performed with discontinuous conversation intervals of 20 seconds and 3 seconds. However, when the vehicle status can be evaluated with continuous values, the conversation is continuously performed using the degree. The interval may be controlled.

なお、本実施の形態においては、車両の状況に応じて対話間隔を制御する例について述べた。しかし、地図情報によってエージェントとアバタのキャラクタの位置関係(表示上の位置関係)を制御することも可能である。そのような変形例に係る対話装置の構成を図43に示す。図43においては、地図情報検出部4405、キャラクタ位置決定部4404以外の部分は、図40に示された同一名の構成要素と同じ機能であるため説明を省略する。   In the present embodiment, an example in which the conversation interval is controlled in accordance with the state of the vehicle has been described. However, the positional relationship between the agent and the avatar character (the positional relationship on the display) can be controlled by the map information. FIG. 43 shows the configuration of an interactive apparatus according to such a modification. In FIG. 43, portions other than the map information detection unit 4405 and the character position determination unit 4404 have the same functions as the components having the same names shown in FIG.

地図情報検出部4405は、現在、表示部において表示されている地図情報を検出する。
キャラクタ位置決定部4404は、対話シナリオが地図情報に関連するものである場合には、地図情報検出部4405で検出された地図情報を用いてエージェントを表示する位置を決定する。一方、地図情報と関連のないシナリオの場合には、地図情報とは独立してエージェントとアバタの位置関係を決定する。例えば、図44(a)の画面表示例に示されるように、ハンバーガー店に関する情報をエージェントが発話する場合には、表示されている地図上に所定のハンバーガー店がある場合には、そこにエージェントを表示させ、それに対応して、対話できる位置にアバタを表示させる。また逆に、地図情報に関連のない、音楽の推薦情報に関する対話シナリオの場合には、図44(b)の画面表示例に示されるようにエージェントとアバタを横に並べて対話するような位置関係に表示する。このように対話する内容に応じてエージェントとアバタの位置関係を変更することにより、対話によって提供される情報を容易に確認することが可能になる。
The map information detection unit 4405 detects the map information currently displayed on the display unit.
The character position determination unit 4404 determines the position where the agent is displayed using the map information detected by the map information detection unit 4405 when the dialogue scenario is related to the map information. On the other hand, in the case of a scenario not related to the map information, the positional relationship between the agent and the avatar is determined independently of the map information. For example, as shown in the screen display example of FIG. 44 (a), when an agent speaks information about a hamburger store, if there is a predetermined hamburger store on the displayed map, the agent is there. Is displayed, and the avatar is displayed at a position where it can interact. Conversely, in the case of a dialogue scenario related to music recommendation information that is not related to map information, as shown in the screen display example of FIG. 44 (b), the positional relationship is such that the agent and avatar are arranged side by side for dialogue. To display. Thus, by changing the positional relationship between the agent and the avatar according to the content of the dialogue, it is possible to easily confirm the information provided by the dialogue.

なお、上記の実施の形態においては、エージェントとアバタの位置関係の決定例について述べた。しかし、エージェントやアバタは常に表示されている必要がなく、対話の音声のみを確認できたらいい場合もある。そのような要求に応える変形例に係る対話装置の構成を図45に示す。図45において、キャラクタ表示制御部4605以外の部分は、図40に示された同一名の構成要素と同様であるため説明を省略する。   In the above embodiment, the example of determining the positional relationship between the agent and the avatar has been described. However, agents and avatars do not have to be displayed all the time, and there may be cases where only the voice of the dialogue can be confirmed. FIG. 45 shows a configuration of an interactive apparatus according to a modification that meets such a request. In FIG. 45, parts other than the character display control unit 4605 are the same as the components having the same names shown in FIG.

キャラクタ表示制御部4605は、車両状況検出部4604によって車両が停車中であるか否かが検出されると、図46(a)の画面表示例に示されるように、車両が走行中のときには、キャラクタを画面上に表示することなく、音声のみで対話を運転者に伝える。逆に、車両が停車中の場合には、図46(b)の画面表示例に示されるように、キャラクタを表示し、音声と画像で対話内容を運転者に伝える。このようなキャラクタ表示のON/OFF制御により、走行中は、画面の変化を少なくし、運転に集中することができ、停車中は対話内容から情報を取得しやすくなるという効果がある。なお、エージェントとアバタの表示に関しては、独立で表示の制御を行ってもよい。   When the vehicle status detection unit 4604 detects whether or not the vehicle is stopped, the character display control unit 4605, as shown in the screen display example of FIG. Without displaying the character on the screen, the dialogue is communicated to the driver only by voice. On the contrary, when the vehicle is stopped, as shown in the screen display example of FIG. 46B, the character is displayed and the conversation contents are transmitted to the driver by voice and image. By such ON / OFF control of the character display, there is an effect that the change of the screen can be reduced while driving and the user can concentrate on driving, and information can be easily acquired from the contents of dialogue while the vehicle is stopped. The display of the agent and the avatar may be controlled independently.

(実施の形態5)
上記実施の形態4においては、シナリオに基づく対話の間隔の制御やキャラクタの表示位置・表示/非表示の制御を車両の状況や地図情報を基に行った。本実施の形態においては、対話中に他の情報を取得した場合の対話制御について述べる。
(Embodiment 5)
In the fourth embodiment, the control of the conversation interval based on the scenario and the control of the display position / display / non-display of the character are performed based on the vehicle status and map information. In the present embodiment, dialogue control when other information is acquired during dialogue will be described.

一般に、道路ビーコンから取得される情報は、道路を通過したときに取得され、同時に、その情報を音声等で再生するものである。そのため、対話中に情報を取得した場合には、対話が中断されてしまうことになる。そこで、本実施の形態は、VICS等で取得された情報であっても、対話と整合がとれる形で、運転者に情報を提供できるようにしたものである。   In general, information acquired from a road beacon is acquired when the vehicle passes a road, and at the same time, the information is reproduced by voice or the like. Therefore, when information is acquired during the dialogue, the dialogue is interrupted. Therefore, in the present embodiment, even if the information is acquired by VICS or the like, the information can be provided to the driver in a form that is consistent with the dialogue.

本実施の形態における対話装置の構成を図47に示す。この対話装置は、シナリオデータ記憶部4801、キャラクタ記憶部4802、シナリオ選択部4803、キャラクタ位置決定部4804、情報読上げ制御部4805、対話進行制御部4806、出力内容制御部4807及び表示部4808を備える。なお、これらの構成要素のうち、情報読上げ制御部4805及び対話進行制御部4806以外は、図40に示された同一名の構成要素と同様であるため、説明を省略する。   FIG. 47 shows the configuration of the interactive apparatus in the present embodiment. This dialogue apparatus includes a scenario data storage unit 4801, a character storage unit 4802, a scenario selection unit 4803, a character position determination unit 4804, an information reading control unit 4805, a dialogue progress control unit 4806, an output content control unit 4807, and a display unit 4808. . Of these components, the components other than the information reading control unit 4805 and the dialogue progress control unit 4806 are the same as the components having the same names shown in FIG.

情報読上げ制御部4805は、VICS、ネットワーク等により、取得した情報の読上げを制御する処理部である。例えば、道路ビーコンから渋滞状況等の交通情報を取得し、その情報を読上げることがある。また、FM多重放送等から天気予報を取得し、明日の天気を読上げることも可能である。   The information reading control unit 4805 is a processing unit that controls reading of acquired information by VICS, a network, or the like. For example, traffic information such as traffic conditions may be obtained from a road beacon and read out. It is also possible to obtain a weather forecast from FM multiplex broadcasting or the like and read out tomorrow's weather.

対話進行制御部4806は、情報読上げ制御部で読上げる情報があった場合に、エージェントとアバタとの対話の進行を制御するものである。例えば、図49に示されるように、いま、情報読上げ制御部4805が、エージェントとアバタとの対話中にVICS交通情報を取得したとする。エージェントとアバタとの対話は、エージェントからの提案に対して、アバタが応答するというシナリオになっており、対話のクラスタがあらかじめ設定されているものとする。このとき、本図に示されるように、(エージェント提案1−アバタ応答1)および(エージェント提案2−アバタ応答2)の間のタイミングでVICS交通情報を取得した場合には、取得したタイミングで交通情報の読上げをおこない、エージェントとアバタとの対話の妨げになることがない。   The dialog progress control unit 4806 controls the progress of the dialog between the agent and the avatar when there is information to be read by the information reading control unit. For example, as shown in FIG. 49, it is assumed that the information reading control unit 4805 has acquired the VICS traffic information during the dialogue between the agent and the avatar. The dialogue between the agent and the avatar is a scenario in which the avatar responds to the proposal from the agent, and it is assumed that a dialogue cluster is set in advance. At this time, as shown in the figure, when the VICS traffic information is acquired at a timing between (Agent Proposal 1-Avatar Response 1) and (Agent Proposal 2-Avatar Response 2), traffic is acquired at the acquired timing. Reads information and does not interfere with the interaction between the agent and the avatar.

しかしながら、図50に示されるように、情報読上げ制御部4805が、エージェント提案1とアバタ応答1との間でVICS情報を取得したとする。このとき、取得と同時に、読上げ再生を行うと、エージェントとアバタとの対話の途中で、異なる情報が挿入され、運転者に混乱を招くおそれがある。そこで、取得した情報が天気予報等の、すぐに運転者に伝えなければならない情報でない場合には、対話進行制御部4806は、アバタ応答1の再生後に、VICS情報の読上げを行うように出力内容制御部4807を制御する。これにより、エージェントとアバタの対話の途中で、異なる情報が挿入されることがなくなる。   However, as shown in FIG. 50, it is assumed that the information reading control unit 4805 acquires VICS information between the agent proposal 1 and the avatar response 1. At this time, if read-out playback is performed simultaneously with the acquisition, different information may be inserted in the middle of the dialogue between the agent and the avatar, which may cause confusion to the driver. Therefore, if the acquired information is not information that needs to be immediately communicated to the driver, such as a weather forecast, the dialogue progress control unit 4806 outputs the content so that VICS information is read out after the avatar response 1 is reproduced. The control unit 4807 is controlled. This prevents different information from being inserted during the dialogue between the agent and the avatar.

一方、VICS等で取得した情報が、交通情報等で、ユーザに早急に知らせる必要がある情報である場合もある。このときの対話制御を、図51を用いて説明する。図51は、図50と同様に、対話の途中で交通情報を取得した例を示している。この場合、VICSで取得した交通情報をエージェント提案1とアバタ応答1の間に再生し、その後、アバタによる補間応答を挿入するように、対話進行制御部4806は出力内容制御部4807を制御する。具体的には、図51の例に示されるように、「さっき、なんて?」というようなアバタからの補間応答を再生し、再び、エージェント提案1からのシーケンスを再生するに出力内容制御部4807を制御する。これにより、早急に伝えなければならない交通情報を優先して即座にユーザに伝え、自然な対話も実現することが可能になる。   On the other hand, there is a case where information acquired by VICS or the like is information that needs to be promptly notified to the user, such as traffic information. The dialogue control at this time will be described with reference to FIG. FIG. 51 shows an example in which traffic information is acquired in the middle of a dialogue, as in FIG. In this case, the dialogue progress control unit 4806 controls the output content control unit 4807 so that the traffic information acquired by the VICS is reproduced between the agent proposal 1 and the avatar response 1 and then an interpolation response by the avatar is inserted. Specifically, as shown in the example of FIG. 51, the output content control unit 4807 reproduces the interpolation response from the avatar such as “Why is it?” And reproduces the sequence from the agent proposal 1 again. To control. As a result, it is possible to give priority to traffic information that needs to be conveyed immediately and immediately convey it to the user, thereby realizing a natural dialogue.

上記の動作を図48のフローチャートを用いて説明する。対話進行制御部4806は、情報読上げ制御部4805がVICSやネットワークにより割り込み読上げ情報を取得したか否かを判断する(ステップS4901)。取得していた場合には、次のステップ(ステップS4902)へ進む。取得していない場合には、本ステップを繰り返す。   The above operation will be described with reference to the flowchart of FIG. The dialogue progress control unit 4806 determines whether the information reading control unit 4805 has acquired the interrupt reading information by VICS or the network (step S4901). If it has been acquired, the process proceeds to the next step (step S4902). If not, repeat this step.

割り込み情報を取得したときに、対話進行制御部4806は、提案―応答のような組となる対話中であるか否かを判断する(ステップS4902)。対話中でない場合には、読上げ情報を再生するように出力内容制御部4807を制御する(ステップS4903)。対話の途中である場合には、次のステップ(ステップS4904)へ進み、対話進行制御部4806は、割り込み情報が交通情報のように即時性を重視する情報であるか否かを判断する(ステップS4904)。即時性のない情報の場合には、ステップS4905へすすみ、対話が終了してから、読上げ情報を再生するように出力内容制御部4807を制御する。即時性のある情報である場合には、ステップS4906へ進み、取得した情報の読上げ再生を行い、読上げ後、「さっき、なんて」というような補間応答を再生し、再び、対話の組の再生を行うように出力内容制御部4807を制御する(ステップS4907)。   When the interrupt information is acquired, the dialogue progress control unit 4806 determines whether or not the dialogue is in a dialogue such as a proposal-response (step S4902). When the dialogue is not in progress, the output content control unit 4807 is controlled to reproduce the reading information (step S4903). If the dialogue is in progress, the process proceeds to the next step (step S4904), and the dialogue progress control unit 4806 determines whether the interrupt information is information that emphasizes immediacy, such as traffic information (step). S4904). If the information is not immediacy, the process proceeds to step S4905, and the output content control unit 4807 is controlled so that the read-out information is reproduced after the dialogue ends. If the information is immediacy, the process proceeds to step S4906, where the acquired information is read out and reproduced, and after reading, an interpolated response such as “Let ’s go, what?” Is reproduced, and the dialogue set is reproduced again. The output content control unit 4807 is controlled to perform (step S4907).

以上の動作により、エージェントとアバタの対話中に、他の情報の読上げ等を行わなければならないときでも、自然な対話を実現することが可能になる。
なお、本実施の形態では、単一の補間応答の例について説明したが、さらに、自然な対話を実現するためには、複数の補間応答を状況によって選択することも可能である。例えば、図51において「ポップ系は、いかがでしょう」の発話と「○○交差点渋滞しております」という発話との間の時間によって、アバタの補間応答を変更してもよい。具体的には、エージェントの発話と割り込み発話との間の時間が2秒間と短いときには、アバタの補間応答は「もう、一回言って」という応答が補間され、5秒間以上と長いときには、アバタのほか応答は「さっき、なんていいましたっけ」という応答が補間されてもよい。これにより、エージェントとアバタの対話に割り込み発話が挿入されたときにでも、自然な対話を実現することができる。
With the above operation, a natural conversation can be realized even when other information must be read out during the conversation between the agent and the avatar.
Although an example of a single interpolation response has been described in the present embodiment, a plurality of interpolation responses can be selected depending on the situation in order to realize a natural conversation. For example, in FIG. 51, the avatar's interpolation response may be changed according to the time between the utterance of “How about a pop system?” And the utterance of “There is traffic at the intersection of XX”. Specifically, when the time between the agent's utterance and the interrupt utterance is as short as 2 seconds, the avatar's interpolation response is interpolated with a response saying “Let me say once more”, and when it is longer than 5 seconds, the avatar's interpolation response In addition to the response, a response of “What did you like before?” May be interpolated. As a result, a natural conversation can be realized even when an interrupt utterance is inserted in the conversation between the agent and the avatar.

(実施の形態6)
上記実施の形態4及び5においては、対話の制御について説明した。しかしながら、エージェントとアバタとの対話は、自動的に進行するため、ユーザが聞き逃すことなく、全ての対話を聞き取れる保証はない。そこで、対話した内容について、車両を停車したときには、ユーザが、自動的に進行した情報を振り返ることができるようにした形態を、本実施の形態で説明する。
(Embodiment 6)
In the fourth and fifth embodiments, the dialog control has been described. However, since the dialogue between the agent and the avatar proceeds automatically, there is no guarantee that the user can hear all the dialogue without missing it. Thus, in the present embodiment, a form in which the user can look back on information that has automatically progressed when the vehicle is stopped with respect to the content of the dialogue.

本実施の形態における対話装置の構成を図52に示す。この対話装置は、シナリオデータ記憶部5301、キャラクタ記憶部5302、シナリオ選択部5303、キャラクタ選択部5304、車両状況検出部5305、対話内容蓄積部5306、出力内容制御部5307及び表示部5308を備える。なお、本図においては、対話内容蓄積部5306以外は、41に示された同一名の構成要素と同様であるため説明を省略する。   FIG. 52 shows the configuration of the interactive apparatus in the present embodiment. This dialogue apparatus includes a scenario data storage unit 5301, a character storage unit 5302, a scenario selection unit 5303, a character selection unit 5304, a vehicle situation detection unit 5305, a dialogue content storage unit 5306, an output content control unit 5307, and a display unit 5308. In this figure, since the components other than the dialogue content storage unit 5306 are the same as the components having the same names shown in 41, the description thereof will be omitted.

対話内容蓄積部5306は、シナリオにそってエージェントとアバタとの対話内容を蓄積する。そして、車両状況検出部5305によって車両が停車したことが確認されると、対話内容蓄積部5306は、蓄積した対話内容を表示部5308に出力することで、これまでの対話において提供した情報の概要を表示部5308に表示させる。   The dialogue content accumulation unit 5306 accumulates the dialogue content between the agent and the avatar according to the scenario. When the vehicle status detection unit 5305 confirms that the vehicle has stopped, the dialogue content accumulation unit 5306 outputs the accumulated dialogue content to the display unit 5308, thereby summarizing the information provided in the previous dialogues. Is displayed on the display unit 5308.

例えば、図54の画面表示例に示されるように、ユーザが車両を運転中にエージェントとアバタとの間で、いくつかの対話がなされた場合において、対話内容蓄積部5306は、それらの対話履歴を蓄積し、車両状況検出部5305によって、車両のサイドブレーキ等がかけられ、車両が停止したと判断された場合には、蓄積した対話履歴を表示部5308に送ることで、図54の右下に示される画面表示例のように、それまでの対話で提供された楽曲に関する情報のインデクス(「ジャンル」、「ポップ」、「ジャズ」、「演歌」)を表示させる。これにより、エージェントとアバタとの対話中には、運転に集中していたために、聞き逃した情報であっても、車両を停車したときには、確認することが可能になる。   For example, as shown in the screen display example of FIG. 54, in the case where some dialogues are made between the agent and the avatar while the user is driving the vehicle, the dialogue content storage unit 5306 displays the dialogue history. 54, the vehicle state detection unit 5305 applies a side brake of the vehicle and determines that the vehicle has stopped. By sending the accumulated conversation history to the display unit 5308, the lower right of FIG. As shown in the screen display example shown in FIG. 2, the index (“genre”, “pop”, “jazz”, “enka”) of information related to the music provided in the previous dialogue is displayed. As a result, during the dialogue between the agent and the avatar, it is possible to confirm even when the vehicle is stopped even if the information is missed because it is concentrated on driving.

上記の動作を図53のフローチャートを用いて説明する。シナリオ選択部5303及びキャラクタ選択部5304は、それぞれ、シナリオとキャラクタを選択する(ステップS5401)。選択されたシナリオとキャラクタに応じて、出力内容制御部5307により、エージェントまたは、アバタの対話が開始される(ステップS5402)。車両状況検出部5305は、サイドブレーキがかけられているか否かを検出することで、車両が停車しているかを判断する(ステップS5403)。車両が停止していていない場合には、対話内容蓄積部5306は、エージェントとアバタが対話している内容を蓄積する(ステップS5404)。さらに、対話を継続させ(ステップS5405)、ステップS5403へ戻る。   The above operation will be described with reference to the flowchart of FIG. The scenario selection unit 5303 and the character selection unit 5304 select a scenario and a character, respectively (step S5401). Depending on the selected scenario and character, the output content control unit 5307 starts an agent or avatar dialogue (step S5402). The vehicle state detection unit 5305 determines whether or not the vehicle is stopped by detecting whether or not the side brake is applied (step S5403). If the vehicle is not stopped, the dialogue content accumulation unit 5306 accumulates the content of the dialogue between the agent and the avatar (step S5404). Further, the dialogue is continued (step S5405), and the process returns to step S5403.

車両が停止していた場合には、ステップS5406へ進む。対話内容蓄積部5306は、蓄積した対話の内容(履歴)を表示部5308に出力して表示する。表示された内容に対しては、ユーザはリモコンや音声等の手段を用いて、選択し、その内容を確認することが可能である。   If the vehicle has stopped, the process proceeds to step S5406. The dialogue content accumulation unit 5306 outputs the accumulated dialogue content (history) to the display unit 5308 for display. The displayed content can be selected and confirmed by the user using means such as a remote controller or voice.

このように、車両が停止してから、エージェントとアバタによって対話された内容を確認することができるため、対話中に聞き逃した内容であっても、車両を停車することで確認することが可能になる。   In this way, since the content of the dialogue between the agent and the avatar can be confirmed after the vehicle stops, it is possible to confirm the content that was missed during the dialogue by stopping the vehicle. become.

本発明にかかる対話装置は、キャラクタによる対話を表示する表示装置等として、特に、ナビゲーションや音楽の再生を行う車載装置等として有用である。またTVや携帯電話、PDA等、表示部を有する機器全般にも応用できる。   The interactive device according to the present invention is useful as a display device or the like that displays a dialogue by a character, particularly as an in-vehicle device or the like that performs navigation or music reproduction. Further, it can be applied to all devices having a display unit such as a TV, a mobile phone, and a PDA.

本発明の実施の形態全体における対話装置の構成図である。It is a block diagram of the dialogue apparatus in the whole embodiment of the present invention. 本発明の実施の形態1におけるイベント検出部の構成図である。It is a block diagram of the event detection part in Embodiment 1 of this invention. 経路間違いを示す図である。It is a figure which shows a route mistake. 経路逸脱個所の近傍を示す図である。It is a figure which shows the vicinity of a path deviation part. 本発明の実施の形態1におけるキャラクタ管理部の構成図である。It is a block diagram of the character management part in Embodiment 1 of this invention. シナリオデータを示す図である。It is a figure which shows scenario data. キャラクタの表示例を示す図である。It is a figure which shows the example of a display of a character. キャラクタの表示例を示す図である。It is a figure which shows the example of a display of a character. 本発明の実施の形態1におけるイベント検出部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the event detection part in Embodiment 1 of this invention. 本発明の実施の形態1におけるキャラクタ管理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the character management part in Embodiment 1 of this invention. 本発明の実施の形態2におけるイベント検出部の構成図である。It is a block diagram of the event detection part in Embodiment 2 of this invention. 地図データ記憶部に記憶されているノードデータを示す図である。It is a figure which shows the node data memorize | stored in the map data storage part. 履歴データ記憶部に記憶されている履歴データを示す図である。It is a figure which shows the historical data memorize | stored in the historical data storage part. ランドマークと、その属するジャンルを定義した図である。It is the figure which defined the landmark and the genre to which it belongs. 本発明の実施の形態2におけるキャラクタ管理部の構成図である。It is a block diagram of the character management part in Embodiment 2 of this invention. キャラクタ記憶部に記憶されているエージェント、ユーザアバタの一例を示す図である。It is a figure which shows an example of the agent and user avatar which are memorize | stored in the character memory | storage part. キャラクタ選択部によるキャラクタ選択の基準を示す図である。It is a figure which shows the reference | standard of the character selection by a character selection part. シナリオデータを示す図である。It is a figure which shows scenario data. 本発明の実施の形態2におけるイベント検出部の動作を示すフローチャートであり、(a)は履歴情報を蓄積する処理を、(b)は目的地を予測する処理のフローチャートである。It is a flowchart which shows operation | movement of the event detection part in Embodiment 2 of this invention, (a) is a flowchart of the process which accumulate | stores historical information, (b) is the process of the process which estimates the destination. 本発明の実施の形態2におけるキャラクタ管理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the character management part in Embodiment 2 of this invention. 本発明の実施の形態3におけるイベント検出部の構成図である。It is a block diagram of the event detection part in Embodiment 3 of this invention. 音楽データ記憶部に記憶されたメタデータの一例を示す図である。It is a figure which shows an example of the metadata memorize | stored in the music data storage part. 履歴データ記憶部に記憶されている履歴データを示す図である。It is a figure which shows the historical data memorize | stored in the historical data storage part. 相関抽出部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a correlation extraction part. 相関抽出部による相関抽出に使用される項目の例を示す図である。It is a figure which shows the example of the item used for the correlation extraction by a correlation extraction part. 現在状況とその状況で好む曲との組み合わせの例を示す図である。It is a figure which shows the example of the combination of the present condition and the music favored in the condition. 現在状況とその状況で好む曲との組み合わせが修正された様子を示す図である。It is a figure which shows a mode that the combination of the present condition and the music favored in the condition was corrected. 本発明の実施の形態3におけるイベント検出部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the event detection part in Embodiment 3 of this invention. 本発明の実施の形態2におけるキャラクタ管理部の構成図である。It is a block diagram of the character management part in Embodiment 2 of this invention. シナリオデータを示す図である。It is a figure which shows scenario data. 本発明の実施の形態3におけるキャラクタ管理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the character management part in Embodiment 3 of this invention. キャラクタの表示例を示す図である。It is a figure which shows the example of a display of a character. 入力語彙記憶部に記憶されている語彙と、入力候補作成部により作成される語彙の例を示す図である。It is a figure which shows the example of the vocabulary memorize | stored in the input vocabulary memory | storage part, and the vocabulary created by the input candidate creation part. キャラクタの表示例を示す図である。It is a figure which shows the example of a display of a character. キャラクタの表示例を示す図である。It is a figure which shows the example of a display of a character. 入力語彙記憶部に記憶されている語彙と、入力候補作成部により作成される語彙の例を示す図である。It is a figure which shows the example of the vocabulary memorize | stored in the input vocabulary memory | storage part, and the vocabulary created by the input candidate creation part. キャラクタの表示例と、ユーザによる入力を示す図である。It is a figure which shows the example of a character display, and the input by a user. キャラクタの表示例を示す図である。It is a figure which shows the example of a display of a character. シナリオデータを示す図である。It is a figure which shows scenario data. 本発明の実施の形態4における対話装置の構成を示すブロック図である。It is a block diagram which shows the structure of the dialogue apparatus in Embodiment 4 of this invention. 実施の形態4における対話装置の動作を示すフローチャートである。10 is a flowchart showing the operation of the interactive apparatus in the fourth embodiment. キャラクタの表示例を示す図である。It is a figure which shows the example of a display of a character. 変形例に係る対話装置の構成を示すブロック図である。It is a block diagram which shows the structure of the dialogue apparatus which concerns on a modification. キャラクタの表示例を示す図である。It is a figure which shows the example of a display of a character. 変形例に係る対話装置の構成を示すブロック図である。It is a block diagram which shows the structure of the dialogue apparatus which concerns on a modification. キャラクタの表示例を示す図である。It is a figure which shows the example of a display of a character. 本発明の実施の形態5における対話装置の構成を示すブロック図である。It is a block diagram which shows the structure of the dialogue apparatus in Embodiment 5 of this invention. 実施の形態5における対話装置の動作を示すフローチャートである。10 is a flowchart showing the operation of the interactive apparatus in the fifth embodiment. エージェントとアバタとの対話の進行例を示す図である。It is a figure which shows the progress example of the dialogue between an agent and an avatar. エージェントとアバタとの対話の進行例を示す図である。It is a figure which shows the progress example of the dialogue between an agent and an avatar. エージェントとアバタとの対話の進行例を示す図である。It is a figure which shows the progress example of the dialogue between an agent and an avatar. 本発明の実施の形態6における対話装置の構成を示すブロック図である。It is a block diagram which shows the structure of the dialogue apparatus in Embodiment 6 of this invention. 実施の形態6における対話装置の動作を示すフローチャートである。20 is a flowchart showing the operation of the interactive apparatus in the sixth embodiment. キャラクタの表示例を示す図である。It is a figure which shows the example of a display of a character.

符号の説明Explanation of symbols

100 対話装置
101、4108、4407、4607、4808、5308 表示部
102、102a、102b イベント検出部
103、103a、103b キャラクタ管理部
104 スピーカー
105 入力部
106 エージェント
107 ユーザアバタ
201 位置検出部
202 経路案内部
203 逸脱地点記憶部
204 判定部
205 送信部
501 受信部
502、4103、4403、4603、4803、5303 シナリオ選択部
503 シナリオデータ
503a シナリオデータの一例
503b シナリオデータの一例
503c シナリオデータの一例
503d シナリオデータの一例
503e シナリオデータの一例
503f シナリオデータの一例
503g シナリオデータの一例
503h シナリオデータの一例
504 キャラクタ位置決定部
505 出力内容決定部
506、4102、4402、4602、4802、5302 キャラクタ記憶部
1101 地図データ記憶部
1101a 地図データ
1101b ノードデータ
1102 状況検出部
1103 履歴データ記憶部
1104 予測部
1105 情報取得部
1501 キャラクタ選択部
1701a キャラクタ選択基準
1701b キャラクタ選択基準
2101 音楽データ記憶部
2101a コンテンツデータ
2101b メタデータ
2102 再生部
2103 相関抽出部
2104 データ送受信部
2901 送受信部
2903 解釈部
2904 入力語彙記憶部
2904a 入力語彙記憶部の語彙の一例
2905 入力候補作成部
2906 対話管理部
3301 入力候補作成部により作成される入力候補の一例
3601 入力候補作成部により作成される入力候補の一例
4101、4401、4601、4801、5301 シナリオデータ記憶部
4107、4406、4606、4807、5307 出力内容制御部
4104 キャラクタ位置決定部
4105、4604、5305 車両状況検出部
4106 対話間隔制御部
4404、4804 キャラクタ位置決定部
4405 地図情報検出部
4605 キャラクタ表示制御部
4805 情報読上げ制御部
4806 対話進行制御部
5306 対話内容蓄積部

DESCRIPTION OF SYMBOLS 100 Dialogue device 101, 4108, 4407, 4607, 4808, 5308 Display unit 102, 102a, 102b Event detection unit 103, 103a, 103b Character management unit 104 Speaker 105 Input unit 106 Agent 107 User avatar 201 Position detection unit 202 Route guidance unit 203 Deviation point storage unit 204 Judgment unit 205 Transmission unit 501 Reception unit 502, 4103, 4403, 4603, 4803, 5303 Scenario selection unit 503 Scenario data 503a Example of scenario data 503b Example of scenario data 503c Example of scenario data 503d Scenario data Example 503e Example of scenario data 503f Example of scenario data 503g Example of scenario data 503h Example of scenario data 504 Lactor position determination unit 505 Output content determination unit 506 4102, 4402, 4602, 4802, 5302 Character storage unit 1101 Map data storage unit 1101a Map data 1101b Node data 1102 Situation detection unit 1103 History data storage unit 1104 Prediction unit 1105 Information acquisition unit 1501 Character selection unit 1701a Character selection criterion 1701b Character selection criterion 2101 Music data storage unit 2101a Content data 2101b Metadata 2102 Playback unit 2103 Correlation extraction unit 2104 Data transmission / reception unit 2901 Transmission / reception unit 2903 Interpretation unit 2904 Input vocabulary storage unit 2904a Input vocabulary storage unit 2905 Input candidate creation unit 2906 Dialog management unit 3301 Example of input candidates created by the input candidate creation unit 601 Examples of input candidates created by the input candidate creation unit 4101, 4401, 4601, 4801, 5301 Scenario data storage unit 4107, 4406, 4606, 4807, 5307 Output content control unit 4104 Character position determination unit 4105, 4604, 5305 Vehicle Situation detection unit 4106 Dialog interval control unit 4404, 4804 Character position determination unit 4405 Map information detection unit 4605 Character display control unit 4805 Information reading control unit 4806 Dialog progress control unit 5306 Dialog content storage unit

Claims (23)

画面に表示される仮想人物であるキャラクタによる対話を表示する対話装置であって、
ユーザの状態における変化又はユーザが置かれている状況における変化であるイベントを検出するイベント検出手段と、
検出されたイベントに基づいて、ユーザに対応するキャラクタであるユーザアバタとその対話相手となるキャラクタであるエージェントとの対話に関するシナリオを決定するキャラクタ管理手段と、
前記キャラクタ管理手段による決定に基づいて、前記ユーザアバタと前記エージェントとの対話を表示する表示手段と
を備えることを特徴とする対話装置。
An interactive device that displays a dialogue by a character that is a virtual person displayed on a screen,
Event detection means for detecting an event that is a change in a user's condition or a change in a situation in which the user is placed;
A character management means for determining a scenario relating to a dialogue between a user avatar, which is a character corresponding to the user, and an agent, which is a dialogue partner, based on the detected event;
An interactive device comprising: display means for displaying an interaction between the user avatar and the agent based on the determination by the character management means.
前記キャラクタ管理手段は、
複数の異なるシナリオを特定する複数のシナリオデータを記憶しているシナリオデータ記憶手段と、
前記イベントに対応するシナリオデータを前記シナリオデータ記憶手段に記憶されたシナリオデータの中から選択するシナリオデータ選択手段とを有し、
前記表示手段は、前記シナリオデータ選択手段で選択されたシナリオデータが示すシナリオに従って前記ユーザアバタと前記エージェントとの対話を表示する
ことを特徴とする請求項1記載の対話装置。
The character management means includes
Scenario data storage means for storing a plurality of scenario data for specifying a plurality of different scenarios;
Scenario data selection means for selecting scenario data corresponding to the event from the scenario data stored in the scenario data storage means,
The interactive device according to claim 1, wherein the display means displays an interaction between the user avatar and the agent according to a scenario indicated by the scenario data selected by the scenario data selection means.
前記イベント検出手段は、前記ユーザが乗車する車両の状況における変化を前記イベントとして検出する
ことを特徴とする請求項2記載の対話装置。
The interactive apparatus according to claim 2, wherein the event detection unit detects a change in a situation of a vehicle on which the user gets as the event.
前記対話装置はさらに、前記車両の状況に応じて、前記ユーザアバタ−と前記エージェントとの対話における時間間隔を制御する対話間隔制御手段を備える
ことを特徴とする請求項3記載の対話装置。
4. The dialogue apparatus according to claim 3, further comprising dialogue interval control means for controlling a time interval in dialogue between the user avatar and the agent according to a situation of the vehicle.
前記対話装置はさらに、前記車両の周辺の地図情報を取得し、取得した地図情報に応じて、前記ユーザアバタ−と前記エージェントとの対話における時間間隔を制御する対話間隔制御手段を備える
ことを特徴とする請求項3記載の対話装置。
The dialog device further includes dialog interval control means for acquiring map information around the vehicle and controlling a time interval in the dialog between the user avatar and the agent according to the acquired map information. The interactive apparatus according to claim 3.
前記対話装置はさらに、前記シナリオデータ選択手段で選択されたシナリオに応じて、前記表示手段によって表示される前記ユーザアバタと前記エージェントの表示上の位置関係を制御するキャラクタ位置制御手段を備える
ことを特徴とする請求項3記載の対話装置。
The interactive apparatus further includes character position control means for controlling a positional relationship on the display of the user avatar displayed by the display means and the agent according to the scenario selected by the scenario data selection means. The interactive apparatus according to claim 3, wherein:
前記対話装置はさらに、前記車両の状況に応じて、前記表示手段による前記ユーザアバタ−及び前記エージェントの表示をON又はOFFに制御するキャラクタ表示制御手段を備える
ことを特徴とする請求項3記載の対話装置。
The said interactive apparatus is further provided with the character display control means which controls the display of the said user avatar and the said agent by the said display means to ON or OFF according to the condition of the said vehicle. Interactive device.
前記表示手段はさらに、音声を出力し、
前記対話装置はさらに、
前記表示手段によって表示される対話中に音声として挿入する情報である読上げ情報を取得する読上げ情報取得手段と、
取得された前記読上げ情報に応じて、前記ユーザアバタと前記エージェントの対話を制御する対話進行制御手段とを備える
ことを特徴とする請求項3記載の対話装置。
The display means further outputs sound,
The interactive device further includes:
Reading information acquisition means for acquiring reading information that is information to be inserted as voice during the dialogue displayed by the display means;
The dialogue apparatus according to claim 3, further comprising dialogue progress control means for controlling dialogue between the user avatar and the agent according to the acquired reading information.
前記対話進行制御手段は、前記ユーザアバタと前記エージェントとの対話の進行状況に応じて、前記読上げ情報を読上げるタイミングを制御する
ことを特徴とする請求項8記載の対話装置。
The dialogue apparatus according to claim 8, wherein the dialogue progress control means controls the timing of reading the reading information in accordance with a progress status of the dialogue between the user avatar and the agent.
前記対話進行制御手段は、前記読上げ情報に応じて、前記ユーザアバタまたは前記エージェントが補間発話を発声するように前記表示手段を制御する
ことを特徴とする請求項8記載の対話装置。
The dialogue apparatus according to claim 8, wherein the dialogue progress control means controls the display means so that the user avatar or the agent utters an interpolated utterance according to the reading information.
前記対話装置はさらに、前記ユーザアバタと前記エージェントとの対話履歴を蓄積し、前記車両の状況に応じて、前記対話履歴に関する情報を表示する対話内容蓄積手段を備える
ことを特徴とする請求項3記載の対話装置。
The dialogue apparatus further comprises dialogue content accumulation means for accumulating a dialogue history between the user avatar and the agent, and displaying information related to the dialogue history according to a situation of the vehicle. The interactive device described.
前記イベント検出手段は、
前記ユーザが乗車している車両の現在地を検出する位置検出手段と、
検出された車両の現在地と走行する予定となっている経路とを比較することで、前記車両が予定されている経路を逸脱したか否かを判定する判定手段と、
逸脱したと判定された場合に、その事象を前記イベントとして検出する検出手段とを有し、
前記シナリオデータ選択手段は、前記イベント検出によって前記車両が前記経路を逸脱した旨のイベントが検出された場合に、当該イベントに対応するシナリオデータを選択する
ことを特徴とする請求項3記載の対話装置。
The event detection means includes:
Position detecting means for detecting a current location of a vehicle on which the user is riding;
A determination means for determining whether or not the vehicle has deviated from the planned route by comparing the current location of the detected vehicle with a route planned to travel;
Detection means for detecting the event as the event when it is determined that the vehicle has deviated,
The dialogue according to claim 3, wherein the scenario data selection means selects scenario data corresponding to the event when an event indicating that the vehicle deviates from the route is detected by the event detection. apparatus.
前記イベント検出手段はさらに、前記逸脱判定手段によって前記車両が前記経路を逸脱したと判定された場合に、逸脱した地点を示す逸脱地点情報を記憶する逸脱地点記憶手段を備え、
前記判定手段はさらに、前記位置検出手段によって検出された車両の現在地と前記逸脱地点記憶手段に記憶されている逸脱地点情報が示す地点とを比較することで、過去に経路を逸脱したことのある地点の近傍を前記車両が走行しているか否かを判定し、
前記検出手段は、前記地点の近傍を前記車両が走行していると判定された場合に、その事象を前記イベントとして検出し、
前記シナリオデータ選択手段は、前記イベント検出によって前記地点の近傍を前記車両が走行している旨のイベントが検出された場合に、当該イベントに対応するシナリオデータを選択する
ことを特徴とする請求項12記載の対話装置。
The event detection means further includes departure point storage means for storing departure point information indicating a point of departure when the departure determination means determines that the vehicle has departed the route,
The determination means may further have deviated from the route in the past by comparing the current location of the vehicle detected by the position detection means with the point indicated by the departure point information stored in the departure point storage means. Determine whether the vehicle is driving near a point,
The detection means detects the event as the event when it is determined that the vehicle is traveling in the vicinity of the point,
The scenario data selecting means, when an event indicating that the vehicle is traveling in the vicinity of the point is detected by the event detection, selects scenario data corresponding to the event. 12. The interactive device according to 12.
前記キャラクタ管理手段はさらに、
複数の異なる種類のキャラクタを特定する複数のキャラクタデータを記憶しているキャラクタデータ記憶手段と、
前記キャラクタデータ記憶手段に記憶されたキャラクタデータの中から、前記イベント検出手段によって検出されたイベントに対応する少なくとも1種類のキャラクタデータを選択し、選択した少なくとも1種類のキャラクタデータが示すキャラクタをそれぞれ前記ユーザアバタ及び前記エージェントに割り当てるキャラクタデータ選択手段とを有し、
前記表示手段は、前記キャラクタデータ選択手段によって割り当てられたユーザアバタとエージェントとの対話を表示する
ことを特徴とする請求項1記載の対話装置。
The character management means further includes
Character data storage means for storing a plurality of character data for specifying a plurality of different types of characters;
At least one type of character data corresponding to the event detected by the event detection unit is selected from the character data stored in the character data storage unit, and each character indicated by the selected at least one type of character data is selected. Character data selection means to be assigned to the user avatar and the agent,
The interactive device according to claim 1, wherein the display means displays an interaction between a user avatar and an agent assigned by the character data selecting means.
前記イベント検出手段は、前記ユーザが乗車する車両の状況における変化を前記イベントとして検出する
ことを特徴とする請求項14記載の対話装置。
The interactive device according to claim 14, wherein the event detecting unit detects a change in a situation of a vehicle on which the user gets as the event.
前記イベント検出手段は、
前記ユーザが乗車している車両の走行経路及び時間を検出する走行状況検出手段と、
検出された車両の走行経路及び時間と当該走行経路について予め設定されている標準的な走行時間とを比較することで、前記車両が渋滞に遭遇しているか否かを判定する判定手段と、
渋滞に遭遇していると判定された場合に、その事象を前記イベントとして検出する検出手段とを有し、
前記キャラクタデータ選択手段は、前記イベント検出によって前記車両が渋滞に遭遇している旨のイベントが検出された場合に、当該イベントに対応するユーザアバタ及びエージェントのキャラクタを示すキャラクタデータを選択する
ことを特徴とする請求項15記載の対話装置。
The event detection means includes:
A traveling state detecting means for detecting a traveling route and time of a vehicle on which the user is riding;
A determination means for determining whether or not the vehicle has encountered a traffic jam by comparing the detected travel route and time of the vehicle with a standard travel time set in advance for the travel route;
A detection means for detecting the event as the event when it is determined that a traffic jam has occurred,
The character data selection means selects character data indicating a user avatar and an agent character corresponding to the event when an event indicating that the vehicle is congested is detected by the event detection. 16. The interactive apparatus according to claim 15, characterized in that
前記イベント検出手段は、
前記ユーザが乗車している車両の走行時間を検出する走行状況検出手段と、
検出された車両の走行時間と予め設定されているしきい値とを比較することで、前記ユーザの運転による疲労度が一定以上に達しているか否かを判定する判定手段と、
疲労度が一定以上に達していると判定された場合に、その事象を前記イベントとして検出する検出手段とを有し、
前記キャラクタデータ選択手段は、前記イベント検出によって前記ユーザの疲労度が一定以上に達している旨のイベントが検出された場合に、当該イベントに対応するユーザアバタ及びエージェントのキャラクタを示すキャラクタデータを選択する
ことを特徴とする請求項15記載の対話装置。
The event detection means includes:
A traveling state detecting means for detecting a traveling time of the vehicle on which the user is riding;
A determination unit that determines whether or not the degree of fatigue due to the user's driving has reached a certain level by comparing the detected traveling time of the vehicle with a preset threshold value;
When it is determined that the degree of fatigue has reached a certain level, the detection means for detecting the event as the event,
The character data selection unit selects character data indicating a user avatar and an agent character corresponding to the event when an event indicating that the fatigue level of the user has reached a certain level or more is detected by the event detection. The interactive apparatus according to claim 15, wherein:
前記イベント検出手段は、
前記ユーザが乗車している車両の走行状況を検出する走行状況検出手段と、
前記ユーザが乗車している車両の外部から無線で情報を取得する情報取得手段と、
取得された情報と前記走行状況検出手段で検出された走行状況とが予め定められた一定の関係にある否かを判定する判定手段と、
一定の関係にあると判定された場合に、その事象を前記イベントとして検出する検出手段とを有し、
前記キャラクタデータ選択手段は、前記イベント検出によって前記情報と前記走行状況とが一定の関係にある旨のイベントが検出された場合に、当該イベントに対応するユーザアバタ及びエージェントのキャラクタを示すキャラクタデータを選択する
ことを特徴とする請求項15記載の対話装置。
The event detection means includes:
A traveling state detecting means for detecting a traveling state of a vehicle on which the user is riding;
Information acquisition means for acquiring information wirelessly from the outside of the vehicle on which the user is riding;
Determining means for determining whether or not the acquired information and the traveling situation detected by the traveling situation detecting means are in a predetermined relationship;
Detection means for detecting the event as the event when it is determined to be in a certain relationship,
The character data selection means, when an event indicating that the information and the traveling state are in a certain relationship is detected by the event detection, character data indicating a user avatar and an agent character corresponding to the event. The interactive apparatus according to claim 15, wherein the interactive apparatus is selected.
前記対話装置はさらに、ユーザの指示を取得する入力手段と、
前記シナリオデータ選択手段はさらに、前記入力手段で取得された指示に従って前記シナリオデータを選択する
ことを特徴とする請求項2記載の対話装置。
The interactive apparatus further includes input means for acquiring a user instruction;
The interactive apparatus according to claim 2, wherein the scenario data selection unit further selects the scenario data according to an instruction acquired by the input unit.
前記入力手段は、前記ユーザから音声による指示を取得し、
前記キャラクタ管理手段はさらに、
音声による複数の指示を予め記憶している入力語彙記憶手段と、
前記入力手段で取得された音声と前記入力語彙記憶手段に記憶されている音声とを照合することで、前記入力手段で取得された音声を解釈する解釈手段とを有し、
前記シナリオデータ選択手段は、前記解釈手段による解釈に従って前記シナリオデータを選択する
ことを特徴とする請求項19記載の対話装置。
The input means obtains a voice instruction from the user;
The character management means further includes
Input vocabulary storage means for storing a plurality of voice instructions in advance;
Interpretation means for interpreting the voice acquired by the input means by collating the voice acquired by the input means with the voice stored in the input vocabulary storage means,
The dialogue apparatus according to claim 19, wherein the scenario data selection means selects the scenario data according to the interpretation by the interpretation means.
前記解釈手段は、シナリオのシーケンス又はユーザの嗜好に従って、ユーザから入力される可能性がある語彙を絞り込んだうえで、前記照合を行う
ことを特徴とする請求項20記載の対話装置。
21. The dialogue apparatus according to claim 20, wherein the interpreting unit performs the collation after narrowing down a vocabulary that may be input from a user according to a scenario sequence or a user preference.
画面に表示される仮想人物であるキャラクタによる対話を表示する対話方法であって、
ユーザの状態における変化又はユーザが置かれている状況における変化であるイベントを検出するイベント検出ステップと、
検出されたイベントに基づいて、ユーザに対応するキャラクタであるユーザアバタとその対話相手となるキャラクタであるエージェントとの対話に関するシナリオを決定するキャラクタ管理ステップと、
前記キャラクタ管理ステップによる決定に基づいて、前記ユーザアバタと前記エージェントとの対話を表示する表示ステップと
を備えることを特徴とする対話方法。
A dialogue method for displaying dialogue by a character that is a virtual person displayed on a screen,
An event detection step for detecting an event that is a change in a user's condition or a change in a situation in which the user is placed;
A character management step for determining a scenario related to a dialogue between a user avatar, which is a character corresponding to the user, and an agent, which is a character as a dialogue partner, based on the detected event;
And a display step for displaying a dialogue between the user avatar and the agent based on the determination by the character management step.
画面に表示される仮想人物であるキャラクタによる対話を表示する対話装置のためのプログラムであって、
請求項22記載の対話方法に記載されたステップをコンピュータに実行させる
ことを特徴とするプログラム。

A program for a dialogue device that displays dialogue by a character that is a virtual person displayed on a screen,
A program causing a computer to execute the steps described in the interactive method according to claim 22.

JP2004248992A 2003-09-01 2004-08-27 In-vehicle dialogue device Expired - Fee Related JP4533705B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004248992A JP4533705B2 (en) 2003-09-01 2004-08-27 In-vehicle dialogue device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003309360 2003-09-01
JP2004248992A JP4533705B2 (en) 2003-09-01 2004-08-27 In-vehicle dialogue device

Publications (3)

Publication Number Publication Date
JP2005100382A true JP2005100382A (en) 2005-04-14
JP2005100382A5 JP2005100382A5 (en) 2007-10-18
JP4533705B2 JP4533705B2 (en) 2010-09-01

Family

ID=34467487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004248992A Expired - Fee Related JP4533705B2 (en) 2003-09-01 2004-08-27 In-vehicle dialogue device

Country Status (1)

Country Link
JP (1) JP4533705B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008018756A (en) * 2006-07-11 2008-01-31 Kenwood Corp Content supposing device, content suggesting method, and program
JP2010152687A (en) * 2008-12-25 2010-07-08 Aisin Aw Co Ltd Vehicle operation log processing system and vehicle operation log processing program
JP2010531478A (en) * 2007-04-26 2010-09-24 フォード グローバル テクノロジーズ、リミテッド ライアビリティ カンパニー Emotional advice system and method
CN101918795A (en) * 2007-12-20 2010-12-15 通腾科技股份有限公司 Improved navigation device and method
WO2012173265A1 (en) * 2011-06-14 2012-12-20 日本電気株式会社 Region familiarity calculation device, region familiarity calculation method, and region familiarity calculation program
WO2014112124A1 (en) * 2013-01-21 2014-07-24 三菱電機株式会社 Destination prediction device, destination prediction method, and destination display method
JP2016062550A (en) * 2014-09-22 2016-04-25 ソフトバンク株式会社 Conversation processing system, and program
US9329048B2 (en) 2008-01-07 2016-05-03 Tomtom International B.V. Navigation device and method providing a logging function
JPWO2014002128A1 (en) * 2012-06-25 2016-05-26 三菱電機株式会社 Car information system
JP2016102735A (en) * 2014-11-28 2016-06-02 アイシン・エィ・ダブリュ株式会社 Navigation system, navigation method, and navigation program
WO2018043112A1 (en) * 2016-08-29 2018-03-08 ソニー株式会社 Information presentation apparatus and information presentation method
CN107888653A (en) * 2016-09-30 2018-04-06 本田技研工业株式会社 Give orders or instructions device, communicating device and moving body
CN108346430A (en) * 2017-01-23 2018-07-31 现代自动车株式会社 Conversational system, the vehicle with conversational system and dialog process method
KR20190066116A (en) * 2017-12-05 2019-06-13 현대자동차주식회사 Dialogue processing apparatus, vehicle having the same
WO2019142420A1 (en) * 2018-01-22 2019-07-25 ソニー株式会社 Information processing device and information processing method
WO2019188336A1 (en) * 2018-03-26 2019-10-03 本田技研工業株式会社 Service provision system and service provision method
WO2020026986A1 (en) * 2018-07-31 2020-02-06 ソニー株式会社 Information processing device, information processing method, and program
US10642346B2 (en) 2016-10-31 2020-05-05 Fujitsu Limited Action control method and device
JP2020129290A (en) * 2019-02-08 2020-08-27 スズキ株式会社 Interaction device for vehicle
JP2020157855A (en) * 2019-03-26 2020-10-01 本田技研工業株式会社 Agent device, control method of agent device, and program
WO2021006359A1 (en) * 2019-07-05 2021-01-14 엘지전자 주식회사 Method for controlling vehicle by utilizing toy device in autonomous driving system, and device therefor
US10929818B2 (en) 2017-02-16 2021-02-23 Seoul National University R&Db Foundation Wearable sensor-based automatic scheduling device and method
JP2021073442A (en) * 2020-12-25 2021-05-13 パイオニア株式会社 Information service device, control method, program, and memory medium
JP2023061926A (en) * 2020-06-23 2023-05-02 株式会社ユピテル Driving support system and driving support program
JP7403171B2 (en) 2020-06-23 2023-12-22 株式会社ユピテル System and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137766A (en) * 1997-07-22 1999-02-12 Aqueous Res:Kk Agent device
JP2001195430A (en) * 1999-11-02 2001-07-19 Atr Media Integration & Communications Res Lab System for expediting knowledge sharing
JP2003131691A (en) * 2001-10-23 2003-05-09 Fujitsu Ten Ltd Voice interactive system
JP2003157489A (en) * 2002-06-03 2003-05-30 Equos Research Co Ltd Operation control device
JP2003178328A (en) * 2001-12-07 2003-06-27 Sony Corp Three-dimensional virtual space display device, three- dimensional virtual space display method, program and storage medium with the program stored therein
JP2004037953A (en) * 2002-07-04 2004-02-05 Equos Research Co Ltd On-vehicle device, and device and program for data creation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137766A (en) * 1997-07-22 1999-02-12 Aqueous Res:Kk Agent device
JP2001195430A (en) * 1999-11-02 2001-07-19 Atr Media Integration & Communications Res Lab System for expediting knowledge sharing
JP2003131691A (en) * 2001-10-23 2003-05-09 Fujitsu Ten Ltd Voice interactive system
JP2003178328A (en) * 2001-12-07 2003-06-27 Sony Corp Three-dimensional virtual space display device, three- dimensional virtual space display method, program and storage medium with the program stored therein
JP2003157489A (en) * 2002-06-03 2003-05-30 Equos Research Co Ltd Operation control device
JP2004037953A (en) * 2002-07-04 2004-02-05 Equos Research Co Ltd On-vehicle device, and device and program for data creation

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008018756A (en) * 2006-07-11 2008-01-31 Kenwood Corp Content supposing device, content suggesting method, and program
JP2010531478A (en) * 2007-04-26 2010-09-24 フォード グローバル テクノロジーズ、リミテッド ライアビリティ カンパニー Emotional advice system and method
JP2011506982A (en) * 2007-12-20 2011-03-03 トムトム インターナショナル ベスローテン フエンノートシャップ Improved navigation apparatus and method
CN101918795A (en) * 2007-12-20 2010-12-15 通腾科技股份有限公司 Improved navigation device and method
US9329048B2 (en) 2008-01-07 2016-05-03 Tomtom International B.V. Navigation device and method providing a logging function
JP2010152687A (en) * 2008-12-25 2010-07-08 Aisin Aw Co Ltd Vehicle operation log processing system and vehicle operation log processing program
WO2012173265A1 (en) * 2011-06-14 2012-12-20 日本電気株式会社 Region familiarity calculation device, region familiarity calculation method, and region familiarity calculation program
JPWO2014002128A1 (en) * 2012-06-25 2016-05-26 三菱電機株式会社 Car information system
WO2014112124A1 (en) * 2013-01-21 2014-07-24 三菱電機株式会社 Destination prediction device, destination prediction method, and destination display method
US9400185B2 (en) 2013-01-21 2016-07-26 Mitsubishi Electric Corporation Destination prediction apparatus
JP2016062550A (en) * 2014-09-22 2016-04-25 ソフトバンク株式会社 Conversation processing system, and program
JP2016102735A (en) * 2014-11-28 2016-06-02 アイシン・エィ・ダブリュ株式会社 Navigation system, navigation method, and navigation program
WO2018043112A1 (en) * 2016-08-29 2018-03-08 ソニー株式会社 Information presentation apparatus and information presentation method
JPWO2018043112A1 (en) * 2016-08-29 2019-06-24 ソニー株式会社 Information presentation apparatus and information presentation method
JP2018060192A (en) * 2016-09-30 2018-04-12 本田技研工業株式会社 Speech production device and communication device
CN107888653A (en) * 2016-09-30 2018-04-06 本田技研工业株式会社 Give orders or instructions device, communicating device and moving body
US10642346B2 (en) 2016-10-31 2020-05-05 Fujitsu Limited Action control method and device
CN108346430A (en) * 2017-01-23 2018-07-31 现代自动车株式会社 Conversational system, the vehicle with conversational system and dialog process method
CN108346430B (en) * 2017-01-23 2023-07-11 现代自动车株式会社 Dialogue system, vehicle having dialogue system, and dialogue processing method
US10929818B2 (en) 2017-02-16 2021-02-23 Seoul National University R&Db Foundation Wearable sensor-based automatic scheduling device and method
KR20190066116A (en) * 2017-12-05 2019-06-13 현대자동차주식회사 Dialogue processing apparatus, vehicle having the same
KR102463581B1 (en) 2017-12-05 2022-11-07 현대자동차주식회사 Dialogue processing apparatus, vehicle having the same
WO2019142420A1 (en) * 2018-01-22 2019-07-25 ソニー株式会社 Information processing device and information processing method
US11935449B2 (en) 2018-01-22 2024-03-19 Sony Corporation Information processing apparatus and information processing method
WO2019188336A1 (en) * 2018-03-26 2019-10-03 本田技研工業株式会社 Service provision system and service provision method
JPWO2019188336A1 (en) * 2018-03-26 2021-01-07 本田技研工業株式会社 Service provision system and service provision method
WO2020026986A1 (en) * 2018-07-31 2020-02-06 ソニー株式会社 Information processing device, information processing method, and program
JP2020129290A (en) * 2019-02-08 2020-08-27 スズキ株式会社 Interaction device for vehicle
JP2020157855A (en) * 2019-03-26 2020-10-01 本田技研工業株式会社 Agent device, control method of agent device, and program
CN111752686A (en) * 2019-03-26 2020-10-09 本田技研工业株式会社 Agent device, control method for agent device, and storage medium
JP7239366B2 (en) 2019-03-26 2023-03-14 本田技研工業株式会社 AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
WO2021006359A1 (en) * 2019-07-05 2021-01-14 엘지전자 주식회사 Method for controlling vehicle by utilizing toy device in autonomous driving system, and device therefor
JP2023061926A (en) * 2020-06-23 2023-05-02 株式会社ユピテル Driving support system and driving support program
JP7398845B2 (en) 2020-06-23 2023-12-15 株式会社ユピテル Driving assistance systems and programs
JP7403171B2 (en) 2020-06-23 2023-12-22 株式会社ユピテル System and program
JP7030950B2 (en) 2020-12-25 2022-03-07 パイオニア株式会社 Information providers, control methods, programs, and storage media
JP2021073442A (en) * 2020-12-25 2021-05-13 パイオニア株式会社 Information service device, control method, program, and memory medium

Also Published As

Publication number Publication date
JP4533705B2 (en) 2010-09-01

Similar Documents

Publication Publication Date Title
JP4533705B2 (en) In-vehicle dialogue device
CN105606100B (en) Apparatus, system and method for clustering points of interest in a navigation system
CN101992779B (en) Method of intelligent music selection in vehicle
US6401029B1 (en) Assist device in designation of destination
US20040225416A1 (en) Data creation apparatus
EP2917696B1 (en) Navigation system
CA2906758A1 (en) Systems and methods for delivering high relevant travel related content to mobile devices
KR101843683B1 (en) Navigation system for providing personalized recommended route and Drive Method of the Same
JP2009230334A (en) Content presentation device, content presentation method, and program
JP4497528B2 (en) Car navigation apparatus, car navigation method and program
US20090234565A1 (en) Navigation Device and Method for Receiving and Playing Sound Samples
JP2008176851A (en) Music selecting and reproducing method
JP2004340967A (en) How to support off-road navigation and associated navigation system
US20220365991A1 (en) Method and apparatus for enhancing a geolocation database
JP4387148B2 (en) Content distribution system and content reception / playback apparatus
JP4749923B2 (en) Voice guidance device
JP4952750B2 (en) Car navigation apparatus, car navigation method and program
JP2005208943A (en) System for providing service candidate, user side communication device, and service candidate server
JP4454946B2 (en) Advertising method and advertising system used for the method
JP4256357B2 (en) Car navigation system and program
JP4793480B2 (en) Car navigation apparatus, car navigation method and program
JP4793481B2 (en) Car navigation apparatus, car navigation method and program
JP2010042788A (en) On-vehicle display device and display method
JP4356450B2 (en) In-vehicle device
JP5345723B2 (en) Music selection playback method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

R150 Certificate of patent or registration of utility model

Ref document number: 4533705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees