JP2003106846A - Agent apparatus - Google Patents

Agent apparatus

Info

Publication number
JP2003106846A
JP2003106846A JP2001304562A JP2001304562A JP2003106846A JP 2003106846 A JP2003106846 A JP 2003106846A JP 2001304562 A JP2001304562 A JP 2001304562A JP 2001304562 A JP2001304562 A JP 2001304562A JP 2003106846 A JP2003106846 A JP 2003106846A
Authority
JP
Japan
Prior art keywords
agent
data
driver
motion
scenario
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001304562A
Other languages
Japanese (ja)
Inventor
Tomoki Kubota
智氣 窪田
Koji Hori
孝二 堀
Hiroaki Kondo
裕昭 近藤
Manabu Matsuda
松田  学
Kazuhide Adachi
和英 足立
Tadashi Hirano
正 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2001304562A priority Critical patent/JP2003106846A/en
Publication of JP2003106846A publication Critical patent/JP2003106846A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To make the meaning or the content of the operation of an agent easily intuited in response to the cultural background of a user's birthplace or the like, his taste or the like. SOLUTION: The operation to be conducted by an agent is not uniformly specified but is done to meet the user's cultural information such as, for example, user's birthplace, taste or the like for the content or the meaning of the communication with a driver. For example, when the agent greets, if the user can specify Japanese from the user information, the 'bowing' operation is conducted, or if the user can be specified a Western user, a 'right hand salute' operation is performed. Thus, the cultural information including the user's taste and favorite is interpreted from the user information, the agent performs the operation corresponding to the cultural background, and hence the user can easily intuit the meaning or the content used at present by the agent from the operation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はエージェント装置に
係り、例えば、車両の搭乗者とのコミュニケーションに
より会話をしたり機器操作等を行うエージェント装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an agent device and, for example, to an agent device which has a conversation with a passenger of a vehicle and operates a device.

【0002】[0002]

【従来の技術】エージェントを車両内に出現させ、車両
の状況を判断してユーザと会話などのコミュニケーショ
ンを積極的に行うエージェント装置が特開平11−37
766号公報で提案されている。このエージェント装置
によれば、例えば、ガソリン、軽油等の燃料の残量を検
出し、給油時直前における過去5回分の検出値が格納さ
れ、その平均値になった場合にエージェントが給油時期
であることを知らせるようになっている。このようなエ
ージェント装置では、エージェントによる特定の意志や
意味を表現する動作を行わせるようにしている。例え
ば、挨拶やお礼を表現するためにエージェントはお辞儀
をする動作を行うようになっている。そして、このよう
な特定の意味を表現する動作は、ユーザができるだけ直
感できるような動作が採用されている。そして、特定の
意味を表現するエージェントの動作は1つの動作で表現
されている。
2. Description of the Related Art An agent device for causing an agent to appear in a vehicle, judging the state of the vehicle, and positively communicating with the user, such as a conversation, is disclosed in JP-A-11-37.
No. 766 is proposed. According to this agent device, for example, the remaining amount of fuel such as gasoline and light oil is detected, and the detected values of the past five times immediately before refueling are stored, and when the average value is reached, the agent is the refueling time. It is supposed to let you know. In such an agent device, the agent is caused to perform an action of expressing a specific intention or meaning. For example, an agent is supposed to bow to express a greeting or thank-you. Then, as the operation of expressing such a specific meaning, an operation that allows the user to intuition as much as possible is adopted. The action of the agent expressing a specific meaning is expressed by one action.

【0003】[0003]

【発明が解決しようとする課題】しかし、エージェント
とのコミュニケーションを行うユーザにとってみると、
同じ意味であっても、例えば、ユーザの文化的背景や趣
味・嗜好等によって行う動作が異なっているのが現状で
ある。例えば、日本人ユーザにおける挨拶の動作は”お
辞儀”であるのに対して、西欧系のユーザにとっての挨
拶の動作は”手を挙げる”動作である。従って、挨拶と
いう意味内容に対して一律に”お辞儀”の動作をエージ
ェントにさせたとしても、日本人ユーザにとっては容易
に理解できても、西欧系ユーザにとっては動作の意味を
直感しにくかった。同様に、サッカーをほとんど観戦し
ないユーザにとっては、エージェントがイエローカード
やレッドカードを出す動作をしても、その意味はほとん
ど理解できないことが多いため、動作に対する意味や内
容(エージェントが表現したい状態)の学習をユーザが
しなければならない。
However, for the user who communicates with the agent,
Even though the meanings are the same, the current situation is that the operations performed differ depending on the cultural background, hobbies, preferences, etc. of the user. For example, a greeting action for a Japanese user is a "bow", whereas a greeting action for a Western European user is a "raise hand" action. Therefore, even if the agent is made to uniformly perform a "bowing" action with respect to the meaning content of the greeting, it is difficult for a Japanese user to understand, but it is difficult for a Western European user to understand the meaning of the action. Similarly, for a user who rarely watches soccer, even if an agent gives out a yellow card or a red card, the meaning is often difficult to understand, so the meaning and content of the operation (the state the agent wants to express) The user must learn.

【0004】また、エージェントの容姿として人間であ
る必要が無く、タコや電気スタンドが人間と同様な動き
でコミュニケーションをとれるようにすると、ユーザに
よってはより親しみや面白みを感じる場合がある。この
ような容姿が非人間型のエージェントに対しても、人間
型のエージェントの場合と同様に、ユーザの文化的背景
などに対応した動作をさせることが、動作の意味をユー
ザに直感させる意味で好ましい。
If the agent does not have to be a human as an appearance, and the octopus and the desk lamp can communicate in the same movement as a human, some users may feel more familiar and interesting. Even for an agent whose appearance is non-human, as in the case of a human agent, it is in the sense to make the user intuitively understand the meaning of the operation by making the operation correspond to the cultural background of the user. preferable.

【0005】そこで本発明は、ユーザの文化的背景や趣
味などに応じて、エージェントの動作の意味や内容を直
感しやすいエージェント装置を提供することを第1の目
的とする。また本発明は、非人間型のエージェントの場
合であってもその動作の意味や内容を直感しやすいエー
ジェント装置を提供することを第2の目的とする。
Therefore, it is a first object of the present invention to provide an agent device in which the meaning and contents of the operation of the agent can be easily understood depending on the cultural background and hobbies of the user. A second object of the present invention is to provide an agent device which makes it easy to intuitively understand the meaning and content of its operation even in the case of a non-human type agent.

【0006】[0006]

【課題を解決するための手段】請求項1に記載した発明
では、人工的な擬似生命体を車室内に出現させるエージ
ェント出現手段と、運転者に関する各種情報が順次格納
される運転者情報格納手段と、車両の状況及び運転者の
状況のうちの少なくとも1つを検出する状況検出手段
と、前記状況検出手段による検出結果に対応して前記擬
似生命体が表現したい状態を決定する表現状態決定手段
と、前記表現状態決定手段で決定した前記擬似生命体が
表現したい状態と、前記格納された運転者情報に基づい
て前記擬似生命体の動作を決定する動作決定手段と、前
記決定した動作を画像表示する表示手段と、をエージェ
ント装置に具備させて前記目的を達成する。請求項2に
記載の発明では、請求項1に記載のエージェント装置に
おいて、前記擬似生命体が人間型である場合の動作が規
定された人間型動作記憶手段と、前記擬似生命体が非人
間型である場合の動作が規定された非人間型動作記憶手
段と、を備え、前記動作決定手段は、前記人間型動作記
憶手段又は前記非人間型動作記憶手段に規定された動作
に基づいて前記擬似生命体の動作を決定することを特徴
とする。請求項3に記載の発明では、人工的な擬似生命
体を車室内に出現させるエージェント出現手段と、車両
の状況及び運転者の状況のうちの少なくとも1つを検出
する状況検出手段と、前記擬似生命体が人間型である場
合の動作が規定された動作記憶手段と、前記状況検出手
段による検出結果に対応して前記擬似生命体が表現した
い状態を決定する表現状態決定手段と、前記表現状態決
定手段で決定した前記擬似生命体が表現したい状態と、
前記動作記憶手段に基づいて前記擬似生命体の動作を決
定する動作決定手段と、前記決定した動作を画像表示す
る表示手段とを備え、前記動作決定手段は、運転者が非
人間型の擬似生命体を選択した場合、当該非人間型の擬
似生命体の各部位を前記人間型の擬似生命体の構成部位
に対応させて動作を決定することを特徴とする。請求項
4に記載の発明では、請求項3に記載のエージェント装
置において、運転者に関する各種情報が順次格納される
運転者情報格納手段を備え、前記動作決定手段は、前記
格納された運転者情報に基づいて前記擬似生命体の動作
を決定することを特徴とする。請求項5に記載の発明で
は、請求項1又は請求項4に記載のエージェント装置に
おいて、前記運転者情報格納手段は、運転者の出身地
域、運転者の趣味、職業、運転者の習慣、学歴の内の少
なくとも1つである、ことを特徴とする。
According to a first aspect of the present invention, agent appearance means for causing an artificial artificial life object to appear in a vehicle compartment, and driver information storage means for sequentially storing various kinds of information about the driver. A situation detecting means for detecting at least one of the situation of the vehicle and the situation of the driver, and an expression state determining means for determining a state desired by the pseudo-life form corresponding to the detection result of the situation detecting means. A state in which the pseudo life form is desired to be expressed by the expression state decision means, a motion decision means for deciding a motion of the pseudo life object based on the stored driver information, and an image of the decided motion. The display means for displaying is provided in the agent device to achieve the above object. According to a second aspect of the present invention, in the agent device according to the first aspect, a human-type action storage unit that defines an action when the pseudo life form is a human type, and the pseudo life form is a non-human type. And a non-human-type action storage unit that defines the action in the case of the above-mentioned action, wherein the action determining unit is based on the action defined in the human-type action storage unit or the non-human-type action storage unit. It is characterized by determining the behavior of living things. In the invention according to claim 3, agent appearance means for causing an artificial artificial life object to appear in the vehicle interior, situation detection means for detecting at least one of the situation of the vehicle and the situation of the driver, and the pseudo. A motion storage unit that defines a motion when the life form is a human type, an expression state determination unit that determines a state desired to be expressed by the pseudo life form in accordance with a detection result by the situation detection unit, and the expression state. A state desired to be expressed by the pseudo life determined by the determination means,
A motion determining means for determining a motion of the pseudo-living body based on the motion storing means; and a display means for displaying the determined motion as an image. When a body is selected, the action is determined by associating each part of the non-human type pseudo life form with the constituent part of the human type pseudo life form. According to a fourth aspect of the invention, in the agent device according to the third aspect, there is provided driver information storage means for sequentially storing various kinds of information regarding the driver, and the operation determining means is the stored driver information. The motion of the pseudo-life is determined based on According to a fifth aspect of the invention, in the agent device according to the first or fourth aspect, the driver information storage means has a driver's origin area, a driver's hobby, occupation, a driver's habit, and academic background. At least one of the above.

【0007】[0007]

【発明の実施の形態】以下、本発明のエージェント装置
における好適な実施の形態について、図1から図17を
参照して詳細に説明する。 (1)実施形態の概要 本実施形態のするエージェント装置では、擬人化された
エージェントを画像(平面的画像、ホログラフィ等の立
体的画像等)により車両内に出現させ、このエージェン
トに運転者との各種コミュニケーションや、操作の代行
を行わせる。運転者とのコミュニケーションの内容や意
味に対して、エージェントが行う動作を画一的に規定す
るのではなく、ユーザの文化的背景、例えば、出身地や
趣味等に合わせた行動を行うようにする。例えば、エー
ジェントが挨拶をする場合、ユーザ情報からユーザが日
本人と特定できれば”お辞儀”の動作をし、欧米系のユ
ーザと特定すれば”右手を上げる”動作をする。このよ
うに、ユーザ情報からユーザの趣味・嗜好を含めた文化
的背景を解釈し、その文化的背景に対応した動作をエー
ジェントが行うことで、ユーザはエージェントが表現し
ようとしている意味や内容をその動作から直感し易くな
る。また、非人間型の容姿をもつエージェントの場合、
非人間型エージェントの体の部位を人間の部位と対応さ
せ、ユーザの文化的背景に応じて人間型エージェントと
同様に動作させる。この場合、非人間型エージェントの
容姿(体の構造)が人間と異なる場合は、表現に重要で
必要な部位のみを非人間型エージェントの部位に当ては
めて表現する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, preferred embodiments of an agent device of the present invention will be described in detail with reference to FIGS. (1) Outline of Embodiment In the agent device according to this embodiment, an anthropomorphized agent is made to appear in the vehicle by an image (a three-dimensional image such as a planar image or holography), and this agent is connected to the driver. Let them perform various communications and operations on their behalf. Instead of stipulating uniformly the actions that the agent performs with respect to the content and meaning of communication with the driver, perform actions that match the cultural background of the user, for example, the place of origin or hobbies. . For example, when the agent greets, if the user information identifies the user as a Japanese person, the agent performs a "bow" action, and if the agent identifies as a Western user, the agent raises a "right hand" action. In this way, by interpreting the cultural background including the user's hobbies and preferences from the user information and the agent performing an action corresponding to the cultural background, the user can understand the meaning and content that the agent is trying to express. It becomes easy to intuitively understand from the operation. Also, in the case of an agent with a non-human appearance,
The body part of the non-human agent is made to correspond to the human part, and is operated in the same manner as the human agent according to the cultural background of the user. In this case, when the appearance (body structure) of the non-human agent is different from that of human, only the parts that are important and necessary for expression are applied to the parts of the non-human agent.

【0008】ユーザの文化的背景を表現するユーザ情報
は、各ユーザが初期設定時等に適宜入力する。また、未
入力のユーザ情報がある場合には、運転者の運転操作に
対する負荷が低い場合(一定角以上のステアリング操作
中でない場合、オーディオ等の機器操作中でない場合、
信号待ち状態の場合等)を検出して、エージェントが未
入力のユーザ情報を得るための質問をし、質問に対する
回答からユーザ情報を収集し保存する。
The user information expressing the cultural background of the user is appropriately input by each user at the time of initial setting. Further, when there is user information that has not been input, when the load on the driving operation of the driver is low (when the steering operation at a certain angle or more is not being performed, when the device such as the audio is not being operated,
(Eg, waiting for a signal), the agent asks a question to obtain user information that has not been input, and collects and saves the user information from the answers to the questions.

【0009】なお、本実施形態におけるエージェント
は、人工的な疑似生命体であり、その容姿(平面的画
像、ホログラフィ等の立体的画像等)が画像表示装置に
よって車両内に出現される。このエージェントの処理と
しては、車両自体、搭乗者、対向車等を含む車両の状況
判断と学習(状況の学習だけでなく運転者の応答や反応
等も含む)をし、各時点での車両状況とそれまでの学習
結果に基づいて、エージェントが運転者や車両に対して
様々なバリエーションをもった対応(行為=行動と音
声)をする。これにより運転者は、複数のエージェント
を車両内に自由に呼びだしてつき合う(コミュニケーシ
ョンする)ことが可能になり、車両内での環境を快適に
することができる。ここで、本実施形態における人工的
な疑似生命体(エージェント)とは、特定の人間、生
物、漫画のキャラクター等主体の同一性があり、その同
一性のある疑似生命体が、主体の同一性・連続性を保つ
ように出力(動作、音声により応答)を行うものであ
る。また、同一性・連続性は特有の個性を持つものとし
て表現され、車室内に出現させる本実施形態のエージェ
ントは、同一の車両状況であっても、過去の学習内容に
応じて発声する音声や画像などが異なる。
The agent in the present embodiment is an artificial pseudo-lifeform, and its appearance (planar image, stereoscopic image such as holography) appears in the vehicle by the image display device. As the processing of this agent, the situation of the vehicle including the vehicle itself, passengers, oncoming vehicles, etc. is judged and learned (including not only the learning of the situation but also the response and reaction of the driver), and the vehicle situation at each time point. Based on the learning results up to that point, the agent responds to the driver and the vehicle with various variations (action = action and voice). As a result, the driver can freely call out a plurality of agents in the vehicle and have a relationship (communication) with each other, thereby making the environment in the vehicle comfortable. Here, the artificial pseudo life form (agent) in the present embodiment has the same identity of a subject such as a specific human being, living thing, or cartoon character, and the pseudo life form having the same identity is the identity of the subject. -Output (action, response by voice) is performed so as to maintain continuity. Further, the identity / continuity is expressed as having a unique individuality, and the agent of the present embodiment that appears in the vehicle interior can recognize the voices that are uttered according to the past learning content even in the same vehicle situation. Images are different.

【0010】(2)実施形態の詳細 図1は、本実施形態におけるエージェント装置の構成を
示すブロック図である。本実施形態では、コミュニケー
ション機能全体を制御する全体処理部1を備えている。
この全体処理部は、設定した目的地までの経路を探索し
て音声や画像表示により案内するナビゲーション処理部
10、エージェント処理部11、ナビゲーション処理部
10とエージェント処理部11に対する外部I/F部1
2、エージェント画像や地図画像等の画像出力や入力画
像を処理する画像処理部13、エージェント音声や経路
案内音声等の音声出力や入力される音声を制御する音声
制御部14、車両や運転者に関する各種状況の検出デー
タを処理する状況情報処理部15、入力制御部16、記
憶装置制御部17を有している。
(2) Details of Embodiment FIG. 1 is a block diagram showing the configuration of an agent device in this embodiment. In this embodiment, the overall processing unit 1 that controls the entire communication function is provided.
The overall processing unit is a navigation processing unit 10 that searches for a route to a set destination and guides by voice or image display, an agent processing unit 11, an external I / F unit 1 for the navigation processing unit 10 and the agent processing unit 11.
2. Image processing unit 13 that processes image output and input images of agent images and map images, voice control unit 14 that controls voice output and input voice of agent voices and route guidance voices, and relates to vehicles and drivers. It has a situation information processing unit 15 that processes detection data of various situations, an input control unit 16, and a storage device control unit 17.

【0011】ナビゲーション処理部10とエージェント
処理部11は、データ処理及び各部の動作の制御を行う
CPU(中央処理装置)と、このCPUにデータバスや
制御バス等のバスラインで接続されたROM、RAM、
タイマ等を備えている。両処理部10、11はネットワ
ーク接続(車内LAN(Local Area Net
work))されており、互いの処理データを取得する
ことができるようになっている。ROMはCPUで制御
を行うための各種データやプログラムが予め格納された
リードオンリーメモリであり、RAMはCPUがワーキ
ングメモリとして使用するランダムアクセスメモリであ
る。
The navigation processing unit 10 and the agent processing unit 11 include a CPU (central processing unit) for controlling data processing and operation of each unit, and a ROM connected to the CPU via a bus line such as a data bus or a control bus. RAM,
Equipped with a timer. Both processing units 10 and 11 are connected to a network (in-vehicle LAN (Local Area Net).
work)), and mutually processed data can be acquired. The ROM is a read-only memory in which various data and programs for controlling by the CPU are stored in advance, and the RAM is a random access memory used as a working memory by the CPU.

【0012】本実施形態のナビゲーション処理部10と
エージェント処理部11は、CPUがROMに格納され
た各種プログラムを読み込んで各種処理を実行するよう
になっている。なお、CPUは、記録媒体駆動装置23
にセットされた外部の記録媒体からコンピュータプログ
ラムを読み込んで、エージェントデータ30やナビゲー
ションデータ31、図示しないハードディスク等のその
他の記憶装置に格納(インストール)し、この記憶装置
から必要なプログラム等をRAMに読み込んで(ロード
して)実行するようにしてもよい。また、必要なプログ
ラム等を記録媒体駆動装置23からRAMに直接読み込
んで実行するようにしてもよい。
In the navigation processing unit 10 and the agent processing unit 11 of this embodiment, the CPU reads various programs stored in the ROM and executes various processes. Note that the CPU is the recording medium drive device 23.
The computer program is read from the external recording medium set in, and stored (installed) in the agent data 30, the navigation data 31, and other storage devices such as a hard disk (not shown), and the necessary programs and the like are stored in the RAM from the storage device. It may be read (loaded) and executed. Also, the necessary programs and the like may be directly read from the recording medium driving device 23 into the RAM and executed.

【0013】本実施形態においてエージェント処理部1
1は、運転者との会話を含めたエージェントの各種コミ
ュニケーション動作及びナビゲーション処理部10で行
う処理動作を、車両や運転者の各種状況(場面)、運転
者情報の結果等を想定して作成し、されたシナリオに従
って行うようになっている。すなわち、車速、時間、走
行地域、気温、ガソリン残量、心理的距離、運転者情報
等の各種状況をシナリオ起動条件及びシーン分岐条件と
し、各状況におけるエージェントの行動が、各状況毎に
シナリオとして規定されている。各シナリオは、連続す
る複数のシーンで構成されている。シーンは、シナリオ
のなかの1つの場面であり、エージェントが何か1つの
質問をしたり、情報を提供したりする。各シーンは、タ
イトル、リスト、吹き出し、背景、その他の小単位(パ
ーツ)でまとまっている。各シーンは、シナリオに従っ
て順次進行していく。シナリオによっては、特定のシー
ンで出される質問に対する運転者の回答や車両の状況等
によって、選択される複数のシーンが存在する。すなわ
ち、途中の回答に応じてシーンが分岐するシナリオが存
在する。シーンを含むシナリオのデータは後述するシナ
リオデータファイル302に格納されている。いつどこ
でシナリオを実行するのかを規定する情報(シナリオ起
動条件)と、実行した場合にどのような画面構成で、エ
ージェントにどのような動作や会話をさせ、ナビゲーシ
ョン処理部10等のモジュールに対してどのような指示
を出し、イベントを受けとった場合に次はどうするのか
(どのシーンにするのか)を規定するデータがシーン毎
にまとまってシナリオデータファイル302のシナリオ
データ1〜nとして格納されている。
In this embodiment, the agent processing unit 1
1 creates various communication operations of the agent including conversation with the driver and processing operations performed by the navigation processing unit 10, assuming various situations (scenes) of the vehicle and the driver, results of the driver information, and the like. According to the scenario, In other words, various situations such as vehicle speed, time, running area, temperature, gasoline level, psychological distance, driver information, etc. are set as scenario activation conditions and scene branching conditions, and the behavior of the agent in each situation is set as a scenario for each situation. It is prescribed. Each scenario is composed of a plurality of consecutive scenes. A scene is a scene in a scenario, where an agent asks a question or provides information. Each scene is organized by title, list, balloon, background, and other small units (parts). Each scene proceeds sequentially according to the scenario. Depending on the scenario, there are a plurality of scenes to be selected depending on the driver's answer to a question asked in a specific scene, the situation of the vehicle, and the like. That is, there is a scenario in which a scene branches according to an answer on the way. The data of the scenario including the scene is stored in the scenario data file 302 described later. Information (scenario activation condition) that defines when and where to execute a scenario, what kind of screen configuration is used when it is executed, what kind of operation or conversation the agent has, and the modules such as the navigation processing unit 10 Data that defines what kind of instruction is given and what to do next when an event is received (which scene) is stored as scenario data 1 to n in the scenario data file 302 for each scene.

【0014】図2は、エージェント処理部11の構成を
表したものである。この図2に示されるように、エージ
ェント処理部11は、状況判断部111、シナリオ実行
要求部112、シナリオ駆動部113、シナリオデータ
読み込み部114、描画処理部115、音声認識管理部
116、ユーザ入力受付部117を備えている。これら
各部111〜117は、エージェント処理部11が備え
るCPU及びROM等に格納された対応エンジン(ソフ
トウェア)により実現されるようになっている。状況判
断部111等の各部を構成するエンジンは、他のエンジ
ンにデータを伝達する場合に、対応するイベントを発行
する。各部111〜117が発行するイベントの中に
は、シーンを分岐するか否かを判断するイベントが含ま
れる。
FIG. 2 shows the configuration of the agent processing section 11. As shown in FIG. 2, the agent processing unit 11 includes a situation determination unit 111, a scenario execution request unit 112, a scenario drive unit 113, a scenario data reading unit 114, a drawing processing unit 115, a voice recognition management unit 116, and a user input. The reception unit 117 is provided. Each of these units 111 to 117 is realized by a corresponding engine (software) stored in a CPU, a ROM, and the like included in the agent processing unit 11. The engine that constitutes each unit such as the situation determination unit 111 issues a corresponding event when transmitting data to another engine. The events issued by the respective units 111 to 117 include an event for determining whether or not to branch the scene.

【0015】状況判断部111は、時間、場所、各種入
力等の状況の変化を通知するAPI(Applicat
ion Programing Interface)
を備えている。状況判断部111は、(目的地設定等)
状況の変化に対応して、シナリオ実行要求判断部112
にイベントを発行する。シナリオ実行要求判断部112
は、状況判断結果をAPI関数で参照し、シナリオを実
行するか否かを判断する。シナリオを実行する場合はシ
ナリオ起動要求のイベントをシナリオ駆動113に対し
発行する。
The status judgment section 111 is an API (Applicat) for notifying a change in status such as time, place and various inputs.
Ion Programming Interface)
Is equipped with. The situation determination unit 111 (destination setting, etc.)
The scenario execution request determination unit 112 responds to changes in the situation.
Issue an event to. Scenario execution request determination unit 112
Determines whether or not to execute the scenario by referring to the situation determination result with the API function. When executing a scenario, a scenario activation request event is issued to the scenario driver 113.

【0016】シナリオ駆動部113は、シナリオ実行要
求部112で発行されたシナリオ起動要求のイベントに
対し、起動を行うか否かの判断をする。起動を行うと判
断した場合、シナリオ駆動部113は、シナリオデータ
の読み込みをシナリオデータ読み込み部114に依頼す
る。また、シナリオデータに従って描画のリクエスト、
キャラクタとの動作のリクエストを描画処理部115に
依頼する。また、シナリオデータに従って音声認識に使
用する辞書を音声認識管理部116に通知する。更に、
シナリオ駆動部113は、音声認識の結果や、ユーザ入
力によってシナリオを駆動(シーンの推移を管理)す
る。
The scenario drive unit 113 determines whether or not to start the scenario activation request event issued by the scenario execution request unit 112. When it is determined that the scenario data is to be activated, the scenario driving unit 113 requests the scenario data reading unit 114 to read the scenario data. In addition, drawing request according to the scenario data,
The drawing processing unit 115 is requested to request a motion with the character. It also notifies the voice recognition management unit 116 of the dictionary used for voice recognition according to the scenario data. Furthermore,
The scenario drive unit 113 drives a scenario (manages scene transitions) based on the result of voice recognition or user input.

【0017】シナリオデータ読み込み部114は、シナ
リオ駆動部113からのイベントの依頼に基づいて、シ
ナリオデータファイル302から該当するシナリオデー
タの読み込みを行う。また、シナリオ駆動部113から
のイベントの依頼により画像データの読み込みを行な
う。描画処理部115は、シナリオ駆動部113からの
イベントの依頼に基づいて、該当する場面の描画や、キ
ャラクタ(エージェント)の描画を行う。音声認識管理
部116は、音声認識部142への指示を統括する。例
えば、シナリオ駆動部113から通知される使用辞書の
指定を行う。音声認識部116は、音声認識部142に
おいて、指定した使用辞書による音声認識の結果がでた
ら、認識結果に対応するイベントをシナリオ駆動部11
3に対して発行する。ユーザ入力受付部117は、ユー
ザからの入力があったら、入力内容に対応するイベント
をシナリオ駆動部113に対して発行する。ユーザから
の入力は、入力制御部16からの情報により判断され
る。なお、エージェント処理部11の各部では、イベン
トを発行する場合と、API関数を用いる場合について
説明したが、全てをイベント発行としてもよく、また全
てをAPI関数を使用するようにしてもよい。
The scenario data reading unit 114 reads the corresponding scenario data from the scenario data file 302 based on the event request from the scenario driving unit 113. Further, the image data is read in response to an event request from the scenario drive unit 113. The drawing processing unit 115 draws a corresponding scene or a character (agent) based on an event request from the scenario driving unit 113. The voice recognition management unit 116 controls instructions to the voice recognition unit 142. For example, the usage dictionary notified from the scenario drive unit 113 is designated. The voice recognition unit 116, when the voice recognition unit 142 produces a voice recognition result based on the specified use dictionary, outputs an event corresponding to the recognition result to the scenario drive unit 11.
Issue to 3. The user input reception unit 117 issues an event corresponding to the input content to the scenario drive unit 113 when there is an input from the user. The input from the user is determined by the information from the input control unit 16. It should be noted that although the case where an event is issued and the case where an API function is used has been described in each part of the agent processing unit 11, all may be used to issue an event, or all may use the API function.

【0018】図1において、外部I/F部12には記憶
媒体駆動装置23と通信制御部24が接続され、画像処
理部13には表示装置27及び撮像装置28が接続さ
れ、音声制御部14には音声出力装置25及びマイク
(音声取得手段)26が接続され、状況情報処理部15
には各種状況検出装置40が接続され、入力制御部16
には入力装置22が接続されてる。
In FIG. 1, a storage medium driving device 23 and a communication control unit 24 are connected to the external I / F unit 12, a display device 27 and an image pickup device 28 are connected to the image processing unit 13, and a voice control unit 14 is connected. A voice output device 25 and a microphone (voice acquisition means) 26 are connected to the situation information processing unit 15
Various status detection devices 40 are connected to the input control unit 16
An input device 22 is connected to the.

【0019】各種状況検出装置40は、現在位置検出装
置41と状況検出部42を備えている。現在位置検出装
置41は、車両の絶対位置(緯度、経度による)を検出
するためのものであり、人工衛星を利用して車両の位置
を測定するGPS(Global Positioni
ng System)受信装置411と、方位センサ412
と、舵角センサ413と、距離センサ414と、路上に
配置されたビーコンからの位置情報を受信するビーコン
受信装置415等が使用される。GPS受信装置411
とビーコン受信装置415は単独で位置測定が可能であ
るが、GPS受信装置411やビーコン受信装置415
による受信が不可能な場所では、方位センサ412と距
離センサ414と舵角センサを用いた推測航法によって
現在位置を検出するようになっている。方位センサ41
2は、例えば、地磁気を検出して車両の方位を求める地
磁気センサ、車両の回転角速度を検出しその角速度を積
分して車両の方位を求めるガスレートジャイロや光ファ
イバジャイロ等のジャイロ、左右の車輪センサを配置し
その出力パルス差(移動距離の差)により車両の旋回を
検出することで方位の変位量を算出するようにした車輪
センサ、等が使用される。舵角センサ413は、ステア
リングの回転部に取り付けた光学的な回転センサや回転
抵抗ボリューム等を用いてステアリングの角度αを検出
する。距離センサ414は、例えば、車輪の回転数を検
出して計数し、または加速度を検出して2回積分するも
の等の各種の方法が使用される。距離センサ414と舵
角センサ413は運転操作状況検出手段としても機能す
る。
The various situation detecting device 40 comprises a current position detecting device 41 and a situation detecting section 42. The current position detection device 41 is for detecting an absolute position (based on latitude and longitude) of the vehicle, and measures the position of the vehicle using an artificial satellite GPS (Global Positioni).
ng System) receiver 411 and orientation sensor 412
A steering angle sensor 413, a distance sensor 414, a beacon receiving device 415 that receives position information from beacons arranged on the road, and the like are used. GPS receiver 411
The beacon receiving device 415 and the beacon receiving device 415 can measure the position independently, but the GPS receiving device 411 and the beacon receiving device 415
In a place where the reception by the vehicle is impossible, the current position is detected by dead reckoning using the azimuth sensor 412, the distance sensor 414 and the steering angle sensor. Direction sensor 41
Reference numeral 2 denotes, for example, a geomagnetic sensor that detects the geomagnetism to determine the direction of the vehicle, a gyro such as a gas rate gyro or an optical fiber gyro that detects the rotational angular velocity of the vehicle and integrates the angular velocity to determine the direction of the vehicle, and left and right wheels. A wheel sensor or the like in which a sensor is arranged and the amount of displacement of the azimuth is calculated by detecting the turning of the vehicle based on the output pulse difference (difference in moving distance) is used. The rudder angle sensor 413 detects the steering angle α using an optical rotation sensor attached to the rotating portion of the steering wheel, a rotation resistance volume, or the like. As the distance sensor 414, various methods such as a method of detecting and counting the number of rotations of the wheel or a method of detecting acceleration and integrating twice are used. The distance sensor 414 and the steering angle sensor 413 also function as a driving operation status detecting means.

【0020】状況検出部42は、運転操作の状況を検出
する運転操作状況検出手段として機能するブレーキセン
サ421、車速センサ422、方向指示器検出器42
3、シフトレバーセンサ424、サイドブレーキ(パー
キングブレーキ)センサ425を備えている。また、状
況検出部42は、機器操作の状況を検出する機器操作状
況検出手段として機能するエアコン検出器427、ワイ
パ検出器428、オーディオ検出器429を備えてい
る。
The status detecting unit 42 functions as a driving operation status detecting means for detecting the status of driving operation, and includes a brake sensor 421, a vehicle speed sensor 422, and a direction indicator detector 42.
3, a shift lever sensor 424, and a side brake (parking brake) sensor 425. The situation detection unit 42 also includes an air conditioner detector 427, a wiper detector 428, and an audio detector 429 that function as a device operation situation detection unit that detects the situation of equipment operation.

【0021】ブレーキセンサ421は、フットブレーキ
が踏み込み状態か否かを検出する。車速センサ422
は、車速を検出する。方向指示器検出器423は、運転
者が方向指示器の操作中であるか否か、及び方向指示器
が点滅中か否かを検出する。シフトレバーセンサ424
は、運転者がシフトレバーを操作中か否か、及びシフト
レバー位置を検出する。サイドブレーキ(パーキングブ
レーキ)センサ425は、運転者がサイドブレーキを操
作中か否か、及びサイドブレーキの状態(オンかオフ
か)を検出する。エアコン検出器427は、運転者がエ
アコンの各種スイッチ等を操作中か否かを検出する。ワ
イパ検出器428は、運転者がワイパの操作中か否かを
検出する。オーディオ検出器429は、運転者がラジ
オ、CDプレーヤ、カセットプーヤー等のオーディオ機
器を操作中か否か、及びオーディオ機器による音声が出
力中か否かを検出する。状況検出部42は、その他、機
器操作状況検出手段として、ヘッドランプやルームラン
プ等のランプ類の操作状況を検出するライト検出セン
サ、運転者のシートベルト着脱操作を検出するシートベ
ルト検出センサ、その他のセンサを備えている。
The brake sensor 421 detects whether or not the foot brake is depressed. Vehicle speed sensor 422
Detects the vehicle speed. The turn signal detector 423 detects whether the driver is operating the turn signal and whether the turn signal is blinking. Shift lever sensor 424
Detects whether the driver is operating the shift lever and the shift lever position. The side brake (parking brake) sensor 425 detects whether the driver is operating the side brake and the state of the side brake (on or off). The air conditioner detector 427 detects whether the driver is operating various switches of the air conditioner. The wiper detector 428 detects whether the driver is operating the wiper. The audio detector 429 detects whether the driver is operating an audio device such as a radio, a CD player, and a cassette poker, and whether or not a sound is being output by the audio device. In addition, the status detection unit 42 also serves as device operation status detection means, such as a light detection sensor that detects the operation status of lamps such as headlamps and room lamps, a seatbelt detection sensor that detects a driver's seatbelt removal operation. It is equipped with a sensor.

【0022】入力装置22は、運転者情報を運転者が入
力する場合や、本実施形態によるエージェントのその他
全ての問い合わせ等に対して運転者が応答するための1
つの手段でもある。入力装置22は、ナビゲーション処
理における走行開始時の現在地(出発地点)や目的地
(到達地点)、情報提供局へ渋滞情報等の情報の請求を
発信したい車両の所定の走行環境(発信条件)、車内で
使用される携帯電話のタイプ(型式)などを入力するた
めのものでもある。入力装置22には、タッチパネル
(スイッチとして機能)、キーボード、マウス、ライト
ペン、ジョイスティック、赤外線等によるリモコン、音
声認識装置などの各種の装置が使用可能である。また、
赤外線等を利用したリモコンと、リモコンから送信され
る各種信号を受信する受信部を備えてもよい。リモコン
には、画面上に表示されたカーソルの移動操作等を行う
ジョイスティックの他、メニュー指定キー(ボタン)、
テンキー等の各種キーが配置される。入力制御部16
は、入力装置22による入力内容に対応するデータを検
出しエージェント処理部11やナビゲーション処理部1
0に供給する。入力制御部16は、運転者による入力操
作中か否かを検出することで機器操作状況検出手段とし
て機能する。
The input device 22 is used for the driver to input driver information and for the driver to respond to all other inquiries from the agent according to the present embodiment.
It is also one means. The input device 22 is a predetermined traveling environment (transmission condition) of a vehicle that wants to transmit a request for information such as traffic jam information to the information providing station, the current location (departure point) and destination (arrival point) at the start of traveling in the navigation processing, It is also for inputting the type of mobile phone used in the car. As the input device 22, various devices such as a touch panel (functioning as a switch), a keyboard, a mouse, a light pen, a joystick, a remote controller using infrared rays, a voice recognition device, and the like can be used. Also,
A remote controller using infrared rays and the like, and a receiving unit for receiving various signals transmitted from the remote controller may be provided. On the remote control, in addition to the joystick for moving the cursor displayed on the screen, menu specifying keys (buttons),
Various keys such as a numeric keypad are arranged. Input control unit 16
Detects data corresponding to the contents input by the input device 22 and detects the data by the agent processing unit 11 or the navigation processing unit 1.
Supply to 0. The input control unit 16 functions as a device operation status detection unit by detecting whether or not the driver is performing an input operation.

【0023】記録媒体駆動装置23は、ナビゲーション
処理部10やエージェント処理部11が各種処理を行う
ためのコンピュータプログラムを外部の記録媒体から読
み込むのに使用される駆動装置である。記録媒体に記録
されているコンピュータプログラムには、各種のプログ
ラムやデータ等が含まれる。ここで、記録媒体とは、コ
ンピュータプログラムが記録される記録媒体をいい、具
体的には、フロッピーディスク、ハードディスク、磁気
テープ等の磁気記録媒体、メモリチップやICカード等
の半導体記録媒体、CD−ROMやMO、PD(相変化
書換型光ディスク)等の光学的に情報が読み取られる記
録媒体、紙カードや紙テープ等を用いた記録媒体、その
他各種方法でコンピュータプログラムが記録される記録
媒体が含まれる。
The recording medium driving device 23 is a driving device used for reading a computer program for the navigation processing unit 10 and the agent processing unit 11 to perform various processes from an external recording medium. The computer program recorded on the recording medium includes various programs and data. Here, the recording medium means a recording medium on which a computer program is recorded, and specifically, a magnetic recording medium such as a floppy disk, a hard disk, a magnetic tape, a semiconductor recording medium such as a memory chip or an IC card, a CD- A recording medium such as a ROM, MO, PD (Phase Change Rewritable Optical Disk) from which information is optically read, a recording medium using a paper card, a paper tape, or the like, and a recording medium in which a computer program is recorded by various methods are included. .

【0024】記録媒体駆動装置23は、これらの各種記
録媒体からコンピュータプログラムを読み込む他に、記
録媒体がフロッピーディスクやICカード等のように書
き込み可能な記録媒体である場合には、ナビゲーション
処理部10やエージェント処理部11のRAMや記憶装
置29のデータ等をその記録媒体に書き込むことが可能
である。例えば、ICカードにエージェント機能に関す
る学習内容(学習項目データ、応答データ)や運転者情
報等のデータを記憶させ、他の車両を運転する場合でも
これらを記憶させたICカードからデータを読み出させ
て使用することで、自分の過去の応対の状況に応じて学
習した状態のエージェントとコミュニケーションするこ
とが可能になる。これにより、車両毎のエージェントで
はなく、運転者毎に固有な学習内容のエージェントを車
両内に出現させることが可能になる。またICカードに
シナリオデータファイルを格納するようにしてもよい。
これにより、ユーザ各自にとって固有のオリジナルシナ
リオとすることが可能である。
The recording medium driving device 23 reads the computer program from these various recording media, and when the recording medium is a writable recording medium such as a floppy disk or an IC card, the navigation processing unit 10 The RAM of the agent processing unit 11, the data of the storage device 29, and the like can be written in the recording medium. For example, the IC card is made to store data such as learning contents (learning item data, response data) about the agent function and driver information, and the data is read from the IC card storing these even when driving another vehicle. By using it, it becomes possible to communicate with the agent in the learned state according to his / her past response situation. As a result, not the agent for each vehicle but the agent having the learning content unique to each driver can appear in the vehicle. The scenario data file may be stored in the IC card.
This makes it possible to create an original scenario unique to each user.

【0025】通信制御部24は、各種無線通信機器から
なる携帯電話が接続されるようになっている。通信制御
部24は、電話回線による通話の他、道路の混雑状況や
交通規制等の交通情報に関するデータなどを提供する情
報提供局との通信や、車内での通信カラオケのために使
用するカラオケデータを提供する情報提供局との通信を
行うことができるようになっている。また、通信制御部
24を介して、エージェント機能に関する学習データ、
シナリオデータファイル等を送受信することも可能であ
る。
The communication control unit 24 is adapted to be connected to a mobile phone including various wireless communication devices. The communication control unit 24 communicates with an information providing station that provides data relating to traffic information such as road congestion and traffic regulation in addition to telephone calls over telephone lines, and karaoke data used for in-car communication karaoke. It is possible to communicate with the information providing station that provides the. In addition, learning data regarding the agent function,
It is also possible to send and receive scenario data files and the like.

【0026】音声出力装置25は、車内に配置された複
数のスピーカで構成され、音声制御部14で制御された
音声、例えば、音声による経路案内を行う場合の案内音
声や、エージェントによる運転者との通常のコミュニケ
ーション用の会話や本実施形態の運転者情報取得のため
の質問による音声や音が出力されるようになっている。
この音声出力装置25は、オーディオ用のスピーカと兼
用するようにしてもよい。マイク26は、音声制御部1
4における音声認識の対象となる音声、例えば、ナビゲ
ーション処理における目的地等の入力音声や、エージェ
ントとの運転者の会話(運転者による応答を含む)等を
入出力する音声入力手段として機能する。このマイク2
6は、運転者の音声を的確に収集するために指向性のあ
る専用のマイクが使用される。尚、音声出力装置25と
マイク26とでハンズフリーユニットを形成させて、携
帯電話を介さずに、電話通信における通話を行えるよう
にしてもよい。マイク26及び音声認識部142は、運
転者が同乗者と会話中か否かを検出する会話検出手段と
して機能し、この場合のマイク26、音声認識部142
は、運転者の状況を検出する状況検出手段として機能す
る。
The voice output device 25 is composed of a plurality of speakers arranged in the vehicle. The voice controlled by the voice control unit 14, for example, a guidance voice for voice route guidance and a driver by an agent. A voice or sound is output according to a normal conversation for communication or a question for acquiring driver information of the present embodiment.
The audio output device 25 may also be used as an audio speaker. The microphone 26 is the voice control unit 1.
4 functions as a voice input unit for inputting and outputting a voice to be voice-recognized, for example, an input voice of a destination or the like in navigation processing, a driver's conversation with an agent (including a response by the driver), and the like. This microphone 2
6, a dedicated microphone having directivity is used in order to accurately collect the driver's voice. The voice output device 25 and the microphone 26 may form a hands-free unit so that telephone communication can be performed without using a mobile phone. The microphone 26 and the voice recognition unit 142 function as a conversation detection unit that detects whether or not the driver is in conversation with the fellow passenger. In this case, the microphone 26 and the voice recognition unit 142.
Functions as a situation detection unit that detects the situation of the driver.

【0027】表示装置27には、ナビゲーション処理部
10の処理による経路案内用の道路地図や各種画像情報
が表示されたり、エージェント処理部11によるエージ
ェントの各種行動(動画)画面構成の各パーツ(部品)
が表示されたりするようになっている。また、撮像装置
28で撮像された車両内外の画像も画像処理部13で処
理された後に表示されるようになっている。表示装置2
7は、液晶表示装置、CRT等の各種表示装置が使用さ
れる。なお、この表示装置27は、例えばタッチパネル
等の、前記入力装置22としての機能を兼ね備えたもの
とすることができる。
The display device 27 displays a road map and various image information for route guidance by the processing of the navigation processing unit 10, and various parts (parts) of the agent action (moving image) screen configuration by the agent processing unit 11. )
Is displayed. Further, the image inside and outside the vehicle captured by the image capturing device 28 is also displayed after being processed by the image processing unit 13. Display device 2
As the display device 7, various display devices such as a liquid crystal display device and a CRT are used. The display device 27 may have a function as the input device 22, such as a touch panel.

【0028】撮像装置28は、画像を撮像するためのC
CD(電荷結合素子)を備えたカメラで構成されてお
り、運転者を撮像する車内カメラの他、車両前方、後
方、右側方、左側方を撮像する各車外カメラが配置され
ている。撮像装置28の各カメラにより撮像された画像
は、画像処理部13に供給され、画像認識等の処理が行
われ、各認識結果(同乗者の有無、運転者の認識等)を
エージェントのコミュニケーションに反映させるように
なっている。
The image pickup device 28 is a C for picking up an image.
It is composed of a camera equipped with a CD (charge coupled device), and in addition to an in-vehicle camera for imaging the driver, each out-of-vehicle camera for imaging the front, rear, right side and left side of the vehicle is arranged. The image captured by each camera of the image capturing device 28 is supplied to the image processing unit 13 and subjected to processing such as image recognition, and each recognition result (presence / absence of passenger, recognition of driver, etc.) is communicated to the agent. It is supposed to be reflected.

【0029】記憶装置29は、記憶装置制御部17に接
続され、記憶制御装置17による制御のもとでデータや
プログラムの読み込み、書き込みが行われるようになっ
ている。記憶装置29には本実施形態による各種エージ
ェント機能やナビゲーション機能を実現するうえで必要
な各種データ(プログラムを含む)として、エージェン
トデータ30とナビゲーションデータ31が格納されて
いる。この記憶装置29には、例えば、フロッピーディ
スク、ハードディスク、CD−ROM、光ディスク、磁
気テープ、ICカード、光カード等の各種記録媒体と、
その駆動装置が使用される。この場合、例えば、学習項
目データ304、応答データ305、運転者情報30
7、シナリオデータファイル302を持ち運びが容易な
ICカードやフロッピーディスクで構成し、その他のデ
ータをハードディスクで構成するというように、複数種
類の異なる記録媒体と駆動装置で構成し、駆動装置とし
てそれらの記憶媒体を用いるようにしてもよい。
The storage device 29 is connected to the storage device control section 17 so that data and programs can be read and written under the control of the storage control device 17. The storage device 29 stores agent data 30 and navigation data 31 as various data (including programs) necessary for realizing various agent functions and navigation functions according to this embodiment. The storage device 29 includes various recording media such as a floppy disk, a hard disk, a CD-ROM, an optical disk, a magnetic tape, an IC card, an optical card, and the like.
The drive is used. In this case, for example, the learning item data 304, the response data 305, the driver information 30.
7. The scenario data file 302 is composed of a plurality of different recording media and drive devices, such as an IC card or a floppy disk that is easy to carry, and other data such as a hard disk. A storage medium may be used.

【0030】エージェントデータ30には、エージェン
トプログラム301、シナリオデータファイル302、
音声データ303、学習項目データ304、音声データ
303で構成される応答データ305、エージェントの
容姿や行動を画像表示するための画像データ306、運
転者情報307、意味分類テーブル308、プロファイ
ルテーブル309、エージェント対応テーブル310、
その他のエージェントによる処理に必要な各種のデータ
が格納されている。
The agent data 30 includes an agent program 301, a scenario data file 302,
Voice data 303, learning item data 304, response data 305 composed of voice data 303, image data 306 for displaying the appearance and behavior of the agent, driver information 307, semantic classification table 308, profile table 309, agent Correspondence table 310,
Stores various data required for processing by other agents.

【0031】エージェントプログラム301には、エー
ジェント機能を実現するためのエージェント処理プログ
ラムが格納されている。
The agent program 301 stores an agent processing program for realizing the agent function.

【0032】学習項目データ304及び応答データ30
5は、運転者の運転操作や応答によってエージェントが
学習した結果を格納するデータである。従って、学習項
目データ304と応答データ305は、各運転者毎にそ
のデータが格納・更新(学習)されるようになってい
る。学習項目データ304には、例えば、イグニッショ
ンオンした通算回数や1日のオン回数、前5回の燃料給
油時の燃料残量のデータ等のエージェントの学習対象と
なる項目が格納される。この学習項目データ304に格
納された学習内容に従って、例えば、イグニッションオ
ン回数に応じてエージェント出現時の挨拶内容が変化し
たり、燃料残量が前5回の燃料残量の平均値以下になっ
た場合に、エージェントが給油の提案をする。応答デー
タ305には、エージェントの行為に対するユーザの応
答の履歴が所定のシナリオ毎に格納される。応答データ
305には、応答日時と応答内容が、各応答項目毎に所
定回数分格納される。応答内容としては、無視された、
拒絶された、受容(容認)された、の各場合が音声認識
や入力装置22の入力結果から判断され、格納される。
Learning item data 304 and response data 30
5 is data that stores the result learned by the agent according to the driving operation and response of the driver. Therefore, the learning item data 304 and the response data 305 are stored / updated (learned) for each driver. The learning item data 304 stores, for example, items to be learned by the agent, such as the total number of times the ignition is turned on, the number of times the vehicle is turned on per day, and the data of the remaining fuel amount at the time of refueling the previous five times. According to the learning content stored in the learning item data 304, for example, the greeting content at the time of appearance of the agent changes according to the number of times the ignition is turned on, or the fuel remaining amount becomes less than or equal to the average value of the fuel remaining amounts of the previous five times. In some cases, the agent makes a refueling proposal. The response data 305 stores a history of user responses to agent actions for each predetermined scenario. In the response data 305, the response date and time and the response content are stored a predetermined number of times for each response item. Ignored as the response content,
Each of the cases of rejected and accepted (accepted) is judged from the voice recognition and the input result of the input device 22 and stored.

【0033】シナリオデータファイル302には、各状
況、場面におけるエージェントの行為が規定されたシナ
リオのデータが格納されている。図3は、シナリオデー
タファイル302のデータ構造とデータ内容を概念的に
表したものである。シナリオデータファイル302は、
各シーンを規定する複数のシナリオデータがまとまって
1つのファイルを構成している。シナリオデータファイ
ル302には、ファイルヘッダ、シナリオ管理テーブ
ル、自動起動条件テーブル、手動起動可能シナリオ一
覧、各シナリオデータ1〜n、及び追加リソースデータ
から構成されている。
The scenario data file 302 stores scenario data in which the actions of the agent in each situation and scene are defined. FIG. 3 conceptually shows the data structure and data contents of the scenario data file 302. The scenario data file 302 is
A plurality of scenario data defining each scene are collected to form one file. The scenario data file 302 includes a file header, a scenario management table, an automatic start condition table, a list of manually startable scenarios, each scenario data 1 to n, and additional resource data.

【0034】ファイルヘッダは、シナリオファイルのヘ
ッダで、ファイルに関する情報が格納されている。シナ
リオ管理テーブルは、シナリオファイルに収録されてい
るシナリオデータを管理するためのデータ、例えば、各
シナリオデータを実行する場合の優先順位等のデータが
格納されている。
The file header is the header of the scenario file and stores information about the file. The scenario management table stores data for managing the scenario data recorded in the scenario file, for example, data such as the priority order when executing each scenario data.

【0035】自動起動条件テーブルは、シナリオファイ
ルに収録されているシナリオデータを自動で起動する条
件データが各シナリオデータ毎に規定され格納されてい
る。自動起動条件として、例えば、特定地点Aから所定
距離の地点に到達した場合に実行する特定シナリオにつ
いての特定地点と距離データや、起動時にエージェント
が挨拶するシナリオを実行するための条件としてのイグ
ニッションオン、等の各種自動起動条件が格納されてい
る。また、自動起動を禁止する自動起動禁止条件とし
て、例えば、(A)手動起動を優先する、(B)別のシ
ナリオを実行中は自動起動しない、(C)例えば30分
以内に実行したことがあるシナリオは起動しない、
(D)音楽を聞いている場合は起動しない、(E)カー
ブを右左折中(ステアリング操作中)には起動しない、
(F)急減速中もしくは急加速中は起動しない、(G)
同乗者と会話しているときは起動しない、(H)ナビゲ
ーション装置、オーディオ、エアコン装置、シフトレバ
ー、サイドブレーキ、ワイパー、方向指示器等の各種機
器の操作中は起動しない、(I)オーディオの使用中は
起動しない(音楽や放送を聞いている障害とならないた
めの条件:オーディオがオンでないこと)、(J)ナビ
ゲーション処理部10による走行経路の案内ガイダンス
中は起動しない等の自動起動禁止条件についても格納さ
れている。但し、これらの自動起動禁止条件を満たす場
合であっても、緊急の場合(消防署等への緊急連絡のシ
ナリオ等)は自動起動するように、優先順位がシナリオ
管理テーブルで規定されている。個の自動起動禁止条件
は、各シナリオに共通して適用される条件と、個別のシ
ナリオに適用される条件とがある。
In the automatic start condition table, condition data for automatically starting the scenario data recorded in the scenario file is defined and stored for each scenario data. As the automatic start condition, for example, a specific point and distance data regarding a specific scenario to be executed when a point at a predetermined distance from the specific point A, or an ignition on condition for executing a scenario in which an agent greets at startup is turned on. Various automatic start conditions such as, are stored. Further, as the automatic start prohibition condition for prohibiting the automatic start, for example, (A) manual start is prioritized, (B) automatic start is not performed while another scenario is being executed, (C) execution is performed within 30 minutes, for example. Some scenarios don't start,
(D) Does not start when listening to music, (E) Does not start while turning the curve right or left (during steering operation),
(F) Does not start during sudden deceleration or sudden acceleration, (G)
It does not start while talking to a passenger, (H) It does not start while operating various devices such as a navigation device, audio, air conditioner, shift lever, side brake, wiper, turn signal, (I) Audio Automatic start prohibition conditions such as not starting during use (condition for not disturbing listening to music or broadcasting: audio is not on), (J) not starting during guidance guidance of the travel route by the navigation processing unit 10, etc. Is also stored. However, even if these automatic start prohibition conditions are satisfied, the priority order is defined in the scenario management table so as to be automatically started in an emergency (a scenario of an emergency contact to a fire department etc.). The individual automatic start prohibition conditions include a condition commonly applied to each scenario and a condition applied to an individual scenario.

【0036】本実施形態における、運転者情報を収集す
るためにエージェントが質問をする場合の質問シナリオ
を起動する条件としては、運転者の負荷状態が低負荷状
態であると判断できるための条件として、以下の条件や
その他の条件が規定されている。 (a)1時間以内に質問をするシナリオを実行していな
い(頻繁に質問しすぎないようにするための条件) (b)イグニッションオンから15分以上経過している
(運転し始めた直後ではない) (c)車内に会話がない(マイク26からの集音によ
る) (d)直線道路(ナビゲーションデータ31と現在位置
から検出)で、速度変化が所定時間無い。 (e)信号待ちをしている(ナビゲーションデータ3
1、現在位置、車速から判定) これらの質問起動条件は、起動のための必須条件かいず
れか1つを満たせばよい条件かなどについて決められて
いる。例えば、上記(a)〜(e)の条件に限ると、
(a)〜(c)を全て満たし、(d)か(e)を満たし
た場合に質問シナリオの起動条件がみたされ、質問シナ
リオが起動される。この場合でも、上記自動起動禁止条
件(A)〜が該当する場合には、質問シナリオの起動は
禁止される。なお、質問起動条件を含め、自動起動条件
に基づく起動判定ルーチンは、例えば、1分毎にポーリ
ング処理、若しくは、予め指定されたイベントを受けた
場合に処理されるようになっている。予め指定したイベ
ントは、目的地設定、メール着信等である。
In this embodiment, the condition for activating the question scenario when the agent asks a question in order to collect the driver information is a condition for judging that the load condition of the driver is a low load condition. The following conditions and other conditions are specified. (A) Do not execute a scenario for asking questions within one hour (conditions for not asking too many questions) (b) 15 minutes or more have passed since ignition was turned on (immediately after starting driving (C) There is no conversation in the vehicle (by collecting sound from the microphone 26) (d) There is no speed change for a predetermined time on a straight road (detected from the navigation data 31 and the current position). (E) Waiting for a signal (navigation data 3
1. Judgment from current position and vehicle speed) These question activation conditions are determined as to whether any one of the indispensable conditions for activation should be satisfied. For example, limited to the above conditions (a) to (e),
When all of (a) to (c) are satisfied and (d) or (e) is satisfied, the activation condition of the question scenario is satisfied, and the question scenario is activated. Even in this case, if the automatic activation prohibition conditions (A) to are satisfied, activation of the question scenario is prohibited. The start determination routine based on the automatic start condition including the question start condition is, for example, processed every minute or when a predetermined event is received. The events designated in advance include destination setting, mail arrival, and the like.

【0037】上記した各条件のうち、条件(E)、
(F)、(H)、(J)、(d)、(e)により運転操
作に対する負荷が判断され、条件(C)、(D)、
(G)、(I)、(J)、(a)、(b)、(c)、に
より運転者が感じる煩わしさの程度が判断される。
Of the above conditions, condition (E),
(F), (H), (J), (d), (e) determines the load on the driving operation, and conditions (C), (D),
From (G), (I), (J), (a), (b) and (c), the degree of annoyance felt by the driver is determined.

【0038】手動起動可能シナリオ一覧は、シナリオフ
ァイルに収録されているシナリオデータの中の手動で起
動することが可能なシナリオの一覧データが格納されて
いる。追加リソースデータは、記憶装置の拡張用として
シナリオデータに付加するための音声データや画像デー
タ、運転者情報である文化的背景等が格納されている。
The manual startable scenario list stores list data of scenarios that can be manually started in the scenario data recorded in the scenario file. The additional resource data stores voice data and image data to be added to the scenario data for expanding the storage device, cultural background as driver information, and the like.

【0039】各シナリオデータ1〜nは、シナリオヘッ
ダ、音声認識辞書DB、画像データ管理テーブル、シー
ン管理テーブル、各シーンデータ、実画像データで構成
されている。各シナリオは複数のシーンで構成される。
シナリオヘッダは、シナリオデータのヘッダセクション
で、シナリオに関する情報が格納されている。音声認識
辞書DBは、シナリオで使用する音声認識辞書のDB
で、音声認識辞書データが格納されている。画像データ
管理テーブルは、シナリオで使用する画像を指定するた
めのデータが格納されている。エージェントの画像は画
像データ306に格納され、シナリオに固有の画像はシ
ナリオデータ末尾の実画像データに格納されている。シ
ーンデータ管理テーブルには、シナリオに収録されてい
るシーンデータを管理するためのデータが格納されてい
る。
Each scenario data 1 to n is composed of a scenario header, a voice recognition dictionary DB, an image data management table, a scene management table, each scene data, and actual image data. Each scenario consists of multiple scenes.
The scenario header is a header section of scenario data and stores information about scenarios. The voice recognition dictionary DB is a voice recognition dictionary DB used in the scenario.
Thus, the voice recognition dictionary data is stored. The image data management table stores data for designating an image used in a scenario. The image of the agent is stored in the image data 306, and the image unique to the scenario is stored in the actual image data at the end of the scenario data. The scene data management table stores data for managing the scene data recorded in the scenario.

【0040】各シーンデータ1〜mは、シーンヘッダ、
画面構成データ、キャラクタ動作指示データ、各種処理
指示データ、シーン分岐テーブルから構成されている。
シーンヘッダは、シーデータのヘッダセクションで、シ
ーンに関する情報とシーンデータに属する各データセク
ションを管理するデータが格納されている。画面構成デ
ータは、当該シーンで表示する画面構成を規定するセク
ションで、表示装置27上に表示する画面構成の各パー
ツのデータが格納されている。キャラクタ動作指示デー
タは、当該シーンにおけるキャラクタの動作指示と話す
内容に関する指示データ(使用する音声データ303を
指示するデータ)が格納されている。各種処理指示デー
タは、当該シーンで他モジュール(例えばナビ)に処理
指示依頼を行うデータが格納されている。シーン分岐テ
ーブルは、当該シーンから次のシーンへの分岐情報が格
納されているセクションで、あるシーンにおいてイベン
トを受け取ったときの次のシーンを規定するデータが格
納されている。
Each scene data 1 to m is a scene header,
It is composed of screen configuration data, character action instruction data, various processing instruction data, and a scene branch table.
The scene header is a header section of scene data, and stores information about the scene and data for managing each data section belonging to the scene data. The screen configuration data is a section that defines the screen configuration displayed in the scene, and stores data of each part of the screen configuration displayed on the display device 27. The character action instruction data stores instruction data relating to the action instruction of the character in the scene and instruction content (data instructing the voice data 303 to be used). As the various processing instruction data, data for requesting a processing instruction to another module (for example, navigation) in the scene is stored. The scene branch table is a section that stores branch information from the scene to the next scene, and stores data that defines the next scene when an event is received in the certain scene.

【0041】図5は、シーンデータに基づいて表示装置
27に表示されるシーン画面の一例を表したものであ
る。この図5に示されるシーン画面は、未入力の運転者
情報である趣味嗜好(食事)を取得するために運転者か
ら質問をする質問シナリオのシーン画面(シーン番号0
x0001)である。シーン画面は、図5に示されるよ
うに、エージェントの画像(静止画、動画)が表示され
るエージェント表示画面51、エージェントの音声に対
応した文字が表示される吹き出し画面52、タイトル画
面53、及び、各シーン固有の画像データ(実画像デー
タの画像や回答選択ボタン等)が表示されるシーン表示
画面54から構成されている。
FIG. 5 shows an example of a scene screen displayed on the display device 27 based on the scene data. The scene screen shown in FIG. 5 is a scene screen of a question scenario in which a driver asks a question in order to acquire a hobby preference (meal) which is uninput driver information (scene number 0).
x0001). As shown in FIG. 5, the scene screen includes an agent display screen 51 on which an agent image (still image, moving image) is displayed, a balloon screen 52 on which characters corresponding to the agent's voice are displayed, a title screen 53, and , A scene display screen 54 on which image data specific to each scene (image of actual image data, answer selection button, etc.) is displayed.

【0042】エージェント処理部11は、趣味嗜好(食
事)の質問シナリオを起動すると、最初にシーンヘッダ
で指定されるシーンの画面構成データをシナリオデータ
ファイル302から読み出してシーン画面を表示装置2
7表示すると共に、質問文に相当する質問音声を音声出
力装置25から出力するようになっている。図5(a)
の質問シナリオのシーン画面では、吹き出し画面52に
「どのジャンルの食事が好きですか?」と表示される。
なお、吹き出し画面52の表示に対応する音声を音声出
力装置25から出力されるようになっている。また、図
5(a)のシーン画面におけるシーン表示画面54に
は、4つの回答選択ボタン54aの「和食」、「洋
食」、「中華」、「特に無し」が表示されている。
When the hobby / preference (meal) question scenario is activated, the agent processing section 11 first reads out the screen configuration data of the scene designated by the scene header from the scenario data file 302 and displays the scene screen 2
7 is displayed and a question voice corresponding to the question sentence is output from the voice output device 25. Figure 5 (a)
In the scene screen of the question scenario of, "Which genre of meal do you like?" Is displayed on the balloon screen 52.
The voice output device 25 outputs a voice corresponding to the display of the balloon screen 52. Further, in the scene display screen 54 in the scene screen of FIG. 5 (a), "Japanese food", "Western food", "Chinese food", and "None" are displayed on the four answer selection buttons 54a.

【0043】この運転者に対する質問のシーンには、シ
ーン管理テーブルに従って、運転者の回答に応じた複数
のシーンが分岐して続くようになっている。すなわち、
図5(a)のシーン画面(シーン番号0x0001)で
運転者が回答選択ボタン「和食」を選択すると、エージ
ェント処理部11は、回答に応じたシーン画面(b)に
分岐して表示される。このシーン画面(b)では、選択
された「和食」がタイトル画面53に表示されると共
に、吹き出し画面には「和食がすきなのですね。」と表
示され、なお、分岐後の和食のシーン画面では、和食の
実画像がシナリオデータから読み出され、シーン表示画
面54に表示される。そしてエージェント処理部11に
より、運転者の回答、例えば、「和食」が運転者情報と
して、運転者情報307の趣味嗜好データに格納される
ようになっている。このようにして、シナリオに規定さ
れた各シーン画像と音声が最後のシーンまで連続的に順
次表示、出力されることで、1シナリオにおけるエージ
ェントの行為が完了することになる。
A plurality of scenes corresponding to the driver's answer branch off and follow the scene of the question to the driver according to the scene management table. That is,
When the driver selects the answer selection button “Japanese food” on the scene screen (scene number 0x0001) of FIG. 5A, the agent processing unit 11 is branched and displayed on the scene screen (b) corresponding to the answer. In this scene screen (b), the selected “Japanese food” is displayed on the title screen 53, and the balloon screen displays “I like Japanese food, isn't it?” In addition, on the scene screen of Japanese food after branching An actual image of Japanese food is read from the scenario data and displayed on the scene display screen 54. Then, the agent processing unit 11 stores the driver's answer, for example, “Japanese food” as driver information in the hobby / preference data of the driver information 307. In this way, each scene image and sound specified in the scenario are continuously displayed and output until the last scene, whereby the action of the agent in one scenario is completed.

【0044】記憶装置29(図1)の音声データ303
には、選択されたシナリオのシーンに従って、エージェ
ントが運転者と会話等を行うための音声データが格納さ
れている。エージェントによる会話の音声データは、本
実施形態による、エージェントが運転者情報を収集する
ための質問をするための音声データも格納されている。
音声データ303の各データは、シーンデータのキャラ
クタ動作指示データにより指定される。
Voice data 303 in the storage device 29 (FIG. 1)
Stores voice data for the agent to have a conversation with the driver according to the scene of the selected scenario. The voice data of conversation by the agent also stores voice data for the agent to ask a question for collecting driver information according to the present embodiment.
Each data of the voice data 303 is designated by the character motion instruction data of the scene data.

【0045】画像データ306には、シナリオにより指
定された各シーンで使用されるエージェントの状態を表
す静止画像や、動作を表す動画(アニメーション)、3
Dモデルデータ及びモーションデータ等が格納されてい
る。例えば、エージェントがお辞儀をする動画、うなず
く動画、右手を挙げる動画、エージェントの容姿を構成
する3Dモデルデータ及びその振る舞いを規定するモー
ションデータ等が格納されている。これらの各静止画像
や動画には画像コードが付けられている。画像データ3
06に格納されるエージェントの容姿としては、人間
(男性、女性)的な容姿である必要はない。例えば、非
人間型のエージェントとして、タコや、ひよこ、犬、
猫、カエル、ネズミ等の動物自体の容姿や、人間的に図
案化(イラスト化)した動物の容姿であってもよく、更
にロボット的な容姿や、フロアスタンドや木などの容姿
や、特定のキャラクタの容姿等であってもよい。またエ
ージェントの年齢としても一定である必要がなく、エー
ジェントの学習機能として、最初は子供の容姿とし、時
間の経過と共に成長していき容姿が変化していく(大人
の容姿に変化し、更に老人の容姿に変化していく)よう
にしてもよい。画像データ306には、これらの各種エ
ージェントの容姿の画像が格納されており、運転者の好
みによって入力装置22等から選択することができるよ
うになっている。
The image data 306 includes a still image showing the state of the agent used in each scene designated by the scenario, a moving image (animation) showing the action, and 3
D model data, motion data, etc. are stored. For example, a moving image in which the agent bows, a nodding moving image, a moving image in which the right hand is raised, 3D model data that configures the appearance of the agent and motion data that defines its behavior are stored. An image code is attached to each of these still images and moving images. Image data 3
The appearance of the agent stored in 06 does not have to be a human (male, female) appearance. For example, octopus, chick, dog,
It may be the appearance of animals such as cats, frogs, rats, etc., or the appearance of humanly designed (illustrated) animals, and even robotic appearance, such as floor stands and trees, and specific appearances. It may be the appearance of the character. In addition, the age of the agent does not have to be constant, and as the learning function of the agent, the appearance of the child is initially set, and the appearance grows and changes over time (the appearance of an adult changes, and It will change to your appearance). The image data 306 stores images of the appearances of these various agents, which can be selected from the input device 22 or the like according to the driver's preference.

【0046】運転者情報307は、運転者に関する情報
で、エージェントによる行為をより運転者の希望や趣
味、嗜好に合ったものとするために利用される。図5は
運転者情報307の構成を概念的に表したものである。
この図5に例示されるように、運転者情報307には、
運転者のID(識別情報)、名前、国籍、年齢、性別、
結婚(既婚か未婚か)、子供の有無と人数と年齢からな
る運転者基礎データと、趣味嗜好データとが格納される
ようになっている。この他に、どのような教育を受けて
きたか分かるデータ、例えば、出身大学等の学歴、過去
の住居、宗教等のデータが格納されている。趣味嗜好デ
ータとしては、スポーツ、飲食、旅行等の大項目と、こ
れら大項目の概念に含まれる詳細項目とから構成されて
いる。例えば、大項目スポーツには、好きなサッカーチ
ーム、好きな野球の球団、ゴルフに対する興味等の詳細
なデータが格納されるようになっている。本実施形態で
は、これらの各運転者情報には優先順位が決められてお
り、エージェントは、未だ格納されていない運転者情報
のうち優先順位が高い順に運転者に質問をするようにな
っている。運転者基礎データは、趣味嗜好データよりも
優先順位が高くなっている。
The driver information 307 is information about the driver and is used to make the action by the agent more suitable to the driver's wishes, hobbies, and preferences. FIG. 5 conceptually shows the configuration of the driver information 307.
As illustrated in FIG. 5, the driver information 307 includes
Driver's ID (identification information), name, nationality, age, gender,
Marriage (married or unmarried), driver basic data including presence / absence of children, number of people, and age, and hobby / preference data are stored. In addition to this, data that shows what kind of education has been received, for example, the educational background of the university where the student came from, the past residence, the religion, etc. are stored. The hobby and preference data is composed of major items such as sports, eating and drinking, and travel, and detailed items included in the concept of these major items. For example, the large-item sport stores detailed data such as a favorite soccer team, a favorite baseball team, and interest in golf. In the present embodiment, priorities are determined for each of these pieces of driver information, and the agent asks the driver questions in descending order of priority among the driver information that has not yet been stored. . The driver basic data has a higher priority than the hobby and preference data.

【0047】運転者情報307は、その車両を運転する
運転者が複数存在する場合には、各運転者毎に作成され
る。そして、運転者を特定して該当する運転者情報が使
用される。運転者の特定は、例えば、イグニッションオ
ン時に、全運転者に共通するエージェントが登場して運
転者の問い合わせをし、その回答から特定する。運転者
の問い合わせは、入力済み運転者の氏名とその他を選択
するボタンを表示装置に表示し、選択を促す音声を出力
する。その他が選択された場合には新規ユーザ登録画面
を表示する。なお、体重、運転席(シート)の固定位置
(前後位置、背もたれの角度)、ルームミラーの角度、
視線の高さ、顔写真をデジタル化したデータ、音声の特
徴パラメータ等の運転者固有の情報を少なくとも1つ運
転者情報307に格納しておき、これらの情報から運転
者を特定するようにしてもよい。
The driver information 307 is created for each driver when there are a plurality of drivers who drive the vehicle. Then, the driver is specified and the corresponding driver information is used. The driver is specified by, for example, when the ignition is turned on, an agent common to all the drivers appears, inquires of the driver, and specifies from the answer. For the driver's inquiry, a button for selecting the name of the driver who has already entered and other information is displayed on the display device, and a voice prompting the selection is output. If other is selected, the new user registration screen is displayed. In addition, weight, fixed position of driver's seat (front and rear position, angle of backrest), angle of rearview mirror,
At least one driver-specific information such as the height of the line of sight, the data obtained by digitizing the face photograph, and the characteristic parameters of the voice is stored in the driver information 307, and the driver is specified from these information. Good.

【0048】図6は意味分類テーブル308とプロファ
イルテーブル309の内容を概念的に表したものであ
る。図6(a)は意味分類テーブル308の内容を概念
的に表したものである。この意味分類テーブル308
は、エージェントの動作に対応付けることが可能な、出
会いの挨拶、肯定、感謝などの一意の出力内容の意味
(アニメーション意味、表現で、エージェントが表現し
たい状態)が保持されたテーブルである。図6(a)は
テーブル内容を簡略化して例示したもので、実際のテー
ブルとしては、更に詳細に規定されている。各エージェ
ント動作の各意味に対しては、意味コードが個別に付け
られている。
FIG. 6 conceptually shows the contents of the meaning classification table 308 and the profile table 309. FIG. 6A conceptually shows the contents of the meaning classification table 308. This meaning classification table 308
Is a table in which unique meanings of output contents such as greetings of greetings, affirmations, and gratitudes (animation meanings, expressions, states that the agent wants to express) that can be associated with the actions of the agent are held. FIG. 6A shows an example of simplified table contents, and the actual table is defined in more detail. A semantic code is individually attached to each meaning of each agent operation.

【0049】図6(b)、(c)は、プロファイルテー
ブル309の内容を概念的に表したものである。意味分
類テーブル308の意味の各項目の出力の際にどのアニ
メーションを選択するかを規定したテーブルである。各
プロファイルテーブル309には、意味コードに対応し
た動作コードと、その動作コードに対して画像データ3
06から選択すべき動画(アニメーション)や静止画
(以下単に動画等という)を特定する画像コードが格納
されている。図6では、理解を容易にするため、動作コ
ードではなく、各動作コードに対応するエージェント動
作の内容を表示している。そして、プロファイルテーブ
ル309には、ユーザの各種文化的背景に応じて複数の
テーブルが規定されており、図6「日本人向け人間型キ
ャラクタアニメーション」(b)と、「欧米向け人間型
キャラクタアニメーション」(c)が例示されている。
いずれのプロファイルテーブル309を使用するかは、
ユーザ情報から解釈され、決定される。なお、ユーザ情
報の蓄積が不十分である場合には、デフォルト値とし
て、例えば「日本人向け人間型キャラクタアニメーショ
ン」が使用される。なお、デフォルト値は日本人向け以
外にも、例えば、エージェント装置が使用される国に合
わせた値としてもよい。例えば、エージェントが出会い
の挨拶をする場合、ユーザが日本人であれば図6(b)
のプロファイルテーブル309が選択されてお辞儀をす
る動画が起動されるが、別のユーザである米国人に対し
て(c)のプロファイルテーブル309が選択されて手
を挙げる動作の動画が起動されることになる。このよう
に、ユーザの文化的背景に応じた各種のプロファイルテ
ーブル309が用意されることで、ユーザが直感的に理
解しやすい動作をエージェントが行うことができる。
6B and 6C conceptually show the contents of the profile table 309. It is a table that defines which animation is selected when outputting each item of the meaning of the meaning classification table 308. In each profile table 309, the action code corresponding to the meaning code and the image data 3 corresponding to the action code are stored.
An image code for specifying a moving image (animation) or still image (hereinafter simply referred to as moving image) to be selected from 06 is stored. In FIG. 6, in order to facilitate understanding, not the operation code but the content of the agent operation corresponding to each operation code is displayed. In the profile table 309, a plurality of tables are defined according to various cultural backgrounds of the user, and FIG. 6 “Human character animation for Japanese” (b) and “Human character animation for Western” are shown. (C) is illustrated.
Which profile table 309 is used is
Interpreted and determined from user information. If the user information is not sufficiently accumulated, the default value is, for example, "human type character animation for Japanese people". The default value may be, for example, a value according to the country in which the agent device is used, in addition to the value for Japanese. For example, when the agent greets an encounter, if the user is Japanese, FIG.
The profile table 309 is selected and the video to bow is started, but the profile table 309 of (c) is selected for another user, an American, and the video of the motion of raising hands is started. become. As described above, by preparing various profile tables 309 according to the cultural background of the user, the agent can perform an operation that the user can intuitively understand.

【0050】プロファイルテーブル309は、文化的背
景に応じたエージェントの動作として、人間型のエージ
ェントについて格納されている。これに対して、人間と
同様な部分を必ずしも有しない非人間型キャラクタをエ
ージェントとしたい場合がある。このような場合にも全
てプロファイルテーブルを作成すると、テーブル数が膨
大になるだけでなく、特定の動作について修正(対応す
る画像コードの変更等)を行う場合に、関連する多くの
テーブルを修正する必要がでる。そこで、本実施形態で
は、人間型キャラクタに対して規定された各動作に対応
する非人間型キャラクタの動作をエージェント対応テー
ブル310で対応付けておくことで、各種の非人間型キ
ャラクタの登録を可能にしている。
The profile table 309 is stored for a humanoid agent as an operation of the agent according to the cultural background. On the other hand, there are cases where it is desired to use a non-human character that does not necessarily have a part similar to a human as an agent. Even in such a case, if all profile tables are created, not only will the number of tables become enormous, but many related tables will be modified when a specific operation is modified (such as changing the corresponding image code). I need it. Therefore, in the present embodiment, by registering the action of the non-human character corresponding to each action defined for the human character in the agent correspondence table 310, various non-human characters can be registered. I have to.

【0051】図7は、エージェント対応テーブル310
の内容を概念的に表したものである。エージェント対応
テーブル10では、人間型キャラクタの動作内容(動作
コード)に対応する非人間型キャラクタの動作内容が規
定されている。すなわち、人間型キャラクタの動作コー
ドに対応して、非人間型キャラクタの動作内容を示す動
作コードと画像コードが格納されている。画像コードに
対応する動画は、エージェントデータ30の画像データ
306に格納される。図7では、非人間型キャラクタの
例として、図10に示す、フロアスタンド型キャラクタ
に対するエージェント対応テーブル(動作対応テーブ
ル)を、具体的な動作内容で表示したものである。エー
ジェント対応テーブルは、各非人間型キャラクタ毎に規
定されている。
FIG. 7 shows an agent correspondence table 310.
Is a conceptual representation of the contents of. The agent correspondence table 10 defines the action content of the non-human character corresponding to the action content (action code) of the human character. That is, the motion code and the image code indicating the motion content of the non-human character are stored corresponding to the motion code of the human character. The moving image corresponding to the image code is stored in the image data 306 of the agent data 30. In FIG. 7, as an example of the non-human character, the agent correspondence table (motion correspondence table) for the floor stand type character shown in FIG. 10 is displayed with specific motion contents. The agent correspondence table is defined for each non-human character.

【0052】図7に示すエージェント対応テーブル31
0により、人間型キャラクタで首を横に振る動作は、非
人間型キャラクタではランプシェードを横に振る動作に
なる。このように図7に示すエージェント対応テーブル
310により、非人間型キャラクタに対するプロファイ
ルテーブルが無くても、図6(b)に示す日本人向け各
動作が、同図(d)に示すように非人間型キャラクタの
動作に変換される。また、図6(c)に示す欧米人向け
の動作が、同図(e)に示す各動作に変換される。
Agent correspondence table 31 shown in FIG.
With 0, the motion of shaking the head of the human character is a motion of shaking the lamp shade of the non-human character. As described above, with the agent correspondence table 310 shown in FIG. 7, even if there is no profile table for non-human characters, each movement for Japanese people shown in FIG. Converted to type character behavior. Further, the operation for Westerners shown in FIG. 6C is converted into each operation shown in FIG.

【0053】ナビゲーションデータ31(図1参照)に
は、経路案内等で使用される各種データファイルとし
て、通信地域データファイル、描画地図データファイ
ル、交差点データファイル、ノードデータファイル、道
路データファイル、探索データファイル、写真データフ
ァイル等の各種データが格納されている。
The navigation data 31 (see FIG. 1) includes various data files used for route guidance, such as communication area data files, drawing map data files, intersection data files, node data files, road data files, and search data. Various data such as files and photo data files are stored.

【0054】通信地域データファイルには、通信制御部
24に接続され又は無接続で車内において使用される携
帯電話が、車内から通信できる地域を表示装置27に表
示したり、その通信できる地域を経路探索の際に使用す
るための通信地域データが、携帯電話のタイプ別に格納
されている。描画地図データファイルには、表示装置2
7に描画される描画地図データが格納されている。この
描画地図データは、階層化された地図、例えば最上位層
から日本、関東地方、東京、神田といった階層ごとの地
図データが格納されている。各階層の地図データは、そ
れぞれ地図コードが付されている。
In the communication area data file, a mobile phone which is connected to the communication control unit 24 or is not connected and is used in the car displays the communication area on the display device 27 or routes the communication area. Communication area data to be used for searching is stored for each type of mobile phone. The drawing map data file contains the display device 2
7 stores drawing map data to be drawn. This drawing map data stores a hierarchical map, for example, map data for each layer such as Japan, Kanto region, Tokyo, Kanda from the highest layer. A map code is attached to the map data of each layer.

【0055】交差点データファイルには、各交差点を特
定する交差点番号、交差点名、交差点の座標(緯度と経
度)、その交差点が始点や終点になっている道路の番
号、および信号の有無などが交差点データとして格納さ
れている。ノードデータファイルには、各道路における
各地点の座標を指定する緯度、経度などの情報からなる
ノードデータが格納されている。すなわち、このノード
データは、道路上の一地点に関するデータであり、ノー
ド間を接続するものをアークと呼ぶと、複数のノード列
のそれぞれの間をアークで接続することによって道路が
表現される。道路データファイルには、各道路を特定す
る道路番号、始点や終点となる交差点番号、同じ始点や
終点を持つ道路の番号、道路の太さ、進入禁止等の禁止
情報、後述の写真データの写真番号などが格納されてい
る。交差点データファイル、ノードデータファイル、道
路データファイルにそれぞれ格納された交差点データ、
ノードデータ、道路データからなる道路網データは、経
路探索に使用される。
In the intersection data file, the intersection number for identifying each intersection, the name of the intersection, the coordinates (latitude and longitude) of the intersection, the number of the road where the intersection is the starting point or the ending point, and the presence or absence of a signal are included. It is stored as data. The node data file stores node data including information such as latitude and longitude that specify the coordinates of each point on each road. That is, this node data is data relating to one point on the road, and when connecting the nodes is called an arc, the road is represented by connecting each of the plurality of node strings by an arc. In the road data file, the road number that identifies each road, the intersection number that is the start point and the end point, the number of the road that has the same start point and the end point, the thickness of the road, the prohibition information such as entry prohibition, the photograph of the photo data described later The number etc. are stored. Intersection data stored in the intersection data file, node data file, and road data file,
Road network data composed of node data and road data is used for route search.

【0056】探索データファイルには、経路探索により
生成された経路を構成する交差点列データ、ノード列デ
ータなどが格納されている。交差点列データは、交差点
名、交差点番号、その交差点の特徴的風景を写した写真
番号、曲がり角、距離等の情報からなる。また、ノード
列データは、そのノードの位置を表す東経、北緯などの
情報からなる。写真データファイルには、各交差点や直
進中に見える特徴的な風景等を撮影した写真が、その写
真番号と対応してディジタル、アナログ、または銀塩写
真の形式で格納されている。
The search data file stores intersection string data, node string data, and the like that make up the route generated by the route search. The intersection row data is composed of information such as an intersection name, an intersection number, a photograph number showing a characteristic landscape of the intersection, a corner, and a distance. In addition, the node string data includes information such as east longitude and north latitude indicating the position of the node. The photograph data file stores photographs of each intersection and characteristic landscapes that can be seen while going straight ahead, in the form of digital, analog, or silver halide photographs corresponding to the photograph numbers.

【0057】次にこのように構成されたエージェント装
置の動作について説明する。図8はエージェント装置で
シナリオを実行する際の動作を表したものである。エー
ジェント処理部11は、状況情報処理部15から供給さ
れる各種データから現在の状況や状況の変化を取得し、
シナリオデータファイル302の自動起動条件テーブル
に格納された、シナリオ起動条件を満たしているか否
か、すなわち、取得した状況において起動可能なシナリ
オが存在するか否かを判断する。質問シナリオの起動条
件以外のシナリオ起動条件を満たしている場合、エージ
ェント処理部11は、満たしているシナリオ起動条件に
対応するシナリオを実行する。
Next, the operation of the agent device thus configured will be described. FIG. 8 shows the operation when the scenario is executed by the agent device. The agent processing unit 11 acquires the current status and the status change from various data supplied from the status information processing unit 15,
It is determined whether or not the scenario activation condition stored in the automatic activation condition table of the scenario data file 302 is satisfied, that is, whether or not a scenario that can be activated exists in the acquired situation. When the scenario activation condition other than the inquiry scenario activation condition is satisfied, the agent processing unit 11 executes the scenario corresponding to the satisfied scenario activation condition.

【0058】すなわち、シナリオデータ読み込み部11
4が、シナリオ起動条件を満たすシナリオデータのキャ
ラクタ動作指示データをシナリオデータファイル302
から読み込む。そしてシナリオデータ読み込み部114
が、読み込んだキャラクタ動作指示データに対応する意
味コードを意味分類テーブル308から読み込み、意味
コードを描画処理部115に出力する。
That is, the scenario data reading unit 11
4 is the scenario data file 302 which is the character action instruction data of the scenario data satisfying the scenario activation condition.
Read from. Then, the scenario data reading unit 114
Reads the meaning code corresponding to the read character action instruction data from the meaning classification table 308 and outputs the meaning code to the drawing processing unit 115.

【0059】描画処理部115では、受けた意味コード
に従って、意味コード処理と、アニメーション処理を行
う。すなわち、意味コード処理では、運転者情報307
から運転者の文化的背景に関するデータ(例えば、国籍
等)を調べて、プロファイルテーブル309を特定す
る。そして、特定したプロファイルテーブル309か
ら、シナリオ駆動部113で出力された意味コードに対
応するアニメーションコード(画像コード)を読み出
す。なお、ユーザがエージェントとして非人間型のキャ
ラクタを特定している場合(このキャラクタ指定情報は
運転者情報307に格納されている)、特定した人間型
キャラクタのプロファイルテーブル309から意味コー
ドに対応する動作コードを読み出し、その動作コードに
対応するアニメーションコード(画像コード)をエージ
ェント対応テーブル310から読み出して出力する。エ
ージェント対応テーブル310は、運転者情報307に
格納されているキャラクタ指定情報から特定する。
The drawing processing unit 115 performs the meaning code processing and the animation processing according to the received meaning code. That is, in the meaning code processing, the driver information 307
The data regarding the driver's cultural background (for example, nationality) is checked to identify the profile table 309. Then, the animation code (image code) corresponding to the meaning code output by the scenario drive unit 113 is read from the specified profile table 309. When the user specifies a non-human character as an agent (this character designation information is stored in the driver information 307), the action corresponding to the meaning code from the profile table 309 of the specified human character. The code is read, and the animation code (image code) corresponding to the operation code is read from the agent correspondence table 310 and output. The agent correspondence table 310 is specified from the character designation information stored in the driver information 307.

【0060】そして、アニメーション処理において、描
画処理部115は、読み出したアニメーションコードに
対応するアニメーションデータを画像データ306から
読み出し、各シーンの画像として画像処理部13に出力
して表示装置27に表示する。
Then, in the animation processing, the drawing processing unit 115 reads out the animation data corresponding to the read animation code from the image data 306, outputs it to the image processing unit 13 as an image of each scene, and displays it on the display device 27. .

【0061】以上説明したように、意味と動作を対応付
けたプロファイルテーブル309をユーザの文化的背景
に応じて複数用意し、運転者情報307からユーザの文
化的背景を調べて該当するプロファイルテーブル309
を特定してエージェントの動作を表示する。エージェン
トは同一の意味を伝える場合であっても文化的背景に応
じて異なる動作をするようになる。図9は、エージェン
トが「出会いの挨拶」をする場合を例に、文化的背景に
よるエージェント動作の違いを表したものである。この
図に示されるように、意味分類「出会いの挨拶」に対し
て、ユーザが日本人であれば日本人用のプロファイルテ
ーブル309が選択され、「お辞儀」をする動画が表示
装置27に表示される。一方、欧米系ユーザである場
合、欧米系のプロファイルテーブル309が選択され、
「手を上げる」動作の動画が表示装置27に表示され
る。このようにエージェントがユーザの文化的背景に合
致した動作を行うので、ユーザはエージェントの動作か
らその意味することを直感的に理解し易くなる。
As described above, a plurality of profile tables 309 in which meanings and actions are associated with each other are prepared according to the cultural background of the user, the cultural background of the user is checked from the driver information 307, and the corresponding profile table 309 is checked.
To display the behavior of the agent. Agents behave differently depending on their cultural background even when they convey the same meaning. FIG. 9 shows the difference in the behavior of the agents depending on the cultural background, for example, in the case where the agent gives a "greeting for meeting". As shown in this figure, if the user is Japanese, the profile table 309 for Japanese is selected for the semantic classification “encounter greeting”, and a moving image “bowing” is displayed on the display device 27. It On the other hand, if the user is a Western user, the Western profile table 309 is selected,
A moving image of the "raising hands" operation is displayed on the display device 27. In this way, since the agent performs an action that matches the cultural background of the user, the user can intuitively understand the meaning of the action of the agent.

【0062】図10、図11は、非人間型キャラクタで
ある電気スタンド型キャラクタにおける、意味分類「出
会いの挨拶」の動作を表したものである。非人間型キャ
ラクタによる動作は、エージェント対応テーブル310
に基づく動作変換による。図10は、ユーザが日本人で
ある場合の変換を表してものである。この図10(a)
に示されるように、エージェント対応テーブル310
(図7)により、人間型キャラクタのお辞儀の動作が人
間型キャラクタでは上部を前方に傾ける動作に変換さ
れ、(b)に示されるように人間型キャラクタの「お辞
儀」動作に対応して電気スタンド型キャラクタではラン
プシェードを含めた上部を前方に傾ける動画が表示され
る。
FIG. 10 and FIG. 11 show the operation of the semantic classification “encounter greeting” in the desk lamp type character which is a non-human type character. The action by the non-human character is performed by the agent correspondence table 310.
By motion conversion based on. FIG. 10 shows the conversion when the user is Japanese. This FIG. 10 (a)
As shown in FIG.
(FIG. 7), the bowing motion of the humanoid character is converted into a motion of tilting the upper part forward in the humanoid character, and as shown in (b), the desk lamp is corresponding to the “bowing” motion of the humanoid character. The type character displays a moving image in which the upper part including the lamp shade is tilted forward.

【0063】図11は、ユーザが欧米人である場合の変
換を表したものである。この図11に示されるように、
エージェント対応テーブル310から、(b)に示すよ
うに、欧米人の出会いの挨拶である手を挙げる動作が、
手に対応する台座(電気スタンドの手)を挙げる動作に
変換され、その動画が表示される。
FIG. 11 shows the conversion when the user is a Westerner. As shown in this FIG.
From the agent correspondence table 310, as shown in (b), a motion of raising a hand, which is a greeting of a Westerner's encounter,
It is converted into a motion of raising the pedestal (hand of the desk lamp) corresponding to the hand, and the moving image is displayed.

【0064】次に本発明の第2の実施形態について説明
する。説明した上記第1の実施形態では、画像データ3
06には、エージェントの各動作に対応した静止画及び
動画(アニメーション)を格納し、そのアニメーション
を表示するようにした。これに対して第2の実施形態で
は、各キャラクタの構成部分(頭部、胸、上腕等)の画
像を画像データ306に格納し、各構成部分同士の関係
とその動きを規定してプロファイルテーブル309に格
納する。プロファイルテーブル309は、第1の実施形
態と同様に、人間型キャラクタを基準とした日本人向
け、欧米人向け等の文化的背景に応じて複数規定されて
いる。図12は、第2の実施形態におけるプロファイル
テーブル309の内容を表したものである。図12
(b)が日本人ユーザ用のプロファイルテーブルで、
(c)が欧米人ユーザ用のプロファイルテーブルを表し
ている。両プロファイルテーブル309は、第1の実施
形態(図6参照)と同様に、意味分類テーブル308の
意味コードに対応付けられている。
Next, a second embodiment of the present invention will be described. In the first embodiment described above, the image data 3
A still image and a moving image (animation) corresponding to each action of the agent are stored in 06, and the animation is displayed. On the other hand, in the second embodiment, an image of the constituent parts (head, chest, upper arm, etc.) of each character is stored in the image data 306, and the relationship between the constituent parts and their movements are defined to define a profile table. It is stored in 309. Similar to the first embodiment, a plurality of profile tables 309 are defined according to cultural backgrounds such as those for Japanese people and those for Westerners based on human-type characters. FIG. 12 shows the contents of the profile table 309 in the second embodiment. 12
(B) is a profile table for Japanese users,
(C) shows a profile table for Western users. Both profile tables 309 are associated with the meaning code of the meaning classification table 308, as in the first embodiment (see FIG. 6).

【0065】第2実施形態におけるプロファイルテーブ
ルでは、エージェントの各動作毎に、基準部位1,2,
3,…がエージェント画像のどの構成部分に該当させる
かを規定すると共に、各構成部分をどのように動かすか
について規定されている。このように規定することで、
各動作毎のアニメーション画像を個別に保存する必要が
なくなり、データ量を少なくすることが可能になる。
In the profile table in the second embodiment, the reference parts 1, 2,
, 3 specify which constituent parts of the agent image to correspond to, and how to move each constituent part. By defining in this way,
Since it is not necessary to save the animation image for each operation individually, the amount of data can be reduced.

【0066】図13は第2実施形態におけるエージェン
ト対応テーブル310の内容を概念的に表したものであ
る。また第1の実施形態におけるエージェント対応テー
ブル310には、基準キャラクタである人間型キャラク
タの各動作に対応する非人間型キャラクタの動作を、各
キャラクタ毎に規定している。これに対して第2の実施
形態では、人間型キャラクタの構成部分と非人間型キャ
ラクタの構成部分との対応関係が図13に示されるよう
に規定されている。基準キャラクタである人間型キャラ
クタと、非人間型キャラクタのどの部分がどの構成に該
当するかについては、図14に例示するように、別途規
定されており、エージェント対応テーブル310に規定
されている。そして、図13のエージェント対応テーブ
ル310に従って、図12(b)のプロファイルテーブ
ル309の各動作が図12(d)の各動作に変換され
て、非人間型エージェントの動作として表示される。同
様に、図12(c)のプロファイルテーブル309が図
12(e)の各動作に変換されて表示される。
FIG. 13 conceptually shows the contents of the agent correspondence table 310 in the second embodiment. In the agent correspondence table 310 in the first embodiment, the motion of the non-human character corresponding to each motion of the human character that is the reference character is defined for each character. On the other hand, in the second embodiment, the correspondence between the constituent parts of the human character and the constituent parts of the non-human character is defined as shown in FIG. Which part of the human character as the reference character and which part of the non-human character corresponds to which configuration is separately defined as illustrated in FIG. 14, and is defined in the agent correspondence table 310. Then, according to the agent correspondence table 310 of FIG. 13, each operation of the profile table 309 of FIG. 12B is converted into each operation of FIG. 12D and displayed as the operation of the non-human agent. Similarly, the profile table 309 of FIG. 12C is converted into each operation of FIG. 12E and displayed.

【0067】以上、本発明のエージェント装置の実施形
態について説明したが、本発明は説明した実施形態に限
定されるものではなく、各請求項に記載した範囲におい
て各種の変形を行うことが可能である。説明した実施形
態では、日本人ユーザの場合と欧米系ユーザーの場合の
国籍や出身地域といった地域に基づく文化的背景の違い
による動作認識の違いについて説明したが、ユーザのそ
の他の文化的背景に基づくプロファイルテーブル309
を規定するようにしてもよい。
Although the embodiment of the agent device of the present invention has been described above, the present invention is not limited to the described embodiment, and various modifications can be made within the scope of the claims. is there. In the described embodiment, the difference in motion recognition between the Japanese user and the Western user due to the difference in cultural background based on the region such as nationality and place of origin has been described, but based on other cultural backgrounds of the user. Profile table 309
May be defined.

【0068】例えば、エージェントとユーザーとの関係
に応じたプロファイルテーブル309を規定するように
してもよい。図15は、ユーザーとエージェントが親し
いか親しくないかにより出会いの挨拶の動作の違いを例
示したものである。図15に示されるように、意味分類
「出会いの挨拶」にたいしてユーザーとエージェントと
が親しければエージェントが会釈の動作をし、親しくな
ければ深いお辞儀をするように、プロファイルテーブル
309を規定する。なお、この図15では、日本人ユー
ザーの場合の例で、欧米系ユーザーの場合についても同
様に、親しさのレベルに応じて動作を変えるようにして
もよい。
For example, the profile table 309 may be defined according to the relationship between the agent and the user. FIG. 15 exemplifies the difference in the operation of the greeting of the encounter depending on whether the user and the agent are close or unfriendly. As shown in FIG. 15, the profile table 309 is defined such that the agent acts as a bow if the user and the agent are close to each other with respect to the semantic classification “meeting greeting”, and bows deeply if the user is not close. Note that, in FIG. 15, the example is for a Japanese user, and similarly for a Western user, the operation may be changed according to the level of familiarity.

【0069】ここで、ユーザーとエージェントとの親し
さの度合いについては、エージェントとユーザーとの心
理的距離により判断することができる。ここで、エージ
ェントと運転者との心理的距離は、友好度、自信度、従
順度、モラル度等のパラメータで表され、運転者の対応
等の積み重ねによって変化するようにする。例えば、エ
ージェントの行為に対してねぎらいの言葉がかかれば、
エージェントの心理状態は友好度が増加するようにす
る。一方、エージェントの提案に対して否定的な回答が
出されたり、非難された場合には、エージェントの心理
状態は友好度が減少するようにする。この場合、心理的
距離を表すパラメータをエージェントデータ30に格納
し、ユーザーの反応に応じて値を更新する。
Here, the degree of familiarity between the user and the agent can be determined by the psychological distance between the agent and the user. Here, the psychological distance between the agent and the driver is represented by parameters such as friendliness, confidence, obedience, and morality, and is changed by the driver's correspondence and the like. For example, if a word of disrespect is given to the agent's action,
The agent's psychological state should increase friendship. On the other hand, if the agent's suggestion is negatively answered or denounced, the agent's psychological state is made less friendly. In this case, the parameter indicating the psychological distance is stored in the agent data 30, and the value is updated according to the reaction of the user.

【0070】また、ユーザ情報から、ユーザの趣味や職
業で使用する動作で直感的に理解できる動作がある場合
には、その意味と動作との対応をプロファイルテーブル
309に規定するようにしてもよい。図16は、ナビゲ
ーション処理により走行経路の案内をしている場合にお
いて車両が案内ルートから外れた場合に、ルート外れを
知らせるエージェントの動作の違いを表したものであ
る。すなわち、ユーザーがゴルフを趣味にしている場合
には、ルート外れの意味にエージェントが両手で丸を作
る動作の動画を表示し、ゴルフを趣味としていないユー
ザの場合にはルート外れに対応して通常姿勢(特に身振
りをしない姿勢)の動画(または、静止画)を表示す
る。
If there is an action that can be intuitively understood from the user information in the action used by the user's hobby or occupation, the correspondence between the meaning and the action may be defined in the profile table 309. . FIG. 16 shows a difference in operation of agents that notify the departure of the route when the vehicle deviates from the guidance route while the navigation route is being guided. That is, if the user has a hobby of golf, a video of the action of the agent making a circle with both hands is displayed in the meaning of being out of the route. Display a moving image (or still image) of the posture (especially the posture without gesture).

【0071】また、ユーザーが充分に慣れ親しんでいる
のであれば、架空の文化の動作も使用するようにしても
よい。例えば、ユーザーがSF映画に精通している場
合、挨拶の表現として劇中で使用されている架空の敬礼
の動作をするエージェントの動画を表示する。
If the user is familiar enough, the action of fictitious culture may be used. For example, if the user is familiar with science fiction movies, a video of an agent performing a fictional salute action used in a play as a greeting expression is displayed.

【0072】また、説明した実施形態では非人間型のエ
ージェント(キャラクタ)として、フロアスタンド型の
キャラクタを例に説明したが、他の非人間型キャラクタ
としてもよい。この場合、図17に示されるように、文
化的背景によりエージェントが行う動作の構成部分を変
更するようにしてもよい。図17は、非人間型のエージ
ェントとしてタコのキャラクタの構成部分と人間の部位
との対応関係を、日本人系ユーザーと日本以外の日本人
系ユーザと異なるユーザのそれぞれについて表したもの
である。この図17に示されるように、日本人ユーザー
の場合(a)に示されるように、タコを頭部と、腕と状
態の2部位として認識するのに併せてエージェント対応
テーブル310を規定する。一方、日本以外のアジア系
ユーザーの場合図17(b)に示されるように、髪の毛
と顔と胴体腕に分けて認識するのに併せてエージェント
対応テーブル310を規定する。
Further, although the floor-standing type character has been described as an example of the non-human type agent (character) in the described embodiment, another non-human type character may be used. In this case, as shown in FIG. 17, the constituent parts of the operation performed by the agent may be changed depending on the cultural background. FIG. 17 shows the correspondence relationship between the constituent parts of the octopus character and the human parts as the non-human type agent for Japanese users and users other than Japanese users other than Japan. As shown in FIG. 17, in the case of a Japanese user, as shown in (a), an agent correspondence table 310 is defined in addition to recognizing an octopus as two parts of a head, an arm, and a state. On the other hand, in the case of Asian users other than Japan, as shown in FIG. 17B, the agent correspondence table 310 is defined in addition to the recognition of hair, face and torso arm separately.

【0073】[0073]

【発明の効果】本発明によれば、ユーザの文化的背景や
趣味などに応じて、エージェントの動作を変更するよう
にしたので、ユーザーはエージェントの動作の意味や内
容を直感することができる。また本発明によれば、非人
間型のエージェントの場合であってもその動作の意味や
内容を直感しやすくなる。
According to the present invention, the operation of the agent is changed according to the cultural background and hobbies of the user, so that the user can intuitively understand the meaning and content of the operation of the agent. Further, according to the present invention, even in the case of a non-human type agent, it becomes easy to intuitively understand the meaning and content of the operation.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態におけるエージェント装置
の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an agent device according to an embodiment of the present invention.

【図2】同上、エージェント装置におけるエージェント
処理部の構成図である。
FIG. 2 is a configuration diagram of an agent processing unit in the agent device.

【図3】同上、エージェント装置におけるシナリオファ
イルのデータ構造とデータ内容を概念的に表した説明図
である。
FIG. 3 is an explanatory diagram conceptually showing the data structure and data contents of a scenario file in the agent device.

【図4】同上、シナリオのシーンデータ基づいて表示装
置に表示されるシーン画面を表した説明図である。
FIG. 4 is an explanatory diagram showing a scene screen displayed on a display device based on scene data of a scenario.

【図5】同上、エージェント装置における運転者情報の
構成を概念的に表した説明図である。
FIG. 5 is an explanatory diagram conceptually showing the configuration of driver information in the agent device.

【図6】図6は意味分類テーブル308とプロファイル
テーブル309の内容を概念的に表したものである。
FIG. 6 conceptually shows the contents of a meaning classification table 308 and a profile table 309.

【図7】図7は、エージェント対応テーブル310の内
容を概念的に表したデータある。
FIG. 7 is data conceptually showing the contents of an agent correspondence table 310.

【図8】図8はエージェント装置でシナリオを実行する
際の動作を表したものである。
FIG. 8 shows an operation when a scenario is executed by the agent device.

【図9】図9は、エージェントが「出会いの挨拶」をす
る場合を例に、文化的背景によるエージェント動作の違
いを表したものである。
FIG. 9 is a diagram showing a difference in agent behavior depending on cultural backgrounds, as an example of a case where an agent gives a “greeting for an encounter”.

【図10】同上、エージェント装置における、日本人ユ
ーザに対する電気スタンド型キャラクタの変換動作に関
する説明図である。
FIG. 10 is an explanatory diagram of a conversion operation of a desk lamp character for a Japanese user in the agent device.

【図11】同上、エージェント装置における、日本人ユ
ーザに対する電気スタンド型キャラクタの変換動作に関
する説明図である。
FIG. 11 is an explanatory diagram of a conversion operation of a desk lamp type character for a Japanese user in the agent device.

【図12】同上、エージェント装置の第2実施形態にお
けるプロファイルテーブルの内容を表した説明図であ
る。
FIG. 12 is an explanatory diagram showing the contents of a profile table in the second embodiment of the agent device.

【図13】同上、エージェント装置の第2実施形態にお
けるエージェント対応テーブルの内容を概念的に表した
説明図である。
FIG. 13 is an explanatory diagram conceptually showing the contents of an agent correspondence table in the second embodiment of the agent device.

【図14】同上、エージェント装置における人間型キャ
ラクタと、非人間型キャラクタとの構成部分の対応を示
した説明図である。
FIG. 14 is an explanatory diagram showing correspondence between constituent parts of a human character and a non-human character in the agent device.

【図15】同上、エージェント装置における親密度の違
いによるエージェントの挨拶動作の違いを表した説明図
である。
FIG. 15 is an explanatory diagram showing the difference in the greeting operation of the agent due to the difference in the intimacy between the agent devices.

【図16】同上、エージェント装置において、ユーザの
趣味や職業で使用する動作で直感的に理解できる動作を
例示した説明図である。
FIG. 16 is an explanatory diagram exemplifying an operation that can be intuitively understood by an operation used in a user's hobby or occupation in the agent device.

【図17】同上、エージェント装置において、タコのキ
ャラクタの構成部分と人間の部位との対応関係を、日本
人系ユーザーと日本以外のアジア系ユーザのそれぞれに
ついて表した説明図である。
FIG. 17 is an explanatory diagram showing the correspondence between the constituent parts of the octopus character and the human parts in the agent device for Japanese users and Asian users other than Japan.

【符号の説明】[Explanation of symbols]

1 全体処理部 10 ナビゲーション処理部 11 エージェント処理部 12 外部I/F部 13 画像処理部 14 音声制御部 15 状況情報処理部 16 入力制御部 17 記憶装置制御部 22 入力装置 24 通信制御部 25 音声出力装置 26 マイク 27 表示装置 28 撮像装置 29 記憶装置 30 エージェントデータ 31 ナビゲーションデータ 40 各種状況検出装置 41 現在位置検出装置 42 状況検出部 1 Overall processing unit 10 Navigation processing unit 11 Agent processing unit 12 External I / F section 13 Image processing unit 14 Voice control unit 15 Situation Information Processing Department 16 Input control unit 17 Storage device control unit 22 Input device 24 Communication control unit 25 audio output device 26 microphone 27 Display 28 Imaging device 29 storage 30 agent data 31 Navigation data 40 Various status detectors 41 Current position detector 42 Status detector

フロントページの続き (72)発明者 近藤 裕昭 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 松田 学 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 足立 和英 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 平野 正 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 Fターム(参考) 2C032 HB02 HB22 HB24 HB25 HC01 HC08 HC14 HC15 HC16 HC27 HC31 HD16 HD23 2F029 AA02 AB01 AB07 AB13 AC02 AC13 AC16 AC18 5E501 AA13 AA23 AC03 AC34 BA13 BA15 CA02 CB15 EA21 EB05 EB18 FA14 FA46 FB25 5H180 AA01 BB05 CC02 CC12 FF04 FF05 FF12 FF13 FF22 FF25 FF27 FF33 FF40 Continued front page    (72) Inventor Hiroaki Kondo             2-19-12 Sotokanda, Chiyoda-ku, Tokyo Stock             Inside the company Equus Research (72) Inventor Manabu Matsuda             2-19-12 Sotokanda, Chiyoda-ku, Tokyo Stock             Inside the company Equus Research (72) Inventor Kazuhide Adachi             2-19-12 Sotokanda, Chiyoda-ku, Tokyo Stock             Inside the company Equus Research (72) Inventor Tadashi Hirano             2-19-12 Sotokanda, Chiyoda-ku, Tokyo Stock             Inside the company Equus Research F term (reference) 2C032 HB02 HB22 HB24 HB25 HC01                       HC08 HC14 HC15 HC16 HC27                       HC31 HD16 HD23                 2F029 AA02 AB01 AB07 AB13 AC02                       AC13 AC16 AC18                 5E501 AA13 AA23 AC03 AC34 BA13                       BA15 CA02 CB15 EA21 EB05                       EB18 FA14 FA46 FB25                 5H180 AA01 BB05 CC02 CC12 FF04                       FF05 FF12 FF13 FF22 FF25                       FF27 FF33 FF40

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 人工的な擬似生命体を車室内に出現させ
るエージェント出現手段と、 運転者に関する各種情報が順次格納される運転者情報格
納手段と、 車両の状況及び運転者の状況のうちの少なくとも1つを
検出する状況検出手段と、 前記状況検出手段による検出結果に対応して前記擬似生
命体が表現したい状態を決定する表現状態決定手段と、 前記表現状態決定手段で決定した前記擬似生命体が表現
したい状態と、前記格納された運転者情報に基づいて前
記擬似生命体の動作を決定する動作決定手段と、 前記決定した動作を画像表示する表示手段と、を具備す
ることを特徴とするエージェント装置。
1. An agent appearance means for causing an artificial artificial life object to appear in a vehicle compartment, a driver information storage means for sequentially storing various kinds of information about a driver, and a vehicle situation and a driver situation. Situation detecting means for detecting at least one; expression state determining means for determining a state desired to be expressed by the pseudo life object in response to a detection result by the situation detecting means; and the pseudo life determined by the expression state determining means. A state in which the body wants to be expressed, a motion determining unit that determines a motion of the pseudo-life form based on the stored driver information, and a display unit that displays the determined motion as an image. Agent device that does.
【請求項2】 前記擬似生命体が人間型である場合の動
作が規定された人間型動作記憶手段と、 前記擬似生命体が非人間型である場合の動作が規定され
た非人間型動作記憶手段と、を備え、 前記動作決定手段は、前記人間型動作記憶手段又は前記
非人間型動作記憶手段に規定された動作に基づいて前記
擬似生命体の動作を決定することを特徴とする請求項1
に記載のエージェント装置。
2. A human-type action storage unit that defines an action when the pseudo-life is a human type, and a non-human action memory that defines an action when the pseudo-life is a non-human type. Means, wherein the motion determining means determines the motion of the pseudo-living body based on the motion defined in the human-type motion storage means or the non-human-type motion storage means. 1
The agent device described in 1.
【請求項3】 人工的な擬似生命体を車室内に出現させ
るエージェント出現手段と、 車両の状況及び運転者の状況のうちの少なくとも1つを
検出する状況検出手段と、 前記擬似生命体が人間型である場合の動作が規定された
動作記憶手段と、 前記状況検出手段による検出結果に対応して前記擬似生
命体が表現したい状態を決定する表現状態決定手段と、 前記表現状態決定手段で決定した前記擬似生命体が表現
したい状態と、前記動作記憶手段に基づいて前記擬似生
命体の動作を決定する動作決定手段と、 前記決定した動作を画像表示する表示手段とを備え、 前記動作決定手段は、運転者が非人間型の擬似生命体を
選択した場合、当該非人間型の擬似生命体の各部位を前
記人間型の擬似生命体の構成部位に対応させて動作を決
定することを特徴とするエージェント装置。
3. An agent appearance means for causing an artificial artificial life object to appear in a vehicle compartment, a situation detection means for detecting at least one of a vehicle situation and a driver's situation, and the artificial life object is a human being. A motion storing unit that defines a motion in the case of a type, an expression state determining unit that determines a state that the pseudo life object wants to express corresponding to a detection result by the situation detecting unit, and an expression state determining unit A motion deciding means for deciding a motion of the quasi-living object based on the motion storing means, and a display means for displaying the decided motion as an image. When the driver selects a non-human type pseudo life form, the operation is determined by associating each part of the non-human type pseudo life form with the constituent part of the human type pseudo life form. Agent device to collect.
【請求項4】 運転者に関する各種情報が順次格納され
る運転者情報格納手段を備え、 前記動作決定手段は、前記格納された運転者情報に基づ
いて前記擬似生命体の動作を決定することを特徴とする
請求項3に記載のエージェント装置。
4. A driver information storage means for sequentially storing various kinds of information about the driver, wherein the motion determining means determines a motion of the pseudo-life form based on the stored driver information. The agent device according to claim 3, wherein the agent device is provided.
【請求項5】 前記運転者情報格納手段は、運転者の出
身地域、運転者の趣味、職業、運転者の習慣、学歴の内
の少なくとも1つである、ことを特徴とする請求項1又
は請求項4に記載のエージェント装置。
5. The driver information storage means is at least one of a driver's area of origin, a driver's hobby, occupation, driver's habit, and educational background. The agent device according to claim 4.
JP2001304562A 2001-09-28 2001-09-28 Agent apparatus Pending JP2003106846A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001304562A JP2003106846A (en) 2001-09-28 2001-09-28 Agent apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001304562A JP2003106846A (en) 2001-09-28 2001-09-28 Agent apparatus

Publications (1)

Publication Number Publication Date
JP2003106846A true JP2003106846A (en) 2003-04-09

Family

ID=19124464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001304562A Pending JP2003106846A (en) 2001-09-28 2001-09-28 Agent apparatus

Country Status (1)

Country Link
JP (1) JP2003106846A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030847A (en) * 2004-07-21 2006-02-02 Yamaha Corp Electronic musical instrument, and control program for electronic musical instrument
JP2007183660A (en) * 2007-02-15 2007-07-19 Yamaha Corp Electronic musical instrument and control program of electronic musical instrument
CN100442017C (en) * 2004-02-12 2008-12-10 三菱电机株式会社 Navigation device
JP4827992B1 (en) * 2010-11-16 2011-11-30 三菱電機株式会社 Video information distribution display system and video information distribution display method
JP2014182821A (en) * 2013-03-15 2014-09-29 Avaya Inc System and method for identifying and intervening in common opportunity
US9227640B2 (en) 2009-11-12 2016-01-05 Mitsubishi Electric Corporation Video information delivery and display system and video information delivery and display method
JP2019098780A (en) * 2017-11-28 2019-06-24 株式会社Subaru Driving advice device and driving advice method
JP2020160640A (en) * 2019-03-26 2020-10-01 本田技研工業株式会社 Ride-share server device, information processing system, agent system, control method of ride-share server device, and program
JPWO2022079933A1 (en) * 2020-10-14 2022-04-21

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09153145A (en) * 1995-12-01 1997-06-10 Matsushita Electric Ind Co Ltd Agent display
JP2001056225A (en) * 1999-08-17 2001-02-27 Equos Research Co Ltd Agent device
JP2001227962A (en) * 2000-02-15 2001-08-24 Fujitsu Ten Ltd Navigation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09153145A (en) * 1995-12-01 1997-06-10 Matsushita Electric Ind Co Ltd Agent display
JP2001056225A (en) * 1999-08-17 2001-02-27 Equos Research Co Ltd Agent device
JP2001227962A (en) * 2000-02-15 2001-08-24 Fujitsu Ten Ltd Navigation device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100442017C (en) * 2004-02-12 2008-12-10 三菱电机株式会社 Navigation device
JP2006030847A (en) * 2004-07-21 2006-02-02 Yamaha Corp Electronic musical instrument, and control program for electronic musical instrument
JP4552224B2 (en) * 2004-07-21 2010-09-29 ヤマハ株式会社 Electronic musical instrument and electronic musical instrument control program
JP2007183660A (en) * 2007-02-15 2007-07-19 Yamaha Corp Electronic musical instrument and control program of electronic musical instrument
JP4591457B2 (en) * 2007-02-15 2010-12-01 ヤマハ株式会社 Electronic musical instrument and electronic musical instrument control program
US9227640B2 (en) 2009-11-12 2016-01-05 Mitsubishi Electric Corporation Video information delivery and display system and video information delivery and display method
JP4827992B1 (en) * 2010-11-16 2011-11-30 三菱電機株式会社 Video information distribution display system and video information distribution display method
US9457818B2 (en) 2010-11-16 2016-10-04 Mitsubishi Electric Corporation Video information distributing and displaying system and video information distributing and displaying method
WO2012066641A1 (en) * 2010-11-16 2012-05-24 三菱電機株式会社 Video information distribution/display system and video information distribution/display method
JP2014182821A (en) * 2013-03-15 2014-09-29 Avaya Inc System and method for identifying and intervening in common opportunity
JP7116540B2 (en) 2017-11-28 2022-08-10 株式会社Subaru Driving advice device and driving advice method
JP2019098780A (en) * 2017-11-28 2019-06-24 株式会社Subaru Driving advice device and driving advice method
JP2020160640A (en) * 2019-03-26 2020-10-01 本田技研工業株式会社 Ride-share server device, information processing system, agent system, control method of ride-share server device, and program
JPWO2022079933A1 (en) * 2020-10-14 2022-04-21
CN114787759A (en) * 2020-10-14 2022-07-22 住友电气工业株式会社 Communication support program, communication support method, communication support system, terminal device, and non-language expression program
JP7193015B2 (en) 2020-10-14 2022-12-20 住友電気工業株式会社 Communication support program, communication support method, communication support system, terminal device and non-verbal expression program
US20230315382A1 (en) * 2020-10-14 2023-10-05 Sumitomo Electric Industries, Ltd. Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program
US11960792B2 (en) 2020-10-14 2024-04-16 Sumitomo Electric Industries, Ltd. Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program
CN114787759B (en) * 2020-10-14 2024-08-06 住友电气工业株式会社 Communication support method, communication support system, terminal device, and storage medium

Similar Documents

Publication Publication Date Title
JP5019145B2 (en) Driver information collection device
JP4193300B2 (en) Agent device
JP3873386B2 (en) Agent device
JP4353310B2 (en) In-vehicle device
JP3965538B2 (en) Agent device
US20040225416A1 (en) Data creation apparatus
JPH11259446A (en) Agent device
JP4936094B2 (en) Agent device
JP2000020888A (en) Agent device
JP4441939B2 (en) Destination setting device
JP4259054B2 (en) In-vehicle device
JP4207350B2 (en) Information output device
JP4253918B2 (en) Agent device
JP2003106846A (en) Agent apparatus
JP2000186942A (en) Agent mental model preparing method, and agent device
JP4258607B2 (en) In-vehicle device
JP4032492B2 (en) Agent device
JP2004037953A (en) On-vehicle device, and device and program for data creation
JP2003157489A (en) Operation control device
JP2004053251A (en) In-vehicle device, data creating device and data creation program
JP4356450B2 (en) In-vehicle device
JP2004050975A (en) In-vehicle device, data preparation device, and data preparation program
JP4059019B2 (en) In-vehicle device and data creation device
JP2004051074A (en) In-vehicle device, data preparation device, and data preparation program
JP2004061252A (en) On-vehicle device, data generation device and data generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110401