JP2005283531A - Vehicle-mounted device and data-preparing device - Google Patents

Vehicle-mounted device and data-preparing device Download PDF

Info

Publication number
JP2005283531A
JP2005283531A JP2004101851A JP2004101851A JP2005283531A JP 2005283531 A JP2005283531 A JP 2005283531A JP 2004101851 A JP2004101851 A JP 2004101851A JP 2004101851 A JP2004101851 A JP 2004101851A JP 2005283531 A JP2005283531 A JP 2005283531A
Authority
JP
Japan
Prior art keywords
scenario
scene
data
passenger
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004101851A
Other languages
Japanese (ja)
Inventor
Tadashi Hirano
正 平野
Tomoki Kubota
智氣 窪田
Hideaki Morita
英明 森田
Yoichi Nomoto
洋一 野本
Hidefumi Okabe
英文 岡部
Kazuhide Adachi
和英 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2004101851A priority Critical patent/JP2005283531A/en
Publication of JP2005283531A publication Critical patent/JP2005283531A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce the sense of incongruity for a passenger, with respect to a vehicle to outputted voice content. <P>SOLUTION: When a scenario preparer can assume the person who sits on each seat, speech (polite and frank expression) differing for each seat is set. When a person who sits on the seat cannot be foreseen, a scenario editor sets the type of a passenger (age, sex, social status), and speech corresponding to each type is created for each scene. An agent device specifies the type and seat position of a passenger, in advance, for example by asking questions and obtaining responses to the questions. A scenario for satisfying the automatic start conditions of the scenario is executed. When there are a plurality of speeches outputted at each scene and the seat is specified for each speech, speech is outputted from a loudspeaker at a position, corresponding to the specified seat. When the type of passengers to each speech is set, speech is outputted from a loudspeaker, corresponding to the type and seat position of the passenger that are specified, in advance. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車載装置及びデータ作成装置に係り、例えば、車両の搭乗者とのコミュニケーションにより会話をしたり機器操作等を自律的に行うエージェント機能を備えた車載装置、及びそのデータ作成装置に関する。   The present invention relates to an on-vehicle device and a data creation device, and for example, relates to an on-vehicle device having an agent function for carrying out a conversation or autonomously operating a device by communicating with a vehicle occupant, and the data creation device.

車室内においてナビゲーション装置等の機器操作の案内をしたり状況に応じた質問や提案等を行うことで搭乗者との対話や対応等のコミュニケーションをするエージェント装s置が下記の特許文献1で提案されている。
このエージェント装置では、エージェントの挨拶や、給油時期のお知らせといったコミュニケーションをするようになっており、コミュニケーションの内容に応じた画像や動画が表示装置に表示される。
The following Patent Document 1 proposes an agent device that communicates with the passengers by interacting with the passengers by guiding the operation of the navigation device and other equipment in the passenger compartment and by asking questions and making suggestions according to the situation. Has been.
In this agent device, communication such as greeting of the agent and notification of refueling time is performed, and an image and a moving image corresponding to the content of the communication are displayed on the display device.

このようなエージェント装置(車載装置)が行う各種処理のためのシナリオデータを、プログラムの知識の有無に関係なく容易に作成できるようにしたデータ作成装置(シナリオエディタ)が特許文献2で提案されている。
このデータ作成装置では、各シーンが連続するシナリオを特定するシナリオデータ(一部プログラムを含む場合がある)によって指示された処理の実行であるととらえ、シナリオデータの形式を規格化し、シナリオデータの各シーン毎に画像や音声内容を規定するようになっている。
そして、車載装置では、起動条件を満たしたシナリオが自動的に起動され、シナリオで規定されているキャラクタが画像表示されたり音声出力されたりする。
Patent Document 2 proposes a data creation device (scenario editor) that can easily create scenario data for various processes performed by such an agent device (on-vehicle device) regardless of the presence or absence of knowledge of a program. Yes.
In this data creation device, it is assumed that the processing is instructed by scenario data (which may include a part of the program) that specifies a scenario in which each scene is continuous, and the scenario data format is standardized. The contents of images and sounds are defined for each scene.
In the in-vehicle device, the scenario that satisfies the activation condition is automatically activated, and the character defined in the scenario is displayed as an image or output as audio.

特開平11−37766号JP 11-37766 A 特開2004−28720JP 2004-28720 A

従来のシナリオ作成装置では、エージェントの台詞の内容がテキスト文で定義されるが、定義される台詞内容は各シーンにおいて1種類であり、音声を聞く対象が誰かによっての区別はされていず、すべての搭乗者(ユーザ)に対して同じ内容の台詞が提供されている。
しかし、車両の搭乗者には、老人から子供まで種々の年齢層や性別、社会的地位のユーザがいるのに対して、エージェントの台詞は1種類の言い方でしかしゃべらないので、ユーザによっては、台詞の意味が分かりにくかったり、違和感を持ったりする場合がある。
In the conventional scenario creation device, the content of the agent's dialogue is defined by a text sentence. However, the content of the defined dialogue is one type in each scene, and the target of listening to the voice is not distinguished by anyone. The same lines are provided to the passengers (users).
However, while there are users of various ages, genders, and social status, from the elderly to children, the vehicle's passengers can speak only one type of agent's dialogue, so for some users, The meaning of dialogue may be difficult to understand or may be uncomfortable.

本発明は、出力される音声内容に対する車両搭乗者の違和感を少なくすることを目的とする。   An object of the present invention is to reduce a sense of discomfort of a vehicle occupant with respect to output audio content.

(1)請求項1に記載した発明では、車載表示装置が表示する画面構成を設定する画面構成設定手段と、出力する音声を車両搭乗者の種別毎に設定する音声設定手段と、前記設定された画面構成と前記設定された音声とが共に出力される形式としての画面要素を作成する画面要素作成手段と、該作成された画面要素を連続的に組み合わせて構成された画面要素推移体データを作成する画面要素推移体作成手段と、をデータ作成装置に具備させて前記目的を達成する。
(2)請求項2に記載した発明では、画面構成と、車両搭乗者の種別毎に定義された音声とが共に出力される形式としての画面要素を連続的に組み合わせて構成された画面要素推移体データを、車外から取得して記憶する画面要素推移体記憶手段と、表示画面を有する表示装置と、車両搭乗者の種別及び該搭乗者の搭乗座席位置を特定する搭乗者特定手段と、車両に配置された複数の音声出力装置と、前記画面要素推移体データを実行する画面要素推移体実行手段と、を車載装置に具備させ、前記画面要素推移体データを実行することにより、前記画面構成が前記表示装置に表示されると共に、前記特定した搭乗者の種別に対応する音声を、当該搭乗者の搭乗座席位置に対応させて前記音声出力装置から出力される、ことで前記目的を達成する。
(3)請求項3に記載した発明では、請求項2に記載の車載装置において、搭乗者に対して質問する質問手段と、該質問に対する返答を搭乗者から受領する返答受領手段と、を備え、前記搭乗者特定手段は、前記返答受領手段による返答の内容により、搭乗者の搭乗座席位置及び搭乗者の種別を特定することを特徴とする。
(4)請求項4に記載した発明では、請求項2に記載の車載装置において、前記搭乗者の種別は、年齢、性別、社会的地位のうち少なくとも1つであることを特徴とする。
(1) In the invention described in claim 1, the screen configuration setting means for setting the screen configuration displayed by the in-vehicle display device, the voice setting means for setting the output voice for each type of vehicle occupant, and the setting Screen element creation means for creating a screen element as a format in which both the screen composition and the set sound are output, and screen element transition body data configured by continuously combining the created screen elements A screen element transition body creation means to be created is provided in the data creation device to achieve the object.
(2) In the invention described in claim 2, a screen element transition configured by continuously combining screen elements as a format in which a screen configuration and a sound defined for each type of vehicle occupant are output together. Screen element transition body storage means for acquiring and storing body data from outside the vehicle, a display device having a display screen, a passenger identification means for identifying the type of the vehicle passenger and the boarding seat position of the passenger, and the vehicle A plurality of audio output devices arranged on the screen, and a screen element transition body executing means for executing the screen element transition body data. Is displayed on the display device, and voice corresponding to the identified passenger type is output from the voice output device in correspondence with the boarding seat position of the passenger. .
(3) In the invention described in claim 3, the vehicle-mounted device according to claim 2, further comprising: question means for asking a question to the passenger; and response receiving means for receiving a response to the question from the passenger. The passenger identification means identifies the boarding seat position of the passenger and the type of the passenger according to the content of the response by the response receiving means.
(4) The invention described in claim 4 is the vehicle-mounted device according to claim 2, wherein the type of the passenger is at least one of age, sex, and social status.

請求項1記載の本発明によれば、データ作成装置において、出力する音声を車両搭乗者の種別毎に設定するようにしたので、出力される音声内容に対する車両搭乗者の違和感を少なくすることができる。
請求項2から請求項4に記載した発明によれば、車両搭乗者の種別及び該搭乗者の搭乗座席位置を特定し、搭乗者の種別に対応する音声を、当該搭乗者の搭乗座席位置に対応させて音声出力装置から出力するので、出力される音声内容に対する車両搭乗者の違和感を少なくすることができる。
According to the first aspect of the present invention, since the output voice is set for each type of vehicle occupant in the data creation device, the vehicle occupant's uncomfortable feeling with respect to the output voice content can be reduced. it can.
According to the invention described in claim 2 to claim 4, the type of the vehicle occupant and the boarding seat position of the occupant are specified, and the voice corresponding to the type of the passenger is sent to the boarding seat position of the passenger. Corresponding output from the audio output device can reduce the vehicle passenger's discomfort with respect to the output audio content.

以下、本発明の車載装置の好適な実施形態であるエージェント装置について、図1から図16を参照して詳細に説明する。
(1)実施形態の概要
本実施形態では、特許文献2と同様に、連続する複数のシーンで構成されるシナリオをシナリオエディタ(データ作成装置)で作成し、作成したシナリオを車載装置で実行する。
本実施形態では、シナリオに従ってエージェント装置が行う一連の処理を、エージェントの行為や動作として説明する。
Hereinafter, an agent device which is a preferred embodiment of the in-vehicle device of the present invention will be described in detail with reference to FIGS.
(1) Outline of Embodiment In this embodiment, as in Patent Document 2, a scenario composed of a plurality of continuous scenes is created by a scenario editor (data creation device), and the created scenario is executed by an in-vehicle device. .
In the present embodiment, a series of processing performed by the agent device according to the scenario will be described as an agent's action and operation.

各シナリオは、画面表示と同期して実行される処理内容が定義されたシーン(画面要素)を最小単位として、1又は連続する複数のシーンで構成される。
シナリオは、所定のシーンから次のシーンに移行するための移行条件(シーンが分岐する条件を含む)と、合致した移行条件に対する移行先のシーンを特定する移行先データとから、各シーンの展開構成が規定される。
また、各シナリオを自動的に実行するために自律起動条件が、年月日、時間、位置、道路種別、車両状態、ナビゲーション装置の稼動状態、使用者データによる個別条件の論理的組み合わせで構成される。
Each scenario is composed of one or a plurality of continuous scenes with a scene (screen element) in which processing contents executed in synchronization with screen display are defined as a minimum unit.
Scenarios are developed from transition conditions (including conditions for scene branching) for transitioning from a predetermined scene to the next scene, and transition destination data that identifies the transition destination scene for the matched transition conditions. Configuration is defined.
In addition, in order to automatically execute each scenario, the autonomous activation condition is composed of a logical combination of date, time, position, road type, vehicle state, navigation device operating state, and individual conditions based on user data. The

本実施形態では、シナリオエディタにおいて、車両の座席を指定し、各座席用の台詞を各シーン毎に設定する機能を備える。
例えば、前座席には大人が座り、後座席には子供が座る場合を想定したシナリオでは、前座席用には丁寧な台詞を設定し、後座席用にはフランクな台詞を設定する。
具体的には「今日はいい天気」という意味の台詞を設定する場合、前座席用に「今日はよい天候ですね。」と設定し、後座席用に「今日はいい天気だね。」と設定される。
In this embodiment, the scenario editor has a function of designating a seat of a vehicle and setting a dialogue for each seat for each scene.
For example, in a scenario assuming that an adult sits in the front seat and a child sits in the back seat, a polite line is set for the front seat and a frank line is set for the back seat.
Specifically, when setting the dialogue meaning “Today's good weather”, set “Today is good weather” for the front seat, and “Today is good weather” for the rear seat. Is set.

シナリオの作成者が座席に座る人を想定できない場合、シナリオエディタでは、搭乗者の種別(年齢、性別、社会的地位)を設定し、各種別に対応した台詞をシーン毎に作成する。   When the scenario creator cannot assume a person sitting on the seat, the scenario editor sets the type of passenger (age, gender, social status), and creates dialogues corresponding to each type for each scene.

一方、エージェント装置(車載装置)では、シナリオを実行する際に、座席の位置や搭乗者種別毎に設定された台詞については、対応する座席のスピーカから出力する。
すなわち、エージェント装置では、予め搭乗者の種別と座席位置を、質問をしてその返答を得ること等によって特定しておく。
そして、シナリオの自動起動条件を満たしたシナリオを実行し、各シーンにおいて出力する台詞が複数あり、各台詞に対して座席が指定されている場合には指定されている座席に対応する位置のスピーカから台詞を出力する。
一方、各台詞に対して搭乗者の種別が設定されている場合、予め特定しておいた搭乗者の種別と座席位置に対応するスピーカから台詞を出力する。
On the other hand, in the agent device (on-vehicle device), when the scenario is executed, the speech set for each seat position and passenger type is output from the speaker of the corresponding seat.
That is, the agent device specifies the passenger type and seat position in advance by asking a question and obtaining a response.
Then, when a scenario that satisfies the scenario automatic start condition is executed and there are multiple lines to be output in each scene, and a seat is specified for each line, a speaker at a position corresponding to the specified seat Output dialogue.
On the other hand, when the passenger type is set for each line, the line is output from the speaker corresponding to the passenger type and seat position specified in advance.

このように、搭乗者の種別に対応した台詞をシナリオエディタで作成し、エージェント装置では搭乗者の座席位置のスピーカから出力することで、各搭乗者(ユーザ)に適切な言葉の台詞を提供することができる。
例えば、「天候」という言葉の意味を理解できない後座席の子供であっても、「天気」という台詞の内容を理解することができる。
特に、1BOXカーなど前席と後席の距離が離れている車両に搭載されたエージェント装置の場合、お互いの位置のスピーカーから出力される音声はあまり干渉されないので、前座席と後座席で台詞内容を変化させて出力することにより、前席と後席のユーザに違う言い回しの台詞で分かりやすく伝えることができる。
In this way, dialogue corresponding to the type of the passenger is created by the scenario editor, and the agent device provides a speech of an appropriate language to each passenger (user) by outputting from the speaker at the seat position of the passenger. be able to.
For example, even a child in the back seat who cannot understand the meaning of the word “weather” can understand the content of the line “weather”.
In particular, in the case of an agent device installed in a vehicle such as a 1BOX car where the distance between the front seat and the rear seat is long, the audio output from the speakers at each position does not interfere so much, so the content of the dialogue between the front seat and the rear seat By changing the output, it is possible to convey in an easy-to-understand manner to the front seat and rear seat users with different phrases.

(2)実施形態の詳細
図1は、エージェント装置(車載装置)とシナリオ作成装置(データ作成装置)及びサーバからなる全体のシステム構成を表したものである。
このシステムでは、シナリオ作成プログラムであるシナリオエディタを組み込んだシナリオ作成装置(コンピュータ)2(2a、2b、…)と、例えばインターネット等のネットワークを介してシナリオを配信するサーバ3(A、B、…)と、エージェント装置1との構成の一例を示したものである。
シナリオ作成装置2は、ユーザ又は第三者であるシナリオデータ作成者の操作によって、シナリオ作成プログラムに従って指定された規格でシナリオデータが作成される。
(2) Details of Embodiment FIG. 1 shows an overall system configuration including an agent device (on-vehicle device), a scenario creation device (data creation device), and a server.
In this system, a scenario creation device (computer) 2 (2a, 2b,...) Incorporating a scenario editor, which is a scenario creation program, and servers 3 (A, B,...) That distribute scenarios via a network such as the Internet. ) And an example of the configuration of the agent device 1.
The scenario creation device 2 creates scenario data according to a standard specified in accordance with a scenario creation program by an operation of a scenario data creator who is a user or a third party.

シナリオ作成者は、所定形式のシナリオデータを、例えば、シナリオエディタを使用してシナリオ作成装置2aで作成してホームページに掲載し(サーバ3Aにアップロードし)、エージェント装置1を持ったユーザからダウンロード可能にする。
シナリオ作成装置2からアップロードするサーバはサーバ3Aに限定されるものでなく、シナリオ作成者が契約しているプロバイダ等インターネット上のどのサーバ3A、3B、…でもよい。また、別のシナリオ作成者が、シナリオ作成装置2bで作成し、ホームページに掲載してサーバBにアップロードし、エージェント装置1を持ったユーザからダウンロード可能にする。
このように、さまざまなシナリオ作成者が、さまざまなサーバに自身の作成したシナリオをアップロードする。
エージェント装置1のユーザは、エージェント装置1のブラウザを使用して、サーバ3群(A、B、…)の中から、自分が欲しいと思うシナリオをブラウズし、気に入ったシナリオがあればダウンロードし、装置内に組み込むことで、ダウンロードしたシナリオデータをエージェント装置1で動作させることが可能になる。
The scenario creator can create scenario data in a predetermined format using the scenario editor 2a using the scenario editor, post it on the homepage (upload to the server 3A), and download it from the user with the agent device 1 To.
The server uploaded from the scenario creation device 2 is not limited to the server 3A, and may be any server 3A, 3B,... On the Internet, such as a provider contracted by the scenario creator. Further, another scenario creator creates the scenario with the scenario creation device 2b, posts it on the homepage, uploads it to the server B, and makes it downloadable from the user who has the agent device 1.
In this way, various scenario creators upload their created scenarios to various servers.
The user of the agent device 1 uses the browser of the agent device 1 to browse the scenario he / she wants from the server 3 group (A, B,...), Downloads the scenario he / she likes, By incorporating it into the device, the downloaded scenario data can be operated on the agent device 1.

また、エージェント装置1のユーザは、自身が持っているシナリオ作成装置2aのブラウザを使用して、サーバ3(A、B、…)の中から、自分が欲しいと思うシナリオをブラウズし、ダウンロードしてもよい。
この場合、DVD−ROM、ICカード等の半導体記憶装置その他の記憶媒体に、ダウンロードしたシナリオデータや自作したシナリオデータを格納して、エージェント装置1に受け渡す。そして、シナリオデータを受け取ったエージェント装置1では、記憶媒体駆動装置により記憶媒体からシナリオデータを読み込んで、組み込むことで、ダウンロードしたシナリオデータをエージェント装置1で動作させることが可能になる。
Further, the user of the agent device 1 browses and downloads the scenario he / she wants from the server 3 (A, B,...) Using the browser of the scenario creation device 2a he has. May be.
In this case, the downloaded scenario data or self-made scenario data is stored in a semiconductor storage device or other storage medium such as a DVD-ROM or an IC card, and delivered to the agent device 1. The agent device 1 that has received the scenario data reads the scenario data from the storage medium by the storage medium driving device and incorporates it, so that the downloaded scenario data can be operated on the agent device 1.

次に、開発者やユーザによって作成されたシナリオに従ってエージェントが自律的に起動するエージェント装置1について、その構成と動作を説明する。
図2は、本実施形態におけるエージェント装置1の構成を表したブロック図である。
本実施形態におけるエージェント装置1は、車両に搭載されおり、車両内のユーザとの間でコミュニケーションを行なう機能や車両に対して所定の処理を行なう車両制御機能等のエージェント機能の他、ユーザに走行経路の案内等を行なうナビゲーション機能も備えている。
Next, the configuration and operation of the agent device 1 in which an agent autonomously starts according to a scenario created by a developer or a user will be described.
FIG. 2 is a block diagram showing the configuration of the agent device 1 in the present embodiment.
The agent device 1 according to the present embodiment is mounted on a vehicle and travels to a user in addition to an agent function such as a function of communicating with a user in the vehicle and a vehicle control function of performing predetermined processing on the vehicle. It also has a navigation function for route guidance.

本実施形態のエージェント装置1のエージェント機能では、搭乗者の存在又は変化を検出した際に、搭乗者を特定する搭乗者特定機能を備えている。
本実施形態における搭乗者特定機能としては、助手席に新たな搭乗者を検出した場合に、「助手席の搭乗者はだれですか?」といった質問をし、その回答から搭乗者の種別を特定する。例えば、登録されてるユーザであれば、ユーザ情報と氏名等の解答とから種別を特定し、登録されていないユーザであれば、年齢、性別、社会的地位についての質問と解答から種別を特定する。
The agent function of the agent device 1 according to the present embodiment includes a passenger identification function that identifies a passenger when the presence or change of the passenger is detected.
As a passenger identification function in the present embodiment, when a new passenger is detected in the passenger seat, a question such as “Who is the passenger in the passenger seat?” Is identified, and the type of the passenger is identified from the answer. . For example, if the user is a registered user, the type is specified from the user information and answer such as name, and if the user is not registered, the type is specified from the question and answer about age, gender, and social status. .

また、本実施形態におけるエージェント装置1のエージェント機能では、シナリオのシーンにおいて複数の台詞と、座席位置又は搭乗者種別とが設定されている場合、その座席位置や搭乗者種別に対応するスピーカを特定し、特定したスピーカから対応する台詞を出力する機能を備えている。   Further, in the agent function of the agent device 1 in the present embodiment, when a plurality of lines and a seat position or a passenger type are set in the scenario scene, a speaker corresponding to the seat position or the passenger type is specified. And a function to output a corresponding line from the specified speaker.

本実施形態のエージェント装置では、エージェント機能および、ナビゲーション機能を実現するための中央処理装置(1)、表示装置(2)、音声出力装置(3)、音声入力装置(4)、入力装置(5)、各種状況検出装置(6)、各種車載装置(7)、通信制御装置(8)、通信装置(9)、情報記憶装置(10)を備えている。   In the agent device of this embodiment, the central processing unit (1), the display device (2), the voice output device (3), the voice input device (4), the input device (5) for realizing the agent function and the navigation function. ), Various status detection devices (6), various in-vehicle devices (7), a communication control device (8), a communication device (9), and an information storage device (10).

中央処理装置(1)は、種々の演算処理を実行するCPU(1-1)、情報記憶装置(10)からプログラムを読み込んで格納するフラッシュメモリ(1-2)、フラッシュメモリ(1-2)のプログラムチェック、更新処理を行なうプログラム(プログラム読み込み手段)を格納したROM(1-3)、CPU(1-1)がワーキングメモリとして演算処理中のデータを一時的に格納するRAM(1-4)、時計(1-5)、表示装置(2)への画面表示に使用する画像データが記憶された画像メモリ(1-7)、CPU(1-1)からの表示出力制御信号に基づいて画像メモリ(1-7)から画像データを取り出し、画像処理を施して表示装置(2)に出力する画像プロセッサ(1-6)、CPU(1-1)からの音声出力制御信号をアナログ信号に変換して音声出力装置(3)に出力する処理と、音声入力装置(4)から入力されたアナログ信号をデジタルの音声入力信号に変換する処理を行なう音声プロセッサ(1-8)、入力装置(5)による入力内容を受け取る入力装置I/F部(1-9)、各種状況を検出するための検出器類から情報を受け取るための各種入力I/F部(1-10)、他の装置と情報のやり取りを行なう通信I/F部(1-11)、CD-ROMやICカード類、ハードディスク等といった情報記憶媒体(10-2)からデータ及びプログラムといった情報を読み込んだり、情報を書き込んだりする情報記憶装置(10)と情報のやり取りを行なうための情報記憶装置I/F部(1-12)を備えている。   The central processing unit (1) includes a CPU (1-1) that executes various arithmetic processes, a flash memory (1-2) that reads and stores a program from the information storage device (10), and a flash memory (1-2) ROM (1-3) that stores the program (program reading means) that performs the program check and update processing of the RAM, and RAM (1-4) that temporarily stores the data being processed as the working memory by the CPU (1-1) ), Clock (1-5), image memory (1-7) that stores image data used for screen display on display device (2), based on display output control signal from CPU (1-1) Image processor (1-6) that extracts image data from image memory (1-7), performs image processing and outputs it to display device (2), and converts audio output control signals from CPU (1-1) to analog signals Conversion and output to the audio output device (3) and conversion of the analog signal input from the audio input device (4) into a digital audio input signal To receive information from the audio processor (1-8), the input device I / F unit (1-9) that receives input from the input device (5), and detectors for detecting various situations Various input I / F units (1-10), communication I / F units (1-11) for exchanging information with other devices, information storage media such as CD-ROMs, IC cards, and hard disks (10-2) ) Includes an information storage device I / F unit (1-12) for reading information such as data and programs from / to the information storage device (10) for writing information.

この中央処理装置(1)は、経路探索処理や、経路案内に必要な表示案内処理や、インターネットの閲覧やメールを使用したシナリオのダウンロード等の、その他システム全体において必要な処理、本実施形態におけるエージェント処理(エージェントと運転者との各種コミュニケーションや操作代行、状況判断を行ないその結果に応じて自律的に行なう処理)を行なうようになっている。
本実施形態におけるプログラムを含め、CPU(1-1)で実行される全てのプログラムは、情報記憶媒体(10-2)であるCD-ROM等に格納されてもよいし、それらプログラムの一部または全てが本体側のROM(1-3)またはフラッシュメモリ(1-2)に格納するようにしてもよい。
この情報記憶媒体(10-2)に記憶されたデータやプログラムが外部信号として中央処理装置(1)に入力されて演算処理されることにより、種々のエージェント機能及びナビゲーション機能が実現されるようになっている。
This central processing unit (1) is a route search process, a display guidance process necessary for route guidance, and other processes necessary for the entire system, such as browsing the Internet and downloading scenarios using mail, in this embodiment. Agent processing (various communication between the agent and the driver, operation proxy, situation determination, and autonomous processing according to the result) is performed.
All the programs executed by the CPU (1-1) including the program in the present embodiment may be stored in a CD-ROM or the like as the information storage medium (10-2), or a part of the programs Alternatively, all may be stored in the ROM (1-3) or the flash memory (1-2) on the main body side.
Data and programs stored in the information storage medium (10-2) are input as external signals to the central processing unit (1) and processed to realize various agent functions and navigation functions. It has become.

本実施形態の中央処理装置(1)は、ROM(1-3)に格納された自律起動判断プログラムに従って、各種状況検出装置からの入力が起動条件を満たしたか否かを判断することで、条件判断手段として機能する。   The central processing unit (1) of the present embodiment determines whether or not the input from various status detection devices satisfies the activation condition according to the autonomous activation determination program stored in the ROM (1-3). It functions as a judgment means.

また中央処理装置(1)は、搭乗者特定処理プログラムに従って、搭乗者の座席位置と種別を特定することで、質問手段、返答受領手段として機能する。
また、中央処理装置(1)は、出力スピーカ決定処理プログラムに従って、各シーンで規定されている複数の台詞と、座席位置又は搭乗者種別とに基づいて、各台詞に対応するスピーカ(音声出力位置)を決定することで、音声出力位置決定手段として機能する。
The central processing unit (1) functions as an inquiry unit and a response reception unit by specifying the seat position and type of the passenger in accordance with the passenger identification processing program.
In addition, the central processing unit (1), in accordance with the output speaker determination processing program, based on a plurality of lines defined in each scene and a seat (sound output position) corresponding to each line ) To function as a sound output position determining means.

さらに、中央処理装置(1)は、ROM(1-3)に格納されたシナリオ実行プログラムに従って、自律起動条件を満たしたシナリオを実行し、その際に
前記画面要素推移体データを実行することにより、各シーンで定義される画面を表示すると共に、特定した搭乗者の種別に対応する台詞(音声)を、当該搭乗者の搭乗座席位置に対応させてスピーカから出力することで、画面要素推移体実行手段として機能する。
Further, the central processing unit (1) executes a scenario satisfying the autonomous activation condition according to the scenario execution program stored in the ROM (1-3), and executes the screen element transition body data at that time. The screen element transition body is displayed by displaying a screen defined in each scene and outputting a speech (voice) corresponding to the identified passenger type from the speaker in correspondence with the boarding seat position of the passenger. It functions as an execution means.

表示装置(2)は、中央処理装置(1)の処理により、経路案内用の道路地図やナビ用の操作キー等の各種画像情報が表示されたり、キャラクタの各種行動(動画)及び画面構成のパーツで構成された画面要素推移体(シナリオ)が表示されたりするようになっている。
この表示装置(2)には、液晶表示装置、CRT等の各種表示装置が使用される。
なお、この表示装置(2)は、例えばタッチパネル等の、入力装置(5)としての機能を兼ね備えたものとすることができる。
The display device (2) displays various image information such as a route map for route guidance and operation keys for navigation by the processing of the central processing device (1), and various actions (moving images) of characters and screen configurations. A screen element transition body (scenario) composed of parts is displayed.
As this display device (2), various display devices such as a liquid crystal display device and a CRT are used.
The display device (2) may have a function as an input device (5) such as a touch panel.

音声出力装置(3)は、中央処理装置(1)の処理によって声による経路案内を行なう場合の案内音声や、エージェントによる運転者との通常のコミュニケーション用の会話や搭乗者情報取得のための質問(搭乗者種別と搭乗者座席位置を特定するための質問を含む)による音声や音が出力されるようになっている。
音声出力装置(3)は、車内に配置された複数のスピーカで構成されている。
音声出力装置(3)の各スピーカは、運転席、助手席、後部座席に配置されており、各々独立してオン、オフの設定ができるようになっている。これらは、オーディオ用のスピーカと兼用するようにしてもよい。
The voice output device (3) is a guide voice when performing route guidance by voice by the processing of the central processing unit (1), a conversation for normal communication with the driver by the agent, and a question for obtaining passenger information. Voices and sounds according to (including questions for specifying the passenger type and passenger seat position) are output.
The audio output device (3) is composed of a plurality of speakers arranged in the vehicle.
Each speaker of the audio output device (3) is disposed in the driver's seat, the passenger seat, and the rear seat, and can be set on and off independently. These may also be used as audio speakers.

音声入力装置(4)は、入力された運転者の音声がアナログ信号からデジタル信号に変換され、CPU(1-1)で音声認識処理が実行されるようになっている。
音声認識の対象となる音声としては、例えば、ナビゲーション処理における目的地等の入力音声や、エージェントとの運転者の会話(運転者による応答を含む)等がある。
In the voice input device (4), the input voice of the driver is converted from an analog signal to a digital signal, and voice recognition processing is executed by the CPU (1-1).
Examples of voices that are subject to voice recognition include input voices such as destinations in navigation processing, driver conversations with agents (including responses by drivers), and the like.

入力装置(5)は、目的地設定、経路探索、経路案内の要求の他、エージェント機能による、エージェントとのコミュニケーションにおいて、エージェントからの問い合わせ等に対して運転者が応答するための1つの応答手段としても機能するようになっている。
入力装置(5)には、タッチパネル(スイッチとして機能)、キーボード、マウス、ライトペン、ジョイスティックなどの各種の装置が使用可能である。
The input device (5) is a response means for the driver to respond to inquiries from the agent in communication with the agent by the agent function in addition to the destination setting, route search, route guidance request It is supposed to function as well.
As the input device (5), various devices such as a touch panel (functioning as a switch), a keyboard, a mouse, a light pen, and a joystick can be used.

各種状況検出装置(6)は、特に図示しない1が、機器操作状況検出手段として、車両の絶対位置(緯度、経度による)を検出する現在位置検出装置、道路の混雑状況等を検出するための交通状況情報受信装置、運転操作等の状況を検出するためにブレーキ検出器、サイドブレーキ(パーキングブレーキ)検出器、アクセル開度検出器、A/Tのシフト位置検出器、ワイパ検出器、方向指示器検出器、ハザード検出器、イグニッション検出器、車両の速度を検出する車速検出器、ヘッドランプやルームランプ等のランプ類の操作状況を検出するライト検出器、運転者のシートベルト着脱操作を検出するシートベルト検出器、その他のさまざまな検出器を備えている。
現在位置検出装置としては、例えば人工衛星を利用して車両の位置を測定するGPS(Global Positioning System)受信装置、GPSの補正信号を受信するデータ送受信装置、方位センサ、舵角センサ、距離センサ等が使用される。
交通情報受信装置としては、例えば路上に配置されたビーコンから情報を受信するビーコン受信装置、FM放送電波を用いて情報を受信する装置等が使用される。
Various situation detection devices (6) are not particularly shown, but as a device operation situation detection means, a current position detection device that detects the absolute position of the vehicle (by latitude and longitude), a road congestion situation, etc. Traffic condition information receiving device, brake detector, side brake (parking brake) detector, accelerator opening detector, A / T shift position detector, wiper detector, direction indication to detect the situation such as driving operation Detector detector, hazard detector, ignition detector, vehicle speed detector that detects vehicle speed, light detector that detects the operating status of lamps such as headlamps and room lamps, and detection of driver's seat belt attachment / detachment operation It has a seat belt detector and various other detectors.
Current position detection devices include, for example, a GPS (Global Positioning System) receiver that measures the position of a vehicle using an artificial satellite, a data transmitter / receiver that receives GPS correction signals, an orientation sensor, a steering angle sensor, a distance sensor, etc. Is used.
As the traffic information receiving apparatus, for example, a beacon receiving apparatus that receives information from beacons arranged on the road, an apparatus that receives information using FM broadcast radio waves, and the like are used.

通信装置I/F部(1-11)には、他にも通信制御装置(8)が接続できるようになっている。この通信制御装置(8)には、通信装置(9)(各種無線通信機器からなる携帯電話等)が接続されるようになっている。
これらを使って電話回線による通話の他、交通情報を提供する情報提供局との通信や、エージェント処理に用いるシナリオデータを提供する情報提供局と通信を、通信装置(9)と通信制御装置(8)を介して行なうことも可能になっている。
In addition, a communication control device (8) can be connected to the communication device I / F unit (1-11). The communication control device (8) is connected to a communication device (9) (such as a mobile phone made up of various wireless communication devices).
In addition to telephone line communication using these, communication with information providing stations that provide traffic information, communication with information providing stations that provide scenario data used for agent processing, communication device (9) and communication control device ( It is also possible to carry out via 8).

本実施形態において中央処理装置(1)は、通信制御装置(8)を介してシナリオが添付された電子メールを受信することができるようになっている。
また、中央処理装置(1)には、インターネット上のホームページを表示するブラウザソフトを組み込み、CPU(1-1)で処理させることが可能であり、通信制御装置(8)を介してホームページからシナリオを含めたデータをダウンロードすることができるようになっている。
なお、通信制御装置(8)は、通信装置(9)と一体になったものを使用してもよい。
In the present embodiment, the central processing unit (1) can receive an electronic mail to which a scenario is attached via the communication control unit (8).
In addition, the central processing unit (1) can incorporate browser software that displays homepages on the Internet and can be processed by the CPU (1-1). You can download the data including.
The communication control device (8) may be integrated with the communication device (9).

情報記憶装置(10)は、情報記憶媒体駆動部(10-1)とその情報記憶媒体(10-2)を備えている。情報記憶装置(10)は、CPU(1-1)からの指示で情報記憶装置I/F部(1-12)を通して情報記憶媒体駆動部を制御して、情報記憶媒体(10-2)からデータやプログラムの読み込み、及び情報記憶媒体(10-2)へのデータやプログラムの書き込みを行なうようになっている。
情報記憶媒体(10-2)には、例えば、フレキシブルディスク、ハードディスク、CD-ROM、DVD-ROM、光ディスク、磁気テープ、ICカード類、光カード等の各種記憶媒体が使用され、使用する媒体ごとにそれぞれの情報記憶媒体駆動装置(10-1)が使用される。
The information storage device (10) includes an information storage medium driving unit (10-1) and its information storage medium (10-2). The information storage device (10) controls the information storage medium driving unit through the information storage device I / F unit (1-12) according to an instruction from the CPU (1-1), and the information storage device (10-2) Data and programs are read, and data and programs are written to the information storage medium (10-2).
As the information storage medium (10-2), for example, various storage media such as a flexible disk, a hard disk, a CD-ROM, a DVD-ROM, an optical disk, a magnetic tape, an IC card, an optical card, and the like are used. Each information storage medium driving device (10-1) is used.

CPU(1-1)は各種エージェント機能やナビゲーション機能を実現するプログラム(10-2-1)や、演算処理に使用するエージェントデータ(10-2-3)とナビゲーションデータ(10-2-2)を、上記構成例で示すDVD-ROMやICカード等から別の情報記憶装置(例えばハードディスク装置等)に格納(インストール)し、この記憶装置から必要なプログラム等をフラッシュメモリ(1-2)に読み込んで(ロードして)実行するようにしてもよいし、演算処理に必要なデータをこの記憶装置からRAM(1-4)に読み込んで(ロードして)実行するようにしてもよい。   CPU (1-1) is a program (10-2-1) that implements various agent functions and navigation functions, as well as agent data (10-2-3) and navigation data (10-2-2) used for arithmetic processing. Is stored (installed) in another information storage device (for example, a hard disk device) from the DVD-ROM or IC card shown in the above configuration example, and necessary programs are stored in the flash memory (1-2). The data may be read (loaded) and executed, or data necessary for the arithmetic processing may be read (loaded) from the storage device into the RAM (1-4) and executed.

次に、実行されるソフトウエアの構成について説明する。
本実施形態におけるエージェント装置では、エージェント機能を実現するエージェント処理部と、装置全体の制御を行うと共に主としてナビゲーション機能を実現する全体処理部とを備えており、エージェント処理部と全体処理部間では、互いの処理データを取得し合えるようになっている。
例えば、エージェント処理部は、シナリオデータに従って運転者とのコミュニケーションから目的地データを取得すると、取得した目的値データを全体処理部に供給する。
全体処理部では、供給された目的地データにより経路探索をし、作成した走行経路データに基づく経路案内を行なう。この経路案内処理において、案内に必要なデータを全体処理部からエージェント処理部に供給し、走行経路案内をするシナリオをデータ化したシナリオデータに従ってエージェントが案内することも可能である。
Next, the configuration of software to be executed will be described.
The agent device according to the present embodiment includes an agent processing unit that realizes an agent function, and an overall processing unit that controls the entire device and mainly implements a navigation function. Between the agent processing unit and the overall processing unit, The mutual processing data can be acquired.
For example, when the agent processing unit acquires the destination data from communication with the driver according to the scenario data, the agent processing unit supplies the acquired target value data to the overall processing unit.
The overall processing unit searches for a route based on the supplied destination data and performs route guidance based on the generated travel route data. In this route guidance processing, data necessary for guidance can be supplied from the overall processing unit to the agent processing unit, and the agent can guide in accordance with scenario data obtained by converting a scenario for guiding the traveling route into data.

全体処理部は、図示しないが地図描画部、経路探索部、経路案内部、現在位置計算部、目的地設定操作制御部等からなりナビゲーションの信号出力処理を行なうアプリケーション部、及び地図表示や経路案内に必要な表示出力制御、音声案内に必要な音声出力制御を行なうためのプログラム等のOS部等で構成されている。
また、この全体処理部には音声認識を行なう音声認識処理部、テキストデータを音声データに変換する処理部も存在する。
Although not shown, the overall processing unit includes a map drawing unit, a route search unit, a route guidance unit, a current position calculation unit, a destination setting operation control unit, etc., and an application unit that performs navigation signal output processing, as well as map display and route guidance. It is composed of an OS unit and the like for a program for performing display output control necessary for voice and voice output control necessary for voice guidance.
The overall processing unit also includes a speech recognition processing unit that performs speech recognition and a processing unit that converts text data into speech data.

全体処理部は、搭乗者特定処理プログラムに従って、搭乗者の存在を検出し、各搭乗者の座席位置と種別(年齢、性別等)を特定し、RAM(1-4)に一時記憶する。
RAMに一時記憶された搭乗者座席位置と種別は、エージェント処理部がシナリオを実行する際に、台詞に対応したスピーカ位置を決定する際に使用される。
The overall processing unit detects the presence of a passenger according to the passenger identification processing program, identifies the seat position and type (age, gender, etc.) of each passenger, and temporarily stores them in the RAM (1-4).
The passenger seat position and type temporarily stored in the RAM are used when the agent processing unit determines the speaker position corresponding to the dialogue when executing the scenario.

次に、エージェント処理部の構成について説明する。
図3は、エージェント処理部(101)の構成を表したものである。
エージェント処理部(101)は、シナリオ駆動部(101-1)と、自律起動判断部(101-2)と、学習部(101-3)と、キャラクタ心理部(101-4)と、描画・音声出力部(101-5)と、音声認識部(101-7)と、エージェントOS部(101-8)と、外部I/F部(101-9)とを備えている。
Next, the configuration of the agent processing unit will be described.
FIG. 3 shows the configuration of the agent processing unit (101).
The agent processing unit (101) includes a scenario driving unit (101-1), an autonomous activation determination unit (101-2), a learning unit (101-3), a character psychology unit (101-4), a drawing / A voice output unit (101-5), a voice recognition unit (101-7), an agent OS unit (101-8), and an external I / F unit (101-9) are provided.

シナリオ駆動部(101-1)は、シナリオデータ(10-2-3-4)を読み込み、そのシナリオデータに基づいて各処理部にメッセージ通信等を使って指示(各処理部が提供する機能を使用)する。シナリオ駆動部(101-1)は、シナリオの実行を管理し運転者に各種エージェント機能を提供するといったエージェント処理部の中心的な処理を行なう。   The scenario driver (101-1) reads the scenario data (10-2-3-4) and instructs each processing unit using message communication based on the scenario data (functions provided by each processing unit). use. The scenario driving unit (101-1) performs central processing of the agent processing unit such as managing scenario execution and providing various agent functions to the driver.

自律起動判断部(101-2)は、シナリオデータ(10-2-3-4)にある各シナリオの自律起動条件データを保持し、エージェントOS部(101-8)から出される定期的な自律起動判断指示により、時間、位置、状態等の各種条件と各種状況との比較、判断を行なっている。
条件が一致した場合に、自律起動判断部(101-2)はシナリオ駆動部(101-1)に対し、条件が一致したシナリオの実行要求の指示を出す。
自律起動条件と比較するための各種状況はエージェントOS部(101-8)及び学習部(101-3)から入手している。
また、定期的な自律起動判断指示以外にも、状況の変化が大きいとされる場合は、エージェントOS部(101-8)から自律起動判断指示が出されるので、自律起動判断部(101-2)は、自律起動判断処理を行なうようになっている。状況の変化が大きいとされる場合とは、例えば運転者が目的地設定を行なった場合、ナビゲーション機能による走行案内経路をはずれた場合、シナリオデータが追加された場合、シナリオデータが削除された場合等がある。
The autonomous activation determination unit (101-2) holds the autonomous activation condition data of each scenario in the scenario data (10-2-3-4), and the periodic activation issued by the agent OS unit (101-8) Various conditions such as time, position, and state are compared with various situations in accordance with an activation determination instruction, and determination is performed.
When the conditions are matched, the autonomous activation determining unit (101-2) issues an instruction to execute the scenario having the matched conditions to the scenario driving unit (101-1).
Various situations for comparison with the autonomous activation conditions are obtained from the agent OS unit (101-8) and the learning unit (101-3).
In addition to the periodic autonomous activation determination instruction, if the change in the situation is considered to be large, the autonomous activation determination instruction is issued from the agent OS unit (101-8). ) Performs autonomous activation determination processing. For example, when the driver makes a destination setting, when the driver leaves the driving guidance route using the navigation function, when scenario data is added, or when scenario data is deleted Etc.

学習部(101-3)は、エージェントとのコミュニケーションにおいて運転者の選択や応答によって入手した項目(実行結果や実行履歴)を搭乗者情報データ(10-2-3-6)や、学習項目データ及び応答データ(10-2-3-7)として格納する。
キャラクタ心理部(101-4)は、エージェントOS部(101-8)が管理している現在状況を入手し、メンタルモデル変更条件データに基づき、キャラクタの心理状態を表す5つのパラメータ(元気、友好、従順、自信、モラル)を自律的に変更する。
The learning unit (101-3) displays the items (execution results and execution history) obtained by the driver's selection and response in communication with the agent as passenger information data (10-2-3-6) and learning item data. And response data (10-2-3-7).
The character psychology unit (101-4) obtains the current situation managed by the agent OS unit (101-8), and based on the mental model change condition data, the five parameters that represent the character's psychological state (energetic and friendly) , Autonomous, self-confidence, morals).

描画・音声出力部(101-5)は、シナリオ駆動部(101-1)からの指示で選択ボタンやタイトル等のパーツから構成される画面を表示するための制御信号を作成する。また、シナリオ駆動部(101-1)からの指示で、シーンデータによる表示状態に対応するキャラクタの各種行動(動作)を画像表示するための制御信号も作成する。   The drawing / sound output unit (101-5) creates a control signal for displaying a screen composed of parts such as a selection button and a title in response to an instruction from the scenario driving unit (101-1). Further, in response to an instruction from the scenario driving unit (101-1), a control signal for displaying various actions (motions) of the character corresponding to the display state based on the scene data is also created.

描画・音声出力部(101-5)は、また、シナリオ駆動部(101-1)からの指示でエージェントが運転者とコミュニケーションを行なう際の台詞を出力するための制御信号を作成する。
描画・音声出力部(101-5)は、シナリオ駆動部(101-1)の出力スピーカ決定処理で決定したスピーカから、それぞれに対応する台詞を出力する。
The drawing / speech output unit (101-5) also creates a control signal for outputting a dialogue when the agent communicates with the driver in response to an instruction from the scenario driving unit (101-1).
The drawing / sound output unit (101-5) outputs speech corresponding to each of the speakers determined by the output speaker determination processing of the scenario drive unit (101-1).

音声認識部(101-7)は、シナリオ駆動部(101-1)からの指示により、全体処理部中の音声認識処理部に音声認識辞書を作成させるための制御信号を発する。   The voice recognition unit (101-7) issues a control signal for causing the voice recognition processing unit in the overall processing unit to create a voice recognition dictionary in response to an instruction from the scenario driving unit (101-1).

エージェントOS部(101-8)は、時間、場所、各種入力等の状況の変化(シナリオの追加も含む)を取得して現在の状況を管理し、状況の変化に対して必要に応じてメッセージ通信にて各処理部に通知する。状況の変化は、外部I/F部(101-9)を通して全体処理部から供給されたり、問い合わせたりして入手する。   The agent OS section (101-8) acquires changes in the situation (including addition of scenarios) such as time, place, and various inputs, manages the current situation, and sends a message to the situation change as necessary Notify each processing unit by communication. The change of the situation is obtained from the entire processing unit through the external I / F unit (101-9) or obtained through an inquiry.

エージェントOS部(101-8)は、自律起動判断部(101-2)に対して、定期的に自律起動判断指示を出すようになっている。この定期的な自律起動判断指示は、所定時間毎に出される。所定時間としては、定期的に出される自律起動判断指示によって定期的に処理される自律起動判断処理が、中央処理装置(1)全体の他の処理に影響しない範囲でできるだけ短い時間であることが望ましく、本実施形態では5秒間隔に設定されている。この所定時間は入力装置(5)からの操作によってユーザが当該所定時間を任意に変更することができるようにしてもよい。   The agent OS unit (101-8) regularly issues an autonomous activation determination instruction to the autonomous activation determination unit (101-2). This periodic autonomous activation determination instruction is issued every predetermined time. The predetermined time may be as short as possible within a range in which the autonomous activation determination process periodically processed by the autonomous activation determination instruction issued periodically does not affect other processes of the entire central processing unit (1). Desirably, the interval is set to 5 seconds in this embodiment. The predetermined time may be arbitrarily changed by the user by an operation from the input device (5).

また、エージェントOS部(101-8)は、状況の変化が大きいと判断された場合にも、自律起動判断部(101-2)に対して、自律起動判断指示を出すようになっている。状況の変化が大きいとされる場合とは、例えば運転者が目的地設定を行なった場合、案内経路から車両がはずれた場合、シナリオデータが追加された場合、シナリオデータが削除された場合等であり、あらかじめ該当する項目が規定されRAM(1-4)等に記憶される。   The agent OS unit (101-8) also issues an autonomous activation determination instruction to the autonomous activation determination unit (101-2) even when it is determined that the change in the situation is large. Cases where the change in the situation is considered to be large include, for example, when the driver has set a destination, the vehicle has been removed from the guide route, scenario data has been added, scenario data has been deleted, etc. Yes, relevant items are defined in advance and stored in RAM (1-4) or the like.

外部I/F部(101-9)は、エージェント処理部(101)と全体処理部との間のインターフェースになっている(全体処理部には受け手であるエージェントI/F部が存在する)。エージェント処理において利用するナビゲーション情報等各種情報の取得と、エージェント処理部から全体処理部に制御信号を伝えてナビゲーションを制御したりする。   The external I / F unit (101-9) is an interface between the agent processing unit (101) and the overall processing unit (the entire processing unit has an agent I / F unit as a receiver). Acquisition of various types of information such as navigation information used in agent processing, and transmission of control signals from the agent processing unit to the entire processing unit control navigation.

次に、データ構成(プログラムを含む)について説明する。本実施例では、これらは情報記憶媒体(10-2)に格納されている。
図4は、情報記憶媒体(10-2)に集録されている情報を概念的に表したものである。
情報記憶媒体(10-2)には本実施形態による各種エージェント機能やナビゲーション機能を実現するプログラム(10-2-1)、及び必要な各種データとして、エージェントデータ(10-2-3)とナビゲーションデータ(10-2-2)が格納されている。
Next, a data structure (including a program) will be described. In the present embodiment, these are stored in the information storage medium (10-2).
FIG. 4 conceptually shows the information collected in the information storage medium (10-2).
The information storage medium (10-2) includes a program (10-2-1) for realizing various agent functions and navigation functions according to the present embodiment, and agent data (10-2-3) and navigation as necessary various data. Data (10-2-2) is stored.

ナビゲーションデータ(10-2-2)は、地図描画、経路探索、経路案内、目的地設定操作等に必要な各種データで構成されている。例としては、経路案内に必要な地図データ(道路地図、住宅地図、建造物形状地図等)、その他のデータのファイルからなりナビゲーション装置に必要なすべてのデータが記憶されている。   The navigation data (10-2-2) is composed of various data necessary for map drawing, route search, route guidance, destination setting operation, and the like. For example, map data (road map, house map, building shape map, etc.) necessary for route guidance and other data files are stored, and all data necessary for the navigation device is stored.

エージェントデータ(10-2-3)は、メンタルモデルデータ(10-2-3-1)と、シナリオデータ(10-2-3-4)と、キャラクタデータ(10-2-3-5)と、搭乗者情報データ(10-2-3-6)と、学習項目データ及び応答データ(10-2-3-7)と、ジャンル・出力位置対応テーブル(10-2-3-8)とで構成されている。他にも、お勧めのレストラン提案を行なう等のお勧め提案データや知識データ等も、エージェントデータ(10-2-3)には存在する。   Agent data (10-2-3) includes mental model data (10-2-3-1), scenario data (10-2-3-4), character data (10-2-3-5) Passenger information data (10-2-3-6), learning item data and response data (10-2-3-7), and genre / output position correspondence table (10-2-3-8) It is configured. In addition, there are also recommended suggestion data, knowledge data, etc. for making recommended restaurant proposals in the agent data (10-2-3).

メンタルモデルデータ(10-2-3-1)は、キャラクタの心理状態を表す5つのパラメータ(友好度、従順度、自信度、モラル、元気度)及びメンタルモデル変更条件データとで構成されている。
学習項目データ及び応答データ(10-2-3-7)は、エージェントとのコミュニケーションにおいて運転者の選択や応答によってエージェントが学習した結果を格納するデータである。
The mental model data (10-2-3-1) is composed of five parameters (friendliness, obedience, confidence, morality, spirit) indicating the character's psychological state and mental model change condition data. .
The learning item data and the response data (10-2-3-7) are data for storing the results learned by the agent by the driver's selection and response in communication with the agent.

図5は、車載装置で実行するシナリオデータの構成を表したものである。
シナリオデータ(10-2-3-4)は、複数のシナリオで構成されており、それらを管理するための集録シナリオ管理データと、個々のシナリオの内容を示すデータ(シナリオ本体)とで構成されている。
FIG. 5 shows a configuration of scenario data executed by the in-vehicle device.
Scenario data (10-2-3-4) consists of multiple scenarios. It consists of acquisition scenario management data for managing them and data (scenario itself) indicating the contents of each scenario. ing.

また、集録シナリオの管理データには、このシナリオデータの有効期限、作成された日や作成者等といった情報と、シナリオデータに収録されている個々のシナリオを全体的に管理するためのデータ(シナリオ番号、シナリオ名称、優先順位(プライオリティ))と、シナリオファイルに収録されているシナリオの自律起動条件データが記録されている。   The acquisition scenario management data includes information such as the expiration date of the scenario data, date of creation, creator, etc., and data for overall management of each scenario recorded in the scenario data (scenario Number, scenario name, priority (priority)), and autonomous activation condition data of the scenario recorded in the scenario file are recorded.

図5に示されるように、個々のシナリオの内容を示すデータには、それぞれのシナリオを管理する管理データと、シナリオを構成する個々のシーンの内容を示すシーンデータとで構成されている。
それぞれのシナリオを管理するシナリオ管理データには、シナリオに関する情報と、このシナリオで使用する音声認識辞書を作成するためのテキスト情報と、シナリオを構成する各シーンデータを全体的に管理するためのデータが記されている。
As shown in FIG. 5, the data indicating the contents of each scenario includes management data for managing each scenario and scene data indicating the contents of individual scenes constituting the scenario.
Scenario management data for managing each scenario includes scenario information, text information for creating a speech recognition dictionary used in this scenario, and data for overall management of each scene data constituting the scenario. Is marked.

シーンデータは、シーンを管理するシーン管理データと、画面構成データと、キャラクタ動作データと、各種処理データと、展開管理データとで構成されている。
シーン管理データには、そのシーンに関する情報とシーンデータに属する各データセクションを管理するデータが記されている。
The scene data includes scene management data for managing a scene, screen configuration data, character motion data, various processing data, and development management data.
The scene management data includes information relating to the scene and data for managing each data section belonging to the scene data.

シーン管理データには、シナリオ作成装置により各シーンで出力する台詞が複数設定され、各台詞の出力位置又は、搭乗者種別が設定される場合に、そのシーンの各台詞に対して設定された出力位置又は搭乗者種別の情報が格納される。   In the scene management data, when a plurality of dialogues to be output in each scene are set by the scenario creation device, and the output position or passenger type of each dialogue is set, the output set for each dialogue in the scene Information of position or passenger type is stored.

画面構成データには、このシーンにおいて表示装置(2)に表示するキャラクタ画像や吹き出し画面等のシーン構成部品の構成と、各シーン構成部品の大きさや表示位置等を規定するデータが記されている。
キャラクタ動作データには、このシーンにおいてキャラクタが行なう動作の指示データと、話す内容に関する指示データが記されている。動作の指示データには、シナリオデータで直接各キャラクタの表現手段で指示するものと、キャラクタに表現させたい状態で指示するものの2種類のうちどちらかで指示データが記されている。
In the screen configuration data, the data defining the configuration of the scene components such as the character image and the balloon screen displayed on the display device (2) in this scene, and the size and display position of each scene component are described. .
The character action data includes instruction data for actions performed by the character in this scene, and instruction data related to the content to be spoken. In the instruction data of the action, the instruction data is written in one of two types: scenario data that is directly instructed by means of expressing each character, and that that is instructed in a state that the character wants to express.

各種処理データには、このシーンにおいて外部機器を制御(処理をさせる)する情報や、ナビゲーションを制御する情報や、他のシナリオを実行する指示や、タイマー設定情報や、キャラクタ心理を示すメンタルモデルのパラメータを変化させる情報等が記されている。
展開管理データには、このシーンで何かイベントが発生した場合に、シナリオを終了するのか、次に進むシーンが何であるか、もしくは何も展開しないのか、といった情報が記述されている。
Various processing data includes information for controlling (processing) external devices in this scene, information for controlling navigation, instructions for executing other scenarios, timer setting information, and mental models that indicate character psychology. Information for changing the parameters is described.
The development management data describes information such as whether to end the scenario, what is the next scene, or nothing to be developed when an event occurs in this scene.

図4において、キャラクタデータ(10-2-3-5)には、複数のキャラクタのデータが格納されており、運転者の好みによって入力装置(5)等から選択することができるようになっている。
キャラクタデータ(10-2-3-5)は、各キャラクタA、B、…毎に、キャラクタ画像データ102351と、キャラクタ音声データ102352と、キャラクタ画像選択データ102353とを備えている。
In FIG. 4, character data (10-2-3-5) stores data of a plurality of characters, and can be selected from the input device (5) or the like according to the driver's preference. Yes.
The character data (10-2-3-5) includes character image data 102351, character voice data 102352, and character image selection data 102353 for each character A, B,.

また、図4における搭乗者情報データ(10-2-3-6)は、主として運転者に関する情報で、エージェントのコミュニケーションをより運転者の希望や趣味、嗜好に合ったものとするために利用される。ただし、運転者に限らず、助手席、後部座席の搭乗者に関する情報も格納される。
搭乗者情報データ(10-2-3-6)には、搭乗者毎に情報を格納するための運転者のID(識別情報)、名前、年齢、性別、結婚(既婚か未婚か)、子供の有無と人数と年齢、社会的地位等からなる搭乗者基礎データや、スポーツ、飲食等の趣味嗜好データとが格納されるようになっている。
The passenger information data (10-2-3-6) in Fig. 4 is mainly information related to the driver and is used to make the agent's communication more suitable for the driver's wishes, hobbies and preferences. The However, not only the driver but also information related to passengers in the passenger seat and the rear seat is stored.
The passenger information data (10-2-3-6) contains the driver ID (identification information), name, age, gender, marriage (married or unmarried), child, for storing information for each passenger. Passenger basic data including the presence / absence, number, age, social status, etc., and hobby preference data such as sports and food and drink are stored.

その他の搭乗者情報データ(10-2-3-6)とは、搭乗者としてどの座席位置に搭乗したかの回数や、搭乗者の体重を格納するようにしてもよい。搭乗者の体重は、座席に配置した圧力計等から搭乗者の体重を自動計測して格納することができる。搭乗者の体重は、搭乗者とその座席位置を推定するために使用し、推定した搭乗者について音声により「助手席は○○さんですか?」等の氏名を問い合わせ、肯定解答の場合に推定した搭乗者を特定する、ように使用することができる。
なお、搭乗者を特定する手段として、体重の他にカメラにより座席毎の搭乗者を撮影し、画像認識により搭乗者を特定するようにしてもよい。この場合、予め搭乗者の顔を撮影した画像データが搭乗者データに格納しておく。
The other passenger information data (10-2-3-6) may store the number of seating positions as a passenger and the weight of the passenger. The weight of the passenger can be stored by automatically measuring the weight of the passenger from a pressure gauge or the like placed on the seat. The passenger's weight is used to estimate the passenger and their seat position, and the estimated passenger is inquired by name such as “Is the passenger seat? Can be used to identify the occupant.
In addition, as means for specifying the passenger, in addition to the weight, the passenger for each seat may be photographed by a camera, and the passenger may be specified by image recognition. In this case, image data obtained by photographing the passenger's face in advance is stored in the passenger data.

図6は、旅館が宿泊予定者に送信した案内シナリオによるシーン画面の遷移をシーン毎に表したものである。
この案内シナリオは、複数のシーン画面のうち(a)〜(f)までのシーン画面で構成されている。
シーン画面(c)に対するユーザの選択結果によって次のシーン画面が4と6に分岐している。また、図6の例では分岐していないが、シーン画面(d)においても選択した料理の種類に応じた料理をシーン表示画面54に表示するようにシーン画面を分岐させるようにしてもよい。
FIG. 6 shows the transition of the scene screen according to the guidance scenario transmitted from the inn to the prospective guest for each scene.
This guidance scenario is composed of scene screens (a) to (f) among a plurality of scene screens.
The next scene screen is branched into 4 and 6 depending on the user's selection result for the scene screen (c). Although not branched in the example of FIG. 6, the scene screen may be branched so that dishes corresponding to the selected dish type are displayed on the scene display screen 54 in the scene screen (d).

まず、シナリオのシーンデータに基づいて表示装置(2)に表示されるシーン画面の画面構成について説明する。
シーン画面(a)に示されるように、エージェントの画像(静止画、動画)が表示されるエージェント表示画面51、エージェントの音声に対応した文字が表示される吹き出し画面52、タイトル画面53、及び、各シーン固有の画像データ(実画像データの画像や回答選択ボタン等)が表示されるシーン表示画面54から構成されている.
エージェント表示画面51に表示されるエージェントは、ユーザが選択したキャラクタ、又はデフォルトのキャラクタである.
First, the screen configuration of the scene screen displayed on the display device (2) based on the scene data of the scenario will be described.
As shown in the scene screen (a), an agent display screen 51 on which an agent image (still image, moving image) is displayed, a balloon screen 52 on which characters corresponding to the voice of the agent are displayed, a title screen 53, and It consists of a scene display screen 54 that displays image data unique to each scene (images of actual image data, answer selection buttons, etc.).
The agent displayed on the agent display screen 51 is a character selected by the user or a default character.

以下図6に従って予約シナリオによるエージェントの各行為について説明する。
以下の各シーン画面に対応して説明するエージェントの動作や画面の表示はいずれも、外部シナリオのシナリオデータに格納されているデータや画像及び指示に従って表示等されるものである。また、エージェントの動作として説明するが、実際にはエージェント処理部(101)のシナリオ駆動部(101-1)が処理を行う。
Hereinafter, each action of the agent according to the reservation scenario will be described with reference to FIG.
The agent operations and screen displays described below corresponding to each scene screen are displayed according to data, images, and instructions stored in the scenario data of the external scenario. Further, although described as an agent operation, the scenario driving unit (101-1) of the agent processing unit (101) actually performs the processing.

エージェント処理部(101)のシナリオ駆動部(101-1)は、案内シナリオを起動すると、最初にシーンヘッダで指定される番号1のシーンの画面構成データをシナリオデータから読み出して表示装置(2)に表示する。このシーンでは、エージェントOS部(101-8)で管理しているキャラクタのエージェントが、エージェント表示画面51に登場し、お辞儀をして音声による挨拶をする。音声による挨拶の内容は、吹き出し画面52に表示されている文章と同一である。
音声による挨拶は、旅館に代わってエージェントが代行して行うことになるが、旅館の女将の写真画像をシーン表示画面54に表示することで旅館からの挨拶であることが表現されている。
When the scenario driving unit (101-1) of the agent processing unit (101) starts the guidance scenario, it first reads the screen configuration data of the number 1 scene specified by the scene header from the scenario data and displays it (2). To display. In this scene, the agent of the character managed by the agent OS section (101-8) appears on the agent display screen 51, bows and greets with voice. The content of the voice greeting is the same as the text displayed on the balloon screen 52.
The greeting by voice is performed on behalf of the inn by the agent, but it is expressed that the inn is a greeting from the inn by displaying a photo image of the general of the inn on the scene display screen 54.

この挨拶を含めて、エージェントによる音声は、シーンに対して複数の台詞と、出力する座席位置又は搭乗者種別が規定されている場合、各台詞毎に決定された位置のスピーカから出力される。
なお、このシナリオの例では、各シーンに対して1種類の台詞のみが設定されている場合について説明する。この場合の台詞は全スピーカから音声が出力されることになる。
The voice by the agent including this greeting is output from a speaker at a position determined for each line when a plurality of lines and a seat position to be output or a passenger type are defined for the scene.
In this scenario example, a case where only one type of dialogue is set for each scene will be described. In this case, the speech is output from all speakers.

シーン(a)における女将の画像は、外部シナリオの一部として受信し追加した画像で、シナリオデータ(10-2-3-4)の実画像データとして格納されている。
エージェントの動作に対する指示は、キャラクタ動作指示データに格納されている指示に従う。
エージェントによる挨拶が終了すると、次のシーン2に遷移(移行)する。
The image of the landlady in scene (a) is an image received and added as part of the external scenario, and is stored as actual image data of scenario data (10-2-3-4).
The instruction for the action of the agent follows the instruction stored in the character action instruction data.
When the greeting by the agent ends, transition to the next scene 2 (transition).

次のシーン2では、シーン表示画面54に露天風呂の画像が表示される。そして、この露天風呂の絵をエージェントが指し示して、旅館の名物(ここが売りだということ)を、エージェントが台詞(音声)と吹き出し画面52の表示で説明する。
エージェントの話が終了すると、次のシーン3に遷移し、本日の食事の画像(懐石料理の画像)をシーン表示画面54に表示し、エージェントが料理の説明と、この料理で良いか否かを質問する。
In the next scene 2, an open-air bath image is displayed on the scene display screen 54. Then, the agent points to the picture of the outdoor bath, and the agent explains the specialty of the inn (that it is for sale) by displaying the dialogue (voice) and the balloon screen 52.
When the agent's story ends, the scene transitions to the next scene 3, and the image of today's meal (an image of kaiseki cuisine) is displayed on the scene display screen 54. The agent explains the dish and whether or not this dish is acceptable. Question.

そして、シーン3のシーンデータにタイマー設定時間と、タイマー設定条件「走行中のみ設定する」が規定されているものとする。この場合、走行中であることを条件に、シーン開始時にタイマーによる計時が開始される。走行中か否かは車速センサ(6-11)又は、距離センサ(6-1-5)において、車速v=0が検出された場合に停車中と判断され、車速v≠0が検出された場合に走行中と判断される。
そして、表示した料理でよいか否かの質問に対する回答としてユーザが「はい」を選択した場合にはシーン4に分岐し、「いいえ」を選択した場合にはシーン6に分岐する。
It is assumed that the scene data of scene 3 defines a timer setting time and a timer setting condition “set only during running”. In this case, counting by a timer is started at the start of the scene on condition that the vehicle is running. The vehicle speed sensor (6-11) or the distance sensor (6-1-5) determines whether the vehicle is running or not when the vehicle speed v = 0 is detected, and the vehicle speed v ≠ 0 is detected. It is determined that the vehicle is traveling.
If the user selects “Yes” as an answer to the question as to whether or not the displayed dish is acceptable, the process branches to Scene 4, and if “No” is selected, the process branches to Scene 6.

一方、タイマー設定時間内に、ユーザが音声による回答も、画面に表示された選択ボタンの選択による回答もせずにタイマー通知(設定時間の経過)した場合、シーン3のシーンデータで規定されているタイマー通知時の移行条件に従って、そのシナリオを終了させる。
このように、ユーザからの回答がない場合にも、無回答という選択がされたと判断して、無回答を移行条件とする次のシーン(図6の例では終了)に移行することで、擬人化されたキャラクタとのコミュニケーションをより人間同士のコミュニケーションに近づけることができる。
On the other hand, if the user gives a timer notification (elapsed set time) without answering by voice or selecting a selection button displayed on the screen within the timer set time, it is specified by the scene 3 scene data. The scenario is terminated according to the transition condition at the time of timer notification.
In this way, even when there is no answer from the user, it is determined that no answer has been selected, and the process shifts to the next scene (end in the example of FIG. 6) using no answer as a transition condition. It is possible to make the communication with the character converted closer to the communication between humans.

シーン4では、懐石料理以外の選択可能なリストをシーン表示画面54に表示する。エージェントは、シーン表示画面54のリストを指し示して、どの料理が良いかを質問する。
そして、ユーザがいずれか1つを選択したらシーン5に遷移する。
シーン5では、懐石料理から変更すべき人数のリストをシーン表示画面54に表示し、エージェントはこのリストを指し示して、人数の質問をする。
そしてユーザがいずれか1つを選択したらシーン6に遷移する。
In the scene 4, a selectable list other than kaiseki cuisine is displayed on the scene display screen 54. The agent points to the list on the scene display screen 54 and asks which dishes are good.
Then, when the user selects any one, the scene 5 is transitioned to.
In scene 5, a list of the number of people to be changed from kaiseki cuisine is displayed on the scene display screen 54, and the agent points to this list and asks the number of people.
When the user selects any one, the screen transitions to the scene 6.

シーン6では、シーン表示画面54に旅館の外観写真画像を表示し、エージェントがお辞儀をして挨拶をする。
そして、エージェントは、ユーザが選択してきた結果、図6の案内シナリオの場合には食事に関する回答結果を、通信装置I/F部(1-11)から通信制御装置(8)に接続されている通信装置(9)を介して実行中の外部シナリオを送信した第三者(旅館)に送信する。
In scene 6, an external appearance photo image of the inn is displayed on the scene display screen 54, and the agent bows and greets.
Then, as a result of the selection made by the user, the agent is connected to the communication control device (8) from the communication device I / F unit (1-11), in the case of the guidance scenario of FIG. The external scenario being executed is transmitted to the third party (inn) that has been transmitted via the communication device (9).

このように、ユーザについての情報を取得したい場合には、外部シナリオの作成者は、取得したい情報が得られる質問のシーンをシナリオ中に設け、その回答を電子メールで送信するようにシナリオを作成する。なお、回答の送信が必要な場合には、作成者の電子メールアドレスをシナリオデータ中に含める。
最後のシーン(図6ではシーン6)でのエージェントの話が終了すると、シナリオを終了させる。
このようにして、シナリオ駆動部(101-1)は、シナリオに規定された各シーン画像と音声を最後のシーンまで順次表示、出力する。
起動したシナリオが終了すると、シナリオ駆動部(101-1)は、他のシナリオの実行についての起動要求が存在するかの判断を行う。
In this way, when the user wants to obtain information about the user, the creator of the external scenario creates a scenario in which a scene of a question from which the desired information can be obtained is provided in the scenario and the response is sent by e-mail. To do. If it is necessary to send an answer, the e-mail address of the creator is included in the scenario data.
When the agent's story in the last scene (scene 6 in FIG. 6) ends, the scenario ends.
In this way, the scenario driving unit (101-1) sequentially displays and outputs each scene image and sound specified in the scenario up to the last scene.
When the activated scenario ends, the scenario driving unit (101-1) determines whether there is an activation request for executing another scenario.

以上のように構成されたエージェント装置1における処理動作について説明する。
図7は、エージェント装置1の全体処理部による、搭乗者特定処理を表したフローチャートである。
エージェント装置1の全体処理部は、車両に搭乗者が搭乗したか否かを監視しており(ステップ71)、搭乗者を検出すると(ステップ71;Y)、搭乗者を特定するために搭乗者に質問をする(ステップ72)。
Processing operations in the agent device 1 configured as described above will be described.
FIG. 7 is a flowchart showing passenger identification processing by the overall processing unit of the agent device 1.
The entire processing unit of the agent device 1 monitors whether or not a passenger has boarded the vehicle (step 71). When the passenger is detected (step 71; Y), the passenger is identified to identify the passenger. (Step 72).

すなわち、全体処理部は、搭乗者に対して、年齢、性別、社会的地位のうちの少なくとも1つの種別を問い合わせる質問を音声出力装置(スピーカ)3から出力と共に、表示装置に選択可能な解答をリスト表示する。
なお、搭乗者の体重を測定し、該当する体重の搭乗者を搭乗者情報データ10-2-3-6から推定した場合には、体重を測定した座席位置の搭乗者が推定した搭乗者であるか否かを確認する質問を出力する。
That is, the overall processing unit outputs a question that asks the passenger about at least one of age, gender, and social status from the voice output device (speaker) 3 and provides a selectable answer on the display device. List display.
If the weight of the passenger is measured and the passenger of the corresponding weight is estimated from the passenger information data 10-2-3-6, the passenger at the seat position where the weight is measured is estimated by the passenger. Output a question to check if there is any.

そして、全体処理部は、質問に対する返答(音声又は表示装置のタッチパネルからの指定)を監視し、返答があると(ステップ73;Y)、返答に対応した搭乗者座席位置と種別(年齢、性別等)をRAM(1-4)に一時記憶して、メインルーチンにリターンする。   The overall processing unit monitors the response to the question (speech or designation from the touch panel of the display device), and if there is a response (step 73; Y), the passenger seat position and type (age, gender) corresponding to the response Etc.) are temporarily stored in the RAM (1-4), and the process returns to the main routine.

次に、エージェント処理部(101)で実行される、エージェント処理について説明する。
図8はエージェント処理の動作を表したフローチャートである。
エージェント処理において、自律起動判断部(101-2)は、今現在置かれている状況情報を取得するため、エージェントI/Fを介し、エージェントOS部(101-8)より現在位置、時間などの状況情報を取得する(ステップ80)。
そして自律起動判断部(101-2)は、取得した状況情報から、自律起動条件をみたしているシナリオが存在するか否かを判断する(ステップ81)。
Next, agent processing executed by the agent processing unit (101) will be described.
FIG. 8 is a flowchart showing the operation of the agent process.
In the agent processing, the autonomous activation determination unit (101-2) acquires the current status information from the agent OS unit (101-8) via the agent I / F to obtain the current status information. Status information is acquired (step 80).
Then, the autonomous activation determination unit (101-2) determines whether or not there is a scenario that satisfies the autonomous activation condition from the acquired situation information (step 81).

現在の状況情報から条件をみたしている自律起動条件が存在する場合(ステップ81;Y)、自律起動判断部(101-2)は、その自律起動条件に対応するシナリオの実行要求メッセージを、シナリオ駆動部(101-1)に対して発行し、これによりシナリオ駆動部(101-1)は
実行すべきシナリオデータをシナリオデータ(10-2-3-4)からワークメモリ(RAM(1-4))に読み込む(ステップ82)。
シナリオデータの読み込みが完了すると、シナリオ駆動部(101-1)は、シナリオを開始するための初期化処理(シナリオ開始処理)を行う(ステップ83)。
When there is an autonomous activation condition that satisfies the condition from the current situation information (step 81; Y), the autonomous activation determination unit (101-2) sends a scenario execution request message corresponding to the autonomous activation condition, The scenario driver (101-1) issues scenario data to be executed from the scenario data (10-2-3-4) to the work memory (RAM (1- 4)) (step 82).
When the reading of the scenario data is completed, the scenario driving unit (101-1) performs an initialization process (scenario start process) for starting the scenario (step 83).

次にシナリオ駆動部(101-1)は、シナリオを構成するシーンの内容に応じてキャラクタの描画や音声を処理するシーン処理を実行する(ステップ84)。
すなわち、シーン処理においてシナリオ駆動部(101-1)は、ステップ82で読み込んだシナリオデータが一時記憶されているRAM(1-4)を参照し、表示する画面構成やキャラクタの動作指示、等を解析する。
そして各シーンデータにおける規定に従って、シナリオ駆動部(101-1)は、出力する台詞(音声データ)やキャラクタ描画データを作成して描画・音声出力部(101-5)に描画の指示を行なう。
Next, the scenario driving unit (101-1) executes scene processing for processing character drawing and sound according to the contents of the scenes constituting the scenario (step 84).
That is, in the scene processing, the scenario driving unit (101-1) refers to the RAM (1-4) in which the scenario data read in step 82 is temporarily stored, and displays the screen configuration to be displayed, the character motion instruction, and the like. To analyze.
Then, in accordance with the rules for each scene data, the scenario drive unit (101-1) creates output speech (voice data) and character drawing data and instructs the drawing / voice output unit (101-5) to draw.

その際シナリオ駆動部(101-1)は、シーンデータに基づいて作成したキャラクタ描画データに連動して出力する台詞が複数あるか否かを判断し、1つだけであればその台詞を出力するスピーカとして全スピーカ位置(音声出力位置)を当該シーンに対する出力位置として描画・音声出力部(101-5)に指示する。
一方、処理中のシーンに対して複数の台詞が存在する場合、シナリオ駆動部(101-1)は、シーン管理データ(図5参照)に格納されている音声出力位置又は搭乗者種別の情報を読み取る。
At that time, the scenario driving unit (101-1) determines whether or not there are a plurality of lines to be output in conjunction with the character drawing data created based on the scene data, and if there is only one, outputs the line. The drawing / sound output unit (101-5) is instructed to output all speaker positions (sound output positions) as speakers as output positions for the scene.
On the other hand, when there are a plurality of lines for the scene being processed, the scenario driving unit (101-1) displays the information on the voice output position or the passenger type stored in the scene management data (see FIG. 5). read.

そして、音声出力位置が格納されている場合には、各台詞に対応して設定されている音声出力位置(座席位置)に対応するスピーカ位置を各台詞毎に決定し、キャラクタ描画データと共に描画・音声出力部(101-5)に指示する。
一方、搭乗者種別がシーン管理データに格納されている場合には、各台詞に設定されている搭乗者種別と搭乗者特定処理(図7)で予め特定されている搭乗者とを対応させ、該当する搭乗者位置のスピーカ位置を決定し、描画・音声出力部(101-5)に指示する。
When the voice output position is stored, the speaker position corresponding to the voice output position (seat position) set corresponding to each line is determined for each line, and is drawn together with the character drawing data. Instructs the audio output unit (101-5).
On the other hand, when the passenger type is stored in the scene management data, the passenger type set in each line is associated with the passenger specified in advance in the passenger specifying process (FIG. 7). The speaker position of the corresponding passenger position is determined, and the drawing / audio output unit (101-5) is instructed.

このシナリオ駆動部(101-1)からのキャラクタ描画データと出力する台詞のスピーカ位置の指示に従って、描画・音声出力部(101-5)により、キャラクタがお辞儀をしたり、右方向や左方向を手で指したり、ユーザが搭乗者に応じた異なる台詞で話しかけたりするシーンが展開される。   In accordance with the character drawing data from this scenario drive unit (101-1) and the instruction of the speaker position of the output dialogue, the drawing / sound output unit (101-5) bows the character or changes the right direction or left direction. A scene is developed in which the user points at the hand or the user talks with a different line depending on the passenger.

シーン処理が完了すると、シナリオ駆動部(101-1)は、シナリオ終了か確認を行なう(ステップ85)。
シナリオ終了でない場合(ステップ85;N)、すなわち、シナリオがまだ続く場合、シナリオ駆動部(101-1)は、シナリオの終了まで、ステップ84に戻って次のシーン、次のシーン、…とシーン処理を繰り返す。
When the scene processing is completed, the scenario driving unit (101-1) confirms whether the scenario is finished (step 85).
If the scenario is not finished (step 85; N), that is, if the scenario still continues, the scenario driving unit (101-1) returns to step 84 until the scenario is finished, and the next scene, the next scene,. Repeat the process.

シナリオ終了の場合(ステップ85;Y)、シナリオ駆動部(101-1)は、シナリオ終了処理を行なう(ステップ86)。このシナリオ終了処理において、学習部(101-3)が、終了の仕方を示すエンドIDを入手して応答データ(10-2-3-7)に格納し、メインルーチンにリターンする。   In the case of scenario end (step 85; Y), the scenario driver (101-1) performs scenario end processing (step 86). In this scenario end process, the learning unit (101-3) obtains an end ID indicating how to end, stores it in the response data (10-2-3-7), and returns to the main routine.

次に、ユーザや第三者が独自のシナリオを作成するシナリオ作成装置2の構成とその動作について説明する。
図9は、シナリオ作成装置の構成を表したものである。
シナリオ作成装置は、制御部(200)と、入力装置(210)と、出力装置(220)と、通信制御装置(230)と、記憶装置(240)と、記憶媒体駆動装置(250)と、入出力I/F(260)とを備えている。これら各装置は、データバスや制御バス等のバスラインにより接続されている。
Next, the configuration and operation of the scenario creation device 2 in which a user or a third party creates an original scenario will be described.
FIG. 9 shows the configuration of the scenario creation device.
The scenario creation device includes a control unit (200), an input device (210), an output device (220), a communication control device (230), a storage device (240), a storage medium drive device (250), Input / output I / F (260). These devices are connected by a bus line such as a data bus or a control bus.

制御部(200)は、CPU(200-1)と、メモリ(200-2)等から構成されており、シナリオ作成装置全体を制御する。
CPU(200-1)は、種々の演算処理を実行するプロセッサである。
メモリ(200-2)は、CPU(200-1)が種々の演算処理を実行する際にワーキングメモリとして使用される。
CPU(200-1)は、メモリ(200-2)にプログラムやデータなどを書き込んだり消去したりすることができる。
本実施の形態におけるメモリ(200-2)には、CPU(200-1)がシナリオエディタ(シナリオ編集プログラム)に従ってシナリオデータを作成、編集、記憶等するためのエリアが確保可能になっている。
The control unit (200) includes a CPU (200-1), a memory (200-2), and the like, and controls the entire scenario creation device.
The CPU (200-1) is a processor that executes various arithmetic processes.
The memory (200-2) is used as a working memory when the CPU (200-1) executes various arithmetic processes.
The CPU (200-1) can write and erase programs and data in the memory (200-2).
In the memory (200-2) in the present embodiment, an area for the CPU (200-1) to create, edit, and store scenario data according to the scenario editor (scenario editing program) can be secured.

入力装置(210)は、シナリオ作成装置に対して文字や数字その他の情報を入力するための装置であり、例えばキーボードやマウスなどにより構成されている。
出力装置(220)は、例えばCRTディスプレイ、液晶ディスプレイ等の表示装置や印刷装置などである。表示装置は、シナリオを作成するためのメイン画面や、各シーンにおけるシーン構成部品の表示領域を含めた画面構成を選択するための画面等の各種画面が表示される。また、各画面において選択された情報や入力された情報が表示されるようになっている。
The input device (210) is a device for inputting characters, numbers, and other information to the scenario creation device, and is composed of, for example, a keyboard and a mouse.
The output device (220) is, for example, a display device such as a CRT display or a liquid crystal display, a printing device, or the like. The display device displays various screens such as a main screen for creating a scenario and a screen for selecting a screen configuration including a display area of scene component parts in each scene. In addition, selected information and input information are displayed on each screen.

通信制御装置(230)は、外部との間で各種データやプログラムを送受信するための装置である。通信制御装置(230)は、作成したシナリオデータを、これらのネットワークで接続されたいずれかのサーバ3にアップロードしたりする。
なお、シナリオ作成装置2で作成したシナリオデータは、ICカード等の記憶媒体に書き込んでエージェント装置1に取り込むことも可能である。
The communication control device (230) is a device for transmitting / receiving various data and programs to / from the outside. The communication control device (230) uploads the created scenario data to any of the servers 3 connected via these networks.
The scenario data created by the scenario creation device 2 can be written in a storage medium such as an IC card and taken into the agent device 1.

記憶装置(240)は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータを読み書きするための駆動装置によって構成されている。当該記憶媒体として主にハードディスクが使用されるが、その他に、例えば、光磁気ディスク、磁気ディスク、半導体メモリなどの他の読み書き可能な記憶媒体によって構成することも可能である。
記憶装置(240)には、シナリオ編集プログラム(240-1)、シナリオ編集データ(240-2)、及びその他のプログラム・データ(240-3)が格納されている。その他のプログラムとして、例えば、通信制御装置(230)を制御し、シナリオ作成装置とネットワークでつながれた端末装置やサーバ装置との通信を維持する通信プログラムや、メモリ管理や入出力管理などのシナリオ作成装置を動作させるための基本ソフトウエアであるOS(Operating System)なども記憶装置(240)に格納されている。
記憶媒体駆動装置(250)は、着脱可能な記憶媒体を駆動してデータの読み書きを行なうための駆動装置である。着脱可能な記憶媒体としては、例えば、光磁気ディスク、磁気ディスク、磁気テープ、ICカード類、データをパンチした紙テープ、CD-ROMなどがある。
The storage device (240) includes a readable / writable storage medium and a drive device for reading / writing programs and data from / to the storage medium. A hard disk is mainly used as the storage medium, but other storage media that can be read and written, such as a magneto-optical disk, a magnetic disk, and a semiconductor memory, can also be used.
The storage device (240) stores a scenario editing program (240-1), scenario editing data (240-2), and other program data (240-3). Other programs include, for example, a communication program that controls the communication control device (230) and maintains communication with the terminal device and server device connected to the scenario creation device and the network, and scenario creation such as memory management and input / output management An OS (Operating System), which is basic software for operating the device, is also stored in the storage device (240).
The storage medium driving device (250) is a driving device for reading and writing data by driving a removable storage medium. Examples of the removable storage medium include a magneto-optical disk, a magnetic disk, a magnetic tape, an IC card, a paper tape on which data is punched, and a CD-ROM.

シナリオ作成装置2は、記憶媒体駆動装置(250)によって記憶媒体を駆動することにより、シナリオデータが格納された記憶媒体からシナリオを取得したり、あるいは、作成したシナリオデータを記憶媒体駆動装置から記憶媒体に格納したりすることができる。
入出力I/F(260)は、例えば、シリアルインターフェースやその他の規格のインターフェースにより構成されている。
入出力I/F(260)に当該インターフェースに対応した外部機器を接続することにより、シナリオ作成装置の機能を拡張することができる。このような外部機器として例えば、ハードディスクなどの記憶装置、通信制御装置、スピーカ、マイクロフォンなどがある。
The scenario creation device 2 acquires a scenario from the storage medium storing the scenario data by driving the storage medium by the storage medium drive device (250), or stores the created scenario data from the storage medium drive device. Or it can be stored on a medium.
The input / output I / F (260) is composed of, for example, a serial interface or other standard interface.
By connecting an external device corresponding to the interface to the input / output I / F (260), the function of the scenario creation device can be expanded. Examples of such external devices include a storage device such as a hard disk, a communication control device, a speaker, and a microphone.

次に、シナリオ編集プログラム(240-1)と、シナリオ編集データ(240-2)の構成について説明する。
図10は、シナリオ編集プログラムとデータの構成を概念的に表したものである。
シナリオ編集プログラム(240-1)は、シナリオエディタ(240-1-1)と、シナリオコンパイラ(240-1-2)と、DB編集ツール(240-1-3)が存在する。
シナリオ編集データ(240-2)は、共通定義DB(240-2-1)と、ローカル定義DB(240-2-2)と、シナリオエディタで作成したSCE形式シナリオデータ(240-2-3)と、シナリオコンパイラで変換された実機形式(NAV形式)シナリオデータ(240-2-4)が存在する。
シナリオエディタ(240-1-1)は、シナリオデータを作成するアプリケーションプログラムである。
シナリオコンパイラ(240-1-2)は、シナリオエディタ(240-1-1)で作成されたSCE形式のシナリオデータ(240-2-3)を、エージェント装置で使用可能な実機形式のシナリオデータ(240-2-4)に変換するアプリケーションプログラムで、変換手段として機能する。
Next, the configuration of the scenario editing program (240-1) and scenario editing data (240-2) will be described.
FIG. 10 conceptually shows the configuration of the scenario editing program and data.
The scenario editing program (240-1) includes a scenario editor (240-1-1), a scenario compiler (240-1-2), and a DB editing tool (240-1-3).
Scenario edit data (240-2) is the common definition DB (240-2-1), local definition DB (240-2-2), and SCE scenario data (240-2-3) created with the scenario editor. And real machine format (NAV format) scenario data (240-2-4) converted by the scenario compiler exists.
The scenario editor (240-1-1) is an application program that creates scenario data.
The scenario compiler (240-1-2) converts the scenario data (240-2-3) created in the scenario editor (240-1-1) into scenario data (240-2-3) that can be used on the agent device ( It is an application program that converts to 240-2-4) and functions as a conversion means.

図11は、シナリオコンパイラ(240-1-2)によるシナリオデータのデータ形式を変更した状態を概念的に表したものである。
この図11に示されるように、シナリオコンパイラ(240-1-2)は、1個以上のSCE形式シナリオデータ(240-2-3)を、1個の実機形式(NAV形式)のシナリオデータ(240-2-4)に変換する。
FIG. 11 conceptually shows a state in which the data format of scenario data is changed by the scenario compiler (240-1-2).
As shown in FIG. 11, the scenario compiler (240-1-2) converts one or more SCE format scenario data (240-2-3) into one actual machine format (NAV format) scenario data ( Convert to 240-2-4).

図10において、DB編集ツール(240-1-3)は、共通定義DB(240-2-1)に格納されているデータを編集・更新するためのアプリケーションプログラムである。
共通定義DB(240-2-1)は、シナリオデータを作成する際の定義データが格納される。共通定義DB(240-2-1)には、後述する自動起動項目データの他、シーン展開をするアクション項目及び追加判断項目、キャラクタの表示状態指示テーブル等が格納される。この共通定義DB(240-2-1)は、シナリオ作成装置の記憶装置ではなく、ローカルエリアネットワーク(LAN)でつながっているサーバ上に存在してもよい。
In FIG. 10, a DB editing tool (240-1-3) is an application program for editing / updating data stored in the common definition DB (240-2-1).
The common definition DB (240-2-1) stores definition data when creating scenario data. The common definition DB (240-2-1) stores, in addition to automatic start item data, which will be described later, action items for scene development, additional determination items, a character display state instruction table, and the like. This common definition DB (240-2-1) may exist on a server connected by a local area network (LAN) instead of the storage device of the scenario creation device.

ローカル定義DB(240-2-2)は、シナリオ作成者がシナリオデータを作成中に定義した画面構成が格納される。
SCE形式シナリオデータ(240-2-3)は、シナリオエディタ(240-1-1)で作成されたデータである。
実機形式(NAV形式)シナリオデータ(240-2-4)は、シナリオコンパイラ(240-1-2)によってSCE形式シナリオデータ(240-2-3)からエージェント装置で使用するためのデータ形式に変換されたデータである。
The local definition DB (240-2-2) stores the screen configuration defined by the scenario creator while creating scenario data.
The SCE format scenario data (240-2-3) is data created by the scenario editor (240-1-1).
Real machine format (NAV format) scenario data (240-2-4) is converted from SCE format scenario data (240-2-3) to data format for use on agent devices by scenario compiler (240-1-2) Data.

図12は、共通定義DB(240-2-1)に格納されている自動起動項目として設定可能な項目を例示したものである。
この自動起動項目は、エージェント装置で検出、認識、確認可能な各項目の種類のサンプルを概念的に一覧表示したものである。
この自動起動項目は、共通定義DB(240-2-1)に記述されており、シナリオエディタ(240-1-1)でシナリオを作成する際に、自律起動条件を設定するために、自動起動項目が共通定義DB(240-2-1)から読み出され、リスト表示される(提示手段)。作成者は、このリスト表示(一覧表示)された中から自動起動項目を選択する(選択手段)。
それぞれ選択された項目の種類に記されている内容によって数値入力を行なうウインドウが表示されたり、一覧から選択するウインドウが表示されたりして自動起動項目の判断条件を入力する。この操作を1又は複数回繰り返しシナリオを自律的に起動するための判断条件である自律起動条件のデータが作成される(起動条件設定手段)。
FIG. 12 illustrates items that can be set as automatic start items stored in the common definition DB (240-2-1).
This automatic activation item is a conceptual list of samples of each item type that can be detected, recognized, and confirmed by the agent device.
This automatic start item is described in the common definition DB (240-2-1). When creating a scenario with the scenario editor (240-1-1), it is automatically started to set the autonomous start condition. Items are read from the common definition DB (240-2-1) and displayed in a list (presentation means). The creator selects an automatic activation item from the list display (list display) (selection means).
A window for inputting a numerical value or a window for selecting from a list is displayed depending on the contents described in the type of each selected item, and the determination condition for the automatic activation item is input. This operation is repeated one or more times, and data for autonomous activation conditions, which are determination conditions for autonomously activating a scenario, is created (activation condition setting means).

図12(b)、図12(c)は、自動起動項目に対して、自律起動条件として選択可能な選択可能項目を例示したものである。
選択可能項目も共通定義DB(240-2-1)に記述されている。図12(a)に例示した自動起動項目を示したテーブルのうち、種別の欄に一覧から選択と表記された項目について、更に下位の概念として選択可能な項目が、選択可能項目として図12(b)、図12(c)に規定されている。選択可能項目に規定されたグループと、自動起動項目の項目とは、一番左側のNo.の項目で対応付けられている。
選択された自動起動項目と選択された選択可能項目及び入力された数値や時刻、距離等の組み合わせが、各シナリオに対する自律起動条件となる。例えば、ユーザによる選択が、自動起動項目「加速度」、選択可能項目「急減速状態」である場合、自律起動条件は「加速度−急減速」となる。
なお、本サンプルはあくまでもサンプルであり定義を変更してもよい。
例えば車速入力を一覧から選択にし、10km/h毎に区切られた項目の中から選択する形をとってもよい。
FIGS. 12B and 12C illustrate selectable items that can be selected as autonomous activation conditions for the automatic activation items.
Selectable items are also described in the common definition DB (240-2-1). In the table showing the automatic activation items illustrated in FIG. 12A, items that can be selected as a lower concept for the items indicated as selection from the list in the type column are shown as selectable items in FIG. b), as specified in FIG. The group defined in the selectable item and the item of the automatic activation item are associated with the leftmost No. item.
A combination of the selected automatic activation item, the selected selectable item, and the input numerical value, time, distance, and the like becomes an autonomous activation condition for each scenario. For example, when the selection by the user is the automatic activation item “acceleration” and the selectable item “rapid deceleration state”, the autonomous activation condition is “acceleration-rapid deceleration”.
Note that this sample is just a sample and the definition may be changed.
For example, the vehicle speed input may be selected from a list and selected from items separated every 10 km / h.

図10における共通定義DB(240-2-1)には、更に、1のシーン(画面要素)から次のシーンに展開するための移行条件(展開条件)や分岐条件が格納されている。
展開条件の各項目は、各シーンの展開構成を作成する際に読み出され、分岐条件指定ウインドウにリスト表示される。このリスト表示された中から展開条件項目を選択することにより、図6の(a)から(b)へ、(b)から(c)へと例示されるように、シーンの展開構成が作成される。
また、各シーンから条件を判断して、その判断結果から複数のシーンに分岐する場合の条件項目も選択可能である。図6の例では、(c)から(d)と(f)に分岐するシーンが展開されている。
このように通常シーンの後に分岐シーンを複数(直列、及び並列に)継続させることで、1の通常シーンに対して多彩な条件で分岐する複数の通常シーンを展開させることが可能になる。
The common definition DB (240-2-1) in FIG. 10 further stores transition conditions (development conditions) and branch conditions for expanding from one scene (screen element) to the next scene.
Each item of the development condition is read out when creating the development configuration of each scene, and is displayed in a list in the branch condition designation window. By selecting a development condition item from the list displayed, a scene development configuration is created as illustrated from (a) to (b) and (b) to (c) in FIG. The
In addition, it is possible to select a condition item when judging a condition from each scene and branching to a plurality of scenes from the judgment result. In the example of FIG. 6, a scene that branches from (c) to (d) and (f) is developed.
In this way, by continuing a plurality of branch scenes (in series and in parallel) after the normal scene, it is possible to develop a plurality of normal scenes that branch under various conditions with respect to one normal scene.

共通定義DB(240-2-1)には、その他、音声認識に使用する音声認識用データと、キャラクタの動作指示に使用するデータ(別途台詞の指示データも存在する)と、各シーンで設定した指示をプレビューして確認するためのキャラクタ画像データ及びキャラクタ台詞データ及びキャラクタによらない統一の指示に対する各キャラクタの表現方法への変換テーブルと、表示装置(2)に表示する各パーツデータ及びそれらをどのように配置するかが記された画面構成データと、シーンにおける処理内容として選択可能な項目、例えば、エージェントが処理可能な行為である、オーディオ装置のオン・オフやチャンネル選択、エアコン装置のオン・オフと温度設定、全体処理部に供給する目的地の設定等の各種処理内容項目データ等が格納されている。
これら全ての定義データも、各定義データと同様に、変更及び追加がDB編集ツール(240-1-3)を使って行なうことができるようになっている。
各シーンで設定した指示をプレビューして確認するためのキャラクタ画像データは、エージェント装置に格納されている各種キャラクタの画像データが格納されている。
In the common definition DB (240-2-1), other settings are made for each scene, including voice recognition data used for voice recognition, data used for character movement instructions (separate line instruction data also exists), and so on. Character image data and character dialogue data for previewing and confirming the designated instructions, a conversion table to the expression method of each character for a unified instruction independent of characters, each part data to be displayed on the display device (2), and those Screen configuration data describing how to arrange the items and items that can be selected as processing contents in the scene, for example, an action that can be processed by the agent, on / off of an audio device, channel selection, air conditioner device Various processing content item data such as on / off and temperature setting, setting of a destination to be supplied to the entire processing unit, and the like are stored.
All these definition data can be changed and added using the DB editing tool (240-1-3) as well as each definition data.
Character image data for previewing and confirming the instruction set in each scene stores image data of various characters stored in the agent device.

次に、このように構成されたシナリオ作成装置によるシナリオ作成の各動作について、画面の遷移に従って説明する。
図13は、シナリオエディタ(240-1-1)を起動した場合に表示装置に表示されるメインウインドウの構成を表したものである。
以下に説明するように、このメインウィンドウからの各種設定により、車載装置の表示画面と同期して実行される処理内容が定義された画面要素を組み合わせて構成された画面要素推移体データを作成する画面要素推移体作成手段が構成される。
なお、以下に説明するシナリオを作成するための各種処理は、シナリオ作成者の操作であることが明示されている場合を除いて、シナリオエディタ(240-1-1)により実行される。
Next, each operation of scenario creation by the scenario creation device configured as described above will be described according to the transition of the screen.
FIG. 13 shows the configuration of the main window displayed on the display device when the scenario editor (240-1-1) is activated.
As described below, the screen element transition body data configured by combining the screen elements in which the processing contents executed in synchronization with the display screen of the in-vehicle device are defined is created by various settings from the main window. A screen element transition body creation means is configured.
Note that the various processes for creating a scenario described below are executed by the scenario editor (240-1-1), unless it is explicitly stated that the operation is a scenario creator operation.

この図13に示されるように、メインウインドウは、作成中のシーン画面(エージェント装置1の表示装置(2)に表示されるシーン画面(図6参照))が表示されるシーン画面301と、各種設定を行う設定項目が表示された設定画面303と、シーンの展開構成(分岐の状態)が各シーンを表すシーンアイコン307のツリー構造により表示されるシーン展開画面305、及び処理アイコン表示部で構成されている。   As shown in FIG. 13, the main window includes a scene screen 301 on which a scene screen being created (a scene screen (see FIG. 6) displayed on the display device (2) of the agent device 1) is displayed. A setting screen 303 on which setting items to be set are displayed, a scene development screen 305 in which a scene development configuration (branch state) is displayed by a tree structure of scene icons 307 representing each scene, and a processing icon display unit Has been.

シナリオエディタ(240-1-1)を起動すると、メインウインドウのシーン展開画面305には、スタートポイント308が表示される。このスタートポイント308を選択するとシナリオプロパティの編集ができる。選択は、例えば、マウスカーソルによるポイント位置を該当箇所に合わせて、マウスをダブルクリックすることで選択される。
画面構成の変更ボタン309は、表示したい画面構成を選択するボタン、効果音設定ボタン310は、シナリオのシーン毎に効果音を設定する画面を表示するボタンである。
エージェント表示画面311を選択すると、エージェント(キャラクタ)の動作の編集画面が表示される。
When the scenario editor (240-1-1) is activated, a start point 308 is displayed on the scene development screen 305 of the main window. When this start point 308 is selected, scenario properties can be edited. The selection is made by, for example, matching the point position by the mouse cursor to the corresponding location and double-clicking the mouse.
The screen configuration change button 309 is a button for selecting a screen configuration to be displayed, and the sound effect setting button 310 is a button for displaying a screen for setting sound effects for each scene of the scenario.
When the agent display screen 311 is selected, an agent (character) action editing screen is displayed.

台詞編集ボタン313は、キャラクタの台詞の指示を編集するボタンである。この台詞編集ボタン313を選択することで、後述するように、各シーンに対して搭乗者の種別に対応した台詞を設定することができる。   The dialogue editing button 313 is a button for editing a dialogue instruction of the character. By selecting this dialogue editing button 313, as will be described later, dialogue corresponding to the type of passenger can be set for each scene.

ボタンパーツとバックグラウンド音声認識辞書設定315を選択すると使用する音声認識辞書の編集ができる。シーン画面301の回答選択ボタン315aのマークで表示されている方を選択すると認識する単語の名称がシーン画面に表示され、バックグラウンドで認識する方315bを選択すると、音声認識の対象となるが認識する単語の名称は表示されない。
タイマー設定ボタン317は、タイマー設定情報を設定、及び変更するためのボタンである。
When the button part and the background speech recognition dictionary setting 315 are selected, the speech recognition dictionary to be used can be edited. The name of the word to be recognized is displayed on the scene screen when the one displayed with the answer selection button 315a mark on the scene screen 301 is selected, and when the person 315b to be recognized in the background is selected, it is recognized as a voice recognition target. The name of the word to be displayed is not displayed.
The timer setting button 317 is a button for setting and changing timer setting information.

音声認識開始制御指示320aでは、作成中のシーンにおいて音声認識を行う場合に、音声認識の開始をどのようにするかを規定する音声認識の指示を設定する。音声認識の指示としては、音声認識を「自動で開始する」、「自動で開始しない」、「エージェント装置(車載装置)が判断する(おまかせ)」、のうちのいずれかを選択可能になっている。
コールバック制御指示320bでは、音声認識の結果を確認するためのコールバックを行うか否かについての指示を設定する。コールバックの指示としては、「コールバックする」、「コールバックしない」、エージェント装置が状況判断してコールバックをするかしないかを判断する「エージェント装置が判断(おまかせ)」のうちのいずれかを選択可能になっている。
The voice recognition start control instruction 320a sets a voice recognition instruction that defines how to start voice recognition when voice recognition is performed in the scene being created. As an instruction for voice recognition, one of “start automatically”, “do not start automatically”, and “judgment by agent device (onboard device) (automatic)” can be selected. Yes.
In the callback control instruction 320b, an instruction as to whether or not to perform a callback for confirming the result of voice recognition is set. The callback instruction is one of “call back”, “do not call back”, or “agent device determines (automatic)” that determines whether or not the agent device determines whether or not to make a callback. Can be selected.

AMMの変化の設定変更ボタン321は、作成中のシーンでエージェントの各長期的感情要素を変更するためのボタンである。
シーン展開表示部322は、シーン展開画面で指定された(アクティブ状態の)シーンに対して規定されている展開条件項目及び追加条件項目と、その条件項目を満たす場合に継続(接続)するシーンが表示される。
シーン展開表示部322の左側には、図13に示されるように、アクティブ状態のシーンに設定された展開条件や追加条件の分類がツリー構造で表示される。また、シーン展開表示部の右側には、移行条件の内容とその接続先(展開先のシーン番号)が表示される。
The AMM change setting change button 321 is a button for changing each long-term emotional element of the agent in the scene being created.
The scene development display unit 322 displays a development condition item and an additional condition item that are defined for a scene (active state) specified on the scene development screen, and a scene that is continued (connected) when the condition item is satisfied. Is displayed.
On the left side of the scene development display unit 322, as shown in FIG. 13, the development conditions set for the active scene and the classification of additional conditions are displayed in a tree structure. In addition, on the right side of the scene development display portion, the contents of the transition condition and the connection destination (the scene number of the development destination) are displayed.

メインウインドウの処理アイコン表示部(図13の上部)には、シーン作成ボタン323、分岐シーン作成ボタン324、エンドIDボタン327、挿入ボタン329、シーン再生ボタン331、ビルドボタン332、その他の処理ボタンが表示されている。
シーン作成ボタン323は、新たに通常シーンを作成する場合に使用する。
シーン作成ボタン323をクリックするとシナリオの流れを編集できる(次のシーンを作成する)。シーン作成ボタン323をクリックすると、現在選択しているシーンの次に展開する通常シーンの作成が可能になる。
シーン作成ボタン323でシナリオの流れを分岐させることで、各通常シーンに対する展開構成が作成される。例えば、図13のシーン展開画面305に表示されているシーン展開構成に於いて、通常シーンのアイコン5を選択した状態(アクティブ表示されている状態)で、シーン作成ボタン323をクリックするとシーン5に続くシーンのアイコンが下層側に表示され、複数回クリック(複数回作成操作を行う)することでシーン5に続いて展開される通常シーン7、8、…が分岐して作成される。
In the processing icon display section (upper part of FIG. 13) of the main window, there are a scene creation button 323, a branch scene creation button 324, an end ID button 327, an insert button 329, a scene playback button 331, a build button 332, and other processing buttons. It is displayed.
The scene creation button 323 is used when a new normal scene is created.
Clicking the scene creation button 323 allows you to edit the scenario flow (create the next scene). When the scene creation button 323 is clicked, a normal scene to be developed next to the currently selected scene can be created.
By branching the flow of the scenario with the scene creation button 323, a development configuration for each normal scene is created. For example, in the scene development configuration displayed on the scene development screen 305 in FIG. 13, when the scene creation button 323 is clicked with the normal scene icon 5 selected (actively displayed), the scene 5 is displayed. The icon of the following scene is displayed on the lower layer side, and the normal scenes 7, 8,... Developed after the scene 5 are branched and created by clicking a plurality of times (a plurality of creation operations are performed).

すなわち、シーンm(通常シーン又は分岐シーン)を選択した状態でシーン作成ボタン323をクリックすることで、シーンmに続く次の通常シーンm1が作成される。そして、再度シーンmを選択した状態で、シーン作成ボタン323をクリックするとシーンmに続く次の通常シーンm2が、通常シーンm1と並列に分岐して作成される。同様に再度シーンmを選択した状態でシーン作成ボタン323をクリックすると通常シーンm3が作成される。
そして、作成した通常シーンm1に続くシーンを更に展開させたい場合には、通常シーンm1を選択した状態でシーン作成ボタン323をクリックすることで、通常シーンm1に続く次の通常シーンm1-1が作成される。通常シーンm1から分岐する別のシーンを作成する場合にはシーンm1を再度選択してシーン作成ボタン323をクリックすればシーンm1に続くシーンm1-2が作成される。
That is, when the scene creation button 323 is clicked with the scene m (normal scene or branch scene) selected, the next normal scene m1 following the scene m is created. When the scene creation button 323 is clicked while the scene m is selected again, the next normal scene m2 following the scene m is created by branching in parallel with the normal scene m1. Similarly, when the scene creation button 323 is clicked with the scene m selected again, a normal scene m3 is created.
If you want to further expand the scene that follows the created normal scene m1, click the scene creation button 323 with the normal scene m1 selected, and the next normal scene m1-1 that follows the normal scene m1 will be displayed. Created. When another scene branched from the normal scene m1 is created, the scene m1 subsequent to the scene m1 is created by selecting the scene m1 again and clicking the scene creation button 323.

更に、作成した通常シーンm1-1アクティブにした状態でシーン作成ボタン323をクリックすれば、通常シーンm1-1に続く通常シーンm1-1-1が作成される。
分岐シーン作成ボタン324、新たに分岐シーンを作成する場合に使用する。
分岐シーン作成ボタン324をクリックするとシナリオの流れを編集できる(次の分岐シーンを作成する)。分岐シーン作成ボタン324をクリックすると、現在選択しているシーンの次に展開する分岐シーンの作成が可能になる。
分岐シーン作成ボタン324により、展開条件に続けてさらに複数の追加条件で分岐させることで、移行条件の論理演算(論理和、論理積)による各通常シーンに対する展開構成を作成することができる。
Further, when the scene creation button 323 is clicked in a state where the created normal scene m1-1 is activated, a normal scene m1-1-1 following the normal scene m1-1 is created.
Branch scene creation button 324, which is used to create a new branch scene.
Click the branch scene creation button 324 to edit the scenario flow (create the next branch scene). When the branch scene creation button 324 is clicked, a branch scene to be developed next to the currently selected scene can be created.
By using the branch scene creation button 324, branching is performed under a plurality of additional conditions following the development condition, so that a development configuration for each normal scene can be created by a logical operation (logical sum, logical product) of the transition conditions.

例えば、図13のシーン展開画面305に表示されているシーン展開構成において、通常シーン1から通常シーン2に展開する場合に、両通常シーン間に分岐シーン4と分岐シーン6を挿入することで、通常シーン1に規定する状態変化をした場合で、分岐条件4と分岐条件6の両者を満たした場合に通常シーン2が通常シーン1に続いて展開される。このように、分岐シーンを複数使用することで、多彩な条件設定により種々の展開をするシナリオを作成することができる。   For example, in the scene development configuration displayed on the scene development screen 305 in FIG. 13, when developing from the normal scene 1 to the normal scene 2, by inserting the branch scene 4 and the branch scene 6 between the two normal scenes, When the state change defined in the normal scene 1 is performed and both the branch condition 4 and the branch condition 6 are satisfied, the normal scene 2 is developed following the normal scene 1. In this way, by using a plurality of branch scenes, it is possible to create scenarios that perform various developments with various condition settings.

図13において分岐シーンは符号333で表されている。分岐シーンの作成は、通常シーンに続けることも、分岐シーンに続けて作成することも可能である。例えば、図13のシーン展開画面305の通常シーン1をアクティブにした状態で分岐シーン作成ボタン324を選択することで分岐シーン4が作成され、この分岐シーンをアクティブにした状態で更に分岐シーン作成ボタン324を選択することで分岐シーン6が作成されている。
分岐シーンを階層的に作成する方法は、上で説明した通常シーンの作成方法と同様である。
In FIG. 13, the branch scene is denoted by reference numeral 333. A branch scene can be created following a normal scene or a branch scene. For example, a branch scene 4 is created by selecting the branch scene creation button 324 with the normal scene 1 on the scene development screen 305 of FIG. 13 activated, and a branch scene creation button with this branch scene activated. Branch scene 6 is created by selecting 324.
The method for creating the branch scene hierarchically is the same as the method for creating the normal scene described above.

終了位置作成ボタン327をクリックするとシナリオの終了位置340を作成できる。作成した各シナリオの終了位置340には、終了番号がエンドIDとして割り振られるようになっている。
作成したシナリオの終了位置340を選択すると、エンドプロパティ編集画面(図40参照)を表示し、この画面において、エージェントの各短期的感情要素を設定、及び変更することができる。
When the end position creation button 327 is clicked, a scenario end position 340 can be created. An end number is assigned as an end ID to the end position 340 of each created scenario.
When the end position 340 of the created scenario is selected, an end property editing screen (see FIG. 40) is displayed, and each short-term emotion element of the agent can be set and changed on this screen.

挿入ボタン329は、それぞれアクティブ状態のシーン(通常シーン、分岐シーン)又はエンドマークの前に通常シーン、分岐シーンを挿入するためのボタンである。各シーンの種類に応じたボタンを選択する。
シーン再生ボタン331は、アクティブな通常シーンを再生するためのボタンである。
ビルドボタン332は、作成したシナリオをエージェント装置で使うための実機形式(NAV形式)のフォーマットにコンパイルするためのボタンである。
The insert button 329 is a button for inserting a normal scene and a branch scene before each active scene (normal scene, branch scene) or end mark. Select a button for each scene type.
The scene playback button 331 is a button for playing back an active normal scene.
The build button 332 is a button for compiling the created scenario into an actual machine format (NAV format) for use by the agent device.

なお、図13に示したメインウインドウは、シナリオの作成途中を例示したもので、シナリオエディタ(240-1-1)を起動した当初の画面は、シーン展開画面305にスタートポイント308だけが表示され、シーン画面301には何も表示されていず、設定画面303も未設定(デフォルト値は表示されている)の状態である。   The main window shown in FIG. 13 is an example of a scenario being created, and the initial screen when the scenario editor (240-1-1) is started displays only the start point 308 on the scene development screen 305. Nothing is displayed on the scene screen 301, and the setting screen 303 is not set (the default value is displayed).

シーン展開画面305において分岐シーン、例えば、図13の分岐シーン4を選択してアクティブにするとシーン画面301の領域に、追加条件分類表示欄と、追加条件項目欄が表示される。
分岐条件分類表示欄には、アクティブ状態の分岐シーンに対して選択されている追加条件項目の分類が表示され、分岐条件項目欄には、分岐先を指定する追加条件項目が表示される。
When a branch scene, for example, branch scene 4 in FIG. 13 is selected and activated on the scene development screen 305, an additional condition classification display field and an additional condition item field are displayed in the area of the scene screen 301.
The branch condition classification display field displays the classification of the additional condition item selected for the active branch scene, and the branch condition item field displays the additional condition item for designating the branch destination.

図13に示したメインウインドウにおいて、シーン展開画面305に表示されているスタートポイント308をダブルクリックすると、シナリオプロパティの編集ウインドウ(図示しない)がメインウインドウ上に重ねて表示される。
このシナリオプロパティの編集ウインドウにおいて、シナリオ名称入力、カナ名称入力、アイコン選択、ジャンル選択、プライオリティの設定、有効期限(開始条件を満たしてから実際に開始するまでのタイムラグの上限値)の設定、走行中実行条件の設定、シナリオの起動条件の設定(別ウインドウ)、シナリオ単位での音声出力位置の設定、ジャンル情報の設定、作成者名称入力、コメント入力が行なえる。この画面で入力されるシナリオ名称入力、カナ名称入力は、実機形式のシナリオデータにおける管理データ等となる。
In the main window shown in FIG. 13, when the start point 308 displayed on the scene development screen 305 is double-clicked, a scenario property editing window (not shown) is displayed over the main window.
In this scenario property edit window, scenario name input, kana name input, icon selection, genre selection, priority setting, expiration date (upper limit of time lag from start condition to actual start) setting, running Setting of medium execution condition, setting of scenario start condition (separate window), setting of voice output position for each scenario, setting of genre information, creator name input, and comment input can be performed. The scenario name input and kana name input entered on this screen are management data in the scenario data in the actual machine format.

図14は、シナリオ起動条件を編集する画面操作の流れを表した説明図である。
シナリオプロパティの編集ウインドウにおいて、起動条件の設定ボタン401を選択すると、図14(a)に示す、シナリオ開始条件(自動起動条件)のメイン編集ウインドウが表示される。
以下に説明する、このシナリオ開始条件のメイン編集ウィンドウによる設定処理により、画面要素推移体データを起動する起動条件を設定する起動条件設定手段が構成される。
シナリオ開始条件のメイン編集ウインドウ(図14(a))では、ユーザがシナリオを手動で開始できるように設定できる。この事例ではチェックボックス406のチェックを外して手動で起動しないに設定されている。
FIG. 14 is an explanatory diagram showing the flow of the screen operation for editing the scenario activation condition.
When the start condition setting button 401 is selected in the scenario property edit window, the main edit window for the scenario start condition (automatic start condition) shown in FIG. 14A is displayed.
An activation condition setting means for setting an activation condition for activating the screen element transition body data is configured by setting processing in the main editing window of the scenario start condition described below.
The main editing window (FIG. 14A) of the scenario start condition can be set so that the user can start the scenario manually. In this example, the check box 406 is unchecked and set to not start manually.

このシナリオ開始条件のメイン編集ウインドウ(a)の左側の自動起動条件(自律起動条件)一覧にはシステムがシナリオを自動で開始する条件が表示される。図14(a)の状態では、まだ何も設定されていないので空欄の状態である。
シナリオ開始条件のメイン編集ウインドウ(図14(a))において、新規作成ボタン405をクリックすると、自動開始条件選択ウインドウ(図14(b))が表示され、新しい開始条件の編集ができる。
Conditions for the system to automatically start a scenario are displayed in the list of automatic start conditions (autonomous start conditions) on the left side of the main editing window (a) for this scenario start condition. In the state of FIG. 14 (a), nothing has been set yet, so it is a blank state.
When a new creation button 405 is clicked in the main editing window for scenario start conditions (FIG. 14A), an automatic start condition selection window (FIG. 14B) is displayed, and a new start condition can be edited.

自動開始条件選択ウインドウ(図14(b))において、設定したい判断条件項目(カテゴリ)を選択し、決定をクリックすると自動開始する条件範囲の選択ウインドウ(図14(c))へ進む。この図14(b)の例示では、高速道路走行中にシナリオを自動で開始(自律起動)したいので、「道路の状態がどのようなときに起動するか選択」の中の「種類を選択」の項目を選択し、決定をクリックする。
キャンセルをクリックするとシナリオ開始条件のメイン編集ウインドウ(図14(a))に戻る。
In the automatic start condition selection window (FIG. 14 (b)), the judgment condition item (category) to be set is selected, and when the decision is clicked, the process proceeds to the condition range selection window (FIG. 14 (c)) for automatic start. In the example of FIG. 14B, since it is desired to automatically start (autonomous activation) a scenario while traveling on a highway, “select type” in “select when to activate the road state” Select the item and click OK.
Click Cancel to return to the main editing window (FIG. 14 (a)) of the scenario start condition.

この自動開始条件選択ウインドウ(図14(b))に表示し、選択できる項目は、図12(a)に表示した自動起動項目である。図14(b)において、「いつ起動させるかを選択」のフォルダ内を選択すると図12(a)のNo.1〜10の条件項目が1つ下の階層に表示される。
同様に、「どこで起動させるかを選択」のフォルダを選択するとNo.10〜16が、「道路の状態がどのようなときに起動させるかを選択」のフォルダを選択するとNo.21〜23が、「車の状態がどのようなときに起動させるかを選択」のフォルダを選択するとNo.17〜20が、「ナビの状態がどのようなときに起動させるかを選択」のフォルダを選択するとNo.21〜28が、「ユーザがどのようなときに起動させるかを選択」のフォルダを選択するとNo.29〜30が、それぞれ1つ下の階層に表示される。
Items that can be displayed and selected in the automatic start condition selection window (FIG. 14B) are the automatic start items displayed in FIG. In FIG. 14B, when the “Select when to start” folder is selected, the condition items No. 1 to No. 10 in FIG. 12A are displayed one level below.
Similarly, if you select the “Select where to start” folder, No. 10 to 16 will be selected. If you select the “Select when to start when road condition” folder, No. 21 to 23 will be displayed. , When you select the folder “Select when to start the car” No.17-20, when you select the folder “Select when to start the navigation” When No. 21 to 28 select a folder “select when the user activates”, No. 29 to 30 are displayed in the next lower level.

自動開始する条件範囲の選択ウインドウ(図14(c))では、前のウインドウ(b)で選択した判断条件項目(カテゴリ)によってウインドウの構成が変わる。図示した例では、道路の種類を選択する項目のウインドウが表示されている。
自動開始する条件範囲の選択ウインドウ(図14(c))で、選択可能な項目は、自動開始条件選択ウインドウ(図14(b))で選択した自動起動項目に対応する、選択できる項目(図12(b))である。この選択できる項目は、選択項目欄408右側のマークをクリックすることで、プルダウンメニュー表示される。
In the condition range selection window (FIG. 14C) to be automatically started, the window configuration changes depending on the judgment condition item (category) selected in the previous window (b). In the illustrated example, an item window for selecting a road type is displayed.
Items that can be selected in the automatic start condition range selection window (FIG. 14C) are selectable items corresponding to the automatic start items selected in the automatic start condition selection window (FIG. 14B) (FIG. 14). 12 (b)). This selectable item is displayed in a pull-down menu by clicking the mark on the right side of the selection item column 408.

自動で開始しても良い条件範囲を一覧から選択(又は数字で入力)し、追加ボタンをクリックすると選択した項目が設定されて下の欄に表示される。図示した例では、「高速道路」を選択して追加ボタンをクリックした場合が表示されている。
自動開始する条件範囲の選択ウインドウ(図14(c))で決定ボタンをクリックするとその設定状態に決定し、シナリオ起動条件のメイン編集ウインドウ(図14(c))に戻る。
キャンセルをクリックすると自動開始条件選択ウインドウ(図14(b))に戻る。
図14(d)のシナリオ開始条件のメイン編集ウインドウでは、左側の自動起動条件一覧に、上記操作で設定した自動で開始する条件(道路の種類が高速道路だったら起動する)が表示されている。
また、自動起動の条件一覧画面に表示されている自動で開始する条件を選択して編集ボタンをクリックすると、選択した条件にさらに条件設定を追加するための自動開始条件選択ウインドウ(図14(b))が表示される。
Select a condition range that may be started automatically from the list (or enter a number), and click the Add button to set the selected item and display it in the bottom column. In the illustrated example, the case where “highway” is selected and the add button is clicked is displayed.
When the determination button is clicked in the condition range selection window (FIG. 14C) to be automatically started, the setting state is determined, and the scenario editing condition main editing window (FIG. 14C) returns.
Click Cancel to return to the automatic start condition selection window (FIG. 14B).
In the main editing window of the scenario start condition in FIG. 14 (d), the automatic start condition list set by the above operation is displayed in the left side automatic start condition list (starts when the road type is a highway). .
When an automatic start condition displayed on the automatic start condition list screen is selected and the edit button is clicked, an automatic start condition selection window (FIG. 14 (b) for adding additional condition settings to the selected condition is displayed. )) Is displayed.

次に、自律起動条件以外の、シナリオを作成する各種操作について説明する。
図15は、設定中のシーンにおける台詞を、搭乗者の種別毎に設定する台詞設定ウィンドウによる設定情報を表したものである。
図13に示したメインウィンドウにおいて、台詞編集ボタン313が選択されると、図14(a)に示す台詞出力座席の設定ウィンドウが別途表示される。
Next, various operations for creating a scenario other than the autonomous activation condition will be described.
FIG. 15 shows setting information in a dialogue setting window for setting dialogue in the scene being set for each type of passenger.
When the dialogue editing button 313 is selected in the main window shown in FIG. 13, a dialogue output seat setting window shown in FIG. 14A is displayed separately.

このウィンドウにおいて、シナリオ作成者が、予め車両の搭乗者の種別と座席位置について想定可能な場合には、全座席以外のいずれかを選択する。全座席以外のいずれかが選択された後に決定ボタンが押されると、図15(c)の吹き出し編集ウィンドウが表示される。   In this window, the scenario creator selects any one other than all seats when the type and seat position of the vehicle passenger can be assumed in advance. When the determination button is pressed after any one other than all seats is selected, a balloon edit window shown in FIG. 15C is displayed.

シナリオ作成者は、吹き出し編集ウィンドウにおいて、各座席に対して想定した搭乗者の種別に応じた台詞を入力する。
そして、決定ボタンが押されると、入力された台詞と図14(a)で選択された各座席位置とがシーンにおける台詞情報として設定される。
そして、シナリオ作成者は、以上の予め想定可能な搭乗者の座席位置の設定と、対応する台詞の入力とを、想定される搭乗者数だけ繰り返すことで、複数の台詞と座席位置が設定される。
The scenario creator inputs a dialogue corresponding to the type of passenger assumed for each seat in the balloon edit window.
When the enter button is pressed, the input dialogue and each seat position selected in FIG. 14A are set as dialogue information in the scene.
Then, the scenario creator repeats the setting of the seat position of the passenger that can be assumed in advance and the input of the corresponding dialogue as many times as the expected number of passengers, thereby setting a plurality of dialogues and seat positions. The

一方、搭乗者の座席位置を予め想定できない場合、シナリオ作成者は、台詞出力座席の設定ウィンドウ(図15(a))において、全席を設定し決定ボタンを押す。
すると、図15(b)に示されるように、ユーザ種別編集ウィンドウが表示され、台詞を聞く対象となる搭乗者の種別を設定する。
図15(b)に示されるように、搭乗者の種別として、年齢層、性別、社会的地位(社会層)を設定することができるようになっている。いずれの項目も右端を選択することで選択可能な項目がプルダウン表示され、シナリオ作成者は、表示された中から1項目を選択する。
On the other hand, when the seat position of the passenger cannot be assumed in advance, the scenario creator sets all seats and presses the enter button in the dialogue output seat setting window (FIG. 15A).
Then, as shown in FIG. 15 (b), a user type editing window is displayed, and the type of the passenger to be listened to is set.
As shown in FIG. 15B, an age group, gender, and social status (social layer) can be set as the type of passenger. By selecting the right end of any item, a selectable item is displayed in a pull-down manner, and the scenario creator selects one item from the displayed items.

プルダウンされる選択項目としては、本実施形態では、年齢層が12歳以下、13歳〜18歳、19歳〜60歳、60歳以上の4項目、性別が男女の2項目、社会層が一般と上級の2項目がリスト表示される。社会層については、年齢が19歳以上が選択されている場合に表示される。
なお、より詳細な項目に分類委してリスト表示するようにしてもよい。
As selection items to be pulled down, in this embodiment, the age group is 12 years old or younger, 13 to 18 years old, 19 to 60 years old, 4 items of 60 years old or older, gender is 2 items for men and women, and the social layer is general And two items of advanced level are displayed in a list. The social layer is displayed when the age is over 19 years old.
The list may be displayed by classifying more detailed items.

ユーザ種別編集ウィンドウで搭乗者の種別が選択された後に、シナリオ作成者により決定ボタンが押されると、図15(c)の吹き出し編集ウィンドウが表示される。
シナリオ作成者は、吹き出し編集ウィンドウにおいて、選択した搭乗者の種別に応じた台詞を入力する。
そして、決定ボタンが押されると、入力された台詞と図15(b)で選択された搭乗者種別とがシーンにおける台詞情報として設定される。
そして、シナリオ作成者は、搭乗者の種別と、対応する台詞の入力とを、想定する搭乗者数(任意)だけ繰り返すことで、複数の台詞と搭乗者種別が設定される。
After the passenger type is selected in the user type edit window, when the decision button is pressed by the scenario creator, a balloon edit window shown in FIG. 15C is displayed.
The scenario creator inputs a dialogue corresponding to the type of the selected passenger in the balloon edit window.
When the enter button is pressed, the input dialogue and the passenger type selected in FIG. 15B are set as dialogue information in the scene.
Then, the scenario creator repeats the passenger type and input of the corresponding dialogue for the number of assumed passengers (arbitrary), thereby setting a plurality of dialogues and passenger types.

搭乗者種別と台詞とが設定されると、図15(d)に示されるように、メインウィンドウのシーン画面301に、設定された種別と入力された台詞のテキストが吹き出しに表示される。このように、入力された台詞は音声データとして出力される他、シーン画面301の吹き出しにテキスト表示される。
そして、設定された搭乗者の座席位置又は種別の情報が、設定中のシーンに対する各台詞に対応してシーン管理データ(図5参照)に設定される。
When the passenger type and dialogue are set, as shown in FIG. 15D, the set type and the text of the inputted dialogue are displayed in a balloon on the scene screen 301 of the main window. In this way, the input dialogue is output as audio data and displayed as text in a balloon on the scene screen 301.
Then, the information on the seat position or type of the set passenger is set in the scene management data (see FIG. 5) corresponding to each line for the scene being set.

なお、搭乗者の種別が設定されている場合、搭乗者の種別として設定される年齢層、性別、社会層の可能な組み合わせに対して種別IDを規定しておき、この種別IDをシーン管理データに格納するようにしてもよい。
例えば、上記した種別の分類の場合、12歳以下の男性の種別IDを1、12歳以下の女性の種別IDを2、13歳〜18歳の男性の種別IDを3、13歳〜18歳の男性の種別を4、19歳〜60歳の男性で一般の種別を5、19歳〜60歳の男性で上級の種別を6、…60歳以上の女性で上級を12、というように12種類の種別IDが規定される。
If the type of passenger is set, a type ID is defined for possible combinations of age group, gender, and social group set as the type of passenger, and this type ID is set as scene management data. You may make it store in.
For example, in the case of the above-mentioned classification, the classification ID of a male under 12 years old is 1, the classification ID of a female under 12 years old is 2, the classification ID of a male between 13 and 18 years old is 3, and the classification ID of a male between 13 and 18 years old The male type is 4, 19 to 60 years old, the general type is 5, 19 to 60 years old, the senior type is 6,. A type ID of a type is defined.

シーン画面の編集状態を表しているメインウィンドウ(図13)において、エージェント表示画面311をマウスでダブルクリックすると、キャラクタ動作(エージェントの動作)指示を編集する動作編集ダイアログが表示される。
この動作編集ダイアログにおいて、お辞儀をする、右を指す、右を見る等の個別の動作の一覧や、感謝、否定、誉める、挨拶等の表現内容の一覧が表示され、各シーン画面毎のキャラクタの動作を指定する。
When the agent display screen 311 is double-clicked with the mouse in the main window (FIG. 13) showing the editing state of the scene screen, an action editing dialog for editing a character action (agent action) instruction is displayed.
In this action editing dialog, a list of individual actions such as bowing, pointing to the right, looking at the right, etc., and a list of expressions such as thanks, denial, praise, greetings, etc. are displayed. Specify the action.

図16は、作成したシナリオをエージェント装置で使用可能な実機形式(NAV形式)のフォーマットにコンパイルするための画面操作の流れを表したものである。
メインウインドウ(a)において、シナリオコンパイルボタン325をクリックすると、シナリオコンパイラ(240−1−2)が起動して、シナリオコンパイラのウインドウ(b)が表示される。
このシナリオコンパイラのウインドウ(b)において、コンパイルしたデータを出力するファイルの名称を指定し、同時に変換するシナリオを選択(シナリオ一覧リストにチェックしたシナリオを同時に変換する)し、コンパイルボタンをクリックするとデータ変換を開始する。データ変換の状況を結果表示部に表示する。
またシナリオコンパイラは、データ変換を終了すると、実機形式(NAV形式)に変換後のシナリオデータ(240-1-3)を変換後のシナリオデータを記憶装置240のシナリオ編集データ(240−2)に格納する。
FIG. 16 shows a flow of screen operations for compiling the created scenario into a format of a real machine format (NAV format) that can be used by the agent device.
When the scenario compilation button 325 is clicked in the main window (a), the scenario compiler (240-1-2) is activated and the scenario compiler window (b) is displayed.
In this scenario compiler window (b), specify the name of the file to which the compiled data is output, select the scenario to be converted at the same time (convert the scenario checked in the scenario list), and click the compile button to select the data Start conversion. The data conversion status is displayed on the result display section.
When the scenario compiler finishes the data conversion, the scenario data (240-1-3) converted into the actual machine format (NAV format) is converted into the scenario editing data (240-2) in the storage device 240. Store.

以上、本発明の車載装置及びデータ作成装置における1実施形態について説明したが、本発明は説明した実施形態に限定されるものではなく、各種の変形を行うことが可能である。
例えば、説明したデータ作成装置では、搭乗者の種別毎に異なる台詞を設定したが、台詞を1種類と複数の搭乗者種別を設定するようにしてもよい。
この場合、車載装置において、搭乗者種別が複数設定されていれば、1つの台詞から搭乗者種別に対応した複数の言い回しの台詞を作成する。
As mentioned above, although one embodiment in the in-vehicle device and data creation device of the present invention was described, the present invention is not limited to the described embodiment, and various modifications can be made.
For example, in the data creation apparatus described, different dialogues are set for each type of passenger, but one type of dialogue and a plurality of passenger types may be set.
In this case, if a plurality of passenger types are set in the in-vehicle device, a plurality of words corresponding to the passenger type are created from one line.

すなわち、車載装置の描画・音声出力部(101-5)に、台詞の意味を変えずに言い回しだけを変えた複数の台詞を作成する機能(言い回し変更手段)を持たせる。
言い回しの変更は、例えば、文末の表現を、男性的な表現、女性的な表現、丁寧な表現、くだけた表現とうに変更するための言い回し辞書を予め用意しておき、種別に応じて文末表現を変更するようにする。
例えば、台詞の文末の表現として「よい」およびこれに類似した表現がされている場合、丁寧な表現「よいですね。」、くだけた表現「いいね」等の各種文末表現に対応した言い回し表現を種別に応じて用意する。
That is, the drawing / sound output unit (101-5) of the in-vehicle device is provided with a function (phrase changing means) for creating a plurality of lines in which only the wording is changed without changing the meaning of the word.
To change the wording, for example, prepare a wording dictionary in advance to change the expression at the end of the sentence to masculine expression, feminine expression, polite expression, concise expression, and change the expression at the end according to the type. Make changes.
For example, when “good” and similar expressions are used as the end of the dialogue, the wording expression corresponding to various end-of-sentence expressions, such as the polite expression “good” and the simple expression “like” Are prepared according to the type.

本発明の実施形態におけるエージェント装置とシナリオ作成装置及びサーバからなる全体のシステム構成図である。1 is an overall system configuration diagram including an agent device, a scenario creation device, and a server according to an embodiment of the present invention. 本発明の一実施形態におけるエージェント装置の構成を示すブロック図である。It is a block diagram which shows the structure of the agent apparatus in one Embodiment of this invention. エージェント処理部の構成を表した説明図である。It is explanatory drawing showing the structure of the agent process part. 外部記憶媒体に集録されている情報を概念的に表した説明図である。It is explanatory drawing which represented the information currently collected on the external storage medium notionally. 実機形式シナリオデータの構成を表した説明図である。It is explanatory drawing showing the structure of real machine format scenario data. 旅館が宿泊予定者に送信した案内シナリオによるシーン画面の遷移を各シーン毎に表した画面遷移図である。It is the screen transition diagram showing the transition of the scene screen by the guidance scenario which the inn transmitted to the prospective guest for each scene. エージェント装置の全体処理部による、搭乗者特定処理を表したフローチャートである。It is a flowchart showing the passenger specific process by the whole process part of an agent apparatus. シナリオ実行処理の流れの一例を表したフローチャートである。It is a flowchart showing an example of the flow of scenario execution processing. シナリオ作成装置の構成図である。It is a block diagram of a scenario creation apparatus. シナリオ編集プログラムとデータの構成を概念的に表した説明図である。It is explanatory drawing which represented the scenario edit program and the structure of data notionally. データ形式の変換を概念的に表した説明図である。It is explanatory drawing which represented conversion of the data format notionally. 自動起動項目として設定可能な項目を例示した説明図である。It is explanatory drawing which illustrated the item which can be set as an automatic starting item. シナリオエディタを起動した場合に表示装置に表示されるメインウィンドウの構成を表した説明図である。It is explanatory drawing showing the structure of the main window displayed on a display device when a scenario editor is started. シナリオ開始条件のメイン編集ウィンドウから、シナリオ起動条件を編集する画面操作の流れを表した説明図である。It is explanatory drawing showing the flow of the screen operation which edits a scenario start condition from the main edit window of a scenario start condition. 設定中のシーンにおける台詞を、搭乗者の種別毎に設定するながれの説明図である。It is explanatory drawing of the flow which sets the dialog in the scene under setting for every kind of passenger. 作成したシナリオをナビゲーションで使用可能な実機形式のフォーマットにコンパイルするための画面操作の流れを表した説明図である。It is explanatory drawing showing the flow of the screen operation for compiling the created scenario into the format of the real machine format which can be used by navigation.

符号の説明Explanation of symbols

1 エージェント装置
2 シナリオ作成装置
3 サーバ
(1) 中央処理装置
(2) 表示装置
(3) 音声出力装置
(4) 音声入力装置
(5) 入力装置
(6) 各種状況検出装置
(7)各種車載装置
(8)通信制御装置
(9)通信装置
(10)外部記憶装置
(200) 制御部
(210) 入力装置
(220) 出力装置
(230) 通信制御装置
(240) 記憶装置
(250) 記憶媒体駆動装置
(260) 入出力I/F
DESCRIPTION OF SYMBOLS 1 Agent apparatus 2 Scenario creation apparatus 3 Server (1) Central processing unit (2) Display apparatus (3) Audio | voice output apparatus (4) Audio | voice input apparatus (5) Input apparatus (6) Various condition detection apparatuses (7) Various vehicle equipment (8) Communication control device (9) Communication device
(10) External storage device
(200) Control unit
(210) Input device
(220) Output device
(230) Communication control device
(240) Storage device
(250) Storage medium drive
(260) Input / output I / F

Claims (4)

画面構成と、車両搭乗者の種別毎に定義された音声とが共に出力される形式としての画面要素を連続的に組み合わせて構成された画面要素推移体データを、車外から取得して記憶する画面要素推移体記憶手段と、
表示画面を有する表示装置と、
車両搭乗者の種別及び該搭乗者の搭乗座席位置を特定する搭乗者特定手段と、
車両に配置された複数の音声出力装置と、
前記画面要素推移体データを実行する画面要素推移体実行手段と、を備え、
前記画面要素推移体データを実行することにより、前記画面構成が前記表示装置に表示されると共に、前記特定した搭乗者の種別に対応する音声を、当該搭乗者の搭乗座席位置に対応させて前記音声出力装置から出力されることを特徴とする車載装置。
A screen for acquiring and storing screen element transition body data configured by continuously combining screen elements as a format in which a screen configuration and a sound defined for each type of vehicle occupant are output together. Element transition body storage means;
A display device having a display screen;
A passenger identification means for identifying the type of the vehicle passenger and the boarding seat position of the passenger;
A plurality of audio output devices arranged in the vehicle;
Screen element transition body executing means for executing the screen element transition body data,
By executing the screen element transition body data, the screen configuration is displayed on the display device, and the voice corresponding to the identified passenger type is associated with the boarding seat position of the passenger. An in-vehicle device that is output from an audio output device.
搭乗者に対して質問する質問手段と、
該質問に対する返答を搭乗者から受領する返答受領手段と、を備え、
前記搭乗者特定手段は、前記返答受領手段による返答の内容により、搭乗者の搭乗座席位置及び搭乗者の種別を特定することを特徴とする請求項1に記載の車載装置。
Questioning means for asking passengers,
A response receiving means for receiving a response to the question from the passenger,
The in-vehicle device according to claim 1, wherein the passenger identification unit identifies a boarding seat position of the passenger and a type of the passenger based on a response content of the response reception unit.
前記搭乗者の種別は、年齢、性別、社会的地位のうち少なくとも1つであることを特徴とする請求項1に記載の車載装置。   The in-vehicle device according to claim 1, wherein the type of the passenger is at least one of age, sex, and social status. 車載表示装置が表示する画面構成を設定する画面構成設定手段と、
出力する音声を車両搭乗者の種別毎に設定する音声設定手段と、
前記設定された画面構成と前記設定された音声とが共に出力される形式としての画面要素を作成する画面要素作成手段と、
該作成された画面要素を連続的に組み合わせて構成された画面要素推移体データを作成する画面要素推移体作成手段と、を備えたことを特徴とするデータ作成装置。
Screen configuration setting means for setting the screen configuration displayed by the in-vehicle display device;
Voice setting means for setting the voice to be output for each type of vehicle occupant;
Screen element creating means for creating a screen element as a format in which the set screen configuration and the set audio are output together;
A screen element transition body creation means for creating screen element transition body data configured by continuously combining the created screen elements.
JP2004101851A 2004-03-31 2004-03-31 Vehicle-mounted device and data-preparing device Pending JP2005283531A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004101851A JP2005283531A (en) 2004-03-31 2004-03-31 Vehicle-mounted device and data-preparing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004101851A JP2005283531A (en) 2004-03-31 2004-03-31 Vehicle-mounted device and data-preparing device

Publications (1)

Publication Number Publication Date
JP2005283531A true JP2005283531A (en) 2005-10-13

Family

ID=35182054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004101851A Pending JP2005283531A (en) 2004-03-31 2004-03-31 Vehicle-mounted device and data-preparing device

Country Status (1)

Country Link
JP (1) JP2005283531A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053026A (en) * 2009-08-31 2011-03-17 Toshiba Corp Navigation device and software program for performing navigation
WO2018230527A1 (en) * 2017-06-13 2018-12-20 パナソニックIpマネジメント株式会社 Drive assist method, drive assist program, and vehicle control device
CN110490108A (en) * 2019-08-08 2019-11-22 浙江大华技术股份有限公司 A kind of labeling method, device, storage medium and the electronic device of state violating the regulations
WO2020111351A1 (en) * 2018-11-30 2020-06-04 엘지전자 주식회사 Vehicle control apparatus and vehicle control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11351901A (en) * 1998-06-10 1999-12-24 Denso Corp Control device
JP2001083991A (en) * 1999-09-16 2001-03-30 Denso Corp User interface device, navigation system, information processing device and recording medium
JP2003177029A (en) * 2001-12-12 2003-06-27 Navitime Japan Co Ltd Map display device and map display system
JP2003248045A (en) * 2002-02-22 2003-09-05 Alpine Electronics Inc Apparatus for detecting location of occupant in cabin and on-board apparatus control system
JP2004028702A (en) * 2002-06-24 2004-01-29 Equos Research Co Ltd On-vehicle equipment, data creation device, and data creation program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11351901A (en) * 1998-06-10 1999-12-24 Denso Corp Control device
JP2001083991A (en) * 1999-09-16 2001-03-30 Denso Corp User interface device, navigation system, information processing device and recording medium
JP2003177029A (en) * 2001-12-12 2003-06-27 Navitime Japan Co Ltd Map display device and map display system
JP2003248045A (en) * 2002-02-22 2003-09-05 Alpine Electronics Inc Apparatus for detecting location of occupant in cabin and on-board apparatus control system
JP2004028702A (en) * 2002-06-24 2004-01-29 Equos Research Co Ltd On-vehicle equipment, data creation device, and data creation program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053026A (en) * 2009-08-31 2011-03-17 Toshiba Corp Navigation device and software program for performing navigation
WO2018230527A1 (en) * 2017-06-13 2018-12-20 パナソニックIpマネジメント株式会社 Drive assist method, drive assist program, and vehicle control device
CN110719865A (en) * 2017-06-13 2020-01-21 松下知识产权经营株式会社 Driving support method, driving support program, and vehicle control device
JPWO2018230527A1 (en) * 2017-06-13 2020-05-28 パナソニックIpマネジメント株式会社 Driving support method, driving support program, and vehicle control device
JP7108814B2 (en) 2017-06-13 2022-07-29 パナソニックIpマネジメント株式会社 DRIVING ASSIST METHOD, DRIVING ASSISTANCE PROGRAM, AND VEHICLE CONTROL DEVICE
US11458978B2 (en) 2017-06-13 2022-10-04 Panasonic Intellectual Property Management Co., Ltd. Drive assist method, drive assist program, and vehicle control device
CN110719865B (en) * 2017-06-13 2023-02-24 松下知识产权经营株式会社 Driving support method, driving support program, and vehicle control device
WO2020111351A1 (en) * 2018-11-30 2020-06-04 엘지전자 주식회사 Vehicle control apparatus and vehicle control method
US11279376B2 (en) 2018-11-30 2022-03-22 Lg Electronics Inc. Vehicle control device and vehicle control method
CN110490108A (en) * 2019-08-08 2019-11-22 浙江大华技术股份有限公司 A kind of labeling method, device, storage medium and the electronic device of state violating the regulations
CN110490108B (en) * 2019-08-08 2022-02-08 浙江大华技术股份有限公司 Violation state marking method and device, storage medium and electronic device
US11790699B2 (en) 2019-08-08 2023-10-17 Zhejiang Dahua Technology Co., Ltd. Systems and methods for traffic violation detection

Similar Documents

Publication Publication Date Title
JP5019145B2 (en) Driver information collection device
US20040225416A1 (en) Data creation apparatus
JP6100887B2 (en) System and method for integrating third party services with a digital assistant
KR102541523B1 (en) Proactive incorporation of unsolicited content into human-to-computer dialogs
CN103038818B (en) Communication system between the outer speech recognition system of vehicle-mounted voice identification system and car and method
JP4193300B2 (en) Agent device
JP2008290714A (en) On-vehicle apparatus
JP4259054B2 (en) In-vehicle device
JP2003109162A (en) Agent apparatus
JP2000020888A (en) Agent device
US20180052658A1 (en) Information processing device and information processing method
JP2001235343A (en) Information output device
JP4253918B2 (en) Agent device
JP4258607B2 (en) In-vehicle device
JP2005190192A (en) Onboard system
JP2004037953A (en) On-vehicle device, and device and program for data creation
JP4356450B2 (en) In-vehicle device
JP2005283531A (en) Vehicle-mounted device and data-preparing device
JP2004054883A (en) Onboard agent system and interactive operation control system
JP2004301651A (en) Vehicle-mounted device and data preparation device
JP2004050975A (en) In-vehicle device, data preparation device, and data preparation program
JP4059019B2 (en) In-vehicle device and data creation device
JP4449446B2 (en) In-vehicle device and data creation device
JP2003157489A (en) Operation control device
JP2003106846A (en) Agent apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091013