JP2003157489A - Operation control device - Google Patents

Operation control device

Info

Publication number
JP2003157489A
JP2003157489A JP2002161743A JP2002161743A JP2003157489A JP 2003157489 A JP2003157489 A JP 2003157489A JP 2002161743 A JP2002161743 A JP 2002161743A JP 2002161743 A JP2002161743 A JP 2002161743A JP 2003157489 A JP2003157489 A JP 2003157489A
Authority
JP
Japan
Prior art keywords
scenario
data
scene
agent
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002161743A
Other languages
Japanese (ja)
Inventor
Tomoki Kubota
智氣 窪田
Kazuhide Adachi
和英 足立
Koji Hori
孝二 堀
Hiroaki Kondo
裕昭 近藤
Manabu Matsuda
松田  学
Tadashi Hirano
正 平野
Kazuaki Fujii
一彰 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2002161743A priority Critical patent/JP2003157489A/en
Publication of JP2003157489A publication Critical patent/JP2003157489A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an autonomous control device and an agent device enabling a user to simply produce and add an autonomously corresponding content. SOLUTION: In the agent device, an agent image comprising a prescribed figure is displayed in a vehicle. A function for recognizing and deciding the surrounding state (including the motion or the voice of a person) from a detection result of a sensor or the like and outputting the motion or the voice corresponding to the result, which is a function of the agent device, is executed in connection with the motion or the voice of the figure of the agent. Hereby, the user feels such bodily sensation as if an agent having a pseudo character exists in the vehicle. Execution of a series of functions of the agent device is explained hereafter as an action or a motion of the agent. In the agent device in this execution form, the agent is allowed to perform various communications with a driver or deputization of an operation.

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、操作制御装置に係
り、例えば、車両の搭乗者とのコミュニケーションによ
り会話をしたり機器操作等を自律的に行う自律型制御装
置等に関する。 【0002】 【従来の技術】種々の状態を検出するセンサや状態を認
識する認識装置が多様化すると共に高精度化しており、
更に、センサ等の検出結果や認識結果を使用して各種装
置の動きや表示などを制御する制御技術の発達にともな
い、各種機器を制御したり、ユーザとの対話を行う情報
処理装置が実用化されている。このような情報処理装置
として、例えば、センサ等の検出結果から周囲の状態
(人の動きや音声を含む)を認識、判断し、その結果に
応じた動作や音声を出力する自律型のロボット等の自律
型制御装置が存在する。自律型制御装置としては、例え
ば、犬などのペット型のロボットや、車室内においてナ
ビゲーション装置等の機器操作の案内をしたり状況に応
じた質問や提案等を行うことで搭乗者との対話や対応を
するエージェント装置が開発されている。 【0003】このような自律型制御装置では、その装置
に対して考えられる種々の状態を想定すると共に、想定
した各状態を検出した場合にとるべき対応が、所定のデ
ータやプログラムに従って規定されている。そして、自
律型制御装置が自律的に判断し対応するためのプログラ
ムは、できるだけ多くのユーザに受け入れられる場合を
想定して開発されている。例えば、ペット型ロボットの
場合であれば、可愛い仕草をするだけでなく時々怒った
りしたりすることでユーザがより親しみをもてるように
プログラミングされる。また、車両用のエージェント装
置であれば、午後0時を検出して現在地周辺の食堂を案
内したり、所定量以下のガソリン残量を検出して給油を
促したり、予め登録されているユーザの趣味と検出した
時間とから対応するラジオ放送の開始を案内したりする
ようにプログラミングされる。 【0004】 【発明が解決しようとする課題】しかし従来の自律型制
御装置は、多くの状況に対応できるようになっているほ
どユーザの満足度が高くなるため、できるだけ多くの状
況を想定し、できるだけ多種類の対応が可能なようにプ
ログラミングする必要がある。このような状況設定と対
応は、全て装置の開発者側が行っているため、開発時間
もかかり、コストも多く必要であった。また、開発する
プログラムは、できるだけ多くのユーザが受け入れられ
るような状況を想定して作成されるが、ユーザによって
は自律的な対応の内容を受け入れられない場合がある。
このような場合、ユーザーの使い方や好みに合わせて、
ハードウエアやソフトウエアの設定や機能を変更するカ
スタマイズ機能を使用することになるが、カスタマイズ
可能な内容自体が装置の開発者側が提供するものに限定
されている。ユーザにとって最も好ましい判断や対応を
自律型制御装置にさせるためには、各ユーザが自分の好
みにあわせてプログラミングすることが望ましいが、ア
センブリ言語やC言語等のプログラミングに関する専門
の知識や環境が必要であった。このため、一般のユーザ
は自己の好みにあった対応を自律的にさせることはでき
ず、たとえプログラミングの知識が合ったとしても、プ
ログラムの書き換えができるようには構成されていない
装置が多かった。例えば、エージェント装置では、車両
や運転者の状態に応じた各種行為を行うが、エージェン
トが行う運転者との対応内容や処理については、予めシ
ステムに設定されたプログラムに従った行為に限られて
いる。そして、ユーザがエージェントの行為を追加した
り、ユーザに対して所定サービスの提供を希望するサー
ビス提供者がエージェントの行為を追加したりすること
ができなかった。 【0005】本発明は上記課題を解決するためになされ
たもので、人間に対して自律的な対応をすることができ
る操作制御装置を提供することを第1の目的とする。ま
た、制御装置側から人間に回答を要求する問いかけを、
問いかけの内容を規定するデータを外部から入力して実
行することが可能な操作制御装置を提供することを第2
目的とする。 【0006】 【課題を解決するための手段】請求項1に記載した発明
では、対話型インターフェイスをもつ所定の操作を実行
する操作制御装置において、前記対話型インターフェイ
スは、制御装置側から人間に回答を要求する問いかけを
行う第1のステップと、前記第1のステップによる人間
の回答内容を判別して、所定の操作の実行を開始する第
2のステップとを備え、前記人間への問いかけの内容を
規定するデータを外部から入力可能にする入力装置と、
該入力装置により入力されたデータに従って、少なくと
も前記第1のステップを実行する実行手段とを操作制御
装置に具備させる。 【0007】 【発明の実施の形態】以下、本発明の自律型制御装置に
ついて、ナビゲーション装置の設定等を含めた種々の対
応をする車両用のエージェント装置を例に、その好適な
実施の形態について、図1から図27を参照して詳細に
説明する。 (1)実施形態の概要 本実施形態のエージェント装置では、所定の容姿からな
るエージェントの画像(平面的画像、ホログラフィ等の
立体的画像等)を車両内に表示する。そして、エージェ
ント装置の機能である、センサ等の検出結果から周囲の
状態(人の動きや音声を含む)を認識、判断し、その結
果に応じた動作や音声を出力するという機能を、このエ
ージェントの容姿の動きや音声と連動して実行する。例
えば、「どのジャンルの食事がすきですか」等の回答
(和食、洋食等)を要求する問かけを行い、この問いか
けに対するユーザの回答内容を判別(回答音声の認識
や、回答選択ボタン54aの選択から判別)して、次の
シーンに応じた処理を実行する。このように、装置から
の回答を要求する問いかけと、その回答に応じて、所定
の操作の実行を開始するので、ユーザは、あたかも擬似
人格を備えたエージェントが車両内に存在しているよう
な体感をするようになる。以下の説明では、このような
エージェント装置の一連の機能の実行を、エージェント
の行為や動作として説明する。本実施形態のエージェン
ト装置では、このエージェントに運転者との各種コミュ
ニケーションや、操作の代行を行わせる。そしてエージ
ェントが自律的に行う様々な行為(各行為)を複数のシ
ナリオで構成する。そして、エージェントによる一連の
連続した行為の内容を規定した複数のシナリオと、各シ
ナリオの展開を開始するための開始条件とにより規格化
したシナリオデータを保存する。シナリオは、シーンを
最小単位として、1又は連続する複数のシーンで構成さ
れる。自律的に行う処理内容とエージェントの画像及び
音声の少なくとも1つから構成される場面が1シーンで
ある。シナリオは、所定のシーンから次のシーンに移行
するための1の移行条件(連続条件)又は複数の移行条
件(分岐条件(複数の状態が発生する場合の各状態毎へ
のシーンの移行するための条件))と、各移行条件に対
応して移行先のシーンを特定する移行先データとから、
各シーンの展開構成が規定されている。 【0008】一方、エージェント装置のユーザ等は、規
定された規格に従った独自のシナリオを、シナリオ作成
装置を使用して作成する。シナリオ作成装置は、シナリ
オ編集プログラムやデータをパーソナルコンピュータに
インストールすることで構成することができる。作成し
たシナリオは、インターネット等のネットワークを介し
てエージェント装置に送信し、又はダウンロードしても
らうことにより、また、所定の半導体メモリを介してエ
ージェント装置に格納することで、自己(第三者)の希
望通りの行為(コミュニケーションや処理)をエージェ
ントに行わせることが可能になる。作成するシナリオの
最初のシーンに、人間に対する回答を要求する問いかけ
のシーンのシナリオとすることができる。そして、独自
に作成したシナリオデータを、外部の装置から入力装置
を介して入力することが可能である。この場合の入力装
置は、半導体メモリに追加するシナリオデータが格納さ
れている場合には、半導体メモリの内容を読みとる記憶
媒体駆動装置が該当し、インターネット等のネットワー
クを介して特定のサーバ等からダウンロードする場合に
は通信制御装置が該当する。この新たに入力したシナリ
オデータに従って、シナリオを実行する。 【0009】エージェント装置は、メール、ブラウザソ
フトを備えており、ブラウザソフト等を使ってシナリオ
をダウンロードし、そのダウンロードしたファイルがエ
ージェントを機能させるシナリオデータであるか否か判
断し、シナリオデータであればエージェントプログラム
に組み込んで使用できるようにする。また、メールに添
付されている場合も同様に、添付のファイルがシナリオ
であるか否か判断しシナリオであればエージェントシス
テムに組み込んで使用できるようにする。これにより従
来の手法以外にも、既存の通信インフラであるメール、
ネットワーク等を使った通信を使用することにより、ま
た、半導体メモリ等を介することで、パーソナルコンピ
ュータ等を使用して作成した独自のシナリオを追加する
ことができるようになる。このように、ユーザは自分の
思い通りにエージェントを機能させるシナリオを独自に
また、容易に作成ことが可能になるので、エージェント
装置の自律的な動作に対する抵抗がなくなる。 【0010】(2)実施形態の詳細 図1は、エージェント装置とシナリオ作成装置からなる
全体のシステム構成を表したものである。このシステム
では、本実施形態のエージェント装置1と、指定された
規格でシナリオを作成するユーザ又は第三者であるシナ
リオ作成者のシナリオ作成装置2と、サーバ3等を使用
したインターネット等の通信手段から構成されている。
シナリオ作成装置2では、シナリオエディタにより独自
のシナリオデータを作成する。そして、独自のシナリオ
を作成したユーザは、半導体メモリ7にシナリオを格納
する。そして、エージェント装置1の記憶媒体駆動装置
により半導体メモリ7からシナリオを読み込んで、既に
記憶しているシナリオに組み込むことで、自分で作成し
たシナリオにしたがってエージェント装置1を動作させ
ることが可能になる。また、エージェント装置1では、
第三者が作成したシナリオをインターネット等のネット
ワークを介して組み込むことができる。また、エージェ
ント装置1のユーザに対してサービスの提供等を希望す
る第三者は、所定形式のシナリオを、例えば、シナリオ
エディタを使用してシナリオ作成装置2で作成し、自己
のホームページに掲載してダウンロード可能にし、また
は電子メールの添付ファイルとしてエージェント装置1
に送信する。エージェント装置1は、電子メールに添付
されたシナリオ5を受信し、または、ユーザがサーバ3
等の通信手段を介してシナリオファイル4をダウンロー
ドするようになっている。また、エージェント装置1
は、受信したシナリオの実行に従って取得されるユーザ
の回答を、電子メール6の本文又は添付ファイルで、シ
ナリオ作成者のシナリオ作成装置2に送信する。 【0011】まず、開発者やユーザによって作成された
シナリオに従ってエージェントが自律的に機能するエー
ジェント装置について、その構成と動作を説明する。図
2は、本実施形態におけるエージェント装置の構成を示
すブロック図である。本実施形態のエージェント装置1
では、コミュニケーション機能全体を制御する全体処理
部9を備えている。この全体処理部9は、設定した目的
地までの経路を探索して音声や画像表示により案内する
ナビゲーション処理部10、エージェント処理部11、
ナビゲーション処理部10とエージェント処理部11に
対する外部I/F部12、エージェント画像や地図画像
等の画像出力や入力画像を処理する画像処理部13、エ
ージェント音声や経路案内音声等の音声出力や入力され
る音声を制御する音声制御部14、車両や運転者に関す
る各種状況の検出データを処理する状況情報処理部1
5、入力制御部16、及び記憶装置制御部17を有して
いる。 【0012】ナビゲーション処理部10とエージェント
処理部11は、データ処理及び各部の動作の制御を行う
CPU(中央処理装置)と、このCPUにデータバスや
制御バス等のバスラインで接続されたROM、RAM、
タイマ等を備えている。両処理部10、11はネットワ
ーク接続(車内LAN(Local Area Net
work))されており、互いの処理データを取得する
ことができるようになっている。本実施形態では、エー
ジェント処理部11は、シナリオに従ってナビゲーショ
ン用のデータ(目的地データや走行経路データ等)を情
報センタ等の外部装置から取得した場合や、シナリオに
基づくユーザとのコミュニケーションによりユーザが設
定した目的地を取得した場合に、これらのデータをナビ
ゲーション処理部10に供給するようになっている。ナ
ビゲーション処理部10では、取得した目的により経路
探索をしたり、経路探索や受信により取得した走行経路
データに基づく経路案内を行う。この経路案内処理にお
いて、画像や音声による進路変更方向等の案内を行う場
合に、案内に必要なデータをナビゲーション処理部10
からエージェント処理部11に供給し、走行経路案内シ
ナリオに従ってエージェントが案内することも可能であ
る。ROMはCPUで制御を行うための各種データやプ
ログラムが予め格納されたリードオンリーメモリであ
り、RAMはCPUがワーキングメモリとして使用する
ランダムアクセスメモリである。 【0013】本実施形態のナビゲーション処理部10と
エージェント処理部11は、CPUがROMに格納され
た各種プログラムを読み込んで各種処理を実行するよう
になっている。なお、CPUは、記憶媒体駆動装置23
にセットされた外部の記憶媒体からコンピュータプログ
ラムを読み込んで、エージェントデータ30やナビゲー
ションデータ31、図示しないハードディスク等のその
他の記憶装置に格納(インストール)し、この記憶装置
から必要なプログラム等をRAMに読み込んで(ロード
して)実行するようにしてもよい。また、必要なプログ
ラム等を記憶媒体駆動装置23からRAMに直接読み込
んで実行するようにしてもよい。 【0014】本実施形態においてエージェント処理部1
1は、運転者との会話を含めたエージェントの各種コミ
ュニケーション動作を、車両や運転者の各種状況(状
態)を想定して予め作成されたシナリオに従って行うよ
うになっている。すなわち、車速、時間、走行地域、気
温、ガソリン残量、運転者の操作等の各種状況を、シナ
リオの展開を開始する開始条件とし、各状況を自律的に
判断して対応するためのエージェントの対応内容が、各
状況毎にシナリオとして規定されている。なお、シナリ
オの展開を開始することをシナリオの起動といい、シナ
リオの展開を開始する開始条件をシナリオ起動条件とい
う。各シナリオは、連続する複数のシーンで構成されて
いる。シーンは、シナリオのなかの1つの場面であり、
各シーン毎にエージェントが何か1つの質問をしたり、
情報を提供したりする。各シーンは、タイトル、リス
ト、吹き出し、背景、その他の小単位(パーツ)からな
る画面や、エージェントの音声等から構成されている。
各シーンは、シナリオに従って順次進行していく。シナ
リオによっては、特定のシーンで出される質問に対する
運転者の回答や車両の状況等によって、選択される複数
のシーンが存在する。すなわち、途中の回答に応じてシ
ーンが分岐するシナリオが存在する。シーンの分岐が存
在するシナリオでは、ユーザの対応や車両の状況等よっ
て異なった種々のシーンに展開していくことになる。 【0015】分岐が存在するシナリオでは、各シーンが
階層化構造で配置されていることになる。特定のシナリ
オが実行されると第1層目のシーン1が展開(エージェ
ント画像や音声等による)される。シーン1が終了する
と、第2層目のシーン2に移行する。この2層目に複数
のシーン、例えば、シーン2aと2bが存在する場合、
シーン1に対するユーザの対応(質問に対する回答を含
む)や車両の状況等を分岐条件として、分岐条件を満た
す2層目のシーンが決定される。例えば、分岐条件がユ
ーザの回答「はい」と「いいえ」で、シーン1に対する
ユーザの回答が「はい」の場合シーン2aが決定され、
「いいえ」の場合シーン2bが決定され、決定されたシ
ーンに移行する。分岐条件と、各分岐条件に対する移行
先のシーンは、分岐前のシーン対して規定されている。 【0016】シーンを含むシナリオのデータは後述する
シナリオデータファイル302に格納されている。いつ
どこでシナリオを実行するのかを規定する情報(シナリ
オ起動条件)と、実行した場合にどのような画面構成
で、エージェントにどのような動作や会話をさせ、ナビ
ゲーション処理部10等のモジュールに対してどのよう
な指示を出し、イベントを受けとった場合に次はどうす
るのか(どのシーンにするのか)を規定するデータがシ
ーン毎にまとまってシナリオデータファイル302のシ
ナリオデータ1〜nとして格納されている。 【0017】図3は、エージェント処理部11の構成を
表したものである。この図3に示されるように、エージ
ェント処理部11は、状況判断部111、シナリオ実行
要求判断部112、シナリオ駆動部113、データ読み
込み部114、描画処理部115、音声認識管理部11
6、ユーザ入力受付部117、シナリオ組み込み部12
1、データ記録部118、外部機器管理部119、エー
ジェント心理部120を備えている。これら各部111
〜120は、エージェント処理部11が備えるCPU、
ROM等に格納された対応エンジン(ソフトウェア)に
より実現されるようになっている。状況判断部111等
の各部を構成するエンジンは、他のエンジンにデータを
伝達する場合に、対応するイベントを発行する。各部1
11〜120が発行するイベントの中には、分岐した後
のシーンを特定するイベントが含まれる。 【0018】状況判断部111は、時間、場所、各種入
力等の状況の変化(シナリオの追加も含む)を管理し、
必要に応じてイベントを発行する。状況変化の判断は、
状況情報処理部15から供給される各種状況検出装置4
0による検出結果等に基づいて行われ、その結果のイベ
ントをシナリオ実行要求判断部112に対して発行す
る。シナリオ実行要求判断部112は、状況判断部11
1による状況判断結果のイベントを受け取って、自動起
動判断データを基にシナリオを実行するか否かを判断す
る。シナリオを実行する場合はシナリオ起動要求のイベ
ントをシナリオ駆動部113に対し発行する。 【0019】シナリオ駆動部113は、シナリオ実行要
求判断部112で発行されたシナリオ起動要求のイベン
トに対し、起動を行うか否かの判断をする。起動を行う
と判断した場合、シナリオ駆動部113は、シナリオデ
ータの読み込みをデータ読み込み部114に依頼する。
また、シナリオデータに従って描画のリクエスト、キャ
ラクタとの動作のリクエストを描画処理部115に依頼
する。また、シナリオデータに従って音声認識に使用す
る辞書を音声認識管理部116に通知する。シナリオデ
ータに従って外部機器(モデム等)及びナビの制御依頼
をする。更に、シナリオ駆動部113は、音声認識の結
果や、ユーザ入力によってシナリオを駆動(シーンの推
移を管理)する。 【0020】シナリオ駆動部113は、外部から受信し
てシナリオ組み込み部121でシナリオデータファイル
302に格納したシナリオ(以下外部シナリオという)
の期限を管理し、有効期限が経過したシナリオをシナリ
オデータファイル302から削除する。有効期限の確認
は、シナリオ組み込み部121が保存した受信日時、又
は有効期限日時から判断する。また、シナリオ駆動部1
13は、外部シナリオの起動回数を計数するようになっ
ている(起動回数計数手段)。そして、外部シナリオに
起動回数データを含んでいる場合に、各外部シナリオに
ついて計数した起動回数が、起動回数データの回数と一
致した場合、シナリオの起動終了後に当該外部シナリオ
をシナリオデータファイル302から削除するようにな
っている。起動回数計数手段は、学習項目データのデー
タを使用しても計算することができる。 【0021】データ読み込み部114は、シナリオ駆動
部113からの依頼に基づいて、シナリオデータファイ
ル302から該当するシナリオデータの読み込みを行
う。音声認識管理部116は、音声認識部142への指
示を統括する。例えば、シナリオ駆動部113から通知
される使用辞書の指定を行う。音声認識管理部116
は、音声認識部142において、指定した使用辞書によ
る音声認識の結果がでたら、認識結果に対応するイベン
トをシナリオ駆動部113に対して発行する。ユーザ入
力受付部117は、ユーザからの入力(リモコン・タッ
チパネル等)があったら、入力内容に対応するイベント
をシナリオ駆動部113に対して発行する。ユーザから
の入力は、入力制御部16からの情報により判断され
る。 【0022】シナリオ組み込み部121は、通信制御部
24で受信したデータにシナリオが含まれているか否か
を判断し、シナリオが含まれている場合には受信したシ
ナリオを外部シナリオとしてシナリオデータファイル3
02に格納することでシナリオを追加する。また、新た
な外部シナリオを追加した場合に、シナリオ実行要求判
断部112に対してシナリオ追加のイベントを発行す
る。なお、外部シナリオはシナリオデータファイル30
2を並列に格納してもよい。シナリオ組み込み部121
は、新たな外部シナリオを格納する際に、その外部シナ
リオの有効期限を知るためのデータとして、受信日時、
又は有効期限日時をRAMに格納する。 【0023】データ記録部118は、学習項目及びユー
ザ情報を、学習項目データ304、運転者情報307に
記録(格納)し、管理する。また、要求に応じて記録し
ている学習項目等記憶している項目を伝える。外部機器
管理部119は、ナビゲーション処理部10やモデム等
の外部機器をシナリオ駆動部113からの指示で制御す
る。また、制御結果をシナリオ駆動部113に返す。エ
ージェント心理部120は、状況判断部111の判断し
た状態に応じてメンタルモデルパラメータを変化させ
る。また、シナリオ駆動部からの要請に応じてメンタル
モデルパラメータを変化させる。メンタルモデルパラメ
ータからエージェントの心理状態を判断する。 【0024】図2において、外部I/F部12には記憶
媒体駆動装置23と通信制御部24が接続され、画像処
理部13には表示装置27及び撮像装置28が接続さ
れ、音声制御部14には音声出力装置25及びマイク
(音声取得手段)26が接続され、状況情報処理部15
には各種状況検出装置40が接続され、入力制御部16
には入力装置22が接続されてる。 【0025】各種状況検出装置40は、現在位置検出装
置41と状況検出部42を備えている。現在位置検出装
置41は、車両の絶対位置(緯度、経度による)を検出
するためのものであり、人工衛星を利用して車両の位置
を測定するGPS(Global Positioni
ng System)受信装置411と、方位センサ4
12と、舵角センサ413と、距離センサ414と、路
上に配置されたビーコンからの位置情報を受信するビー
コン受信装置415等が使用される。GPS受信装置4
11とビーコン受信装置415は単独で位置測定が可能
であるが、GPS受信装置411やビーコン受信装置4
15による受信が不可能な場所では、方位センサ41
2、舵角センサ413及び距離センサ414の少なくと
も1つ用いた推測航法によって現在位置を検出するよう
になっている。方位センサ412は、例えば、地磁気を
検出して車両の方位を求める地磁気センサ、車両の回転
角速度を検出しその角速度を積分して車両の方位を求め
るガスレートジャイロや光ファイバジャイロ等のジャイ
ロ、左右の車輪センサを配置しその出力パルス差(移動
距離の差)により車両の旋回を検出することで方位の変
位量を算出するようにした車輪センサ、等が使用され
る。舵角センサ413は、ステアリングの回転部に取り
付けた光学的な回転センサや回転抵抗ボリューム等を用
いてステアリングの角度αを検出する。距離センサ41
4は、例えば、車輪の回転数を検出して計数し、または
加速度を検出して2回積分するもの等の各種の方法が使
用される。距離センサ414と舵角センサ413は運転
操作状況検出手段としても機能する。 【0026】状況検出部42は、運転操作の状況を検出
する運転操作状況検出手段として機能するブレーキセン
サ421、車速センサ422、方向指示器検出器42
3、シフトレバセンサ424、サイドブレーキ(パーキ
ングブレーキ)センサ425を備えている。また、状況
検出部42は、機器操作の状況を検出する機器操作状況
検出手段として機能するエアコン検出器427、ワイパ
検出器428、オーディオ検出器429を備えている。 【0027】ブレーキセンサ421は、フットブレーキ
が踏み込み状態か否かを検出する。車速センサ422
は、車速を検出する。方向指示器検出器423は、運転
者が方向指示器の操作中であるか否か、及び方向指示器
が点滅中か否かを検出する。シフトレバセンサ424
は、運転者がシフトレバを操作中か否か、及びシフトレ
バ位置を検出する。サイドブレーキ(パーキングブレー
キ)センサ425は、運転者がサイドブレーキを操作中
か否か、及びサイドブレーキの状態(オンかオフか)を
検出する。エアコン検出器427は、運転者がエアコン
の各種スイッチ等を操作中か否かを検出する。ワイパ検
出器428は、運転者がワイパの操作中か否かを検出す
る。オーディオ検出器429は、運転者がラジオ、CD
プレーヤ、カセットプレーヤー等のオーディオ機器を操
作中か否か、及びオーディオ機器による音声が出力中か
否かを検出する。状況検出部42は、その他、機器操作
状況検出手段として、ヘッドランプやルームランプ等の
ランプ類の操作状況を検出するライト検出センサ、運転
者のシートベルト着脱操作を検出するシートベルト検出
センサ、その他のセンサを備えている。 【0028】入力装置22は、運転者情報を運転者が入
力する場合や、本実施形態によるエージェントのその他
全ての問い合わせ等に対して運転者が応答するための1
つの手段でもある。入力装置22は、ナビゲーション処
理における走行開始時の現在地(出発地点)や目的地
(到達地点)、情報提供局へ渋滞情報等の情報の請求を
発信したい車両の所定の走行環境(発信条件)、車内で
使用される携帯電話のタイプ(型式)などを入力するた
めのものでもある。入力装置22には、タッチパネル
(スイッチとして機能)、キーボード、マウス、ライト
ペン、ジョイスティック、赤外線等によるリモコン、音
声認識装置などの各種の装置が使用可能である。また、
赤外線等を利用したリモコンと、リモコンから送信され
る各種信号を受信する受信部を備えてもよい。リモコン
には、画面上に表示されたカーソルの移動操作等を行う
ジョイスティックの他、メニュー指定キー(ボタン)、
テンキー等の各種キーが配置される。入力制御部16
は、入力装置22による入力内容に対応するデータを検
出しエージェント処理部11やナビゲーション処理部1
0に供給する。入力制御部16は、運転者による入力操
作中か否かを検出することで機器操作状況検出手段とし
て機能する。 【0029】記録媒体駆動装置23は、ナビゲーション
処理部10やエージェント処理部11が各種処理を行う
ためのコンピュータプログラムを外部の記録媒体から読
み込むのに使用される駆動装置である。記録媒体に記録
されているコンピュータプログラムには、各種のプログ
ラムやデータ等が含まれる。ここで、記録媒体とは、コ
ンピュータプログラムが記録される記録媒体をいい、具
体的には、フロッピー(登録商標)ディスク、ハードデ
ィスク、磁気テープ等の磁気記録媒体、メモリチップや
ICカード等の半導体記録媒体、CD−ROMやMO、
PD(相変化書換型光ディスク)等の光学的に情報が読
み取られる記録媒体、紙カードや紙テープ等を用いた記
録媒体、その他各種方法でコンピュータプログラムが記
録される記録媒体が含まれる。 【0030】記録媒体駆動装置23は、これらの各種記
録媒体からコンピュータプログラムを読み込む他に、記
録媒体がフロッピーディスクやICカード等のように書
き込み可能な記録媒体である場合には、ナビゲーション
処理部10やエージェント処理部11のRAMや記憶装
置29のデータ等をその記録媒体に書き込むことが可能
である。例えば、ICカードにエージェント機能に関す
る学習内容(学習項目データ、応答データ)や運転者情
報等のデータを記憶させ、他の車両を運転する場合でも
これらを記憶させたICカードからデータを読み出させ
て使用することで、自分の過去の応対の状況に応じて学
習した状態のエージェントとコミュニケーションするこ
とが可能になる。これにより、車両毎のエージェントで
はなく、運転者毎に固有な学習内容のエージェントを車
両内に出現させることが可能になる。またICカードに
シナリオデータファイルを格納するようにしてもよい。
これにより、ユーザ各自にとって固有のオリジナルシナ
リオとすることが可能である。 【0031】通信制御部24は、各種無線通信機器から
なる携帯電話が接続されるようになっている。通信制御
部24は、電話回線による通話の他、道路の混雑状況や
交通規制等の交通情報に関するデータなどを提供する情
報提供局との通信や、車内での通信カラオケのために使
用するカラオケデータを提供する情報提供局との通信を
行うことができるようになっている。また、通信制御部
24を介して、エージェント機能に関する学習データ、
シナリオデータファイル等を送受信することも可能であ
る。本実施形態のエージェント処理部11では、通信制
御部24を介してシナリオが添付された電子メールを受
信することができるようになっている。また、エージェ
ント処理部11は、インターネット上のホームページを
表示するブラウザソフトを備えており、通信制御部24
を介してホームページからシナリオを含めたデータをダ
ウンロードすることができるようになっている。なお、
通信制御部24は、携帯電話等の無線通信機能を内蔵す
るようにしてもよい。 【0032】音声出力装置25は、車内に配置された複
数のスピーカで構成され、音声制御部14で制御された
音声、例えば、音声による経路案内を行う場合の案内音
声や、エージェントによる運転者との通常のコミュニケ
ーション用の会話や本実施形態の運転者情報取得のため
の質問による音声や音が出力されるようになっている。
この音声出力装置25は、オーディオ用のスピーカと兼
用するようにしてもよい。マイク26は、音声制御部1
4における音声認識の対象となる音声、例えば、ナビゲ
ーション処理における目的地等の入力音声や、エージェ
ントとの運転者の会話(運転者による応答を含む)等を
入出力する音声入力手段として機能する。このマイク2
6は、運転者の音声を的確に収集するために指向性のあ
る専用のマイクが使用される。尚、音声出力装置25と
マイク26とでハンズフリーユニットを形成させて、通
話を行えるようにしてもよい。マイク26及び音声認識
部142は、運転者が同乗者と会話中か否かを検出する
会話検出手段として機能し、この場合のマイク26、音
声認識部142は、運転者の状況を検出する状況検出手
段として機能する。 【0033】表示装置27には、ナビゲーション処理部
10の処理による経路案内用の道路地図や各種画像情報
が表示されたり、エージェント処理部11によるエージ
ェントの各種行動(動画)及び画面構成のパーツが表示
されたりするようになっている。また、撮像装置28で
撮像された車両内外の画像も画像処理部13で処理され
た後に表示されるようになっている。表示装置27は、
液晶表示装置、CRT等の各種表示装置が使用される。
なお、この表示装置27は、例えばタッチパネル等の、
前記入力装置22としての機能を兼ね備えたものとする
ことができる。 【0034】撮像装置28は、画像を撮像するためのC
CD(電荷結合素子)を備えたカメラで構成されてお
り、運転者を撮像する車内カメラの他、車両前方、後
方、右側方、左側方を撮像する各車外カメラが配置され
ている。撮像装置28の各カメラにより撮像された画像
は、画像処理部13に供給され、画像認識等の処理が行
われ、各認識結果(同乗者の有無、運転者の認識等)を
エージェントのコミュニケーションに反映させるように
なっている。 【0035】記憶装置29は、記憶装置制御部17に接
続され、記憶制御装置17による制御のもとでデータや
プログラムの読み込み、書き込みが行われるようになっ
ている。記憶装置29には本実施形態による各種エージ
ェント機能やナビゲーション機能を実現するうえで必要
な各種データ(プログラムを含む)として、エージェン
トデータ30とナビゲーションデータ31が格納されて
いる。この記憶装置29には、例えば、フロッピーディ
スク、ハードディスク、CD−ROM、光ディスク、磁
気テープ、ICカード、光カード等の各種記録媒体と、
その駆動装置が使用される。この場合、例えば、学習項
目データ304、応答データ305、運転者情報307
を持ち運びが容易なICカードやフロッピーディスクで
構成し、その他のデータをハードディスクで構成すると
いうように、複数種類の異なる記録媒体と駆動装置で構
成し、駆動装置としてそれらの記憶媒体を用いるように
してもよい。 【0036】エージェントデータ30には、エージェン
トプログラム301、シナリオデータファイル302、
音声データ303、学習項目データ304、音声データ
で構成される応答データ305、エージェントの容姿や
行動を画像表示するための画像データ306、運転者情
報307、その他のエージェントによる処理に必要な各
種のデータが格納されている。 【0037】エージェントプログラム301には、エー
ジェント機能を実現するためのエージェント処理プログ
ラムが格納されている。例えば、各シナリオの起動条件
を満たしたか否かを判断する条件判断処理、条件判断処
理で起動条件を満たすと判断した場合に、当該起動条件
に対応するシナリオを起動し、そのシナリオデータに従
って前記エージェントに行為をさせるシナリオ実行処
理、通信制御部24で受信したデータがシナリオデータ
を含むか否かを判断するデータ判断処理、データ判断処
理で受信データがシナリオデータを含むと判断した場合
に受信したシナリオデータをシナリオデータファイル3
02に格納するシナリオ追加処理、その他の各種処理を
実行する処理プログラムが格納されている。 【0038】学習項目データ304及び応答データ30
5は、運転者の運転操作や応答によってエージェントが
学習した結果を格納するデータである。従って、学習項
目データ304と応答データ305は、各運転者毎にそ
のデータが格納・更新(学習)されるようになってい
る。学習項目データ304には、例えば、イグニッショ
ンオンした通算回数や1日のオン回数、前5回の燃料給
油時の燃料残量のデータ等のエージェントの学習対象と
なる項目が格納される。この学習項目データ304に格
納された学習内容に従って、例えば、イグニッションオ
ン回数に応じてエージェント出現時の挨拶内容が変化し
たり、燃料残量が前5回の燃料残量の平均値以下になっ
た場合に、エージェントが給油の提案をする。応答デー
タ305には、エージェントの行為に対するユーザの応
答の履歴が所定のシナリオ毎に格納される。応答データ
305には、応答日時と応答内容が、各応答項目毎に所
定回数分格納される。応答内容としては、無視された、
拒絶された、受容(容認)された、の各場合が音声認識
や入力装置22の入力結果から判断され、格納される。 【0039】シナリオデータファイル302には、各状
況、状態におけるエージェントの行為が規定されたシナ
リオのデータが格納されている。図4は、シナリオデー
タファイル302のデータ構造とデータ内容を概念的に
表したものである。シナリオデータファイル302は、
各シーンを規定する複数のシナリオデータがまとまって
1つのファイルを構成している。シナリオデータファイ
ル302には、ファイルヘッダ、シナリオ管理テーブ
ル、自動起動条件テーブル、手動起動可能シナリオ一
覧、各シナリオデータ1〜n、及び追加リソースデータ
から構成されている。 【0040】ファイルヘッダは、シナリオファイルのヘ
ッダで、ファイルに関する情報が格納されている。シナ
リオ管理テーブルは、シナリオファイルに収録されてい
るシナリオデータを管理するためのデータ、例えば、各
シナリオデータを実行する場合の優先順位等のデータが
格納されている。 【0041】自動起動条件テーブルは、シナリオファイ
ルに収録されているシナリオデータを自動で起動する条
件データが各シナリオデータ毎に規定され格納されてい
る。自動起動条件として、例えば、特定地点Aから所定
距離の地点に到達した場合に実行する特定シナリオにつ
いての特定地点と距離データや、起動時にエージェント
が挨拶するシナリオを実行するための条件としてのイグ
ニッションオン、起動してから所定時間経過等の各種自
動起動条件が格納されている。また、自動起動を禁止す
る自動起動禁止条件として、例えば、(A)手動起動を
優先する、(B)別のシナリオを実行中は自動起動しな
い、(C)例えば30分以内に実行したことがあるシナ
リオは起動しない、(D)音楽を聞いている場合は起動
しない、(E)カーブを右左折中(ステアリング操作
中)には起動しない、(F)急減速中もしくは急加速中
は起動しない、(G)同乗者と会話しているときは起動
しない、(H)ナビゲーション装置、オーディオ、エア
コン装置、シフトレバ、サイドブレーキ、ワイパー、方
向指示器等の各種機器の操作中は起動しない、(I)オ
ーディオ使用中は起動しない(音楽や放送を聞いている
障害とならないための条件:オーディオがONでないこ
と)、(J)ナビゲーション処理部10による走行経路
の案内ガイダンス中は起動しない等の自動起動禁止条件
についても格納されている。但し、これらの自動起動禁
止条件を満たす場合であっても、緊急の場合(消防署等
への緊急連絡のシナリオ等)は自動起動するように、優
先順位がシナリオ管理テーブルで規定されている。この
自動起動禁止条件は、各シナリオに共通して適用される
条件と、個別のシナリオに適用される条件とがある。 【0042】運転者情報を収集するためにエージェント
が質問をする場合の質問シナリオを起動する条件として
は、運転者の負荷状態が低負荷状態であると判断できる
ための条件として、以下の条件やその他の条件が規定さ
れている。 (a)1時間以内に質問をするシナリオを実行していな
い(頻繁に質問しすぎないようにするための条件) (b)イグニッションONから15分以上経過している
(運転し始めた直後ではない) (c)車内に会話がない(マイク26からの集音によ
る) (d)直線道路(ナビゲーションデータ31と現在位置
から検出)で、速度変化が所定時間無い。 (e)信号待ちをしている(ナビゲーションデータ3
1、現在位置、車速から判定) これらの質問起動条件は、起動のための必須条件かいず
れか1つを満たせばよい条件かなどについて決められて
いる。例えば、上記(a)〜(e)の条件に限ると、
(a)〜(c)を全て満たし、(d)か(e)を満たし
た場合に質問シナリオの起動条件がみたされ、質問シナ
リオが起動される。この場合でも、上記自動起動禁止条
件(A)〜が該当する場合には、質問シナリオの起動は
禁止される。なお、質問起動条件を含め、自動起動条件
に基づく起動判定ルーチンは、例えば、1分毎にポーリ
ング処理、もしくは、予め指定されたイベントをうけた
場合に処理されるようになっている。 【0043】上記した各条件のうち、条件(E)、
(F)、(H)、(J)、(d)、(e)により運転操
作に対する負荷が判断され、条件(C)、(D)、
(G)、(I)、(J)、(a)、(b)、(c)、に
より運転者が感じる煩わしさの程度が判断される。 【0044】手動起動可能シナリオ一覧は、シナリオフ
ァイルに収録されているシナリオデータの中の手動で起
動することが可能なシナリオの一覧データが格納されて
いる。追加リソースデータは、記憶装置の拡張用として
シナリオデータに付加するための音声データや画像デー
タ等が格納されている。 【0045】各シナリオデータ1〜nは、シナリオヘッ
ダ、音声認識辞書DB、画像データ管理テーブル、シー
ンテーブル、各シーンデータ1〜m、実画像データで構
成されている。各シナリオは複数のシーンで構成され
る。シナリオヘッダは、シナリオデータのヘッダセクシ
ョンで、シナリオに関する情報が格納されている。音声
認識辞書DBは、シナリオで使用する音声認識辞書のD
Bで、音声認識辞書データが格納されている。画像デー
タ管理テーブルは、シナリオで使用する画像を指定する
ためのデータが格納されている。エージェントの画像は
画像データ306に格納され、シナリオに固有の画像は
シナリオデータ末尾の実画像データに格納されている。
シーンデータ管理テーブルには、シナリオに収録されて
いるシーンデータを管理するためのデータが格納されて
いる。 【0046】各シーンデータ1〜mは、シーンヘッダ、
画面構成データ、キャラクタ動作指示データ、各種処理
指示データ、シーン分岐テーブルから構成されている。
シーンヘッダは、シーデータのヘッダセクションで、シ
ーンに関する情報とシーンデータに属する各データセク
ションを管理するデータが格納されている。画面構成デ
ータは、当該シーンで表示する画面構成を規定するセク
ションで、表示装置27上に表示する画面構成の各パー
ツのデータが格納されている。キャラクタ動作指示デー
タは、当該シーンにおけるキャラクタの動作指示と話す
内容に関する指示データ(使用する音声データ303を
指示するデータ)が格納されている。各種処理指示デー
タは、当該シーンで他モジュール(例えばナビ)に処理
指示依頼を行うデータが格納されている。シーン分岐テ
ーブルは、当該シーンから次のシーンへの分岐情報が格
納されているセクションで、あるシーンにおいてイベン
トを受け取ったときの次のシーンを規定するデータが格
納されている。 【0047】図5は、シーンデータに基づいて表示装置
27に表示されるシーン画面の一例を表したものであ
る。この図5に示されるシーン画面は、未入力の運転者
情報である趣味嗜好(食事)を取得するために運転者か
ら質問をする質問シナリオのシーン画面(シーン番号0
x0001)である。シーン画面は、図5に示されるよ
うに、エージェントの画像(静止画、動画)が表示され
るエージェント表示画面51、エージェントの音声に対
応した文字が表示される吹き出し画面52、タイトル画
面53、及び、各シーン固有の画像データ(実画像デー
タの画像や回答選択ボタン等)が表示されるシーン表示
画面54から構成されている。 【0048】エージェント処理部11は、趣味嗜好(食
事)の質問シナリオを起動すると、最初にシーンヘッダ
で指定されるシーンの画面構成データをシナリオデータ
ファイル302から読み出してシーン画面を表示装置2
7表示すると共に、質問文に相当する質問音声を音声出
力装置25から出力するようになっている。図5(a)
の質問シナリオのシーン画面では、吹き出し画面52に
「どのジャンルの食事が好きですか?」と表示される。
なお、吹き出し画面52の表示に対応する音声を音声出
力装置25から出力されるようになっている。また、図
5(a)のシーン画面におけるシーン表示画面54に
は、4つの回答選択ボタン54aの「和食」、「洋
食」、「中華」、「特に無し」が表示されている。 【0049】この運転者に対する質問のシーンには、シ
ーン管理テーブルに従って、運転者の回答に応じた複数
のシーンが分岐して続くようになっている。すなわち、
図5(a)のシーン画面(シーン番号0x0001)で
運転者が回答選択ボタン「和食」を選択すると、エージ
ェント処理部11は、回答に応じたシーン画面(b)に
分岐して表示される。このシーン画面(b)では、選択
された「和食」がタイトル画面53に表示されると共
に、吹き出し画面には「和食がすきなのですね。」と表
示され、なお、分岐後の和食のシーン画面では、和食の
実画像がシナリオデータから読み出され、シーン表示画
面54に表示される。そしてエージェント処理部11に
より、運転者の回答、例えば、「和食」が運転者情報と
して、運転者情報307の趣味嗜好データに格納される
ようになっている。このようにして、シナリオに規定さ
れた各シーン画像と音声が最後のシーンまで連続的に順
次表示、出力されることで、1シナリオにおけるエージ
ェントの行為が完了することになる。 【0050】記憶装置29(図2)の音声データ303
には、選択されたシナリオのシーンに従って、エージェ
ントが運転者と会話等を行うための音声データが格納さ
れている。エージェントによる会話の音声データは、本
実施形態による、エージェントが運転者情報を収集する
ための質問をするための音声データも格納されている。
音声データ303の各データは、シーンデータのキャラ
クタ動作指示データにより指定される。 【0051】画像データ306には、シナリオにより指
定された各シーンで使用されるエージェントの状態を表
す静止画像や、動作を表す動画(アニメーション)等が
格納されている。例えば、エージェントがお辞儀をする
動画、うなずく動画、右手を挙げる動画等が格納されて
いる。これらの各静止画像や動画には画像コードが付け
られている。画像データ306に格納されるエージェン
トの容姿としては、人間(男性、女性)的な容姿である
必要はない。例えば、非人間型のエージェントとして、
タコや、ひよこ、犬、猫、カエル、ネズミ等の動物自体
の容姿や、人間的に図案化(イラスト化)した動物の容
姿であってもよく、更にロボット的な容姿や、フロアス
タンドや木などの容姿や、特定のキャラクタの容姿等で
あってもよい。またエージェントの年齢としても一定で
ある必要がなく、エージェントの学習機能として、最初
は子供の容姿とし、時間の経過と共に成長していき容姿
が変化していく(大人の容姿に変化し、更に老人の容姿
に変化していく)ようにしてもよい。画像データ306
には、これらの各種エージェントの容姿の画像が格納さ
れており、運転者の好みによって入力装置22等から選
択することができるようになっている。 【0052】運転者情報307は、運転者に関する情報
で、エージェントによる行為をより運転者の希望や趣
味、嗜好に合ったものとするために利用される。図6は
運転者情報307の構成を概念的に表したものである。
この図6に例示されるように、運転者情報307には、
運転者のID(識別情報)、名前、年齢、性別、結婚
(既婚か未婚か)、子供の有無と人数と年齢からなる運
転者基礎データと、趣味嗜好データとが格納されるよう
になっている。趣味嗜好データとしては、スポーツ、飲
食、旅行等の大項目と、これら大項目の概念に含まれる
詳細項目とから構成されている。例えば、大項目スポー
ツには、好きなサッカーチーム、好きな野球の球団、ゴ
ルフに対する興味等の詳細なデータが格納されるように
なっている。本実施形態では、これらの各運転者情報に
は優先順位が決められており、エージェントは、未だ格
納されていない運転者情報のうち優先順位が高い順に運
転者に質問をするようになっている。運転者基礎データ
は、趣味嗜好データよりも優先順位が高くなっている。 【0053】運転者情報307は、その車両を運転する
運転者が複数存在する場合には、各運転者毎に作成され
る。そして、運転者を特定して該当する運転者情報が使
用される。運転者の特定は、例えば、イグニッションオ
ン時に、全運転者に共通するエージェントが登場して運
転者の問い合わせをし、その回答から特定する。運転者
の問い合わせは、入力済み運転者の氏名とその他を選択
するボタンを表示装置に表示し、選択を促す音声を出力
する。その他が選択された場合には新規ユーザ登録画面
を表示する。なお、体重、運転席(シート)の固定位置
(前後位置、背もたれの角度)、ルームミラーの角度、
視線の高さ、顔写真をデジタル化したデータ、音声の特
徴パラメータIDカード等の運転者固有の情報を少なく
とも1つ運転者情報307に格納しておき、これらの情
報から運転者を特定するようにしてもよい。 【0054】ナビゲーションデータ31には、経路案内
等で使用される各種データファイルとして、通信地域デ
ータファイル、描画地図データファイル、交差点データ
ファイル、ノードデータファイル、道路データファイ
ル、探索データファイル、写真データファイル等の各種
データが格納されている。 【0055】通信地域データファイルには、通信制御部
24に接続され又は無接続で車内において使用される携
帯電話が、車内から通信できる地域を表示装置27に表
示したり、その通信できる地域を経路探索の際に使用す
るための通信地域データが、携帯電話のタイプ別に格納
されている。描画地図データファイルには、表示装置2
7に描画される描画地図データが格納されている。この
描画地図データは、階層化された地図、例えば最上位層
から日本、関東地方、東京、神田といった階層ごとの地
図データが格納されている。各階層の地図データは、そ
れぞれ地図コードが付されている。 【0056】交差点データファイルには、各交差点を特
定する交差点番号、交差点名、交差点の座標(緯度と経
度)、その交差点が始点や終点になっている道路の番
号、および信号の有無などが交差点データとして格納さ
れている。ノードデータファイルには、各道路における
各地点の座標を指定する緯度、経度などの情報からなる
ノードデータが格納されている。すなわち、このノード
データは、道路上の一地点に関するデータであり、ノー
ド間を接続するものをアークと呼ぶと、複数のノード列
のそれぞれの間をアークで接続することによって道路が
表現される。道路データファイルには、各道路を特定す
る道路番号、始点や終点となる交差点番号、同じ始点や
終点を持つ道路の番号、道路の太さ、進入禁止等の禁止
情報、後述の写真データの写真番号などが格納されてい
る。交差点データファイル、ノードデータファイル、道
路データファイルにそれぞれ格納された交差点データ、
ノードデータ、道路データからなる道路網データは、経
路探索に使用される。 【0057】探索データファイルには、経路探索により
生成された経路を構成する交差点列データ、ノード列デ
ータなどが格納されている。交差点列データは、交差点
名、交差点番号、その交差点の特徴的風景を写した写真
番号、曲がり角、距離等の情報からなる。また、ノード
列データは、そのノードの位置を表す東経、北緯などの
情報からなる。写真データファイルには、各交差点や直
進中に見える特徴的な風景等を撮影した写真が、その写
真番号と対応してディジタル、アナログ、またはネガフ
ィルムの形式で格納されている。 【0058】次にこのように構成されたエージェント装
置の動作について説明する。図7は、エージェント装置
によるシナリオ追加処理の動作を表したフローチャート
である。エージェント処理部11は、通信制御部24を
介してデータを受信したか否かを監視している(ステッ
プ11)。データを受信すると(ステップ11;Y)、
シナリオ組み込み部121が、データにシナリオが含ま
れているか否かを判断する(ステップ12:データ判断
手段)。すなわち、受信したデータがホームページから
のダウンロードデータである場合には、そのデータ中に
シナリオファイルが含まれるか否かを判断する。一方、
受信したデータが電子メールであれば、添付ファイルの
有無を判断し、添付ファイルがある場合にシナリオの添
付か否かを判断する。なお、本実施形態におけるシナリ
オか否かの判断は、データの拡張子に基づいて判断する
が、他の方法、例えば、ファイルヘッダにシナリオを示
すデータを格納しておきこのデータから判断する等の方
法でもよい。 【0059】受信データにシナリオが含まれている場合
(ステップ12;Y)、シナリオ組み込み部121は、
受信したシナリオを外部シナリオとしてエージェントデ
ータ30のシナリオデータファイル302に格納すると
共に、格納した外部シナリオを消去するために受信日時
を保存する。そして、シナリオ組み込み部121は、新
たに追加した外部シナリオの起動を可能にするために、
シナリオ実行要求判断部112に対してシナリオ追加の
イベントを発行し(ステップ14)、処理を終了する。
なお、新たな外部シナリオが追加されたことを、表示装
置27に表示し、音声出力することでユーザに知らせる
ようにしてもよい。 【0060】図8は、シナリオ起動判断処理の動作を表
したフローチャートである。エージェント処理部11の
シナリオ実行要求判断部112は、状況情報を取得する
(ステップ21)。すなわち、シナリオ実行要求判断部
112は、状況情報処理部15から供給される各種デー
タに基づいて状況判断部111から発行される現在の状
況や状況の変化を示すイベントを取得する。更に、シナ
リオデータファイル302の自動起動条件テーブルに格
納された、シナリオ起動条件を満たしているか否か、す
なわち、取得した状況において起動可能なシナリオ(質
問シナリオを含む)が存在するか否かを判断する(ステ
ップ22、23)。ここで判断されるシナリオ起動条件
は、シナリオ組み込み部121により組み込まれた外部
シナリオに規定されている起動条件も含まれる。 【0061】そしてシナリオ実行要求判断部112は、
シナリオ起動条件を満たしている場合(ステップ23;
Y)、シナリオ実行要求判断部112は、満たしている
シナリオ起動条件に対応するシナリオの起動要求のイベ
ントをシナリオ駆動部113に対して発行し(ステップ
24)、ステップ25に移行する。一方、いずれの起動
条件も満たしていない場合(ステップ23;N)、シナ
リオの起動要求のイベントを発行することなく、ステッ
プ25に移行する。ステップ25では、全てのシナリオ
についての起動条件について判断したか確認し、判断し
ていない起動条件があれば(;N)ステップ21に戻
り、全起動条件の判断がおわれば(;Y)処理を終了す
る。 【0062】次に、以上のエージェント装置において、
ユーザが旅館の予約を行い、宿泊当日に旅館が予約者の
車両(エージェント装置)にシナリオを添付した電子メ
ールを送信する場合を例に説明する。なお、旅館や飲食
店等を予約する方法についての制限はとくになく、当該
店のホームページから予約してもく、ファクシミリや電
話による予約でもよい。また電子メールによる予約や、
手紙等の他の方法による予約も可能である。ただし、予
約店(旅館)からの案内シナリオを、電子メールに添付
して送信してもらいこれを受信するためには、いずれの
予約方法でもエージェント装置の電子メールアドレスを
連絡することが必要になる。なお、各旅館や店舗のホー
ムページ等から外部シナリオをダウンロードする場合
や、予約当日ではなくて予約時に電子メールで外部シナ
リオを受信する場合においても、受信した外部シナリオ
の起動条件に従って同様にシナリオが実行される。すな
わち、事前に外部シナリオが組み込まれた場合でも、シ
ナリオ起動条件として、起動日が予約日に設定されてい
る場合には、予約日にシナリオを受信した場合と同様に
起動する。 【0063】図9は、旅館が宿泊予定者に送信した案内
シナリオによるシーン画面の遷移を各シーン毎に表した
ものである。この案内シナリオは、複数のシーン画面の
うち(a)〜(f)までのシーン画面が表示されてお
り、シーン画面(c)に対するユーザの選択結果によっ
て次のシーン画面が0x0004と0x0006に分岐
している。また、図9の例では分岐していないが、シー
ン画面(d)においても選択した料理の種類に応じた料
理をシーン表示画面54に表示するようにシーン画面を
分岐させるようにしてもよい。 【0064】以下図9に従って予約シナリオによるエー
ジェントの各行為について説明する。以下の各シーン画
面に対応して説明するエージェントの動作や画面の表示
はいずれも、外部シナリオのシナリオデータに格納され
ているデータや画像及び指示に従って表示等されるもの
である。また、エージェントの動作として説明するが、
実際にはエージェント処理部11が処理を行う。 【0065】予約シナリオが起動されると、まず番号0
x0001のシーン画面が表示装置27に表示される。
このシーンでは、エージェント表示画面51にエージェ
ントが登場し、お辞儀をして音声による挨拶をする。音
声による挨拶の内容は、吹き出し画面52に表示されて
いる文章と同一である。音声による挨拶は、旅館代わっ
てエージェントが代行して行うことになるが、旅館の女
将の写真画像をシーン表示画面54に表示することで旅
館からの挨拶であることが表現されている。この女将の
画像は、外部シナリオの一部として受信し追加した画像
で、シナリオデータの実画像データとして格納されてい
る(図3参照)。エージェントの動作に対する指示は、
キャラクタ動作指示データに格納されている指示に従
う。エージェントによる挨拶が終了すると、次のシーン
0x002に遷移する。 【0066】次のシーン0x0002では、シーン表示
画面54に露天風呂の画像が表示される。そして、この
露天風呂の絵をエージェントが指し示して、旅館の名物
(ここが売りだということ)を、エージェントが音声と
吹き出し画面52の表示で説明する。エージェントの話
が終了すると、次のシーン0x0003に遷移し、本日
の食事の画像(懐石料理の画像)をシーン表示画面54
に表示し、エージェントが料理の説明と、この料理で良
いか否かを質問する。なお、シーン表示画面54には、
シナリオの規定内容に従って、懐石料理の画像の他に、
ユーザ回答用のボタン54aが表示される。この質問に
対する回答としてユーザが「はい」を選択した場合には
シーン0x0004に分岐し、「いいえ」を選択した場
合にはシーン0x0006に分岐する。 【0067】シーン0x0004では、懐石料理以外の
選択可能なリストをシーン表示画面54に表示する。エ
ージェントは、シーン表示画面54のリストを指し示し
て、どの料理が良いかを質問する。そして、ユーザがい
ずれか1つを選択したらシーン0x0005に遷移す
る。 【0068】シーン0x0005では、懐石料理から変
更すべき人数のリストをシーン表示画面54に表示し、
エージェントはこのリストを指し示して、人数の質問を
する。そしてユーザがいずれか1つを選択したらシーン
0x0006に遷移する。 【0069】シーン0x0006では、シーン表示画面
54に旅館の外観写真画像を表示し、エージェントがお
辞儀をして挨拶をする。そして、エージェントは、ユー
ザが選択してきた結果、図9の案内シナリオの場合には
食事に関する回答結果を、通信制御部24を介して実行
中の外部シナリオを送信した第三者(旅館)に送信す
る。このように、ユーザについての情報を取得したい場
合には、外部シナリオの作成者は、取得したい情報が得
られる質問のシーンをシナリオ中に設け、その回答を電
子メールで送信するようにシナリオを作成する。なお、
回答の送信が必要な場合には、作成者の電子メールアド
レスをシナリオデータ中に含める。最後のシーン(図9
ではシーン0x0006)でのエージェントの話が終了
すると、シナリオを終了させる。 【0070】このようにして、エージェント処理部11
は、シナリオに規定された各シーン画像と音声を最後の
シーンまで順次表示、出力する。起動したシナリオが終
了すると、エージェント処理部11は、他のシナリオの
実行についての起動条件の判断を行う。 【0071】以上説明した実施形態によれば、エージェ
ントの行為をシナリオデータで規定すると共に、このシ
ナリオデータを複数の連続するシーンからなるシナリオ
によって規格化されているので、エージェント装置のユ
ーザ及び第三者が自分でシナリオを作成し、組み込むこ
とができる。このように装置に予め格納されているデフ
ォルトのシナリオに追加できるので、ユーザは自分に合
った追加シナリオをインターネット等で探してダウンロ
ードし、また自分でシナリオを作成することでエージェ
ント装置をより快適に使用することができる。また、旅
館やホテル、デパート等のサービス提供業者は、自己の
サービスをアピールするとともに、ユーザにとって魅力
的な情報を提供するシナリオを作成して提供すること
で、顧客を友好に確保することができる。例えば、サー
ビス提供業者は、エージェントが自己のサービスや商品
を、ナビゲーションの目的地として店舗を設定してもら
うようにシナリオを作成する。店舗を目的地として選択
してもらうことで、確実に顧客を店に誘引することがで
きる。また、サービス提供者がエージェントに代わりに
質問をしてもらいその回答を通信で回収することができ
るので、有効なマーケティング情報を得ることができ
る。 【0072】次に、ユーザや第三者が独自のシナリオを
作成するシナリオ作成装置2の構成とその動作について
説明する。図10は、シナリオ作成装置の構成を表した
ものである。シナリオ作成装置2は、制御部210、入
力装置220、出力装置230、通信制御装置240、
記憶装置250、記憶媒体駆動装置260、入出力IF
(インターフェース)270を備えている。これら各装
置は、データバスや制御バス等のバスライン280によ
り接続されている。 【0073】制御部210は、シナリオ作成装置2全体
を制御したりなどする。制御部210は、CPU21
1、ROM(Read Only Memory)21
2、RAM(Random Access Memor
y)213などから構成されている。 【0074】ROM212は、CPU211が各種演算
や制御を行うための各種プログラム、データ及びパラメ
ータなどが格納されたリードオンリーメモリである。R
AM213は、CPU211にワーキングメモリとして
使用されるランダムアクセスメモリである。CPU21
1は、RAM213にプログラムやデータなどを書込ん
だり消去したりすることができる。本実施の形態におけ
るRAM213には、CPU211がシナリオエディタ
(シナリオ編集プログラム)に従ってシナリオを作成、
編集、記憶等するためのエリアが確保可能になってい
る。 【0075】入力装置220は、シナリオ作成装置2に
対して文字や数字その他の情報を入力するための装置で
あり、例えばキーボードやマウスなどにより構成されて
いる。キーボードは、カナや英文字などを入力するため
のキーや数字を入力するためのテンキー、各種機能キ
ー、カーソルキー及びその他のキーによって構成されて
いる。キーボートは、例えばユーザがシナリオ作成装置
2にログインするためのログインIDやパスワードを入
力したり、シナリオ作成の際に音声合成や音声認識の対
象となる文を入力する際などに使用される。マウスは、
ポインティングデバイスである。GUI(Graphi
cal User Interface)などを用いて
シナリオ作成装置2を操作する場合、表示装置上に表示
されたボタンやアイコンなどをマウスでクリックするこ
とにより、所定の情報の入力を行うことができる。 【0076】出力装置230は、例えば表示装置や印刷
装置などである。表示装置は、例えばCRT(Cath
ode Ray Tube)ディスプレイ、液晶ディス
プレイ、プラズマディスプレイなどが使用される。表示
装置には、シナリオを作成するためのメイン画面や、各
シーンにおける画面構成を選択するための画面等の各種
画面が表示される。また、各画面において選択された情
報や入力された情報が表示されるようになっている。印
刷装置は、例えば、生成したシナリオの全体の流れをチ
ャート形式で印刷し、また、各シーンの状態を印刷する
ための印刷する装置である。印刷装置は、例えば、イン
クジェットプリンタ、レーザプリンタ、熱転写プリン
タ、ドットプリンタなどの各種プリンタ装置が使用され
る。 【0077】通信制御装置240は、外部との間で各種
データやプログラムを送受信するための装置であって、
モデム、ターミナルアダプタその他の装置が使用され
る。通信制御装置240は、例えばインターネットやL
AN(Local Area Network)などに
接続可能に構成されている。通信制御装置240は、こ
れらのネットワークに接続した他の端末装置あるいはサ
ーバ装置などから、通信によって自装置で作成したシナ
リオデータを送信し、また、第3者が作成したシナリオ
データを受信(ダウンロード)し、更に、シナリオデー
タの作成に必要なデータを取得したりすることができる
ようになっている。通信制御装置240はCPU211
によって制御され、例えば、TCP/IPなどの所定の
プロトコルに従ってこれら端末装置やサーバ装置との信
号及びデータの送受信を行う。 【0078】記憶装置250は、読み書き可能な記憶媒
体と、その記憶媒体に対してプログラムやデータを読み
書きするための駆動装置によって構成されている。当該
記憶媒体として主にハードディスクが使用されるが、そ
の他に、例えば、光磁気ディスク、磁気ディスク、半導
体メモリなどの他の読み書き可能な記憶媒体によって構
成することも可能である。記憶装置250には、シナリ
オ編集プログラム251、シナリオ編集データ252、
及びその他のプログラム・データ253が格納されてい
る。その他のプログラムとして、例えば、通信制御装置
240を制御し、シナリオ作成装置2とネットワークで
つながれた端末装置やサーバ装置との通信を維持する通
信プログラムや、メモリ管理や入出力管理などのシナリ
オ作成装置2を動作させるための基本ソフトウェアであ
るOS(Operating System)なども記
憶装置250に格納されている。 【0079】図11は、シナリオ編集プログラム251
とシナリオ編集データ252の各内容と構成を表したも
のである。この図10に示すように、シナリオ編集プロ
グラム251は、シナリオエディタ251aと、DB編
集ツール(プログラム)251cと、シナリオコンパイ
ラ251bを備えている。シナリオ編集データ252
は、共通定義DB252aと、ローカル定義DB252
bと、シナリオデータ252cと、実行形式データ25
2dを備えている。シナリオエディタ251aは、シナ
リオデータを作成するアプリケーションプログラムであ
る。DB編集ツール(プログラム)251cは、共通定
義DBに格納されているデータを更新するための編集プ
ログラムで、直接データの変更をする場合と、通信又は
記憶媒体駆動装置260による記憶媒体に格納されたデ
ータを読みとり更新する場合、又は通信制御装置240
を介してダウンロードする場合等がある。シナリオコン
パイラ251bは、シナリオエディタ251aで作成さ
れたシナリオを、エージェント装置で使用可能な実行形
式のシナリオデータに変換するソフトウェアで、変換手
段として機能する。共通定義DB252aは、各シナリ
オ作成装置に共通するデータが格納される。共通定義D
B252aには、後述する自動起動項目データ、シーン
分岐項目、追加条件等のデータが格納される。ローカル
定義DB252bは、ユーザがシナリオデータを作成中
に定義された内容が格納される。例えば、ユーザが作成
した分岐条件や、音声認識対象といして設定した「イイ
ヨ」、「コマル」、「ダメ」等の音声認識データが格納
される。シナリオデータ252cは、シナリオエディタ
251aで作成されたデータが格納される。実行形式デ
ータ252dは、シナリオコンパイラ251bで変換さ
れた実行形式のシナリオデータが格納される。 【0080】図12は、シナリオの開始条件(シナリオ
起動条件)として選択可能な開始条件要素の内容の一部
を概念的に表した自動起動項目テーブルである。自動起
動項目テーブルは、共通定義DB252aに格納されて
いる。この自動起動項目テーブルに示されるように、エ
ージェント装置で検出、認識、確認可能な項目が共通定
義DB252aに格納されている。シナリオエディタ2
51aでシナリオを作成する際に、自動起動項目が開始
条件要素として共通定義DB252aから読み出され
(開始条件要素取得手段)、リスト表示される。このリ
スト表示された中から1又は複数の自動起動項目(開始
条件要素)を選択することで、シナリオを自律的に起動
するための開始条件(シナリオ起動条件)が作成される
(開始条件作成手段)。自動起動項目の備考欄に「選択
できる項目一覧参照」と記載されている項目は、更に詳
細な条件を選択できるようになっており、その詳細は図
13の選択できる項目一覧に示されるように、別のテー
ブルで規定されており、自動起動項目No.で対応付けら
れている。なお、本実施形態キーでは、自動起動項目テ
ーブルが共通定義DB252aに格納されているが、イ
ンターネット等の通信手段及び通信制御装置240を介
して、外部のDBからダウンロードすることにより取得
するようにしてもよい。この取得方法は、共通定義DB
252aに格納されている全てのデータに対して可能で
ある。 【0081】図14は、シーンから次のシーンに分岐す
るための分岐項目(移行条件)が格納されたシーン分岐
項目テーブルである。シーン分岐項目テーブルは、共通
定義DB252aに格納されている。シーン分岐項目の
各項目は、各シーンの展開構成を作成する際に読み出さ
れ、リスト表示される。このリスト表示された中から分
岐条件として1又は複数の分岐条件を選択し、また、テ
ーブルに格納されていない分岐条件を入力装置220か
ら入力することにより、シーン展開構成が作成される。 【0082】図15は、更に詳細に分岐条件を設定する
場合の追加条件テーブルを表したものである。エージェ
ント装置は、データ記録部118により、シナリオが複
数のシーンに分岐していて、それぞれ異なるシーンでシ
ナリオが終了する場合の終了の仕方をエンドIDとして
記録するようになっている。また、データ記録部118
は、シナリオのなかでユーザの応答や、通算使用回数等
を学習データといして記録することができるようになっ
ている。図15に示す、追加条件テーブルには、これら
記録されたエンドIDや、通算使用回数、その他の各種
項目がより詳細な分岐項目として定義されており、これ
らも分岐条件として選択が可能になっている。 【0083】共通定義DB252aには、その他、音声
認識に使用する音声認識用データと音声合成に使用する
音声合成用データの双方が格納されている。また、シー
ン画面(図5参照)のエージェント表示画面51に表示
するエージェントの表示や動作を選択するためのエージ
ェント画像データ(エージェントの動作と画像が対応し
て格納されている)や、シーン表示画面54に表示する
画面構成を選択する画面構成データも格納されている。
さらに、シーンにおける処理内容として選択可能な項
目、例えば、エージェントが処理可能な行為である、オ
ーディオ装置のオン・オフやチャンネル選択、エアコン
装置のオン・オフと温度設定、ナビゲーション処理部1
0に供給する目的地の設定、ヘッドライトのオン・オフ
等の各種処理内容項目データが共通定義DB252aに
格納されている。なお、本実施形態において、これらの
音声認識用データ、音声合成用データ、エージェント画
像データ、画面構成データ、処理内容項目データは、共
通定義DB252aから読み込むことでそのデータを取
得するようになっているが、これらの各データの少なく
とも1つ以上を、インターネット等の通信手段及び通信
制御装置240を介して、外部のDBからダウンロード
することにより取得するようにしてもよい。 【0084】記憶媒体駆動装置260は、着脱可能な記
憶媒体7を駆動してデータの読み書きを行うための駆動
装置である。着脱可能な記憶媒体7としては、例えば、
光磁気ディスク、磁気ディスク、磁気テープ、半導体メ
モリ、データをパンチした紙テープ、CD−ROMなど
がある。本実施形態では、シナリオ作成装置で作成、編
集したシナリオデータは、主として半導体メモリに書き
込まれるようになっている。シナリオ作成装置2は、記
憶媒体駆動装置260によって記憶媒体7を駆動するこ
とにより、シナリオデータが格納された記憶媒体7から
シナリオを取得したり、あるいは、作成したシナリオデ
ータを記憶媒体駆動装置から記憶媒体7に格納すること
ができる。 【0085】入出力IF(インターフェース)270
は、例えば、シリアルインターフェースやその他の規格
のインターフェースにより構成されている。入出力IF
(インターフェース)270に当該インターフェースに
対応した外部機器を接続することにより、シナリオ作成
装置2の機能を拡張することができる。このような外部
機器として例えば、ハードディスクなどの記憶装置、ス
ピーカ、マイクロフォンなどがある。 【0086】次に、このように構成されたシナリオ作成
装置によるシナリオ作成の各動作について、画面の遷移
に従って説明する。図16は、シナリオエディタ251
aを起動した場合に表示装置に表示されるメインウィン
ドウの構成を表したものである。この図16に示される
ように、メインウィンドウは、作成中のシーン画面(エ
ージェント装置1の表示装置27に表示されるシーン画
面(図5参照))が表示されるシーン画面301と、各
種設定を行う設定項目が表示された設定画面303と、
シーンの展開構成(分岐の状態)が各シーンを表すシー
ンアイコン307の階層構造により表示されるシーン展
開画面305で構成されている。 【0087】シナリオエディタを起動すると、メインウ
インドウのシーン展開画面305には、スタートポイン
ト308が表示される。このスタートポイント308を
選択するとシナリオプロパティの編集ができる。選択
は、例えば、マウスカーソルによるポイント位置をスタ
ートポイント308に合わせて、マウスをダブルクリッ
クすることで選択される。画面構成の変更ボタン309
は、クリックすると表示したい画面構成の選択ができ
る。エージェント表示画面311をマウスでダブルクリ
ックすると、エージェント(キャラクタ)の動作の編集
画面が表示される。台詞編集ボタン313をクリックす
るとキャラクタの台詞の指示が編集できる。ボタンパー
ツ・バックグラウンド音声認識辞書設定315をダブル
クリックすると使用する音声認識辞書の編集ができる。
シーン画面301の回答選択ボタン315a(54a)
のマークで表示されている方を選択すると認識する単語
の名称がシーン画面に表示され、辞書の一覧表示部31
5bを選択すると、音声認識の対象となるが認識する単
語の名称は表示されない。 【0088】最大表示時間の設定317では、このシー
ンを表示していられる最大時間を設定する。外部機器等
の制御指示編集319では、外部機器等(ナビも含む)
の制御指示を設定する。次のシーン作成ボタン321を
クリックするとシナリオの流れを編集できる(次のシー
ンを作成する)。このシーン作成ボタン321でシナリ
オの流れを分岐させることで、各シーンの展開構成が作
成される。例えば、シーンのアイコン1を選択した状態
(アクティブ表示されている状態)で、次のシーン作成
ボタン321をクリックするとシーン1に続くシーンの
アイコンが下層側に表示され、複数回クリックすること
でシーン1に続くシーン2,3,…が分岐して作成され
る。 【0089】シナリオの終了位置作成ボタン323をク
リックするとシナリオの終了位置を作成できる。作成し
た各シナリオの終了位置には、終了番号がエンドIDと
して割り振られるようになっている。データコンバート
ボタン325をクリックすると作成したシナリオをナビ
ゲーションで使うための実行形式のフォーマットにコン
バートできる。 【0090】図17は、シナリオプロパティを編集する
画面操作の流れを表したものである。図17の(a)に
示したメインウインドウにおいて、シーン展開画面30
5に表示されているスタートポイント308をダブルク
リックすると、(b)に示すシナリオプロパティの編集
ウインドウがメインウィンドウン上に重ねて表示され
る。 【0091】このシナリオプロパティの編集ウィンドウ
において、シナリオ名称入力,カナ名称入力,アイコン
選択,プライオリティの設定,有効期限(開始条件を満
たしてから実際に開始するまでのタイムラグの上限値)
の設定,シナリオの開始条件の設定(別ウインドウ),
作成者名称入力,コメント入力が行なえる。この画面で
入力されるシナリオ名称入力,カナ名称入力は、実行形
式のシナリオデータにおけるシナリオヘッダとなる。シ
ナリオプロパティの編集ウィンドウにおいて、決定ボタ
ン402をクリックすると編集内容がデータに反映さ
れ、メインウインドウに戻る。一方、キャンセルボタン
403をクリックするとデータに反映されないで、メイ
ンウインドウに戻る。起動条件の設定ボタン401をク
リックすると、シナリオ起動条件(開始条件)のメイン
編集画面のウィンドウ(図17(c))が重ねて表示さ
れる。シナリオ起動条件のメイン編集ウインドウでは、
自動起動の条件一覧画面に表示されているフォルダを開
くことで図12に示した自動起動項目が順次フォルダ単
位でリスト表示される。このリストから自動起動項目を
選択することで、開始条件(自動起動条件)として、選
択した項目が右側のに表示される。シナリオ起動条件の
メイン編集ウインドウで完了ボタンをクリックするとシ
ナリオ起動条件の編集を終了しシナリオプロパティの編
集ウィンドウ(b)に戻る。 【0092】図18は、シナリオ起動条件のメイン編集
ウィンドウから、シナリオ起動条件を編集する画面操作
の流れを表したものである。シナリオ起動条件のメイン
編集ウインドウ(a)では、ユーザがシナリオを手動で
開始できるように設定できるようになっている。また、
システムがシナリオを自動で開始する条件を表示してい
る。新規作成ボタン405をクリックすると、自動起動
判断項目選択ウインドウ(b)が表示され、新しい開始
条件の編集ができる。また、自動起動の条件一覧画面に
表示されている自動で開始する条件を選択して編集ボタ
ンをクリックすると、選択した条件にさらに条件設定を
追加するための自動起動判断項目選択ウインドウ(b)
が表示される。 【0093】自動起動判断項目選択ウインドウ(図18
(b))において、設定したい判断条件項目(カテゴ
リ)を選択し、決定をクリックすると自動起動する条件
範囲の選択ウインドウ(c)へ進み、キャンセルをクリ
ックするとシナリオ起動条件のメイン編集ウインドウ
(a)に戻る。この自動起動判断項目選択ウインドウに
表示し、択できる項目は、図12に表示した自動起動項
目である。 【0094】自動起動する条件範囲の選択ウインドウ
(図18(c))では、前のウインドウ(b)で選択し
た判断条件項目(カテゴリ)によってウインドウの構成
が変わる。自動で開始しても良い条件範囲を一覧から選
択(又は数字で入力)し、追加ボタンをクリックすると
設定される。決定ボタンをクリックするとその設定状態
に決定しシナリオ起動条件のメイン編集ウインドウ
(a)に戻り、キャンセルをクリックすると自動起動判
断項目選択ウインドウ(b)に戻る。 【0095】図19は、数値入力の場合の自動起動する
条件範囲の選択ウインドウの構成例を表したものであ
る。図18(b)の自動起動判断項目選択ウインドウに
おいて選択した条件項目が数値入力項目である場合に、
図19の数値入力画面が表示される。この日付指定欄4
11で日付を選択し、追加ボタンをクリックすると、選
択表示欄412に選択した日付が表示され、決定ボタン
をクリックすると図18(b)の自動起動判断項目選択
ウインドウに戻る。 【0096】図20は、エージェント表示画面51に表
示したい画面構成を選択する画面操作の流れを表したも
のである。この図20(a)に示されるメインウィンド
ウのシーン展開画面305に表示されているシーンアイ
コン307を選択してアクティブ状態にすると、選択し
たシーンアイコンに対応するシーン画面301が表示さ
れる。そして、設定画面303の画面構成の変更ボタン
309をクリックすると、画面構成の選択ウインドウ
(b)が表示される。この画面構成の選択ウインドウ
(b)では、シーン表示画面54(図5参照)に表示可
能なる画面構成が一覧表示される。何も表示されない基
本画面、ボタンによる選択ボタンが2つ表示された2択
画面、選択ボタンが複数表示されたボタン選択画面、例
えば、都道府県名等の複数の項目がリスト表示されるリ
スト選択画面、画像データを表示する画像表示画面等の
各種選択可能な画面が表示される。一覧表示された各画
面構成の中から1の画面構成を選択し、決定ボタンをク
リックすると画面構成を変更する場合は確認ダイアログ
で確認後変更する場合は、その画面構成に変更してメイ
ンウィンドウ(a)に戻る。メインウィンドウに戻る
と、シーン画面301のが新たに選択した画面構成に変
更されて表示される。 【0097】図21は、キャラクタ動作(エージェント
の動作)指示を編集する画面操作の流れを表したもので
ある。シーン画面の編集状態を表しているメインウィン
ドウ(図21(a))において、エージェント表示画面
311をマウスでダブルクリックすると、キャラクタ動
作の直接指示編集ウインドウ(b)又はキャラクタ動作
の状態指示編集ウインドウ(c)が表示される。動作指
示をキャラクタ動作の直接指示で指示しているときは
(b)が表示され、キャラクタに表現させたい状態で指
示している場合は(c)が表示される。 【0098】図21(b)のキャラクタ動作の直接指示
編集ウインドウでは、モーション(動作),表情(感情
表現の要素),髪型(成長表現の要素),服装(TPO表
現の要素),スケール(キャラクタ表示領域をカメラの
フレームとするとそのカメラアングルの要素),口パク
をする範囲(台詞を割り当てる範囲),動作の指示タイ
ミング,及び背景を選択する。このウィンドウにおい
て、決定ボタンをクリックすると編集内容がデータに反
映され、メインウィンドウ(a)に戻る。キャンセルボ
タンをクリックするとデータに反映されなで、メインウ
ィンドウ(a)に戻る。また、表現内容指定タンをクリ
ックすると、キャラクタに表現させたい状態で指示する
状態指示編集ウインドウ(c)切り替わる。 【0099】図21(c)のキャラクタ動作の状態指示
編集ウインドウでは、キャラクタが表現する状態とし
て、仕事の要素,精神状態の要素,TPO表現の要素,成
長表現の要素,スケール要素(キャラクタ表示領域をカ
メラのフレームとするとそのカメラアングルの要素),
動作の指示タイミング,及び背景を選択する。このウィ
ンドウで、決定ボタンをクリックすると編集内容がデー
タに反映され、メインウィンドウ(a)に戻る。キャン
セルボタンをクリックするとデータに反映されなで、メ
インウィンドウ(a)に戻る。直接指示指定タンをクリ
ックすると、キャラクタ動作の直接指示で指示する直接
指示編集ウインドウ(b)に切り替わる。 【0100】図22は、キャラクタ(エージェント)の
台詞指示を編集する画面操作の流れを表したものであ
る。シーン画面の編集状態を表しているメインウィンド
ウ(図22(a))において、設定画面303の台詞編
集ボタン313をクリックすると台詞の編集ウインドウ
1(b)が表示される。この台詞の編集ウインドウ1
(b)では、「PCM」のタブ画面が表示され、PCM
(録音されて用意されている肉声データ)の指示ができ
る。台詞の編集ウインドウ1(b)で「TSS」タブを
選択すると、台詞の編集ウインドウ2(c)が表示さ
れ、TTS(合成音声)の指示をができる。PCMの場
合台詞を全角ひらがなで入力(上記入力用ボックス)し
該当する台詞が有るか検索(検索ボタンをクリックす
る:前方一致と完全一致の2種類の検索方法を用意)
し、検索結果(検索結果一覧表示欄が存在する)から選
択しキャラクタに話させる台詞を設定(追加ボタンをク
リックすると設定できる)していく。TTSの場合は台
詞名称(吹き出し表示用データ)とフリガナ(合成音声
を作成するためのデータ)を入力しキャラクタに話させ
る台詞を設定(追加ボタンをクリックすると設定でき
る)していく。台詞の編集ウインドウ1(b)、2
(c)において、決定ボタンをクリックすると編集内容
が吹き出し画面430のデータとして反映されてメイン
ウィンドウ(a)に戻り、キャンセルボタンをクリック
するとデータに反映されなでメインウィンドウ(a)に
戻る。 【0101】図23は、音声認識辞書を編集する画面操
作の流れを表したものである。この操作は、装置側から
の回答を要求する問いかけに対する回答を認識するため
の音声辞書を設定する者である。シーン画面の編集状態
を表しているメインウィンドウ(図23(a))におい
て、選択された画面構成にしたがって表示される回答選
択ボタン315a(画面構成によっては通常リストボッ
クスパーツ部の場合も有る)をダブルクリックすると音
声認識辞書選択ウインドウ(b)が表示される。また、
バックグラウンドで認識する辞書の一覧表示部315b
をダブルクリックしても音声認識辞書選択ウインドウ
(b)が表示される。 【0102】音声認識辞書選択ウインドウ(図23
(b))において、辞書候補の一覧表示にある辞書名称
をダブルクリックするとその音声認識辞書を使うものと
して、一般辞書として選択した一覧に表示される。決定
ボタンをクリックすると編集内容がデータに反映されて
メインウィンドウ(a)に戻り、キャンセルボタンをク
リックするとデータに反映されなでメインウィンドウ
(a)に戻る。新規作成ボタンをクリックすると、音声
認識辞書を新規に作成する音声認識辞書作成ウインドウ
(図23(c))が表示される。 【0103】音声認識辞書作成ウインドウ(図23
(c))では、辞書の名称を入力して辞書追加ボタンを
クリックするとその名称で音声認識辞書を新規に作成し
て音声認識辞書へ単語登録するウインドウ(d)が表示
される。音声認識辞書作成ウインドウ(c)でOKボタ
ンをクリックすると音声認識辞書の作成を終了し、音声
認識辞書選択ウインドウ(b)にもどる。 【0104】音声認識辞書へ単語登録するウインドウ
(図23(d))では、登録したい単語を半角カナでフ
リガナ欄に入力し、決定ボタンをクリックする。次に名
称(表示させたい名称)を選択もしくは新規入力し、コ
ールバックをする際のPCM音声を選択(無しを選択す
ればコールバックする場合はTTSを使用する)する。
これら3項目の入力をした後に登録ボタンをクリックす
るとデータ登録され右側の登録単語一覧に追加される。
登録したい単語の登録を全て終わったら戻るボタンをク
リックすると音声認識辞書作成ウインドウ(c)に戻
る。 【0105】図24は、シナリオの流れを編集する画面
操作の流れを表したものである。メインウィンドウにお
いて作成中のシーンアイコン307(図ではアイコン
1)を選択してアクティブ状態にして、新規シーン作成
ボタン321をクリックすると、分岐イベントの選択ウ
インドウ(b)が表示される。この分岐イベントの選択
ウインドウ(b)において、新規に作成するシーンへ分
岐させる条件を分岐イベント一覧から選択し、OKボタ
ンをクリックするとその条件(分岐イベント)に決定し
てメイン画面(a)へ戻る。戻った後のメイン画面
(c)では、シーン展開画面305に、新たにシーン
(図ではシーンアイコン(4)が作成されている。新規
に作成されたシーンアイコンでは、他のシーンアイコン
と区別するため、赤い四角で囲ったNEWと表記され
る。なお、分岐イベントの選択ウィンドウで選択できる
分岐イベントは、図14に表示されている。 【0106】図25は、シナリオの流れを編集する画面
操作の流れの拡張編を表したものである。メインウィン
ドウ(a)において、シーン作成ボタン321をクリッ
クすると分岐イベントの選択ウインドウ(b)が表示さ
れる。この分岐イベントの選択ウインドウ(b)におい
て、一度選択した分岐イベントでもさらに特定の追加条
件を満たした場合は分岐を変えることもできる。例えば
シーン1で音声認識辞書の単語の「元気だよ」を選択し
た場合という分岐条件はシーン2へ分岐すると既に規定
されている。さらに追加条件として前回IDが2番のエ
ンドで終了している場合を別のシーンへ分岐させるよう
にすることもできる。分岐イベント一覧の中から辞書の
単語である「元気だよ」を選択し、追加条件種別を選択
するとその選択した種別で選択可能な追加条件の項目の
一覧が追加条件一覧に表示された項目を選択し、OKボ
タンをクリックするとその条件(分岐イベント+拡張条
件)に決定してメイン画面(a)に戻る。このときシナ
リオ図には新たにシーンが作成されている(メイン画面
(c)で赤い四角で囲ったNEWと記された5番の四角
がこの操作で新規に作成したシーンである)。選択でき
る追加条件種別及びその種別に属する追加条件項目は、
図15に表示されている。これにより、例えば、音声認
識辞書の単語である「元気だよ」が選択された場合に、
前回IDが2番の終了位置でシナリオを終了している場
合はシーン5へ分岐するがそれ以外はシーン2へ分岐す
るという流れが作成できる。 【0107】図26は、シナリオの終了位置を編集する
画面操作の流れを表したものである。メインウインドウ
(a)において、シナリオの終了位置作成ボタン323
をクリックするとエンドIDの指定ウインドウ(b)が
表示される。このエンドIDの指定ウインドウ(b)に
おいて、終了位置マークの持つID番号を指定する。通
常は自動割付するが、自動で割り付けると書かれたチェ
ックボックスのチェックをはずせばエディタの操作者が
自分で割り付けることもできる。OKボタンをクリック
するとID番号を決定し分岐イベント選択ウインドウ
(c)が表示される。 【0108】分岐イベント選択ウインドウ(c)では、
新規シーン作成時と操作方法は同様にシナリオを終了す
るための分岐条件を設定する。追加条件設定も同様にで
きる。このウィンドウで、OKボタンをクリックすると
その条件(分岐イベント+設定した場合は追加条件)に
決定してメインウィンドウ(d)へ戻る。このときシナ
リオ図には新たにシナリオ終了位置433が作成されて
いる。 【0109】図27は、作成したシナリオをナビゲーシ
ョンで使用可能な実行形式のフォーマットにコンバート
するための画面操作の流れを表したものである。メイン
ウインドウ(a)において、データコンバートボタン3
25をクリックすると、データコンバータのウインドウ
(b)が表示される。このデータコンバータのウインド
ウ(b)において、コンバートしたデータを出力するフ
ァイルの名称を指定し、同時に変換するシナリオを選択
(シナリオ一覧リストにチェックしたシナリオを同時に
変換する)し、コンパイルボタンをクリックするとデー
タ変換を開始する。データ変換の状況を結果表示部に表
示する。終了ボタンをクリックするとデータ変換を終了
し、メインウィンドウ(a)にもどる。 【0110】以上、本発明のエージェント装置の実施形
態について説明したが、本発明は説明した実施形態に限
定されるものではなく、各請求項に記載した範囲におい
て各種の変形を行うことが可能である。例えば、説明し
た実施形態では、ホームページからシナリオをダウンロ
ードする場合、ユーザがダウンロードの処理を行う場合
について説明したが、所定の起動条件(日時や場所)を
満たした場合に、ホームページから自動的にシナリオを
取得するシナリオとすることも可能である。取得した新
たなシナリオに基づいて旅館等のサービスを案内するシ
ナリオが追加され、実行される。 【0111】また、本実施形態の変形例として、操作制
御装置、自律型制御装置、エージェント装置、シナリオ
データ作成装置、及びシナリオデータ作成プログラム、
例えば、車両の搭乗者とのコミュニケーションにより会
話をしたり機器操作等を自律的に行う自律型制御装置等
に関して、以下のように構成してもよい。この場合、自
律的な対応の内容をユーザが簡易に作成、追加すること
が可能な自律型制御装置、エージェント装置を提供する
ことを目的Aとし、のような自律型制御装置、エージェ
ント装置で使用するシナリオデータを作成、編集するシ
ナリオデータ作成装置、シナリオデータ作成プログラム
を提供することを目的Bとする。 【0112】(a) 対話型インターフェイスをもつ所
定の操作を実行する操作制御装置において、前記対話型
インターフェイスは、制御装置側から人間に回答を要求
する問いかけを行う第1のステップと、前記第1のステ
ップによる人間の回答内容を判別して、所定の操作の実
行を開始する第2のステップとを備え、前記人間への問
いかけの内容を規定するデータを外部から入力可能にす
る入力装置と、該入力装置により入力されたデータに従
って、少なくとも前記第1のステップを実行する実行手
段とを備えたことを特徴とする操作制御装置。 (b) 周囲の状況や状態を判断し、その判断結果に応
じた処理を行う自律型制御装置であって、装置が行う1
の処理をシーンとし、1又は連続する複数のシーンで構
成されたシナリオと、当該シナリオの展開を開始する開
始条件とを有するシナリオデータを記憶したシナリオ記
憶手段と、前記シナリオの開始条件を満たしたか否かを
判断する条件判断手段と、前記条件判断手段で開始条件
を満たすと判断した場合に、当該開始条件に対応するシ
ナリオの各シーンを順次展開するシナリオ実行手段と、
外部からシナリオデータを取得するシナリオ取得手段
と、前記取得したシナリオデータを前記シナリオ記憶手
段に格納するシナリオ追加手段と、を具備することを特
徴とする自律型制御装置。 (c) 車室内や車両の状態を判断し、その判断結果に
応じた処理を自律的に行う機能を、エージェントの容姿
の動きや音声と連動させて実行するエージェント装置で
あって、所定の容姿からなるエージェントの画像を車室
内に表示するエージェント表示手段と、装置が行う処理
内容とエージェントの画像及び音声の少なくとも1つか
ら構成される場面を1シーンとし、1又は連続する複数
のシーンで構成されたシナリオと、当該シナリオの展開
を開始する開始条件とを有するシナリオデータを記憶し
たシナリオ記憶手段と、前記シナリオの開始条件を満た
したか否かを判断する条件判断手段と、前記条件判断手
段で開始条件を満たすと判断した場合に、当該開始条件
に対応するシナリオの各シーンを順次展開するシナリオ
実行手段と、外部からシナリオデータを取得するシナリ
オ取得手段と、前記取得したシナリオデータを前記シナ
リオ記憶手段に格納するシナリオ追加手段と、を具備す
ることを特徴とするエージェント装置。 (d) 前記シナリオは、エージェントによる提案、質
問、挨拶等の能動的動作を内容とするシーンから開始す
ることを特徴とする(c)に記載のエージェント装置。 (e) 前記シナリオ取得手段で取得したシナリオデー
タが実行形式でない場合に、使用可能な実行形式のシナ
リオデータに変換する変換手段を備え、前記シナリオ追
加手段は、実行形式に変換後のシナリオデータを前記シ
ナリオ記憶手段に格納することを特徴とする(d)に記
載のエージェント装置。 (f) 装置が自律的に行う1の処理をシーンとし、1
又は連続する複数のシーンで構成されたシナリオを、当
該シナリオの開始条件が満足した場合に開始する自律型
制御装置用のシナリオデータを作成するシナリオデータ
作成装置であって、シナリオの開始条件として選択可能
な複数の開始条件要素を取得する開始条件要素取得手段
と、シーンの構成要素として選択可能な自律型制御装置
の処理内容を取得するシーン要素取得手段と、前記取得
した開始条件要素からシナリオの開始条件を作成する開
始条件作成手段と、前記取得したシーン構成要素から、
各シーンの処理内容を作成するシーン作成手段と、所定
のシーンから次のシーンに移行するための1又は複数の
移行条件と、各移行条件に対応して移行先のシーンを特
定する移行先データとから、各シーンの展開構成を作成
するシーン展開構成作成手段と、を具備することを特徴
とするシナリオデータ作成装置。 (g) 装置が自律的に行う処理内容とエージェントの
画像及び音声の少なくとも1つから構成される場面を1
シーンとし、1又は連続する複数のシーンで構成された
シナリオを、当該シナリオの開始条件が満足した場合に
開始するエージェント装置用のシナリオデータを作成す
るシナリオデータ作成装置であって、シナリオの開始条
件として選択可能な複数の開始条件要素を取得する開始
条件要素取得手段と、シーンの構成要素として選択可能
なエージェントの処理内容とエージェント画像と音声デ
ータの少なくとも1つを取得するシーン要素取得手段
と、前記取得した開始条件要素からシナリオの開始条件
を作成する開始条件作成手段と、前記取得したシーン構
成要素から、エージェントによる処理内容、エージェン
トの画像及び、出力音声の少なくとも1で構成される場
面を1シーンとして作成するシーン作成手段と、所定の
シーンから次のシーンに移行するための1又は複数の移
行条件と、各移行条件に対応して移行先のシーンを特定
する移行先データとから、各シーンの展開構成を作成す
るシーン展開構成作成手段と、を具備することを特徴と
するシナリオデータ作成装置。 (h) 前記シナリオは、エージェントによる提案、質
問、挨拶等の能動的動作を内容とするシーンから開始す
ることを特徴とする(g)に記載のシナリオデータ作成
装置。 (i) 前記作成した開始条件、シナリオ、及びシーン
展開構成から、エージェント装置で使用可能な実行形式
のシナリオデータに変換する変換手段を備えたことを特
徴とする(g)又は(h)に記載のシナリオデータ作成
装置。 (j) 前記開始条件作成手段は、前記取得した開始条
件要素をウィンドウ表示し、選択された開始条件要素か
ら開始条件を作成し、前記シーン作成手段は、前記取得
したシーン構成要素のうち、処理内容、エージェント画
像、音声データをそれぞれ別々にウィンドウ表示し、選
択されたシーン構成要素からシーンを作成することを特
徴とする(g)、(h)又は(i)に記載のシナリオデ
ータ作成装置。 (k) シーン展開構成作成手段は、作成済みの各シー
ンをアイコン化し、展開の構成を階層構造によりウィン
ドウ表示することを特徴とする(g)から(j)のうち
のいずれか1に記載のシナリオデータ作成装置。 (l) 装置が自律的に行う処理内容とエージェントの
画像及び音声の少なくとも1つから構成される場面を1
シーンとし、1又は連続する複数のシーンで構成された
シナリオを、当該シナリオの開始条件が満足した場合に
開始するエージェント装置用のシナリオデータを作成す
るシナリオデータ作成プログラムであって、シナリオの
開始条件として選択可能な複数の開始条件要素を取得す
る開始条件要素取得機能と、シーンの構成要素として選
択可能なエージェントの処理内容とエージェント画像と
音声データの少なくとも1つを取得するシーン要素取得
機能と、前記取得した開始条件要素からシナリオの開始
条件を作成する開始条件作成機能と、前記取得したシー
ン構成要素から、エージェントによる処理内容、エージ
ェントの画像及び、出力音声の少なくとも1で構成され
る場面を1シーンとして作成するシーン作成機能と、前
記検出項目からシーンの次のシーンに移行するための1
又は複数の移行条件と、各移行条件に対応して移行先の
シーンを特定する移行先データとから、各シーンの展開
構成を作成するシーン展開構成作成機能と、をコンピュ
ータに実現させるためのシナリオデータ作成プログラ
ム。 【0113】この変形例によれば、自律的な対応の内容
をユーザが簡易に作成、追加することが可能な自律型制
御装置、エージェント装置が提供される。また、このよ
うな自律型制御装置、エージェント装置で使用するシナ
リオデータを作成、編集するシナリオデータ作成装置、
シナリオデータ作成プログラムが提供される。 【0114】 【発明の効果】本発明の操作制御装置によれば、制御装
置側から人間に回答を要求する問いかけを行う第1のス
テップを備えるので、人間に対して自律的な対応をする
ことができる。また、制御装置側から人間に回答を要求
する問いかけを、問いかけの内容を規定するデータを外
部から入力して実行することができる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an operation control device.
For example, by communicating with the vehicle occupant.
Autonomous control device that autonomously talks and operates equipment
Related to installation. 2. Description of the Related Art Sensors for detecting various states and state recognition.
Recognition devices are becoming more diversified and more accurate,
Furthermore, various types of equipment are used using the detection results and recognition results
With the development of control technology that controls the movement and display of
Information that controls various devices and interacts with users
Processing devices have been put to practical use. Such information processing device
For example, from the detection result of a sensor or the like, the surrounding state
(Including human movements and voices)
Autonomous, such as an autonomous robot that outputs a corresponding action or voice
There is a type control device. As an autonomous control device,
For example, pet-type robots such as dogs,
Provides guidance on operation of devices such as navigation devices and responds to situations.
Dialogue and response with the passengers by giving
Agent devices have been developed. In such an autonomous control device, the device
Assuming various possible states for
The actions to be taken when each of the states
Data and programs. And self
Program for autonomous judgment and response
System should be accepted by as many users as possible.
Developed assuming. For example, a pet robot
If so, not only do cute gestures but sometimes get angry
To make the user more friendly
Be programmed. In addition, agent equipment for vehicles
If it is a place, it detects midnight and proposes a dining room around the current location
Refueling by detecting the gasoline level
Prompted or detected as a pre-registered user hobby
Guide the start of the corresponding radio broadcast from the time
Is programmed as [0004] However, the conventional autonomous system
The controls are capable of handling many situations.
As much user satisfaction as possible,
Assuming the situation, plan as many types of responses as possible
Needs to be programmed. Against such a situation setting
Since the device developers are all responsible for the
And cost was high. Also develop
The program is accepted by as many users as possible
It is created assuming a situation like
May not be able to accept the content of autonomous response.
In such cases, depending on the user's usage and preferences,
Change hardware and software settings and functions
You will use the customize function, but customize
Possible contents are limited to those provided by the device developer
Have been. The best judgment and response for the user
In order to make an autonomous control device, each user must
Although it is desirable to program according to
Specialization in programming in assembly language, C language, etc.
Knowledge and environment were required. For this reason, ordinary users
Can autonomously respond to their preferences
Even if your programming knowledge matches,
Not configured to allow program rewriting
There were many devices. For example, in the agent device, the vehicle
And perform various actions according to the driver's condition.
The details of the correspondence and processing performed by the driver
Limited to actions according to the program set in the system
I have. And the user has added an agent action
Service that the user wishes to provide
Or the service provider adds an agent's action
Could not. The present invention has been made to solve the above problems.
Can respond autonomously to humans
It is a first object of the present invention to provide an operation control device that can be used. Ma
In addition, the control unit asked the human
Enter data that specifies the content of the question from the outside
The second is to provide an operation control device capable of performing
Aim. [0006] The invention according to claim 1
Now, perform a predetermined operation with an interactive interface
The interactive interface.
The control unit asks the human to ask for an answer.
A first step to be performed and a human being according to the first step
Of the answer to determine the content of the answer
And the contents of the question to the human being
An input device that enables input of prescribed data from outside,
At least according to the data input by the input device.
Also controlling the execution means for executing the first step.
The equipment is equipped. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an autonomous control device according to the present invention will be described.
Various types of navigation, including navigation device settings, etc.
An example of a vehicle agent device that responds
Embodiments will be described in detail with reference to FIGS. 1 to 27.
explain. (1) Overview of the Embodiment In the agent device of the present embodiment, the
Agent images (such as planar images, holography, etc.)
3D image) is displayed in the vehicle. And Ege
From the detection results of sensors, etc.
Recognize and judge the state (including human movements and voices)
The function of outputting actions and voices according to the results
-Executes in conjunction with the appearance movement and voice of the agent. An example
For example, "What genre do you like?"
(Japanese food, Western food, etc.)
Judge the contents of the user's response to the
Or from the selection of the answer selection button 54a), and
Executes processing according to the scene. Thus, from the device
Question that requires a response from
The user starts executing the operation of
Agent with personality is present in the vehicle
You will have a natural experience. In the following description,
The execution of a series of functions of the agent device
The actions and actions are described as follows. Agent of the present embodiment
The communication device provides this agent with various communications with the driver.
Communication and delegate operations. And age
Various actions (each action) that the agent performs autonomously
Consists of Nario. And a series of agents
Multiple scenarios that define the content of a series of actions and each scenario
Standardized by starting conditions for starting Nario deployment
Save the scenario data. Scenario is a scene
The minimum unit is composed of one or a plurality of continuous scenes.
It is. Autonomous processing contents and agent images and
A scene composed of at least one sound is one scene
is there. Scenario moves from one scene to the next
One transition condition (continuous condition) or multiple transition conditions
Condition (branch condition (for each state when multiple states occur)
Conditions for the transition of the scene)))
In response to the destination data that identifies the destination scene,
The development configuration of each scene is defined. On the other hand, the user of the agent device
Create your own scenario according to specified standards
Create using device. Scenario creation device
O Editing programs and data on personal computers
It can be configured by installing. make
Scenario is over a network such as the Internet.
Sent to the agent device or downloaded
And through a predetermined semiconductor memory
By storing it in a remote device,
Agent for desired actions (communication and processing)
Event. Of the scenario to create
Ask the first scene to ask for answers to humans
Scene scenario. And your own
From the external device to the input device
It is possible to input via. In this case, the input device
Stores the scenario data to be added to the semiconductor memory.
Read the contents of the semiconductor memory, if any
The media drive unit corresponds to a network such as the Internet.
Download from a specific server, etc.
Denotes a communication control device. This newly entered scenario
Execute the scenario according to the data. [0009] The agent device is a mail, browser software.
Software, and use a browser
And download the file.
The scenario data to make the agent function
Agent program for scenario data
So that it can be used by incorporating it. Also, add
Similarly, if the attached file is attached to the scenario
And if it is a scenario, the agent system
System for use. This
In addition to the traditional method, the existing communication infrastructure e-mail,
By using communication over networks, etc.,
In addition, through a semiconductor memory, etc.,
Add your own scenario created using a computer, etc.
Will be able to do it. In this way, the user
Scenarios to make agents work as desired
Also, since it can be easily created, agents
There is no resistance to autonomous operation of the device. (2) Details of Embodiment FIG. 1 is composed of an agent device and a scenario creating device.
This shows the overall system configuration. This system
Now, the agent device 1 of the present embodiment and the designated
Users who create scenarios with standards or third parties
Using Rio creator's scenario creation device 2 and server 3 etc.
And communication means such as the Internet.
Scenario creation device 2 uses the scenario editor
Create scenario data. And your own scenario
Creates a scenario in the semiconductor memory 7
I do. And the storage medium drive of the agent device 1
Reads the scenario from the semiconductor memory 7 and
You can create your own by incorporating it into a scenario that you remember.
The agent device 1 according to the scenario
It becomes possible. In the agent device 1,
Scenarios created by third parties can be transferred to Internet
Can be incorporated through the work. Also,
Wants to provide services to the user of the client device 1.
The third party that describes the scenario in a predetermined format
Create with the scenario creation device 2 using an editor,
On the homepage to make it downloadable,
Is the agent device 1 as an e-mail attachment
Send to Agent device 1 attached to e-mail
Received scenario 5 or the server 3
Download scenario file 4 via communication means such as
Is to be loaded. Also, the agent device 1
Is the user obtained according to the execution of the received scenario
In the body of the email 6 or in the attached file
It is transmitted to the scenario creator 2 of the narrator. First, a file created by a developer or user
Agents that function autonomously according to scenarios
The configuration and operation of the gent device will be described. Figure
2 shows the configuration of the agent device in the present embodiment.
FIG. Agent device 1 of the present embodiment
Now, the overall process that controls the entire communication function
A section 9 is provided. This overall processing unit 9 is used for the set purpose.
Search the route to the ground and provide guidance by voice or image display
Navigation processing unit 10, agent processing unit 11,
Navigation processing unit 10 and agent processing unit 11
External I / F unit 12, agent image and map image
Image processing unit 13 for processing image output and input images such as
Voice output and input such as
Voice control unit 14 for controlling the voice of the vehicle and the driver.
Information processing unit 1 that processes detection data of various situations
5, having an input control unit 16 and a storage device control unit 17
I have. Navigation processing unit 10 and agent
The processing unit 11 performs data processing and controls the operation of each unit.
A CPU (Central Processing Unit) and a data bus and
ROM, RAM connected by a bus line such as a control bus,
A timer and the like are provided. Both processing units 10 and 11 are network
Network connection (in-vehicle LAN (Local Area Net)
work)) to obtain the processing data of each other
You can do it. In the present embodiment,
The agent processing unit 11 performs navigation according to the scenario.
Information (such as destination data and travel route data)
Information from an external device such as a reporting center, or
Communication with the user based on the
Once you have obtained the specified destination,
The data is supplied to the gating processing unit 10. Na
In the navigation processing unit 10, the route is determined according to the acquired purpose.
Driving route obtained by searching, route search and reception
Provides route guidance based on the data. In this route guidance process
To provide guidance on course change directions, etc.
In such a case, the data necessary for the guidance
Supply to the agent processing unit 11 from the
It is also possible for agents to guide according to Nario
You. The ROM stores various data and programs for control by the CPU.
Is a read-only memory where the program is stored in advance.
RAM is used by the CPU as working memory
It is a random access memory. The navigation processing unit 10 of the present embodiment
The agent processing unit 11 has a CPU
Read various programs and execute various processes
It has become. Note that the CPU is a storage medium driving device 23.
Computer program from an external storage medium
Read the ram and read the agent data 30
Data 31 such as a hard disk not shown
Store (install) in another storage device, this storage device
Read necessary programs from RAM into
May be executed. In addition, necessary programs
Reads ram, etc. directly from storage medium drive 23 to RAM
May be executed. In this embodiment, the agent processing unit 1
1 is various communication of agents including conversation with driver
The communication operation is performed in various situations (state) of the vehicle or driver.
It will be performed according to the scenario created in advance
Swelling. That is, vehicle speed, time, running area,
Various conditions such as temperature, gasoline remaining amount, driver operation, etc.
As a starting condition to start Rio deployment, each situation will be autonomous
The content of the agent's response to judge and respond
A scenario is defined for each situation. In addition,
Starting deployment of a scenario is called launching a scenario.
The start condition for starting Rio deployment is called the scenario start condition.
U. Each scenario is made up of multiple consecutive scenes
I have. A scene is one scene in a scenario,
The agent asks one question for each scene,
And provide information. Each scene has a title, a squirrel
, Balloons, backgrounds, and other small units (parts)
Screens and voices of agents.
Each scene proceeds sequentially according to a scenario. Sina
Depending on the Rio, there are questions
Multiple choices depending on the driver's answer, vehicle conditions, etc.
Scene exists. In other words, depending on the answer in the middle,
There is a scenario where the branch branches. Scene branch exists
In existing scenarios, depending on user response and vehicle conditions, etc.
Will develop into different scenes. In a scenario where there is a branch, each scene is
They are arranged in a hierarchical structure. Specific scenarios
When o is executed, scene 1 of the first layer is developed
(E.g., with a print image or sound). Scene 1 ends
Then, the processing shifts to scene 2 of the second layer. This second layer
Scenes, for example, scenes 2a and 2b exist,
User response to scene 1 (including answers to questions)
) And the condition of the vehicle as branch conditions,
The second layer scene is determined. For example, if the branch condition is
User answers "yes" and "no" for scene 1
When the user's answer is "yes", the scene 2a is determined,
In the case of "No", the scene 2b is determined and the determined scene
Move to the Branch conditions and migration for each branch condition
The previous scene is defined for the scene before branching. Data of a scenario including a scene will be described later.
It is stored in the scenario data file 302. When
Information that defines where the scenario will be executed (scenario
E start condition) and what screen configuration when executed
Let the agent do what actions and conversations,
What about modules such as the gating processor 10
What to do next when you receive an event and receive an event
Data that defines what scene
The scenario data file 302
These are stored as nario data 1 to n. FIG. 3 shows the configuration of the agent processing unit 11.
It is a representation. As shown in FIG.
The event processing unit 11 executes the scenario determination unit 111 and executes the scenario.
Request determination unit 112, scenario driving unit 113, data reading
Embedding unit 114, drawing processing unit 115, speech recognition management unit 11
6. User input receiving unit 117, scenario embedding unit 12
1, data recording unit 118, external device management unit 119,
A gentle psychology unit 120 is provided. Each of these parts 111
To 120, CPUs provided in the agent processing unit 11;
Support engine (software) stored in ROM etc.
It is becoming more realizable. Situation judgment unit 111, etc.
The engines that make up each part of the
When transmitting, a corresponding event is issued. Each part 1
Some of the events issued by 11 to 120 are after branching
The event which specifies the scene of is included. The status determination unit 111 includes a time, a place,
Manage changes in the situation (including the addition of scenarios)
Issue events as needed. Judgment of situation change
Various situation detection devices 4 supplied from the situation information processing unit 15
0 based on the detection result, etc.
Is issued to the scenario execution request determination unit 112.
You. The scenario execution request determination unit 112
1 automatically receives the event
Determine whether to execute the scenario based on the motion judgment data
You. When executing a scenario, the event
Is issued to the scenario driving unit 113. The scenario driving section 113 has a
Of the scenario activation request issued by the request determination unit 112
It is determined whether or not to start up. Start up
When the scenario driver 113 determines that
The data reading unit 114 is requested to read the data.
In addition, drawing requests and capacities are drawn according to scenario data.
Request the drawing processing unit 115 to request the operation with the tractor
I do. It is also used for speech recognition according to scenario data.
To the speech recognition management unit 116. Scenario de
Request for control of external equipment (modem, etc.) and navigation according to data
do. Further, the scenario driving unit 113 outputs the result of voice recognition.
The scenario is driven by the result or user input (scene
Management). The scenario driver 113 receives an externally received
The scenario data file in the scenario embedding unit 121
Scenario stored in 302 (hereinafter referred to as external scenario)
The expiration date, and provide a scenario for expired scenarios.
Delete from the data file 302. Check expiration date
Is the reception date and time stored by the scenario embedding unit 121, or
Is determined from the expiration date and time. In addition, scenario driving unit 1
13 starts counting the number of times the external scenario is activated.
(Starting frequency counting means). And in external scenarios
When including the number of startups, each external scenario
The number of startups counted for the
If the external scenario is not
From the scenario data file 302.
ing. The number-of-starts counting means stores the data of the learning item data.
It can also be calculated using data. The data reading unit 114 is driven by a scenario.
Based on the request from the unit 113, the scenario data file
Load the corresponding scenario data from
U. The voice recognition management unit 116 transmits a finger to the voice recognition unit 142.
Control the indications. For example, notification from the scenario driving unit 113
Specify the dictionary to be used. Voice recognition management unit 116
Is determined by the speech recognition unit 142 according to the specified dictionary.
If the result of voice recognition is
Is issued to the scenario driving unit 113. With user
The force receiving unit 117 receives an input from the user (remote control / touch).
Event) corresponding to the input contents
Is issued to the scenario driving unit 113. From the user
Is determined based on information from the input control unit 16.
You. The scenario embedding unit 121 includes a communication control unit.
Whether the scenario received is included in the data received at 24
And if the scenario is included, the received
Scenario data file 3 with Nario as external scenario
02 is added to the scenario. Also new
If a new external scenario is added,
Issue a scenario addition event to the disconnection unit 112
You. The external scenario is a scenario data file 30.
2 may be stored in parallel. Scenario embedding unit 121
When storing a new external scenario,
Data to know the expiration date of Rio
Alternatively, the expiration date is stored in the RAM. The data recording unit 118 stores learning items and users.
The information to the learning item data 304 and the driver information 307.
Record (store) and manage. Also record on request
Tell me what items are memorized, such as the learning items you have. External device
The management unit 119 includes a navigation processing unit 10, a modem, and the like.
Is controlled by an instruction from the scenario driving unit 113.
You. The control result is returned to the scenario driving unit 113. D
The agent psychology unit 120 makes the judgment by the situation judgment unit 111.
Change the mental model parameters according to the
You. Also, mentally responded to the request from the scenario driver.
Change model parameters. Mental model
Judge the psychological state of the agent from the data. In FIG. 2, the external I / F unit 12 stores
The medium drive unit 23 and the communication control unit 24 are connected, and the
The display unit 27 and the imaging device 28 are connected to the
The audio control unit 14 includes an audio output device 25 and a microphone.
(Voice acquisition means) 26 is connected to the situation information processing unit 15
Is connected to various state detection devices 40, and the input control unit 16
Is connected to the input device 22. The various situation detecting devices 40 include a current position detecting device.
It has a device 41 and a situation detecting unit 42. Current position detection device
The location 41 detects the absolute position (depending on latitude and longitude) of the vehicle
The location of the vehicle using artificial satellites.
GPS (Global Positionion)
ng System) receiver 411 and azimuth sensor 4
12, a steering angle sensor 413, a distance sensor 414, a road
Bee receiving location information from beacon placed above
A receiver 415 or the like is used. GPS receiver 4
11 and beacon receiver 415 can measure position independently
However, the GPS receiver 411 and the beacon receiver 4
In a place where reception by the sensor 15 is impossible, the direction sensor 41
2. At least the steering angle sensor 413 and the distance sensor 414
To detect the current position by dead reckoning using one
It has become. The direction sensor 412 detects, for example, geomagnetism.
Geomagnetic sensor that detects the direction of the vehicle by detecting it, rotation of the vehicle
Detect angular velocity and integrate the angular velocity to determine the direction of the vehicle
Gyro such as gas rate gyro and optical fiber gyro
B. Arrange the left and right wheel sensors and output pulse difference (moving
Azimuth change by detecting the turning of the vehicle based on the
Wheel sensors, etc., which are used to calculate the
You. The steering angle sensor 413 is mounted on the rotating part of the steering.
Use an attached optical rotation sensor or rotation resistance volume
To detect the steering angle α. Distance sensor 41
4, for example, detects and counts the number of rotations of the wheels, or
Various methods such as detecting acceleration and integrating twice are used.
Used. Distance sensor 414 and steering angle sensor 413 drive
It also functions as an operation status detecting means. The situation detecting section 42 detects the situation of the driving operation.
Brake sensor that functions as a driving
421, vehicle speed sensor 422, direction indicator detector 42
3, shift lever sensor 424, side brake (park
(Braking brake) sensor 425. Also the situation
The detection unit 42 detects a device operation status, and detects a device operation status.
Air conditioner detector 427 functioning as detection means, wiper
A detector 428 and an audio detector 429 are provided. The brake sensor 421 is a foot brake
Detects whether the user is stepping on or not. Vehicle speed sensor 422
Detects the vehicle speed. The turn signal detector 423 operates
Whether the person is operating the turn signal, and the turn signal
Detects whether is blinking. Shift lever sensor 424
Indicates whether the driver is operating the shift lever, and
Detect the position of the bus. Side brake (parking brake
G) The sensor 425 indicates that the driver is operating the side brake.
Whether or not and the state of the handbrake (on or off)
To detect. The air conditioner detector 427 indicates that the driver
It is detected whether or not various switches are being operated. Wiper inspection
The output unit 428 detects whether the driver is operating the wiper.
You. The audio detector 429 allows the driver to use a radio, a CD,
Operate audio equipment such as players and cassette players.
Whether or not audio is being output and whether audio from the audio device is being output
Detect whether or not. The status detection unit 42 performs other operations on the device.
As a condition detection means, such as headlamps and room lamps
Light detection sensor that detects the operation status of lamps, driving
Belt detection that detects the user's seat belt attaching / detaching operation
It has sensors and other sensors. The input device 22 allows the driver to input driver information.
Or other agents in this embodiment
1 for the driver to respond to all inquiries, etc.
It is also a means. The input device 22 is used for navigation processing.
Location (starting point) and destination at the start of driving
(Arrival point), request information such as traffic congestion information from the information provider
In the specified driving environment (transmission conditions) of the vehicle you want to transmit,
Enter the type (model) of the mobile phone used
It is also for me. The input device 22 includes a touch panel
(Acts as a switch), keyboard, mouse, light
Remote control by pen, joystick, infrared ray, sound
Various devices such as a voice recognition device can be used. Also,
Remote control using infrared rays, etc.
May be provided for receiving various signals. Remote controller
To move the cursor displayed on the screen
In addition to the joystick, menu selection keys (buttons),
Various keys such as a numeric keypad are arranged. Input control unit 16
Detects data corresponding to the contents input by the input device 22.
Delivery agent processing unit 11 and navigation processing unit 1
Supply 0. The input control unit 16 controls the input operation by the driver.
By detecting whether or not it is working, it can be used as device operation status detection means.
Function. The recording medium driving device 23 is used for navigation.
The processing unit 10 and the agent processing unit 11 perform various processes
Computer program for reading from an external storage medium.
The drive used to insert. Record on recording medium
Computer programs include various programs.
RAM and data are included. Here, the recording medium is
A recording medium on which a computer program is recorded.
Physically, floppy disks and hard disks
Magnetic recording media such as disks and magnetic tapes, memory chips,
Semiconductor recording media such as IC cards, CD-ROMs and MOs,
Optically read information such as PD (phase change rewritable optical disk)
Recording media, paper cards, paper tape, etc.
The computer program is recorded on a recording medium or other various methods.
Recording media to be recorded are included. The recording medium driving device 23 stores these various
In addition to reading computer programs from recording media,
When the recording medium is written on a floppy disk or IC card, etc.
If the recording medium is writable,
RAM and storage device of the processing unit 10 and the agent processing unit 11
It is possible to write the data of the device 29 to the recording medium
It is. For example, an IC card has an agent function
Learning content (learning item data, response data) and driver information
Even when driving other vehicles by storing data such as information
Read the data from the IC card storing these
Use to learn according to your past response situations.
Communicate with trained agents
And become possible. This allows agents for each vehicle
Instead, the agent with the learning content unique to each driver
It becomes possible to appear in both. Also for IC card
A scenario data file may be stored.
As a result, each user has its own original
It is possible to be Rio. The communication control unit 24 receives signals from various wireless communication devices.
Mobile phones are to be connected. Communication control
The unit 24 includes a telephone line, a traffic congestion situation,
Information that provides data on traffic information such as traffic regulations
Used for communication with information providers and for karaoke on-board communications.
Communication with an information provider that provides karaoke data
Can be done. In addition, the communication control unit
24, learning data on the agent function,
It is also possible to send and receive scenario data files, etc.
You. In the agent processing unit 11 of the present embodiment, the communication system
The e-mail with the scenario attached is received via the control unit 24.
You can trust. Also,
The client processing unit 11 reads a homepage on the Internet.
It has browser software to display, and the communication control unit 24
Download data including scenarios from the homepage via
It can be downloaded. In addition,
The communication control unit 24 has a built-in wireless communication function such as a mobile phone.
You may make it so. The audio output device 25 is provided with a
Number of speakers and controlled by the voice control unit 14.
Voice, for example, guidance sound for voice route guidance
Voice and normal communication with the driver by the agent
For conversation and for obtaining driver information of this embodiment
The voice and sound of the question are output.
This audio output device 25 also serves as an audio speaker.
May be used. The microphone 26 is connected to the audio control unit 1
4, the voice to be recognized, for example, navigator
Input processing such as destination in
The driver's conversation with the driver (including the driver's response), etc.
It functions as voice input / output means for input / output. This microphone 2
6 has directivity to collect the driver's voice accurately.
Dedicated microphone is used. Note that the audio output device 25 and
By forming a hands-free unit with the microphone 26,
You may be able to talk. Microphone 26 and voice recognition
The unit 142 detects whether the driver is talking with the fellow passenger.
It functions as a conversation detecting means, and in this case, the microphone 26 and the sound
The voice recognition unit 142 detects a situation of the driver.
Functions as a step. The display device 27 includes a navigation processing unit.
Road map and various image information for route guidance by processing 10
Is displayed, or the agent processing unit 11
Various actions (video) of the agent and parts of the screen configuration are displayed
And so on. Also, in the imaging device 28,
The captured images inside and outside the vehicle are also processed by the image processing unit 13.
After it is displayed. The display device 27
Various display devices such as a liquid crystal display device and a CRT are used.
The display device 27 is, for example, a touch panel or the like.
It has the function of the input device 22 as well.
be able to. The image pickup device 28 has a C for picking up an image.
It consists of a camera with a CD (Charge Coupled Device)
In addition to the in-vehicle camera that images the driver,
Cameras on the left, right and left sides are located
ing. Image captured by each camera of the imaging device 28
Is supplied to the image processing unit 13 where processing such as image recognition is performed.
And each recognition result (passenger presence, driver recognition, etc.)
To be reflected in agent communication
Has become. The storage device 29 is connected to the storage device controller 17.
Data and data under the control of the storage controller 17.
Program reading and writing are now performed
ing. The storage device 29 has various types of age according to the present embodiment.
Necessary for realizing event and navigation functions
Agent (including programs)
Data 30 and navigation data 31 are stored
I have. The storage device 29 stores, for example, a floppy disk
Disk, hard disk, CD-ROM, optical disk, magnetic
Various recording media such as air tape, IC card, optical card,
The drive is used. In this case, for example, the learning term
Eye data 304, response data 305, driver information 307
With an easy-to-carry IC card or floppy disk
And configure other data on the hard disk
In other words, a plurality of different recording media and driving devices are used.
To use those storage media as drive devices
May be. The agent data 30 includes an agent
Program 301, scenario data file 302,
Voice data 303, learning item data 304, voice data
Response data 305 composed of
Image data 306 for displaying an image of the behavior, driver information
Information 307, each necessary for processing by other agents
The seed data is stored. The agent program 301 includes an agent
Agent processing program for realizing the agent function
Ram is stored. For example, the start condition of each scenario
Condition judgment processing for judging whether or not
If it is determined that the start condition is satisfied,
Starts the scenario corresponding to the
Scenario execution process for causing the agent to act
The data received by the communication control unit 24 is scenario data.
Data determination processing for determining whether or not
The received data contains scenario data
Scenario data file 3
02 and other various processing to be stored in
A processing program to be executed is stored. Learning item data 304 and response data 30
5 indicates that the agent responds to the driver's driving operation and response
This is data that stores the result of learning. Therefore, the learning term
The eye data 304 and the response data 305 are provided for each driver.
Data is stored and updated (learned)
You. The learning item data 304 includes, for example, an ignition
The number of times the fuel was turned on, the number of times the fuel was turned on each day, and the fuel
Agent's learning target such as data of fuel remaining amount at the time of oil
Is stored. The learning item data 304
Depending on the content of the study, for example, ignition
The greeting content when the agent appears changes according to the number of calls
Or the fuel level is below the average of the last five fuel levels
If so, the agent makes a refueling proposal. Response day
The user response to the agent's action is
An answer history is stored for each predetermined scenario. Response data
In 305, the response date and time and the response content are provided for each response item.
Stored for a fixed number of times. The response was ignored,
Rejected, accepted (accepted) cases, speech recognition
And from the input result of the input device 22 and stored. The scenario data file 302 contains
Agent that defines the behavior of the agent in
Rio data is stored. Figure 4 shows the scenario data
Conceptually the data structure and data contents of the data file 302
It is a representation. The scenario data file 302 is
Multiple scenario data that defines each scene are collected
One file is composed. Scenario data file
File 302 includes a file header and a scenario management table.
File, automatic start condition table, manual start possible scenario
View, each scenario data 1 to n, and additional resource data
It is composed of The file header is added to the scenario file.
Information about the file. Sina
Rio management table is included in the scenario file.
Data for managing scenario data, such as
Data such as priority when executing scenario data
Is stored. The automatic start condition table contains a scenario file.
To automatically start the scenario data recorded in the
Case data is defined and stored for each scenario data.
You. As an automatic start condition, for example, predetermined from a specific point A
Specific scenarios to run when you reach a distance point
Specific point and distance data, and agent at startup
As a condition for running the scenario in which he greets
Various self-services such as Nishon On
The dynamic start condition is stored. Also prohibit automatic startup
As an automatic start prohibition condition, for example, (A) manual start
Priority, (B) Do not automatically start while executing another scenario
(C) For example, China that has been executed within 30 minutes
Rio doesn't start, (D) starts when listening to music
No, (E) turning right or left on the curve (steering operation
(F) During rapid deceleration or rapid acceleration
Does not start, (G) starts when talking with a passenger
No, (H) Navigation device, audio, air
Control device, shift lever, side brake, wiper,
It does not start during operation of various devices such as turn indicators.
Does not start while audio is in use (listening to music or broadcast
Conditions for not disturbing: Audio must not be ON
And) (J) the traveling route by the navigation processing unit 10
Auto start prohibition conditions such as not starting during the guidance guidance of
Is also stored. However, these automatic start prohibition
Emergency conditions (fire departments, etc.)
Emergency start-up scenario, etc.)
The priorities are defined in the scenario management table. this
The automatic start prohibition condition is applied commonly to each scenario
There are conditions and conditions that apply to individual scenarios. Agent for collecting driver information
As a condition to launch a question scenario when a question is asked
Can determine that the driver's load state is a low load state
The following conditions and other conditions are specified as conditions for
Have been. (A) A scenario that asks a question within one hour has not been executed.
(Conditions to avoid frequent questions) (b) 15 minutes or more have passed since ignition was turned on
(Not immediately after starting to drive) (c) No conversation in the car (due to sound collection from microphone 26)
(D) Straight road (navigation data 31 and current position)
), There is no speed change for a predetermined time. (E) Waiting for traffic light (navigation data 3
1, Judgment based on current position and vehicle speed) These question activation conditions are essential conditions for activation
It is decided whether it is necessary to satisfy one or the other.
I have. For example, if the conditions (a) to (e) are limited,
(A) to (c) are all satisfied, and (d) or (e) is satisfied
When the question scenario start condition is met,
Rio is activated. Even in this case,
In case (A) ~, the question scenario starts
It is forbidden. In addition, automatic activation conditions including question activation conditions
The startup determination routine based on
Processing or an event specified in advance
It is supposed to be handled in case. Of the above conditions, condition (E),
Drive operation according to (F), (H), (J), (d) and (e)
The load on the crop is determined, and the conditions (C), (D),
(G), (I), (J), (a), (b), (c),
The degree of annoyance felt by the driver is determined more. The list of scenarios that can be manually started is described in the scenario file.
Manual start in the scenario data recorded in the file
List data of scenarios that can be activated is stored
I have. Additional resource data is used to expand storage
Audio data and image data to be added to the scenario data
And the like are stored. Each of the scenario data 1 to n is a scenario header.
Data, voice recognition dictionary DB, image data management table,
Table, each scene data 1 to m, and actual image data.
Has been established. Each scenario consists of multiple scenes
You. The scenario header is the header section of the scenario data.
Information about the scenario. voice
The recognition dictionary DB stores the D of the speech recognition dictionary used in the scenario.
At B, speech recognition dictionary data is stored. Image Day
Data management table specifies the images used in the scenario
Data is stored. Agent image
The image stored in the image data 306 and specific to the scenario is
It is stored in the actual image data at the end of the scenario data.
The scene data management table contains
Data for managing the scene data
I have. Each of the scene data 1 to m includes a scene header,
Screen configuration data, character motion instruction data, various processes
It consists of instruction data and a scene branch table.
The scene header is the header section of the sea data.
Information about scenes and each data section belonging to scene data.
Stores data for managing the application. Screen configuration
Is a section that defines the screen configuration displayed in the scene.
Each part of the screen configuration displayed on the display device 27
Data is stored. Character movement instruction data
Talks with the movement instructions of the character in the scene.
Instruction data on contents (voice data 303 to be used
Instruction data) is stored. Various processing instruction data
Data is processed by another module (for example, navigation) in the scene.
Data for requesting an instruction is stored. Scene branch
Table contains information on branching from the scene to the next scene.
In the section that is included, events
When the data that defines the next scene when the
Has been delivered. FIG. 5 shows a display device based on scene data.
27 shows an example of the scene screen displayed on the display 27.
You. The scene screen shown in FIG.
To get information about hobbies and preferences (meals)
Screen of a question scenario (scene number 0
x0001). The scene screen is shown in FIG.
Image of the agent (still image, video)
Agent display screen 51,
A balloon screen 52 in which the corresponding characters are displayed, a title screen
Plane 53 and image data unique to each scene (actual image data
Scene display that displays data images and answer selection buttons
It is composed of a screen 54. [0048] The agent processing unit 11 is provided with
When the question scenario is started, first the scene header
The screen configuration data of the scene specified by
Display from the file 302 and display the scene screen on the display device 2
7 is displayed, and a question voice equivalent to the question text is output.
The output from the force device 25 is provided. FIG. 5 (a)
In the question scenario scene screen, the balloon screen 52
"What genre of food do you like?" Is displayed.
Note that a sound corresponding to the display of the balloon screen 52 is output as a sound.
The force is output from the force device 25. Also figure
The scene display screen 54 in the scene screen of FIG.
Are "Japanese food" and "Yo" of the four answer selection buttons 54a.
"Food", "Chinese", and "none in particular" are displayed. The scene for asking a question to the driver includes
According to the driver's answer according to the
Scene is branched and continues. That is,
In the scene screen (scene number 0x0001) in FIG.
When the driver selects the answer selection button "Japanese food", the age
The event processing unit 11 displays a scene screen (b) corresponding to the answer.
Branched and displayed. In this scene screen (b), select
When the displayed “Japanese food” is displayed on the title screen 53,
And the balloon screen shows "I like Japanese food."
It is shown on the scene screen of the Japanese food after branching.
The actual image is read from the scenario data and the scene display
Displayed on surface 54. And to the agent processing unit 11
The driver's answer, for example, "Japanese food"
And stored in the hobby / preference data of the driver information 307.
It has become. In this way, the scenario
Scene image and sound are successively ordered until the last scene.
By displaying and outputting the next, the age in one scenario
The act of the agent will be completed. The audio data 303 in the storage device 29 (FIG. 2)
In accordance with the scene of the selected scenario,
Voice data for the driver to talk with the driver.
Have been. The voice data of the conversation by the agent is
Agent collects driver information according to embodiments
Voice data for asking a question is also stored.
Each data of the audio data 303 is a character of the scene data.
Is specified by the actuator operation instruction data. The image data 306 includes a finger according to a scenario.
Displays the state of the agent used in each specified scene.
Still images and moving images (animations)
Is stored. For example, an agent bows
Videos, nodding videos, videos raising the right hand, etc. are stored.
I have. Each of these still images and videos has an image code.
Have been. Agent stored in image data 306
The appearance of the person is human (male, female)
No need. For example, as a non-human agent,
Animals themselves such as octopus, chicks, dogs, cats, frogs and rats
Of animals and animals that are humanized in design (illustration)
It may be a figure, a robotic appearance, floors
In the appearance of a stand or tree, or the appearance of a specific character
There may be. Also, the age of the agent is constant
There is no need to be an agent learning function
Is the appearance of a child and grows over time
Changes (changes to the appearance of an adult, and the appearance of an elderly person)
May be changed). Image data 306
Contains images of the appearances of these various agents.
From the input device 22 etc. according to the driver's preference.
You can choose. The driver information 307 is information about the driver.
The driver's wishes and tastes are more
Used to match taste and taste. Figure 6
This is a conceptual representation of the configuration of the driver information 307.
As illustrated in FIG. 6, the driver information 307 includes:
Driver ID (identification information), name, age, gender, marriage
(Married or unmarried), luck consisting of children, number and age
Changer basic data and hobby / preference data are stored
It has become. Hobby and taste data include sports, drinking
Large items such as food and travel, and included in the concept of these large items
It consists of detailed items. For example, large item sports
There are favorite soccer teams, favorite baseball teams,
Detailed data such as interest in Ruff is stored
Has become. In this embodiment, each of these driver information
Are prioritized and agents are still ranked
In the driver information that is not stored,
They ask questions to the translators. Driver basic data
Has a higher priority than hobby preference data. The driver information 307 indicates that the vehicle is driven.
If there is more than one driver, it is created for each driver.
You. Then, the driver is identified and the corresponding driver information is used.
Used. The identification of the driver, for example,
At the same time, an agent common to all drivers appears and
Inquire about the transferee and identify from the answer. driver
Inquiries, select the name of the entered driver and other
Button on the display device and output a voice prompting the user to make a selection.
I do. New user registration screen when other is selected
Is displayed. Weight, fixed position of driver's seat (seat)
(Front and back position, backrest angle), rearview mirror angle,
Eye-gaze height, digitized face photo data, voice characteristics
Less driver-specific information such as ID parameter cards
One is stored in the driver information 307, and
The driver may be specified from the information. The navigation data 31 includes a route guidance
Various data files used for
Data file, drawing map data file, intersection data
File, node data file, road data file
Files, search data files, photo data files, etc.
Data is stored. The communication area data file includes a communication control unit.
24 or connected in the car with no connection
The area where the mobile phone can communicate from inside the car is displayed on the display device 27
Or use the area where communication is possible when searching for routes.
Communication area data for each mobile phone type
Have been. The drawing map data file includes the display device 2
7 is stored. this
Drawing map data is a hierarchical map, for example, the top layer
To Japan, Kanto region, Tokyo, Kanda
Diagram data is stored. Map data for each level is
Each has a map code. The intersection data file specifies each intersection.
Intersection number, intersection name, intersection coordinates (latitude and longitude
Degrees), the number of the road where the intersection is the start or end point
Signal, signal presence, etc. are stored as intersection data.
Have been. The node data file contains
Consists of information such as latitude and longitude that specify the coordinates of each point
Node data is stored. That is, this node
The data is data on one point on the road,
A node that connects nodes is called an arc.
By connecting arcs between each
Is expressed. The road data file specifies each road.
Road number, intersection number to be the start point and end point,
No. of road with end point, road thickness, prohibition of entry, etc.
Information, the photo number of the photo data described below, etc.
You. Intersection data file, node data file, road
Intersection data respectively stored in road data files,
Road network data consisting of node data and road data
Used for road search. In the search data file, a route search
Intersection sequence data and node sequence data that constitute the generated route
Data is stored. Intersection column data is the intersection
Photograph of name, intersection number, and characteristic scenery of the intersection
It consists of information such as numbers, turning angles and distances. Also the node
Column data contains the location of the node, such as east longitude and north latitude.
Consists of information. Photo data files include each intersection and
A photograph of a characteristic scenery, etc. that is visible while moving
Digital, analog, or negative corresponding to the true number
It is stored in film format. Next, the agent device configured as described above will be described.
The operation of the device will be described. FIG. 7 shows an agent device.
Flow chart showing the operation of scenario addition processing by
It is. The agent processing unit 11 controls the communication control unit 24
Monitoring whether data has been received via the
11). When the data is received (Step 11; Y),
Scenario incorporation unit 121 includes data in scenario
(Step 12: Data Judgment)
means). That is, the data received from the homepage
If the download data is
It is determined whether or not a scenario file is included. on the other hand,
If the received data is an e-mail,
Judge whether there is an attached file and add a scenario if there is an attached file.
It is determined whether it is attached. Note that the scenario in this embodiment is
The judgment as to whether or not it is based on the extension of the data
But in other ways, e.g. the file header indicates the scenario
For those who store data and make judgments based on this data
It may be a law. When scenario is included in received data
(Step 12; Y), the scenario embedding unit 121
The received scenario is stored in the agent
When stored in the scenario data file 302 of the data 30
In order to delete stored external scenarios,
Save. Then, the scenario embedding unit 121
In order to be able to launch external scenarios that have been added,
A scenario addition request is sent to the scenario execution request
An event is issued (step 14), and the process ends.
The display unit indicates that a new external scenario has been added.
Display on the display 27 and notify the user by audio output
You may do so. FIG. 8 shows the operation of the scenario activation judgment processing.
It is the flowchart which was performed. Agent processing unit 11
The scenario execution request determination unit 112 acquires status information
(Step 21). That is, the scenario execution request determination unit
Reference numeral 112 denotes various data supplied from the situation information processing unit 15.
The current status issued by the status determination unit 111 based on the data
Get events that show status or changes in status. Furthermore, China
In the automatic start condition table of the Rio data file 302.
Whether the scenario activation conditions are met.
In other words, a scenario (quality
(Including question scenarios)
22). Scenario start condition determined here
Is the external information incorporated by the scenario incorporating unit 121.
The starting conditions specified in the scenario are also included. Then, the scenario execution request determination unit 112
When the scenario start condition is satisfied (Step 23;
Y), the scenario execution request determination unit 112 satisfies
Event start request of scenario corresponding to scenario start condition
Is issued to the scenario driver 113 (step
24), and proceed to step 25. On the other hand, any startup
If the conditions are not satisfied (step 23; N),
Step without issuing an event
The process proceeds to step 25. In step 25, all scenarios
Make sure that the start conditions for
If there is no activation condition (; N), return to step 21
If all the start conditions are determined (Y), the process is terminated.
You. Next, in the above agent device,
The user makes a reservation for the inn, and the inn
E-mail with scenario attached to vehicle (agent device)
The following describes an example in which a rule is transmitted. In addition, inns and eating and drinking
There are no particular restrictions on how to book a store, etc.
You can make a reservation from the store's website, facsimile or
Reservations may be made by talking. Also, reservations by e-mail,
Reservations by other methods such as letters are also possible. However,
Attach scenario from the shop (inn) to e-mail
In order to receive and receive this,
The e-mail address of the agent device is also used for the reservation method
You need to contact. Please note that each inn and store
When downloading an external scenario from a web page, etc.
Or, when booking, not on the day of booking
Even when receiving Rio, the external scenario received
The scenario is executed in the same manner according to the start condition. sand
In other words, even if external scenarios are incorporated in advance,
If the startup date is set as a reservation date,
The same as when the scenario was received on the reservation date.
to start. FIG. 9 shows the information that the inn has sent to prospective guests.
The transition of the scene screen according to the scenario is shown for each scene.
Things. This guidance scenario includes multiple scene screens.
The scene screens (a) to (f) are displayed
Depending on the user's selection result for the scene screen (c).
Next scene screen branches to 0x0004 and 0x0006
are doing. Further, in the example of FIG.
On the screen (d), depending on the type of dish selected
The scene screen is displayed so that the
You may make it branch. In the following, according to FIG.
Explain each of Gent's actions. The following scene images
Agent behavior and screen display explained corresponding to the surface
Are stored in the scenario data of the external scenario.
Displayed according to the data, images and instructions given
It is. Also, as an operation of the agent,
Actually, the agent processing unit 11 performs the processing. When the reservation scenario is started, first, the number 0
The scene screen of x0001 is displayed on the display device 27.
In this scene, the agent display screen 51 displays the agent
, Bows and greets by voice. sound
The contents of the greeting by voice are displayed on the balloon screen 52.
Is the same as the sentence. Greeting by voice is on behalf of an inn
Agent will do it for you
Travel by displaying a photographic image of the general on the scene display screen 54
It is expressed that it is a greeting from the museum. Of this landlady
Images are images received and added as part of an external scenario
Is stored as actual image data of the scenario data.
(See FIG. 3). Instructions for agent behavior
According to the instruction stored in the character motion instruction data
U. When the greeting by the agent ends, the next scene
Transition to 0x002. In the next scene 0x0002, the scene display
An image of the open-air bath is displayed on the screen 54. And this
The agent points to the picture of the open-air bath, and the specialty of the inn
(This is a sale)
A description will be given of the display of the balloon screen 52. Agent story
Is completed, transition to the next scene 0x0003 is made
Display image 54 of the image of the meal (image of kaiseki cuisine)
And the agent explains the dish and
Ask whether or not. Note that the scene display screen 54 shows
According to the rules of the scenario, in addition to the image of kaiseki cuisine,
A button 54a for user response is displayed. To this question
If the user selects "Yes" as the answer to
Branch to scene 0x0004 and select “No”
In this case, the process branches to scene 0x0006. In scene 0x0004, other than kaiseki cuisine
A selectable list is displayed on the scene display screen 54. D
Agent points to the list on the scene display screen 54.
And ask which dish is better. And the user
If any one is selected, transition to scene 0x0005
You. In scene 0x0005, a change from kaiseki cuisine
A list of the number of people to be changed is displayed on the scene display screen 54,
Agents point to this list and ask
I do. When the user selects one, the scene
Transition to 0x0006. In scene 0x0006, a scene display screen
The inn's exterior photo image is displayed at 54, and the agent
Bow and say hello. And the agent
In the case of the guidance scenario shown in FIG.
Executing the answer result regarding the meal via the communication control unit 24
To the third party (inn) who sent the external scenario inside
You. Thus, if you want to get information about the user
In this case, the creator of the external scenario obtains the information
Questions in the scenario, and answer
Create a scenario to send by child mail. In addition,
If you need to submit a response, send the author's email address
In the scenario data. The last scene (Fig. 9
Now the story of the agent in scene 0x0006) is over
Then, the scenario ends. As described above, the agent processing unit 11
Is the last scene image and audio specified in the scenario.
Display and output sequentially up to the scene. The started scenario is over
Upon completion, the agent processing unit 11
Determine the start condition for execution. According to the embodiment described above,
The action of the event is specified in the scenario data,
Scenario consisting of multiple consecutive scenes with nario data
Has been standardized by the
Users and third parties can create and incorporate their own scenarios.
Can be. In this way, the differential stored in the
Users can add them to the default scenario.
Search for additional scenarios on the Internet etc.
And create your own scenarios.
The device can be used more comfortably. Also travel
Service providers such as museums, hotels, department stores, etc.
Promote the service and appeal to users
Create and provide scenarios that provide strategic information
Thus, customers can be secured in a friendly manner. For example, sir
A service provider can provide agents with their own services and products.
To set a store as a navigation destination
Create a scenario as follows. Select store as destination
By doing so, you can surely attract customers to the store
Wear. In addition, the service provider
Ask questions and collect the answers via communication
So you can get effective marketing information
You. Next, the user or a third party creates a unique scenario.
Configuration and operation of scenario creation device 2 to be created
explain. FIG. 10 shows the configuration of a scenario creation device.
Things. The scenario creation device 2 includes a control unit 210,
Force device 220, output device 230, communication control device 240,
Storage device 250, storage medium drive device 260, input / output IF
(Interface) 270. Each of these
The device is connected to a bus line 280 such as a data bus and a control bus.
Connected. The control unit 210 controls the entire scenario creation device 2
And to control. The control unit 210 includes the CPU 21
1. ROM (Read Only Memory) 21
2. RAM (Random Access Memory)
y) 213 and the like. The ROM 212 stores various calculations by the CPU 211.
Programs, data and parameters for controlling
This is a read-only memory in which data and the like are stored. R
The AM 213 is provided to the CPU 211 as a working memory.
This is the random access memory used. CPU 21
1 writes a program, data, etc. in the RAM 213
And can be erased. In this embodiment
In the RAM 213, the CPU 211 stores a scenario editor.
(Scenario editing program) to create a scenario,
An area for editing, storing, etc. can be secured.
You. The input device 220 is connected to the scenario creating device 2.
A device for inputting letters, numbers and other information
Yes, for example, composed of a keyboard and mouse
I have. The keyboard is used to enter kana and English characters
Key, numeric keypad for entering numbers, and various function keys.
Keys, cursor keys and other keys
I have. The keyboard is, for example, a user
Enter your login ID and password to log in to 2.
Or use speech synthesis or speech recognition when creating scenarios.
Used when inputting an elephant sentence. Mouse
It is a pointing device. GUI (Graphi
cal User Interface)
When operating the scenario creation device 2, it is displayed on the display device.
Click the clicked button or icon with the mouse.
Thus, predetermined information can be input. The output device 230 is, for example, a display device or a printing device.
Device. The display device is, for example, a CRT (Cath
mode Ray Tube) display, liquid crystal display
Play, plasma display, etc. are used. display
The device has a main screen for creating scenarios,
Various screens for selecting the screen configuration in the scene
The screen is displayed. The information selected on each screen
Information and entered information are displayed. mark
The printing device checks the entire flow of the generated scenario, for example.
And print the status of each scene
Device for printing. The printing device, for example,
Jet printer, laser printer, thermal transfer pudding
Printers such as printers and dot printers
You. The communication control device 240 communicates with the outside
A device for transmitting and receiving data and programs,
Modems, terminal adapters and other devices are used
You. The communication control device 240 is, for example, the Internet or L
AN (Local Area Network)
It is configured to be connectable. The communication control device 240
Other terminals or services connected to these networks
From the server device, etc.
Sending Rio Data and Scenarios Created by Third Parties
Receiving (downloading) data
Data required to create data
It has become. The communication control device 240 is a CPU 211
Is controlled by, for example, a predetermined protocol such as TCP / IP.
Communication with these terminal devices and server devices according to the protocol
Send and receive signals and data. The storage device 250 is a readable and writable storage medium.
Read programs and data from the body and its storage medium.
It is constituted by a driving device for writing. The
Hard disks are mainly used as storage media.
Besides, for example, magneto-optical disk, magnetic disk, semiconductor
Other readable and writable storage media, such as
It is also possible. The storage device 250 has
E editing program 251, scenario editing data 252,
And other program data 253 are stored.
You. As other programs, for example, a communication control device
240 and the network with the scenario creation device 2
Communication that maintains communication with connected terminal devices and server devices
Communication programs and scenarios such as memory management and I / O management
E is the basic software for operating the creation device 2.
OS (Operating System)
Stored in the storage device 250. FIG. 11 shows a scenario editing program 251.
And the contents and configuration of the scenario editing data 252
It is. As shown in FIG.
Gram 251 is composed of scenario editor 251a and DB
Collection tool (program) 251c and scenario compilation
251b. Scenario editing data 252
Are the common definition DB 252a and the local definition DB 252
b, scenario data 252c, and execution format data 25
2d. The scenario editor 251a
Application program to create Rio data
You. DB editing tool (program) 251c is common
Editing program for updating data stored in the
Program to directly change data, communication or
The data stored in the storage medium by the storage medium driving device 260
Data is read and updated, or the communication control unit 240
Via the Internet. Scenario con
The piler 251b is created by the scenario editor 251a.
Scenario that can be used on the agent device.
Software to convert to scenario data
Functions as a step. The common definition DB 252a stores each scenario.
(E) Data common to the creation devices is stored. Common definition D
B252a includes automatic start item data and scene
Data such as branch items and additional conditions are stored. local
Definition DB 252b indicates that the user is creating scenario data
The contents defined in are stored. For example, created by the user
Branch conditions, and the “good
Stores voice recognition data such as "Y", "Komaru", "No"
Is done. The scenario data 252c is a scenario editor
The data created in 251a is stored. Executable format
Data 252d is converted by the scenario compiler 251b.
The stored scenario data in the executable format is stored. FIG. 12 shows a scenario start condition (scenario).
Part of the contents of the start condition element that can be selected as the start condition)
Is an automatic start item table conceptually representing the above. Automatic start
The moving item table is stored in the common definition DB 252a.
I have. As shown in this auto-start item table,
Items that can be detected, recognized, and confirmed by
It is stored in the definition DB 252a. Scenario editor 2
Automatic start item starts when creating a scenario in 51a
Read from the common definition DB 252a as a condition element
(Start condition element acquisition means) is displayed in a list. This resource
One or more auto-start items (start
Scenario element) to start the scenario autonomously
Conditions (scenario start conditions) are created
(Start condition creation means). In the remarks column of the auto-start item, select
Items that can be referred to are listed in
Detailed conditions can be selected.
As shown in the list of 13 selectable items,
Are specified in the auto-start item number.
Have been. In this embodiment, the key of the automatic start item
Table is stored in the common definition DB 252a.
Via communication means such as Internet and communication control device 240
And obtain by downloading from external DB
You may make it. This acquisition method is common definition DB
252a is possible for all data stored
is there. FIG. 14 shows a branch from a scene to the next scene.
Branch that stores branch items (transition conditions) for
It is an item table. Scene branch item table is common
It is stored in the definition DB 252a. Scene branch item
Each item is read when creating the deployment configuration for each scene.
Is displayed in a list. Minutes from the displayed list
One or more branch conditions are selected as branch conditions, and
The branch condition not stored in the input device 220
, A scene development configuration is created. FIG. 15 sets the branch condition in more detail.
7 shows an additional condition table in the case. Eger
The client device uses the data recording unit 118 to copy scenarios.
Branches into several scenes, each with a different scene.
How to end when Nario ends as end ID
It is to be recorded. The data recording unit 118
Is the response of the user in the scenario, the total number of uses, etc.
Can be recorded as learning data.
ing. The additional condition table shown in FIG.
Recorded end ID, total number of uses, and other various
The item is defined as a more detailed branch item,
Can also be selected as branch conditions. The common definition DB 252a includes, in addition,
Use for speech recognition data and speech synthesis used for recognition
Both voice synthesis data are stored. Also see
Displayed on the agent display screen 51 of the application screen (see FIG. 5)
For selecting the display and behavior of the agent
Agent image data (the image of the agent
And stored on the scene display screen 54.
Screen configuration data for selecting a screen configuration is also stored.
Furthermore, items that can be selected as processing contents in the scene
Eyes, for example, actions that agents can handle,
Audio device on / off, channel selection, air conditioner
Device on / off and temperature setting, navigation processing unit 1
Set destination to supply to 0, turn on / off headlights
And other processing content item data are stored in the common definition DB 252a.
Is stored. In the present embodiment, these
Speech recognition data, speech synthesis data, agent image
Image data, screen configuration data, and process content item data
By reading from the communication definition DB 252a,
, But each of these data
At least one, communication means such as the Internet and communication
Download from external DB via control device 240
By doing so, it may be obtained. The storage medium drive 260 is a detachable storage
Drive for driving the storage medium 7 to read and write data
Device. As the removable storage medium 7, for example,
Magneto-optical disk, magnetic disk, magnetic tape, semiconductor memory
Moly, paper tape with punched data, CD-ROM, etc.
There is. In this embodiment, the scenario creation device
Scenario data collected is mainly written in semiconductor memory.
Is to be included. Scenario creation device 2
The storage medium drive device 260 drives the storage medium 7.
From the storage medium 7 storing the scenario data,
Acquire a scenario or create a scenario
Data from the storage medium drive to the storage medium 7
Can be. Input / output IF (interface) 270
Are, for example, serial interfaces and other standards
Interface. I / O IF
(Interface) 270
Scenario creation by connecting compatible external devices
The function of the device 2 can be extended. Such outside
For example, storage devices such as a hard disk,
There are speakers and microphones. Next, a scenario constructed as described above is created.
Screen transition for each operation of scenario creation by device
It will be described according to. FIG. 16 shows the scenario editor 251.
a main window displayed on the display device when
It shows the configuration of the dough. As shown in FIG.
As shown in the figure, the main window is
Image displayed on the display device 27 of the agent device 1
Screen (see FIG. 5)),
A setting screen 303 on which setting items for performing seed setting are displayed;
The scene development configuration (branch state) indicates the scene that represents each scene.
Scenes displayed by the hierarchical structure of the icon 307
An open screen 305 is configured. When the scenario editor is started, the main window
The start point is displayed on the scene development screen 305 of window.
308 is displayed. This start point 308
Select to edit the scenario properties. Choice
For example, the position of the point
Double-click the mouse at the
Click to select. Screen configuration change button 309
Click to select the screen configuration you want to display.
You. Double-click the agent display screen 311 with the mouse.
Click to edit the behavior of the agent (character)
The screen is displayed. Click the dialogue edit button 313
Then, the instruction of the character's dialogue can be edited. Button par
Double background / speech recognition dictionary setting 315
Click to edit the speech recognition dictionary to use.
Answer selection button 315a (54a) on scene screen 301
Word to recognize when you select the one displayed with the mark
Is displayed on the scene screen, and the dictionary list display section 31 is displayed.
When 5b is selected, the target for speech recognition is
Word names are not displayed. In the setting 317 of the maximum display time,
Set the maximum amount of time that the button can be displayed. External equipment, etc.
In the control instruction edit 319, external devices and the like (including navigation)
Set the control instruction of Next scene creation button 321
Click to edit the scenario flow (next sheet
Create a new application). With this scene creation button 321
By branching the flow of o, the development configuration of each scene
Is done. For example, when icon 1 of the scene is selected
Create the next scene in (active display state)
Click the button 321 to select the scene
The icon is displayed on the lower layer side and clicks multiple times
Scenes 2, 3, ... following scene 1 are created by branching
You. Click the end position creation button 323 for the scenario.
Click to create a scenario end position. make
At the end position of each scenario, the end number is the end ID.
It is made to be allocated. Data conversion
Click the button 325 to navigate the created scenario
To an executable format for use in
You can bart. FIG. 17 shows editing of scenario properties.
It shows the flow of screen operation. In (a) of FIG.
In the main window shown in FIG.
Double-click the start point 308 displayed in 5
Click to edit the scenario properties shown in (b)
The window is displayed on top of the main window
You. This scenario property edit window
, Scenario name input, Kana name input, icon
Selection, priority setting, expiration date
The upper limit of the time lag from the start to the actual start)
Settings, scenario start conditions (separate window),
Can input creator name and comment. On this screen
The scenario name input and kana name input that are input are executable
This becomes the scenario header in the scenario data of the expression. Shi
In the edit window of Nario properties,
Click on the button 402 to reflect the edited content to the data
To return to the main window. Meanwhile, Cancel button
If you click 403, it will not be reflected in the data,
Return to the window. Click the start condition setting button 401
Click to start the scenario start condition (start condition)
The edit screen window (Fig. 17 (c)) is displayed
It is. In the main edit window of the scenario start condition,
Open the folder displayed on the automatic start condition list screen.
By doing so, the automatic start items shown in FIG.
Listed by place. Auto-start items from this list
By selecting, the start condition (automatic start condition) is selected.
The selected item is displayed on the right. Of the scenario start condition
Click the Finish button in the main editing window to
Finish editing the Nario launch conditions and edit the scenario properties
Return to the collection window (b). FIG. 18 shows the main editing of the scenario start condition.
Screen operation to edit scenario start condition from window
It is a representation of the flow. Main scenario start condition
In the edit window (a), the user manually edits the scenario.
It can be set to start. Also,
The conditions under which the system automatically starts the scenario are displayed.
You. Click the new button 405 to start automatically
The judgment item selection window (b) is displayed and a new start
You can edit conditions. In addition, the automatic start condition list screen
Select the displayed automatic start condition and click the edit button.
Click the button to set additional conditions for the selected condition.
Automatic startup judgment item selection window for addition (b)
Is displayed. An automatic start judgment item selection window (FIG. 18)
In (b)), the judgment condition item to be set (category
Condition) to start automatically when you select (3) and click Enter.
Proceed to the range selection window (c) and click Cancel.
Click to edit the scenario start condition main edit window
Return to (a). In this automatic start judgment item selection window,
The items that can be displayed and selected are the automatic startup items shown in FIG.
Eyes. Selection window for condition range to be automatically activated
In FIG. 18 (c), the selection was made in the previous window (b).
Of the window according to the judgment condition items (categories)
Changes. Select the condition range that can be started automatically from the list.
Select (or enter in numbers) and click the Add button
Is set. Click the OK button to set the status
The main edit window of the scenario start condition
Return to (a) and click on Cancel to automatically launch
It returns to the cut item selection window (b). FIG. 19 is a diagram showing an automatic start in the case of a numerical value input.
This shows a configuration example of the condition range selection window.
You. In the automatic start judgment item selection window of FIG.
If the selected condition item is a numeric input item,
The numerical value input screen of FIG. 19 is displayed. This date specification field 4
11 Select the date and click the Add button to select
The selected date is displayed in the selection display column 412,
Click to select the automatic start judgment item in FIG.
Return to the window. FIG. 20 shows a table displayed on the agent display screen 51.
Shows the flow of screen operation to select the screen configuration you want to show
It is. The main window shown in FIG.
C The scene eye displayed on the scene development screen 305
Select and activate the computer 307
The scene screen 301 corresponding to the scene icon
It is. Then, a button for changing the screen configuration of the setting screen 303 is displayed.
Click 309 to open the screen configuration selection window
(B) is displayed. Selection window for this screen configuration
In (b), display is possible on the scene display screen 54 (see FIG. 5).
A list of available screen configurations is displayed. Group that displays nothing
This screen, two selection buttons with two selection buttons displayed
Screen, button selection screen with multiple selection buttons displayed, example
For example, a list of multiple items such as prefecture names
List selection screen, image display screen for displaying image data, etc.
Various selectable screens are displayed. Each image displayed in a list
Select one screen configuration from the screen configurations and click the OK button.
Click to confirm if you want to change the screen configuration
If you want to change after confirming with, change to the screen configuration and change
Return to the window (a). Return to main window
Changes the scene screen 301 to the newly selected screen configuration.
Displayed. FIG. 21 shows a character action (agent
Action) It shows the flow of screen operation to edit instructions
is there. Main window showing the editing status of the scene screen
In the dough (FIG. 21A), the agent display screen
Double-click 311 with the mouse to move the character
Direct editing window (b) or character movement
The status instruction edit window (c) is displayed. Motion finger
Is indicated by direct instructions of character movement
(B) is displayed and the finger is
If it indicates, (c) is displayed. Direct instruction of character movement in FIG. 21 (b)
In the edit window, motion (motion), facial expression (emotion)
Elements of expression), hairstyle (elements of growth expression), clothing (TPO table)
Current element), scale (character display area
If it is a frame, the camera angle element), mouth park
Range (the range to assign dialogue), operation instruction tie
Select the mining and background. In this window
Clicking the OK button will cause the edited content to
It is projected and returns to the main window (a). Cancelbo
Clicking the button will not be reflected in the data.
Return to window (a). Also, click the expression content designation button.
Tick, give instructions in the state you want the character to express
The state instruction edit window (c) is switched. The character movement state instruction shown in FIG.
In the edit window, the state represented by the character
Work elements, mental state elements, TPO expression elements,
Long representation element, scale element (character display area
If it is a frame of Mera, the element of the camera angle),
Select the operation instruction timing and background. This Wi
Window, click the OK button to save the edited data.
And the display returns to the main window (a). Can
Clicking the cell button will not reflect the data
Return to in-window (a). Click the direct designation button
If you click on the button,
The screen is switched to the instruction editing window (b). FIG. 22 shows the character (agent).
This shows the flow of screen operations for editing dialogue instructions.
You. Main window showing the editing status of the scene screen
C (FIG. 22 (a)), the dialogue of the setting screen 303
Click on the collection button 313 to edit the dialogue window
1 (b) is displayed. Edit window 1 for this line
In (b), a tab screen of “PCM” is displayed and PCM is displayed.
(Recorded and prepared voice data)
You. Click the "TSS" tab in the dialog edit window 1 (b)
When selected, the dialogue editing window 2 (c) is displayed
Thus, a TTS (synthesized voice) instruction can be given. Place of PCM
Enter the joint words in full-width hiragana (the above input box)
Search for applicable lines (click the search button)
: Two types of search methods are available: prefix match and exact match)
From the search results (there is a search result list display field).
Select a dialogue line to be spoken by the selected character (click the Add button).
Click to set). In case of TTS
Lyric name (speech balloon display data) and reading (synthesized speech)
To make the character speak
Set dialog (Click the Add button to set
). Dialogue editing window 1 (b), 2
In (c), click the OK button to edit
Is reflected as data on the balloon screen 430
Return to window (a) and click Cancel button
Then, it is not reflected in the data, and the main window (a)
Return. FIG. 23 is a screen operation for editing a speech recognition dictionary.
It shows the flow of the work. This operation is performed from the device side.
To recognize the answer to a question that requires an answer
Is the person who sets up the voice dictionary. Editing status of scene screen
In the main window (FIG. 23 (a))
The answer selection displayed according to the selected screen configuration.
Select button 315a (normal list box depending on the screen configuration)
Double-click on the sound
The voice recognition dictionary selection window (b) is displayed. Also,
Dictionary display unit 315b for recognition in the background
Double-click to select speech recognition dictionary selection window
(B) is displayed. A speech recognition dictionary selection window (FIG. 23)
In (b)), the dictionary name in the list display of dictionary candidates
Double-clicking will use the speech recognition dictionary
Then, it is displayed in the list selected as a general dictionary. Decision
Click the button to apply the edits to the data
Return to the main window (a) and click the Cancel button.
Clicking on the main window will not be reflected in the data
Return to (a). When you click the new button,
Speech recognition dictionary creation window to create a new recognition dictionary
(FIG. 23C) is displayed. A speech recognition dictionary creation window (FIG. 23)
In (c)), enter the name of the dictionary and click the add dictionary button.
Click to create a new voice recognition dictionary with that name
Window (d) for registering words in the voice recognition dictionary is displayed
Is done. OK button in the voice recognition dictionary creation window (c)
Click the button to finish creating the voice recognition dictionary and
The process returns to the recognition dictionary selection window (b). A window for registering words in the speech recognition dictionary
In FIG. 23 (d), the word to be registered is
Fill in the ligana field and click the OK button. Then first name
Select or enter a new name (the name you want to display)
Select the PCM audio for the callback (select None)
If a callback is made, the TTS is used).
After entering these three items, click the register button.
Then, the data is registered and added to the registered word list on the right.
When you have finished registering the words you want to register, click the back button.
Click to return to the voice recognition dictionary creation window (c)
You. FIG. 24 shows a screen for editing the flow of a scenario.
It shows the flow of operation. In the main window
Scene icon 307 (in the figure, the icon
Select 1) to make it active and create a new scene
When the button 321 is clicked, a branch event selection window is displayed.
The window (b) is displayed. Select this branch event
In the window (b), a new scene is created.
Select the condition to branch from the branch event list, and click the OK button.
Click the button to determine the condition (branch event)
To return to the main screen (a). Main screen after returning
In (c), a new scene is displayed on the scene development screen 305.
(In the figure, a scene icon (4) is created.
The scene icon created in
Is written as NEW in a red square to distinguish it from
You. It can be selected in the branch event selection window
The branch event is displayed in FIG. FIG. 25 shows a screen for editing the flow of a scenario.
This shows an extended version of the operation flow. Main win
In the window (a), click the scene creation button 321.
Click to display the branch event selection window (b).
It is. In the selection window (b) of this branch event
Even once selected branch event, more specific additional
If the condition is satisfied, the branch can be changed. For example
Select the word "I'm fine" in the voice recognition dictionary in scene 1
Branch condition is already defined when branching to scene 2
Have been. In addition, as an additional condition,
Branch to another scene if it ends in a command
You can also Dictionary of branch event list
Select the word "I'm fine" and select an additional condition type
Then, the items of the additional condition that can be selected in the selected type
Select the item whose list is displayed in the additional condition list, and click the OK button.
Click the button to select the condition (branch event + extension
), And returns to the main screen (a). At this time Sina
A new scene is created in the Rio diagram (Main screen
Fifth square marked NEW in a red square in (c)
Is a scene newly created by this operation). Can be selected
Additional condition type and additional condition items belonging to that type are as follows:
This is displayed in FIG. This allows, for example, voice recognition
When the word "I'm fine" is selected in the dictionary,
If the last scenario ended the scenario at the end position of ID 2
Branch to scene 5 otherwise branch to scene 2
Can be created. FIG. 26 shows the editing of the end position of the scenario.
It shows the flow of screen operation. Main window
In (a), a scenario end position creation button 323 is displayed.
Click on to display the end ID designation window (b).
Is displayed. In the window (b) for specifying this end ID
Here, the ID number of the end position mark is specified. Through
Normally, it is assigned automatically, but the
If you uncheck the check box, the editor operator
You can assign it yourself. Click OK button
Then the ID number is determined and the branch event selection window
(C) is displayed. In the branch event selection window (c),
Finish the scenario in the same way as when creating a new scene
Set the branch condition for The same applies to setting additional conditions.
Wear. Click OK button in this window
In that condition (branch event + additional condition if set)
Determined and returns to main window (d). At this time Sina
A new scenario end position 433 is created in the Rio diagram
I have. FIG. 27 shows the navigation of the created scenario.
To an executable format that can be used
It shows a flow of screen operation for performing the operation. Maine
In the window (a), the data conversion button 3
Click 25 to open the data converter window
(B) is displayed. The window of this data converter
C) In (b), a file for outputting the converted data
Specify the file name and select the scenario to be converted at the same time
(Simultaneously check the scenarios checked in the scenario list)
Convert) and click the compile button to save the data.
Start data conversion. Displays the data conversion status in the result display
Show. Click the Finish button to end data conversion
Then, the process returns to the main window (a). As described above, the embodiment of the agent device of the present invention is described.
However, the present invention is limited to the described embodiment.
It is not specified and is within the scope described in each claim.
It is possible to make various modifications. For example, explain
In the embodiment, the scenario is downloaded from the homepage.
When downloading, when the user performs download processing
Has been described, but the predetermined start conditions (date and time and location)
When the conditions are met, the scenario is automatically
It is also possible to make a scenario to acquire. New acquired
A system that guides services such as inns based on a scenario.
Nario is added and executed. As a modification of this embodiment, the operation
Control device, autonomous control device, agent device, scenario
Data creation device, scenario data creation program,
For example, meeting with the passenger of the vehicle
Autonomous control device, etc. that talks and operates equipment autonomously
May be configured as follows. In this case,
The user can easily create and add the contents of the legal correspondence
To provide autonomous control devices and agent devices that can operate
An autonomous control device such as
For creating and editing scenario data to be used on
Nario data creation device, scenario data creation program
The purpose is to provide B. (A) Where an interactive interface is provided
In the operation control device for executing a predetermined operation, the interactive type
The interface requests a human response from the controller
A first step of asking a question to ask
The contents of the human response by the
A second step of initiating a line.
Make it possible to externally input data that specifies
Input device and data input by the input device.
The execution means for executing at least the first step
An operation control device comprising: a step; (B) Judge the surrounding situation and condition and respond to the judgment result.
Autonomous control device that performs the same processing,
Is a scene, and is composed of one or a plurality of continuous scenes.
Scenarios that have been created, and
Scenario description that stores scenario data with start conditions
Storage means and whether the conditions for starting the scenario have been met.
A condition judging means for judging, and a start condition by the condition judging means.
If it is determined that the condition is satisfied, the system corresponding to the start condition
Scenario execution means for sequentially developing each scene of Nario,
Scenario acquisition means for acquiring scenario data from outside
And storing the acquired scenario data in the scenario storage device.
And a scenario adding means for storing in a column.
Autonomous control device. (C) Determine the condition of the vehicle interior and the vehicle, and
A function that autonomously performs the corresponding processing, the appearance of the agent
Agent device that executes in conjunction with the movement and voice of
Then, the image of the agent with a predetermined appearance is
Display means to be displayed in the device and processing performed by the device
Content and / or at least one of agent's image and sound
A scene composed of one scene, one or a plurality of continuous
Scenario composed of different scenes and deployment of the scenario
Scenario data having a start condition for starting
Scenario storage means that meets the scenario start condition.
Condition determining means for determining whether or not the condition has been determined;
If it is determined that the start condition is satisfied at the stage,
Scenario that sequentially develops each scene of the scenario corresponding to
Execution means and scenario to acquire scenario data from outside
E acquiring means, and the acquired scenario data
Scenario storing means stored in the Rio storage means.
An agent device characterized in that: (D) The scenario consists of a proposal by the agent, quality
Start with a scene that contains active actions such as questions, greetings, etc.
The agent device according to (c), wherein (E) Scenario data acquired by the scenario acquisition means
If the executable is not an executable,
Conversion means for converting to scenario data,
Adding means for converting the scenario data converted into an executable format into the executable data.
(D) is stored in the nario storage means.
Agent device described above. (F) One process autonomously performed by the device is defined as a scene.
Or, a scenario composed of multiple consecutive scenes
Autonomous type that starts when the start condition of the scenario is satisfied
Scenario data for creating scenario data for control devices
Creation device, selectable as scenario start condition
Start condition element acquisition means for acquiring multiple start condition elements
And an autonomous control device that can be selected as a scene component
Scene element acquisition means for acquiring the processing content of
To create a scenario start condition from the start condition elements
From the starting condition creation means and the acquired scene component,
A scene creating means for creating the processing content of each scene;
To move from one scene to the next
The transition conditions and the destination scene corresponding to each transition condition are specified.
Create deployment configuration for each scene from the migration destination data
And a scene development configuration creating unit that performs
Scenario data creation device. (G) The details of the processing that the device performs autonomously and the agent
A scene composed of at least one of an image and sound
A scene is composed of one or multiple consecutive scenes
Scenario when the start condition of the scenario is satisfied
Create scenario data for the agent device to be started
A scenario data creation device,
To get multiple start condition elements that can be selected
Selectable as condition element acquisition means and scene elements
Agent processing, agent image and audio data
Scene element acquisition means for acquiring at least one of data
And the start condition of the scenario from the obtained start condition element
Starting condition creating means for creating a scene structure,
From the components, the processing contents by the agent, the agent
A scene composed of at least one of the image of the
A scene creating means for creating a surface as one scene;
One or more transitions to transition from one scene to the next
Identify the destination scene according to the line condition and each transition condition
Create a deployment configuration for each scene from the migration destination data
And a scene development configuration creating means.
Scenario data creation device. (H) The scenario is a proposal by an agent, quality
Start with a scene that contains active actions such as questions, greetings, etc.
The scenario data described in (g).
apparatus. (I) The created start condition, scenario, and scene
From the expanded configuration, the executable format that can be used on the agent device
Conversion means to convert to scenario data
Creation of scenario data described in (g) or (h)
apparatus. (J) The start condition creating means includes the acquired start condition.
Window is displayed and the start condition element is selected.
And the scene creation unit creates the start condition.
Of the scene components
Image and audio data are displayed in separate windows, and
Create scenes from selected scene components.
Scenario data described in (g), (h) or (i)
Data creation device. (K) The scene development configuration creation means uses each of the created scenes.
Icons in the form of icons, and the deployment
(G) to (j), which are displayed in a dough display
The scenario data creation device according to any one of the above. (L) Processing contents autonomously performed by the device and agent
A scene composed of at least one of an image and sound
A scene is composed of one or multiple consecutive scenes
Scenario when the start condition of the scenario is satisfied
Create scenario data for the agent device to be started
Scenario data creation program
Acquires multiple start condition elements that can be selected as start conditions
Start condition element acquisition function
Selectable agent processing contents and agent images
Scene element acquisition for acquiring at least one of audio data
Start a scenario from the function and the obtained start condition element
A start condition creation function for creating conditions and the acquired
From the component elements, the content of processing by the agent,
And at least one of the output audio
Scene creation function to create a scene as one scene
1 for moving from the detected item to the next scene of the scene
Or, a plurality of transition conditions and the destination
Development of each scene from migration destination data specifying the scene
A scene development configuration creation function for creating a configuration
Data creation program for realizing
M According to this modification, the contents of the autonomous response
Autonomous system that allows users to easily create and add
A control device and an agent device are provided. Also this
Such as autonomous control devices and agent devices
Scenario data creation device to create and edit Rio data,
A scenario data creation program is provided. According to the operation control device of the present invention, the control device
The first step is to ask the human for an answer from the
Provide autonomous response to human beings with steps
be able to. In addition, the control device requests a response from humans.
The data that defines the content of the question
It can be executed by inputting from a section.

【図面の簡単な説明】 【図1】本発明の一実施形態におけるエージェント装置
を使用した、シナリオ追加システムについてのシステム
構成図を表したものである。 【図2】本発明の一実施形態におけるエージェント装置
の構成を示すブロック図である。 【図3】同上、エージェント装置におけるエージェント
処理部の構成図である。 【図4】同上、エージェント装置におけるシナリオファ
イルのデータ構造とデータ内容を概念的に表した説明図
である。 【図5】同上、シナリオのシーンデータ基づいて表示装
置に表示されるシーン画面を表した説明図である。 【図6】同上、エージェント装置における運転者情報の
構成を概念的に表した説明図である。 【図7】図7は、エージェント装置によるシナリオ追加
処理の動作を表したフローチャートである。 【図8】図8は、シナリオ起動判断処理の動作を表した
フローチャートである。 【図9】図9は、旅館が宿泊予定者に送信した案内シナ
リオによるシーン画面の遷移を各シーン毎に表した説明
図である。 【図10】図10は、シナリオ作成装置の構成を表した
ものである。 【図11】シナリオ編集プログラム251とシナリオ編
集データ252の各内容と構成を表したものである。 【図12】図12は、シナリオの開始条件(シナリオ起
動条件)として選択可能な開始条件要素の内容の一部を
概念的に表した自動起動項目テーブルである。 【図13】図13は、図12における自動起動項目の備
考欄に「選択できる項目一覧参照」と記載されている項
目の詳細な条件を表したテーブルである。 【図14】図14は、シーンから次のシーンに分岐する
ための分岐項目(移行条件)が格納されたシーン分岐項
目テーブルである。 【図15】図15は、更に詳細に分岐条件を設定する場
合の追加条件テーブルを表したものである。 【図16】図16は、シナリオエディタ251を起動し
た場合に表示装置に表示されるメインウィンドウの構成
を表したものである。 【図17】図17は、シナリオプロパティを編集する画
面操作の流れを表したものである。 【図18】図18は、シナリオ起動条件のメイン編集ウ
ィンドウから、シナリオ起動条件を編集する画面操作の
流れを表したものである。 【図19】図19は、数値入力の場合の自動起動する条
件範囲の選択ウインドウの構成例を表したものである。 【図20】図20は、エージェント表示画面51に表示
したい画面構成を選択する画面操作の流れを表したもの
である。 【図21】図21は、キャラクタ動作(エージェントの
動作)指示を編集する画面操作の流れを表したものであ
る。 【図22】図22は、キャラクタ(エージェント)の台
詞指示を編集する画面操作の流れを表したものである。 【図23】図23は、音声認識辞書を編集する画面操作
の流れを表したものである。 【図24】図24は、シナリオの流れを編集する画面操
作の流れを表したものである。 【図25】図25は、シナリオの流れを編集する画面操
作の流れの拡張編を表したものである。 【図26】図26は、シナリオの終了位置を編集する画
面操作の流れを表したものである。 【図27】図27は、作成したシナリオをナビゲーショ
ンで使用可能な実行形式のフォーマットにコンバートす
るための画面操作の流れを表したものである。 【符号の説明】 1 エージェント装置 2 シナリオ作成装置 3 サーバ 4 シナリオファイル 9 全体処理部 10 ナビゲーション処理部 11 エージェント処理部 12 外部I/F部 13 画像処理部 14 音声制御部 15 状況情報処理部 16 入力制御部 17 記憶装置制御部 22 入力装置 24 通信制御部 25 音声出力装置 26 マイク 27 表示装置 28 撮像装置 29 記憶装置 30 エージェントデータ 31 ナビゲーションデータ 40 各種状況検出装置 41 現在位置検出装置 42 状況検出部
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 shows a system configuration diagram of a scenario addition system using an agent device according to an embodiment of the present invention. FIG. 2 is a block diagram illustrating a configuration of an agent device according to an embodiment of the present invention. FIG. 3 is a configuration diagram of an agent processing unit in the agent device. FIG. 4 is an explanatory diagram conceptually showing a data structure and data contents of a scenario file in the agent device. FIG. 5 is an explanatory diagram showing a scene screen displayed on a display device based on scene data of a scenario. FIG. 6 is an explanatory diagram conceptually showing a configuration of driver information in the agent device. FIG. 7 is a flowchart illustrating an operation of a scenario adding process by the agent device. FIG. 8 is a flowchart illustrating an operation of a scenario activation determination process. FIG. 9 is an explanatory diagram showing, for each scene, transition of a scene screen according to a guidance scenario transmitted from a ryokan to a potential guest. FIG. 10 illustrates a configuration of a scenario creation device. FIG. 11 shows contents and configurations of a scenario editing program 251 and scenario editing data 252. FIG. 12 is an automatic activation item table conceptually showing a part of contents of a start condition element that can be selected as a scenario start condition (scenario start condition). FIG. 13 is a table showing detailed conditions of an item described as “selectable item list” in a remarks column of an automatic activation item in FIG. 12; FIG. 14 is a scene branch item table in which branch items (transition conditions) for branching from a scene to the next scene are stored. FIG. 15 illustrates an additional condition table for setting branch conditions in more detail. FIG. 16 illustrates a configuration of a main window displayed on a display device when a scenario editor 251 is activated. FIG. 17 illustrates a flow of a screen operation for editing a scenario property. FIG. 18 illustrates a flow of a screen operation for editing a scenario start condition from a scenario start condition main edit window. FIG. 19 illustrates a configuration example of a selection window of a condition range to be automatically activated in a case of inputting a numerical value. 20 shows a flow of a screen operation for selecting a screen configuration to be displayed on the agent display screen 51. FIG. FIG. 21 illustrates a flow of a screen operation for editing a character motion (agent operation) instruction. FIG. 22 illustrates a flow of a screen operation for editing a speech instruction of a character (agent). FIG. 23 illustrates a flow of a screen operation for editing a voice recognition dictionary. FIG. 24 illustrates a flow of a screen operation for editing a flow of a scenario. FIG. 25 illustrates an extended version of a screen operation flow for editing a scenario flow. FIG. 26 illustrates a flow of a screen operation for editing an end position of a scenario. FIG. 27 illustrates a flow of a screen operation for converting a created scenario into an executable format usable for navigation. [Description of Signs] 1 Agent device 2 Scenario creation device 3 Server 4 Scenario file 9 Overall processing unit 10 Navigation processing unit 11 Agent processing unit 12 External I / F unit 13 Image processing unit 14 Voice control unit 15 Situation information processing unit 16 Input Control unit 17 Storage device control unit 22 Input device 24 Communication control unit 25 Audio output device 26 Microphone 27 Display device 28 Imaging device 29 Storage device 30 Agent data 31 Navigation data 40 Various status detection devices 41 Current position detection device 42 Status detection unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 堀 孝二 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 近藤 裕昭 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 松田 学 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 平野 正 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 藤井 一彰 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 Fターム(参考) 2F029 AA02 AB01 AB07 AB13 AC02 AC06 AC09 AC12 AC14 AC18 5E501 AA22 AC16 BA13 BA17 CA04 CA06 CB01 CB15 DA01 EA32 EA34 5H180 AA01 BB02 BB04 BB05 BB12 BB13 CC04 FF04 FF05 FF12 FF22 FF25 FF27 FF33 FF40   ────────────────────────────────────────────────── ─── Continuation of front page    (72) Inventor Koji Hori             2-19-12 Sotokanda, Chiyoda-ku, Tokyo             Equos Research Co., Ltd. (72) Inventor Hiroaki Kondo             2-19-12 Sotokanda, Chiyoda-ku, Tokyo             Equos Research Co., Ltd. (72) Inventor Manabu Matsuda             2-19-12 Sotokanda, Chiyoda-ku, Tokyo             Equos Research Co., Ltd. (72) Inventor Tadashi Hirano             2-19-12 Sotokanda, Chiyoda-ku, Tokyo             Equos Research Co., Ltd. (72) Inventor Kazuaki Fujii             2-19-12 Sotokanda, Chiyoda-ku, Tokyo             Equos Research Co., Ltd. F term (reference) 2F029 AA02 AB01 AB07 AB13 AC02                       AC06 AC09 AC12 AC14 AC18                 5E501 AA22 AC16 BA13 BA17 CA04                       CA06 CB01 CB15 DA01 EA32                       EA34                 5H180 AA01 BB02 BB04 BB05 BB12                       BB13 CC04 FF04 FF05 FF12                       FF22 FF25 FF27 FF33 FF40

Claims (1)

【特許請求の範囲】 【請求項1】 対話型インターフェイスをもつ所定の操
作を実行する操作制御装置において、前記対話型インタ
ーフェイスは、制御装置側から人間に回答を要求する問
いかけを行う第1のステップと、 前記第1のステップによる人間の回答内容を判別して、
所定の操作の実行を開始する第2のステップとを備え、
前記人間への問いかけの内容を規定するデータを外部か
ら入力可能にする入力装置と、該入力装置により入力さ
れたデータに従って、少なくとも前記第1のステップを
実行する実行手段とを備えたことを特徴とする操作制御
装置。
Claims: 1. An operation control device for executing a predetermined operation having an interactive interface, wherein the interactive interface performs a first step of asking the control device to ask a human for an answer. And determining the contents of the human answer in the first step,
A second step of starting execution of the predetermined operation,
An input device for externally inputting data defining the contents of the inquiry to the human, and execution means for executing at least the first step in accordance with the data input by the input device. Operation control device.
JP2002161743A 2002-06-03 2002-06-03 Operation control device Pending JP2003157489A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002161743A JP2003157489A (en) 2002-06-03 2002-06-03 Operation control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002161743A JP2003157489A (en) 2002-06-03 2002-06-03 Operation control device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001386801 Division 2001-11-13 2001-11-13

Publications (1)

Publication Number Publication Date
JP2003157489A true JP2003157489A (en) 2003-05-30

Family

ID=19194965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002161743A Pending JP2003157489A (en) 2002-06-03 2002-06-03 Operation control device

Country Status (1)

Country Link
JP (1) JP2003157489A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100382A (en) * 2003-09-01 2005-04-14 Matsushita Electric Ind Co Ltd Dialog system and dialog method
JP2006090790A (en) * 2004-09-22 2006-04-06 Toyota Motor Corp Drive support system
JP2007170898A (en) * 2005-12-20 2007-07-05 Toyota Motor Corp Service providing system
JP2008299681A (en) * 2007-05-31 2008-12-11 Knowrel System Inc Content providing device, content providing method, and computer program therefor
JP2010066205A (en) * 2008-09-12 2010-03-25 Fujitsu Ten Ltd Navigation device and control program thereof
CN107533802A (en) * 2015-04-13 2018-01-02 日产自动车株式会社 Vehicle-surroundings Information Authentication device and method
JP2020057080A (en) * 2018-09-28 2020-04-09 株式会社Subaru Agent device for vehicles
WO2020261483A1 (en) * 2019-06-27 2020-12-30 日本電気株式会社 Information processing device, information processing method, and computer-readable recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07175621A (en) * 1993-02-18 1995-07-14 Nec Corp Optimum menu inquiring system and editing system for structure data due to hierarchical menu inquiry
JPH09182046A (en) * 1995-12-27 1997-07-11 Hitachi Ltd Communication support system
JPH10300499A (en) * 1997-05-01 1998-11-13 Matsushita Electric Ind Co Ltd Map information provision system
JP2000215211A (en) * 1998-11-20 2000-08-04 Fujitsu Ltd Device and method for providing guide information, recording medium recording guide information providing program, guiding script recording medium, guiding script generating device, operation management device and method using guiding script, its program recording medium, device and method for adjusting time at time of movement using the guiding script, recording medium, device and method for providing guide information, and its program recording medium
JP2000315293A (en) * 1999-04-30 2000-11-14 Fujitsu Ltd Automatic contact system, user terminal and server
JP2001056694A (en) * 1999-08-19 2001-02-27 Denso Corp Interactive user interface device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07175621A (en) * 1993-02-18 1995-07-14 Nec Corp Optimum menu inquiring system and editing system for structure data due to hierarchical menu inquiry
JPH09182046A (en) * 1995-12-27 1997-07-11 Hitachi Ltd Communication support system
JPH10300499A (en) * 1997-05-01 1998-11-13 Matsushita Electric Ind Co Ltd Map information provision system
JP2000215211A (en) * 1998-11-20 2000-08-04 Fujitsu Ltd Device and method for providing guide information, recording medium recording guide information providing program, guiding script recording medium, guiding script generating device, operation management device and method using guiding script, its program recording medium, device and method for adjusting time at time of movement using the guiding script, recording medium, device and method for providing guide information, and its program recording medium
JP2000315293A (en) * 1999-04-30 2000-11-14 Fujitsu Ltd Automatic contact system, user terminal and server
JP2001056694A (en) * 1999-08-19 2001-02-27 Denso Corp Interactive user interface device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100382A (en) * 2003-09-01 2005-04-14 Matsushita Electric Ind Co Ltd Dialog system and dialog method
JP4533705B2 (en) * 2003-09-01 2010-09-01 パナソニック株式会社 In-vehicle dialogue device
JP2006090790A (en) * 2004-09-22 2006-04-06 Toyota Motor Corp Drive support system
JP4556586B2 (en) * 2004-09-22 2010-10-06 トヨタ自動車株式会社 Driving assistance device
JP2007170898A (en) * 2005-12-20 2007-07-05 Toyota Motor Corp Service providing system
JP2008299681A (en) * 2007-05-31 2008-12-11 Knowrel System Inc Content providing device, content providing method, and computer program therefor
JP2010066205A (en) * 2008-09-12 2010-03-25 Fujitsu Ten Ltd Navigation device and control program thereof
KR101946748B1 (en) * 2015-04-13 2019-02-11 닛산 지도우샤 가부시키가이샤 Apparatus and method for verifying vehicle periphery information
CN107533802A (en) * 2015-04-13 2018-01-02 日产自动车株式会社 Vehicle-surroundings Information Authentication device and method
CN107533802B (en) * 2015-04-13 2019-06-25 日产自动车株式会社 Vehicle-surroundings Information Authentication device and method
US10665103B2 (en) 2015-04-13 2020-05-26 Nissan Motor Co., Ltd. Vehicle periphery information verification device and method
JP2020057080A (en) * 2018-09-28 2020-04-09 株式会社Subaru Agent device for vehicles
JP7181744B2 (en) 2018-09-28 2022-12-01 株式会社Subaru Vehicle agent device
WO2020261483A1 (en) * 2019-06-27 2020-12-30 日本電気株式会社 Information processing device, information processing method, and computer-readable recording medium
JPWO2020261483A1 (en) * 2019-06-27 2020-12-30
JP7314999B2 (en) 2019-06-27 2023-07-26 日本電気株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP5019145B2 (en) Driver information collection device
US20040225416A1 (en) Data creation apparatus
JP4193300B2 (en) Agent device
JP4936094B2 (en) Agent device
JP2008290714A (en) On-vehicle apparatus
JP2000266551A (en) Dfstination setting device and agent device
JP4259054B2 (en) In-vehicle device
JP4441939B2 (en) Destination setting device
JP2001235343A (en) Information output device
JP2003157489A (en) Operation control device
JP4253918B2 (en) Agent device
JP4258607B2 (en) In-vehicle device
JP2004037953A (en) On-vehicle device, and device and program for data creation
JP2003106846A (en) Agent apparatus
JP2004054883A (en) Onboard agent system and interactive operation control system
JP2005190192A (en) Onboard system
JP4356450B2 (en) In-vehicle device
JP2004050975A (en) In-vehicle device, data preparation device, and data preparation program
JP2004053251A (en) In-vehicle device, data creating device and data creation program
JP2004301651A (en) Vehicle-mounted device and data preparation device
JP2004051074A (en) In-vehicle device, data preparation device, and data preparation program
JP4059019B2 (en) In-vehicle device and data creation device
JP2004061252A (en) On-vehicle device, data generation device and data generation program
JP4449446B2 (en) In-vehicle device and data creation device
JP2004302904A (en) Data preparing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060613

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061128