JP2000020888A - エージェント装置 - Google Patents

エージェント装置

Info

Publication number
JP2000020888A
JP2000020888A JP10208583A JP20858398A JP2000020888A JP 2000020888 A JP2000020888 A JP 2000020888A JP 10208583 A JP10208583 A JP 10208583A JP 20858398 A JP20858398 A JP 20858398A JP 2000020888 A JP2000020888 A JP 2000020888A
Authority
JP
Japan
Prior art keywords
agent
name
data
action
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10208583A
Other languages
English (en)
Inventor
Tomoki Kubota
智氣 窪田
Koji Hori
孝二 堀
Manabu Matsuda
松田  学
Kazuhide Adachi
和英 足立
Koji Mukai
康二 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AQUEOUS RESERCH KK
Original Assignee
AQUEOUS RESERCH KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AQUEOUS RESERCH KK filed Critical AQUEOUS RESERCH KK
Priority to JP10208583A priority Critical patent/JP2000020888A/ja
Publication of JP2000020888A publication Critical patent/JP2000020888A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 複数存在する各エージェントに対してユーザ
が自由に名前を付け、その名前でエージェントを呼び出
すことを可能にする。 【解決手段】 擬人化されたエージェントの画像を複数
用意することで、異なる容姿のエージェントを複数車両
内に出現可能にする。そして、ユーザは各容姿のエージ
ェントに対する名前を自由に付けることができるように
する。すなわち、各エージェントの名前は、音声で入力
し、または、画面表示されたキーボード等から入力する
と、入力された音声データからパラメータを抽出して音
声認識用のデータとして保存すると共に、キーボード等
で入力された読みから音声合成用のデータを作成して保
存する。そして、ユーザが現在のエージェントと異なる
名前を呼ぶと、音声認識されて該当する(呼ばれた)容
姿のエージェントが呼び出され、挨拶をしたのちに、そ
れまでのエージェントの処理を引き継いで行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、エージェント装置
に係り、例えば、擬人化されたエージェントを相手に車
両内での会話等が可能なコミュニケーション機能を備え
たエージェント装置に関する。
【0002】
【従来の技術】従来車両内において、運転者による走行
環境を向上させるようにしたものとして、ラジオやカセ
ットテーププレーヤが搭載されている。また、車両に搭
載したアマチュア無線機や携帯電話等の無線通信機器を
使用して、車両外の知人等との会話を楽しむことで、走
行環境を向上させるようにした車両もある。
【0003】
【発明が解決しようとする課題】このように従来の車両
におけるラジオ等では運転者に対して一方向の情報提示
にすぎず、双方向の会話等をすることができなかった。
一方、携帯電話等による場合には会話をすることができ
るが、コール待ち、ダイヤル等によって通話相手を捜さ
なければならなかった。たとえ、通話相手が見つかった
としても、車両の状況といった運転者の一方的な都合に
あわせた、適切な会話をしてくれるわけではなかった。
このように、従来の車両には、車両の過去の状態などの
履歴・運転者の状態に応じて、擬人化されたエージェン
トが存在しないため、車両が愛着のわかないただの乗り
物としての道具でしか役割を持たない場合もあった。
【0004】なお、運転者に対する情報の伝達を、人間
の表情や動作などにより行うようにした技術が特開平9
−102098号公報において提示されている。しか
し、この公報に記載された技術は、過去の運転者の応答
等の履歴や性別、年齢等のユーザ情報などに基づいて表
示が変わるわけではなく、同一の状況が生じた場合には
常に同一の表示がされるものである。すなわち、限られ
たセンサ出力に対して常に同一の表示を行うものであ
り、視認性が向上された従来の計器類の範疇に入るべき
ものである。
【0005】そこで、現在未公知であるが本出願人は、
車両の過去の状態などの履歴・運転者の状態に応じて、
擬人化されたエージェントを車両内に出現させて、運転
や同乗者とのコミュニケーションを行うと共に、コミュ
ニケーションの結果として各種制御を行うエンジン装置
について出願している。出願済みのエージェント装置に
よって車両内に出現するエージェントの容姿は各種用意
されており、ユーザの好みによって選択することができ
るようになっているが、そのエージェントの名前として
「リサ」が使用されるのみであった。このため、車両内
には異なる容姿のエージェントが複数出現可能であるに
もかかわらず、これらのエージェントを名前で特定して
呼び出すことはできなかった。すなわち出願済みのエー
ジェント装置で他の容姿のエージェントを出現させる場
合には、エージェントの容姿設定を変更する操作を最初
から行う必要があったため、別のエージェントを呼んで
くるといった通常のコミュニケーションとはかけ離れた
ものであった。
【0006】一方エージェントの存在を認識する場合、
同乗者は常時表示装置をみながら確認することができる
が、運転者にとってみるとエージェントとの会話から認
識することが主になる。しかし、常時エージェントと会
話をするのは煩雑に感じられるおそれがあり好ましくな
く、逆に会話がないと画面で確認しない限りエージェン
トの存在を認識しにくくなるという問題があった。
【0007】本発明は、複数存在する各エージェントに
対してユーザが自由に名前を付け、その名前でエージェ
ントを呼び出すことが可能なエージェント装置を提供す
ることを第1の目的とする。また、本発明は、よりエー
ジェントとの親近感を持てるようなエージェント装置を
提供することを第2の目的とする。さらに本発明は、エ
ージェントの存在の認識を自然に行うことができるエー
ジェント装置を提供することを第3の目的とする。
【0008】
【課題を解決するための手段】請求項1に記載した発明
では、擬人化された複数のエージェントに対し、その名
前を入力する名前入力手段と、この名前入力手段で入力
されたエージェントの名前を記憶する名前記憶手段と、
呼ばれた名前を認識する音声認識手段と、この音声認識
手段により認識された名前に対応するエージェントを前
記名前記憶手段に記憶された名前から特定し、車両内に
出現させるエージェント出現手段と、車両の状況を判断
する状況判断手段と、前記状況判断手段により判断され
た状況からエージェントの行為を決定する行為決定手段
と、この行為決定手段で決定された行為を、前記エージ
ェント出現手段により出現されるエージェントに行わせ
るエージェント制御手段と、をエージェント装置に具備
させて前記第1の目的を達成する。請求項2記載の発明
では、請求項1に記載のエージェント装置において、前
記複数のエージェントは、所定単位の行為を分担して行
う。請求項3記載の発明では、擬人化されたエージェン
トを車両内に出現させるエージェント出現手段と、車両
の状況を判断する状況判断手段と、前記状況判断手段に
より判断された状況から、エージェントの行為を決定す
る行為決定手段と、前記状況判断手段により判断された
状況から、エージェントが登場するパターンを決定する
登場パターン決定手段と、前記エージェント出現手段に
より出現されるエージェントを、前記登場パターン決定
手段により決定されたパターンに従って登場させると共
に、前記行為決定手段で決定された行為を当該エージェ
ントに行わせるエージェント制御手段と、をエージェン
ト装置に具備させて前記第2の目的と達成する。請求項
4記載の発明では、擬人化されたエージェントを車両内
に出現させるエージェント出現手段と、車両の状況を判
断する状況判断手段と、前記状況判断手段により判断さ
れた状況から、エージェントの行為を決定する行為決定
手段と、前記状況判断手段により判断された状況から、
出力音を決定する音決定手段と、前記行為決定手段で決
定された行為を、前記エージェント出現手段により出現
されるエージェントに行わせるエージェント制御手段
と、前記音決定手段により決定された出力音を、前記エ
ージェント制御手段によりエージェントが行う行為に併
せて出力する音出力手段と、をエージェント装置に具備
させて前記第3の目的を達成する。請求項5に記載した
発明では、請求項1、請求項2、請求項3、又は請求項
4に記載したエージェント装置において、前記状況判断
手段による所定の状況を記憶することで学習する学習手
段を有し、前記行為決定手段は、この学習手段による学
習結果を含めて前記エージェントの行為を決定する。
【0009】
【発明の実施の形態】以下、本発明のエージェント装置
における好適な実施の形態について、図1から図16を
参照して詳細に説明する。 (1)実施形態の概要 第1の実施形態におけるエージェント装置では、擬人化
されたエージェントの画像(平面的画像、ホログラフィ
等の立体的画像等)を複数用意することで、異なる容姿
のエージェントを複数車両内に出現可能にする。そし
て、ユーザは各容姿のエージェントに対する名前を自由
に付けることができるようにする。すなわち、各エージ
ェントの名前は、音声で入力し、または、画面表示され
たキーボード等から入力すると、入力された音声データ
からパラメータを抽出して音声認識用のデータとして保
存すると共に、キーボード等で入力された読みから音声
合成用のデータを作成して保存する。そして、ユーザが
現在のエージェントと異なる名前を呼ぶと、音声認識さ
れて該当する(呼ばれた)容姿のエージェントが呼び出
され、挨拶をしたのちに、それまでのエージェントの処
理を引き継いで行う。エージェントの処理としては、車
両自体、運転者、同乗者、対向車等を含む車両の状況の
判断と学習(状況の学習だけでなく運転者の応答や反応
等も含む)をし、各時点での車両状況とそれまでの学習
結果に基づいて、エージェントが運転者や車両に対して
様々なバリエーションをもった対応(行為=行動と音
声)をする。これにより運転者は、複数のエージェント
を車両内に自由に呼びだしてつき合う(コミュニケーシ
ョンする)ことが可能になり、車両内での環境を快適に
することができる。ここで、本実施形態において擬人化
されたエージェントとは、特定の人間、生物、漫画のキ
ャラクター等との同一性があり、その同一性のある生物
が、同一性・連続性を保つようなある傾向の出力(動
作、音声により応答)を行うものである。また、同一性
・連続性は特有の個性を持つ人格として表現され、電子
機器内の一種の疑似生命体としてもとらえることができ
る。車両内に出現させる本実施形態のエージェントは、
人間と同様に判断する疑似人格化(仮想人格化)された
主体である。従って、同一の車両状況であっても、過去
の学習内容に応じてコミュニケーションの内容は異な
る。ときには、車両の相応には関係ない範囲での判断ミ
スも有り、この判断ミスによる不要な(ドジな)応答を
することもある。そして運転者の応答により、判断ミス
か否かを判定し、学習する。
【0010】第2の実施形態では、エージェントが行う
各種処理を、総合案内機能、ヘルプ機能、ナビゲーショ
ン機能、オーディオ機能等のように、一定のまとまった
処理毎に分け、各機能毎にその処理(ユーザとのコミュ
ニケーションを含む)を行うエージェントの容姿を決め
ておく。そして、それぞれ異なる処理を行う複数のエー
ジェントに対して自由に名前を設定することができるよ
うにする。本実施形態では、ユーザに呼ばれた名前のエ
ージェントが、該当する機能の処理を行うことになる。
すなわち、ユーザは、希望する処理を担当するエージェ
ントの名前を呼ぶことで、直ちにその機能の処理を行う
ことができ、操作性が向上することになる。
【0011】第3の実施形態では、学習状態に応じてエ
ージェントの登場パターンを変化させる。例えば、表示
装置にエージェント「なみ」が表示されている状態で、
ユーザAがエージェント「みか」の名前を呼んだ場合、
その入力音声に対する音声認識結果の確からしさの程度
によってエージェントの登場の仕方をかえる。
【0012】第4の実施形態では、エージェントの動作
に併せて音を出力することにより、エージェントの存在
を明確にする。例えば、エージェント「なみ」が表示さ
れている状態で、ユーザAがエージェント「みか」の名
前を呼んだ場合、その入力音声に対する音声認識結果の
確からしさの程度によって、効果音やBGM(背景音
楽)を変更する。
【0013】(2)第1の実施形態の詳細 図1は、第1の実施形態におけるエージェント装置の構
成を示すブロック図である。本実施形態では、コミュニ
ケーション機能全体を制御する全体処理部1を備えてい
る。この全体処理部は、設定した目的地までの経路を探
索して音声や画像表示によって経路案内をするナビゲー
ション処理部10、エージェント処理部11、ナビゲー
ション処理部10とエージェント処理部11に対するI
/F部12、エージェント画像や地図画像等の画像出力
や入力画像を処理する画像処理部13、エージェント音
声や経路案内音声等の音声を出力したり、入力される音
声を音声認識辞書を使用して認識したりする音声制御部
14、及び車両や運転者に関する各種状況の検出データ
を処理する状況情報処理部15を有している。エージェ
ント処理部11は、所定容姿のエージェントを車両内に
出現させると共に、新たに呼ばれた名前のエージェント
に切り替えて(容姿の画像を変更して)車両内に出現さ
せる。また、車両の状況や運転者による過去の応対等を
学習して適切な会話や制御を行うようになっている。
【0014】ナビゲーション処理部10とエージェント
処理部11は、データ処理及び各部の動作の制御を行う
CPU(中央処理装置)と、このCPUにデータバスや
制御バス等のバスラインで接続されたROM、RAM、
タイマ等を備えている。両処理部10、11はネットワ
ーク接続されており、互いの処理データを取得すること
ができるようになっている。ROMはCPUで制御を行
うための各種データやプログラムが予め格納されたリー
ドオンリーメモリであり、RAMはCPUがワーキング
メモリとして使用するランダムアクセスメモリである。
【0015】本実施形態のナビゲーション処理部10と
エージェント処理部11は、CPUがROMに格納され
た各種プログラムを読み込んで各種処理を実行するよう
になっている。なお、CPUは、記憶媒体駆動装置23
にセットされた外部の記憶媒体からコンピュータプログ
ラムを読み込んで、エージェントデータ記憶装置29や
ナビゲーションデータ記憶装置30、図示しないハード
ディスク等のその他の記憶装置に格納(インストール)
し、この記憶装置から必要なプログラム等をRAMに読
み込んで(ロードして)実行するようにしてもよい。ま
た、必要なプログラム等を記録媒体駆動装置23からR
AMに直接読み込んで実行するようにしてもよい。
【0016】ナビゲーション処理部10には、現在位置
検出装置21とナビゲーションデータ記憶装置30が接
続され、エージェント処理部11にはエージェントデー
タ記憶装置29が接続され、I/F部12には入力装置
22と記憶媒体駆動装置23と通信制御装置24が接続
され、画像処理部13には表示装置27と撮像装置28
が接続され、音声制御部14には音声出力装置25とマ
イク26が接続され、状況情報処理部15には状況セン
サ部40が接続されている。
【0017】現在位置検出装置21は、車両の絶対位置
(緯度、経度による)を検出するためのものであり、人
工衛星を利用して車両の位置を測定するGPS(Global
Positioning System)受信装置211と、方位センサ2
12と、舵角センサ213と、距離センサ214と、路
上に配置されたビーコンからの位置情報を受信するビー
コン受信装置215等が使用される。GPS受信装置2
11とビーコン受信装置215は単独で位置測定が可能
であるが、GPS受信装置211やビーコン受信装置2
15による受信が不可能な場所では、方位センサ212
と距離センサ214の双方を用いた推測航法によって現
在位置を検出するようになっている。なお、より正確な
現在位置を検出するために、所定の基地局から送信され
る測位誤差に対する補正信号を受信し、現在位置を補正
するD−GPS(ディファレンシャルGPS)を使用す
るようにしてもよい。方位センサ212は、例えば、地
磁気を検出して車両の方位を求める地磁気センサ、車両
の回転角速度を検出しその角速度を積分して車両の方位
を求めるガスレートジャイロや光ファイバジャイロ等の
ジャイロ、左右の車輪センサを配置しその出力パルス差
(移動距離の差)により車両の旋回を検出することで方
位の変位量を算出するようにした車輪センサ、等が使用
される。舵角センサ213は、ステアリングの回転部に
取り付けた光学的な回転センサや回転抵抗ボリューム等
を用いてステアリングの角度αを検出する。距離センサ
214は、例えば、車輪の回転数を検出して計数し、ま
たは加速度を検出して2回積分するもの等の各種の方法
が使用される。
【0018】入力装置22は、エージェントの名前の読
みを入力したり、そのた、エージェント処理を行う上で
使用されるユーザ情報(年齢、性別、趣味、性格など)
を入力するためのものである。なお、これらユーザに関
する情報は、入力装置22からユーザが入力する場合に
限らず、ユーザとのコミュニケーションが無い時間が一
定時間以上経過した場合等に、未入力の項目について例
えば、プロ野球が好きか否か、好きな球団名等に関する
各種問い合わせをエージェントがユーザに行い、ユーザ
の回答内容から取得するようにしてもよい。入力装置2
2は、本実施形態によるエージェントのその他全ての問
い合わせ等に対して運転者が応答するための1つの手段
でもある。入力装置22は、ナビゲーション処理におけ
る走行開始時の現在地(出発地点)や目的地(到達地
点)、情報提供局へ渋滞情報等の情報の請求を発信した
い車両の所定の走行環境(発信条件)、車内で使用され
る携帯電話のタイプ(型式)などを入力するためのもの
でもある。入力装置22には、タッチパネル(スイッチ
として機能)、キーボード、マウス、ライトペン、ジョ
イスティック、赤外線等によるリモコン、音声認識装置
などの各種の装置が使用可能である。また、赤外線等を
利用したリモコンと、リモコンから送信される各種信号
を受信する受信部を備えてもよい。リモコンには、画面
上に表示されたカーソルの移動操作等を行うジョイステ
ィックの他、メニュー指定キー(ボタン)、テンキー等
の各種キーが配置される。
【0019】記憶媒体駆動装置23は、ナビゲーション
処理部10やエージェント処理部11が各種処理を行う
ためのコンピュータプログラムを外部の記憶媒体から読
み込むのに使用される駆動装置である。記憶媒体に記録
されているコンピュータプログラムには、各種のプログ
ラムやデータ等が含まれる。ここで、記憶媒体とは、コ
ンピュータプログラムが記録される記憶媒体をいい、具
体的には、フロッピーディスク、ハードディスク、磁気
テープ等の磁気記憶媒体、メモリチップやICカード等
の半導体記憶媒体、CD−ROMやMO、PD(相変化
書換型光ディスク)等の光学的に情報が読み取られる記
憶媒体、紙カードや紙テープ、文字認識装置を使用して
プログラムを読み込むための印刷物等の用紙(および、
紙に相当する機能を持った媒体)を用いた記憶媒体、そ
の他各種方法でコンピュータプログラムが記録される記
憶媒体が含まれる。
【0020】記憶媒体駆動装置23は、これらの各種記
憶媒体からコンピュータプログラムを読み込む他に、記
憶媒体がフロッピーディスクやICカード等のように書
き込み可能な記憶媒体である場合には、ナビゲーション
処理部10やエージェント処理部11のRAMや記憶装
置29、30のデータ等をその記憶媒体に書き込むこと
が可能である。例えば、ICカードにエージェント機能
に関する学習内容(学習項目データ、応答データ)や、
各エージェント名前データ、ユーザ情報等を記憶させ、
他の車両を運転する場合でもこの記憶させたICカード
を使用することで、自分の好みに合わせて命名され、過
去の応対の状況に応じて学習された同一のエージェント
とコミュニケーションすることが可能になる。これによ
り、車両毎のエージェントではなく、運転者に固有な名
前と、学習内容のエージェントを車両内に出現させるこ
とが可能になる。
【0021】通信制御装置24は、各種無線通信機器か
らなる携帯電話が接続されるようになっている。通信制
御装置24は、電話回線による通話の他、道路の混雑状
況や交通規制等の交通情報に関するデータなどを提供す
る情報提供局との通信や、車内での通信カラオケのため
に使用するカラオケデータを提供する情報提供局との通
信を行うことができるようになっている。また、通信制
御装置24を介して、エージェント機能に関する学習デ
ータや、各エージェントの名前に関する名前データや、
ユーザ情報等を送受信することも可能である。
【0022】音声出力装置25は、車内に配置された複
数のスピーカで構成され、音声制御部14で制御された
音声、例えば、音声による経路案内を行う場合の案内音
声や、ユーザが呼び出したエージェントに対応する音声
や音が出力されるようになっている。この音声出力装置
25は、全部又は一部をオーディオ用のスピーカと兼用
するようにしてもよい。なお、音声制御部14は、運転
者のチューニング指示の入力に応じて、音声出力装置2
5から出力する音声の音色やアクセント等を制御するこ
とが可能である。マイク26は、音声制御部14におけ
る音声認識の対象となる音声、例えば、後述の名前付け
処理においてユーザが発声したエージェントの名前や、
その後に各エージェントを名前で呼び出す場合の音声
や、ナビゲーション処理における目的地等の入力音声
や、エージェントとの運転者の会話(応答等)等を入出
力する音声入力手段として機能する。このマイク26
は、通信カラオケ等のカラオケを行う際のマイクと兼用
するようにしてもよく、また、運転者の音声を的確に収
集するために指向性のある専用のマイクを使用するよう
にしてもよい。音声出力装置25とマイク26とでハン
ズフリーユニットを形成させて、携帯電話を介さずに、
電話通信における通話を行えるようにしてもよい。
【0023】表示装置27には、ナビゲーション処理部
10の処理による経路案内用の道路地図や各種画像情報
が表示されたり、エージェント処理部11によるエージ
ェントの各種行動(動画)が表示されたりするようにな
っている。また、撮像装置28で撮像された車両内外の
画像も画像処理部13で処理された後に表示されるよう
になっている。表示装置27は、液晶表示装置、CRT
等の各種表示装置が使用される。なお、この表示装置2
7は、例えばタッチパネル等の、前記入力装置22とし
ての機能を兼ね備えたものとすることができる。
【0024】撮像装置28は、画像を撮像するためのC
CD(電荷結合素子)を備えたカメラで構成されてお
り、運転者を撮像する車内カメラの他、車両前方、後
方、右側方、左側方を撮像する各車外カメラが配置され
ている。撮像装置28の各カメラにより撮像された画像
は、画像処理部13に供給され、画像認識等の処理が行
われ、各認識結果をエージェント処理部11によるプロ
グラム番号の決定にも使用するようになっている。
【0025】エージェントデータ記憶装置29は、本実
施形態によるエージェント機能を実現するために必要な
各種データやプログラムが格納される記憶装置である。
このエージェントデータ記憶装置29には、例えば、フ
ロッピーディスク、ハードディスク、CD−ROM、光
ディスク、磁気テープ、ICカード、光カード等の各種
記憶媒体と、その駆動装置が使用される。この場合、例
えば、学習項目データ292、応答データ293、名前
データ296、及びユーザ情報297を持ち運びが容易
なICカードやフロッピーディスクで構成し、その他の
データをハードディスクで構成するというように、複数
種類の異なる記憶媒体と駆動装置で構成し、駆動装置と
してそれらの駆動装置を用いるようにしてもよい。
【0026】エージェントデータ記憶装置29には、エ
ージェントプログラム290、プログラム選択テーブル
291、学習項目データ292、応答データ293、図
4に例示したエージェントの容姿や行動を画像表示する
ための画像データ294、各エージェントの名前等を特
定するための名前データ296、運転者を特定するため
のユーザ情報297、その他のエージェントのための処
理に必要な各種のデータが格納されている。
【0027】画像データ294には、図7に例示される
ような、各エージェントの容姿と、各容姿のエージェン
トが様々な表情や動作を表すための各種画像データが格
納されている。ユーザは、これら各エージェントを選択
し、自由に名前を付ける(設定する)ことができるよう
になっている。格納される容姿としては、人間(男性、
女性)的な容姿である必要はなく、例えば、ひよこや
犬、猫、カエル、ネズミ等の動物自体の容姿や人間的に
図案化(イラスト化)した動物の容姿であってもよく、
更にロボット的な容姿や、特定のキャラクタの容姿等で
あっても良く、これら各容姿に対応して名前を付けるこ
とが可能である。またエージェントの年齢としても一定
である必要がなく、エージェントの学習機能として、最
初は子供の容姿とし、時間の経過と共に成長していき容
姿が変化していく(大人の容姿に変化し、更に老人の容
姿に変化していく)ようにしてもよい。画像データ29
4には、これらの各種エージェントの容姿の画像が格納
されており、運転者の好みによって入力装置22等から
選択することができるようになっている。
【0028】ユーザ情報297には、ユーザの氏名、住
所、生年月日、性別、性格、趣味、好きなスポーツ、好
きなチーム、好きな食べ物、宗教等の各種データが、各
ユーザ毎に格納される。また、ユーザ情報297には、
ユーザの身長、体重、運転席(シート)の固定位置(前
後位置、背もたれの角度)、ルームミラーの角度、視線
の高さ、顔写真をデジタル化したデータ、音声の特徴パ
ラメータ等も各ユーザ毎に格納されている。ユーザ情報
は、エージェントがユーザと取るコミュニケーションの
内容を判断する場合に使用される他、ユーザの体重等の
後者のデータ群は運転者を特定するためにも使用され
る。
【0029】エージェントプログラム290には、エー
ジェント機能を実現するためのエージェント処理プログ
ラムや、エージェントと運転者とがコミュニケーション
する場合の細かな行動を表示装置27に画像表示すると
共にその行動に対応した会話を音声出力装置25から出
力するためのコミュニケーションプログラムがプログラ
ム番号順に格納されている。このエージェントプログラ
ム290には、各プログラム番号の音声に対して複数種
類の音声データが格納されており、運転者は前記エージ
ェントの容姿の選択と併せて音声を入力装置22等から
選択することができるようになっている。エージェント
の音声としては、男性の音声、女性の音声、子供の音
声、機械的な音声、動物的な音声、特定の声優や俳優の
音声、特定のキャラクタの音声等があり、これらの中か
ら適宜運転者が選択する。なお、この音声と前記容姿の
選択は、適時変更することが可能である。
【0030】プログラム選択テーブル291は、エージ
ェントプログラム290に格納されているコミュニケー
ションプログラムを選択するためのテーブルである。図
2はプログラム選択テーブル291を表したものであ
り、図3はプログラム選択テーブル291で選択される
各プログラム番号に対応した、エージェントの行為(行
動と発声)内容を表したものである。この図2、図3で
示されているプログラム番号は、エージェントプログラ
ム290に格納されている各コミュニケーションプログ
ラムの番号と一致している。
【0031】図4は、図2、図3のプログラム番号00
001〜00002により表示装置27に表示されるエ
ージェントの「かしこまってお辞儀」行動についての数
画面を表したものである。この図4に示されるように、
エージェントEは、口元を引き締めると共に手を膝に当
てながら、お辞儀をすることでかしこまったお辞儀であ
ることが表現されている。この行動と共にエージェント
Eが話す言葉(発声)は、車両状況や学習状況等によっ
て変えられる。
【0032】エンジンの冷却水温度が低い場合には、エ
ンジンの調子に合わせて行動「眠そうに…」が選択され
る。眠そうな表現として、瞼が下がった表情にしたり、
あくびや伸びをした後に所定の行動(お辞儀等)をした
り、最初に目をこすったり、動きや発声を通常よりもゆ
っくりさせたりすることで表すことができる。これらの
眠そうな表現は、常に同一にするのではなく、行動回数
等を学習することで適宜表現を変更する。例えば、3回
に1回は目をこすり(A行動)、10回に1回はあくび
をするようにし(B行動)、それ以外では瞼を下がった
表情(C行動)にする。これらの変化は、行動Bや行動
Cの付加プログラムを行動Aの基本プログラムに組み合
わせることで実現される。そして、どの行動を組み合わ
せるかについては、基本となる行動Aのプログラム実行
回数を学習項目として計数しておき、回数に応じて付加
プログラムを組み合わせるようにする。また、行動「元
気よく」を表現する場合には、音声の抑揚を大きくした
り、エージェントEを走りながら画面に登場させたりす
ることで表現する。
【0033】図2に表示された各項目は各、プログラム
番号を選択するための選択条件を表したもので、状態セ
ンサ40により検出される車両や運転者の各種状況から
決定される項目(時間、起動場所、冷却水温、シフトポ
ジション位置、アクセル開度等)と、学習項目データ2
92や応答データ293に格納されている学習内容から
決定される項目(今日のIG ON回数、前回終了時か
らの経過時間、通算起動回数等)とがある。プログラム
選択テーブル291中で、これら全項目を満足するプロ
グラムは必ず一義的に決定するようになっている。な
お、テーブル中で「○」印は、そのプログラム番号が選
択されるために満たす必要がある項目を示し、「−」
印、「無印」はそのプログラムの選択には考慮されない
項目を示している。
【0034】図2、図3では、イグニッションをONに
した場合のコミュニケーション(挨拶)に関連する行為
と選択条件について記載しているが、その他各種行為
(行動と発声)を規定するプログラムを選択するための
プログラム番号と選択条件も種々規定されている。例え
ば、急ブレーキが踏まれたことを条件として、エージェ
ントが「しりもち」をついたり、「たたら」を踏んだり
する行動をとったり、驚き声をだすようなプログラムも
規定されている。エージェントによる各行動の選択は急
ブレーキに対する学習によって変化するようにし、例え
ば、最初の急ブレーキから3回目までは「しりもち」を
つき、4回目から10回目までは「たたら」を踏み、1
0回目以降は「片足を一歩前にだすだけで踏ん張る」行
動を取るようにし、エージェントが急ブレーキに対して
段階的に慣れるようにする。そして、最後の急ブレーキ
から1週間の間隔があいた場合には、1段階後退するよ
うにする。
【0035】図1における学習項目データ292及び応
答データ293は、運転者の運転操作や応答によってエ
ージェントが学習した結果を格納するデータである。従
って、学習項目データ292と応答データ293は、各
運転者毎にそのデータが格納・更新(学習)されるよう
になっている。図5、図6は、学習項目データ292と
応答データ293の内容を概念的に表したものである。
学習項目データ292には、図5に示されるように、プ
ログラム選択テーブル291(図2)の選択条件を決定
する通算起動回数、前回終了日時、今日のイグニッショ
ンON回数、前5回の給油時残量等が格納され、選択条
件により選択されたプログラムを起動するか否か(お休
みするか否か)を決定するためのお休み回数/日時、デ
フォルト値、その他のデータが格納される。
【0036】通算起動回数には、イグニッションを起動
した通算回数が格納され、イグニッションがONされる
毎にカウントアップされる。前回終了日時には、イグニ
ッションをOFFにする毎にその日時が格納される。今
日のイグニッションON回数には、その日におけるイグ
ニッションONの回数と、1日の終了時間が格納され
る。イグニッションがONされる毎にカウントアップさ
れるが、1日が終了するとデータが”0”に初期化され
る。1日の終了時間はデフォルト値として24:00が
格納されている。この時間はユーザ(運転者)の生活パ
ターンによって変更することが可能である。時間が変更
された場合には、変更後の時間が格納される。
【0037】前5回の給油残量には、燃料(ガソリン)
を給油する直前に検出された燃料の残量が格納され、新
たに給油される毎に各データが左側にシフトされ(最も
古い最左のデータが削除される)今回給油直前の残量が
一番右側に格納される。このデータは、後述する燃料検
出センサ415の検出値G1が、全5回分の給油残量の
平均値G2以下(G1≦G2)になった場合に、エージ
ェントEが表示装置27に現れて給油を促す行動が表示
装置27に表示され、「おなかが減ったなあ!ガソリン
がほしいな!」等の音声が音声出力装置25から出力さ
れる。
【0038】お休み回数/日時には、該当するコミュニ
ケーションプログラムが選択されたとしても実行せずに
お休みした回数等が各プログラム番号毎に格納される。
このお休み回数/日時は、例えば後述するエアコンの停
止を提案するエージェントの行為(プログラム番号00
123)のように、学習項目としてお休み項目が設定さ
れているエージェント行為について格納される。エージ
ェントの提案や会話に対する運転者の応答が、拒否(拒
絶)であった場合や無視(又は無応答)であった場合、
コミュニケーションプログラムに応じて選択的に「お休
み」が設定される。
【0039】デフォルト値には、時間、回数、温度、車
速、日時等の各項目に対する初期設定値が格納されてお
り、前記した1日の終了時間のように学習項目の中で変
更された値を初期値に戻す場合に使用される。学習項目
データ292に格納されるその他のデータとしては、例
えば、運転者やその関係者の誕生日(これはユーザ入力
項目である)、祭日とその言われ、クリスマス、バレン
タインデー、ホワイトデー等のイベント日などが格納さ
れる。各イベント日に応じた特別メニューのコミュニケ
ーションプログラムも用意されており、例えば、クリス
マスイブにはサンタクロースに変装したエージェントが
現れる。
【0040】図6の応答データ293には、エージェン
トの行為に対するユーザの応答の履歴が、ユーザ応答を
学習項目とする各コミュニケーションプログラム番号毎
に格納される。ユーザ応答データは、図6(A)のコミ
ュニケーションプログラム番号00123、00125
のように最新の応答日時と応答内容が所定回分(プログ
ラム番号00123は2回分)格納されるものと、プロ
グラム番号00124のように最新の応答内容のみが1
回分格納される(従って応答がある毎に更新される。)
ものと、最新の応答内容のみが所定回分格納されるもの
と、最新の日時と応答内容が一回分格納されるものと、
最新の日時だけが1回分または所定回分格納されるもの
等がある。図6(A)中に表示された記号A、B、Cは
応答内容を表すもので、同図(B)に示すように、記号
Aが無視された場合、記号Bが拒絶された場合、記号C
が受容された場合を表す。運転者の応答内容について
は、マイク26から入力される運転者の音声に対する音
声認識の結果や、入力装置による入力結果から判断され
る。なお、本実施形態では運転者の応答を無視、拒絶、
受容の3パターンに分類しているが、「強く拒絶」、
「怒られた」、「喜ばれてた」を新たに加えるようにし
てもよい。この場合、新たに加えた応答により、学習項
目データ292(例えば、お休み回数等)や応答データ
293を追加変更する。
【0041】図1のエージェントデータ記憶装置29に
おける名前データ296には、画像データ294に格納
されている各種エージェントの容姿に対応つけて、ユー
ザが付ける名前の音声関連データが格納されるようにな
っている。図7は、名前データ296の内容を概念的に
表したものである。この図7に示されるように、名前デ
ータ296には、各エージェントの容姿毎に各ユーザが
付けた名前の音声関連データが格納されるようになって
いる。すなわち、ユーザAは各容姿のエージェントに対
して、図面左側から順番に「みか」、「りゅう」、「な
み」、…と名前を付け、ユーザBは左側から「まさ
み」、「たけ」、「あやか」、…と名付け、それぞれの
名前の音声関連データが格納されている。
【0042】音声関連データの具体的な内容としては、
ユーザがエージェントの名前について発声した音声から
抽出した音声認識用の特徴パラメータと、表示装置27
に表示されたキーボードやジョイスティック等から入力
された名前の読みから作成した音声合成用のデータとが
格納される。ただし、音声認識用の特徴パラメータにつ
いては、音声認識を担当する音声制御部14の音声認識
辞書に格納するようにし、名前データ296には認識結
果とを関連付けるデータを格納するようにしてもよい。
また、各音声関連データには、ユーザによって現在選択
されている(呼び出されている)エージェントを特定す
るためのフラグ領域が確保されている。このフラグ領域
は、1ユーザに対して1カ所にフラグ”1”が格納さ
れ、他には”0”が格納されるようになっている。例え
ば、エージェントを表示装置27に画像表示する場合に
はフラグ”1”が立っている容姿のエージェントが表示
される。そして、ユーザによって別の名前が呼ばれる
と、それまで表示されていたエージェントのフラグ領域
を”0”に変更すると共に、呼ばれた名前に対応するエ
ージェントのフラグ領域を”1”に変更し、呼ばれたエ
ージェントが表示装置27に登場し、挨拶する。
【0043】なお、図7に示した名前データ296の最
上段に表示されたエージェントの容姿は、画像データ2
94に格納されている各エージェントの容姿のうち代表
的なポーズを取った状態の容姿を説明のために表示した
ものである。実際の名前データ296のエージェント容
姿の欄には、図7に示された各容姿に対応する画像デー
タ294の画像データと、音声関連データとを関連付け
るデータが格納されている。ただし、名前データ296
のエージェント容姿の欄に、画像データ294と音声関
連データとを関連付けるデータに加えて、図示されてい
るような実際の画像データを格納するようにしてもよ
い。この場合、後述する名前付け処理において、各エー
ジェントの代表容姿を表示装置27に一覧表示する場合
に、名前データ296に格納された容姿の画像データを
使用するようにする。また、図7の最下段に示した初期
名前は、各エージェントに対してシステム側が予め付け
た名前で、各ユーザが名前を付けていない場合にはこの
名前が使用されるようになっている。
【0044】図8は、ナビゲーションデータ記憶装置3
0(図1)に格納されるデータファイルの内容を表した
ものである。図8に示されるように、ナビゲーションデ
ータ記憶装置30には経路案内等で使用される各種デー
タファイルとして、通信地域データファイル301、描
画地図データファイル302、交差点データファイル3
03、ノードデータファイル304、道路データファイ
ル305、探索データファイル306、写真データファ
イル307が格納されるようになっている。このナビゲ
ーションデータ記憶装置4は、例えば、フロッピーディ
スク、ハードディスク、CD−ROM、光ディスク、磁
気テープ、ICカード、光カード等の各種記憶媒体と、
その駆動装置が使用される。なお、ナビゲーションデー
タ記憶装置4は、複数種類の異なる記憶媒体と駆動装置
で構成するようにしてもよい。例えば、検索データファ
イル46を読み書き可能な記憶媒体(例えば、フラッシ
ュメモリ等)で、その他のファイルをCD−ROMで構
成し、駆動装置としてそれらの駆動装置を用いるように
する。
【0045】通信地域データファイル301には、通信
制御装置24に接続される携帯電話や、接続せずに車内
で使用される携帯電話が、車両位置において通信できる
地域を表示装置27に表示したり、その通信できる地域
を経路探索の際に使用するための通信地域データが、携
帯電話のタイプ別に格納されている。この携帯電話のタ
イプ別の各通信地域データには、検索しやすいように番
号が付されて管理され、その通信可能な地域は、閉曲線
で囲まれる内側により表現できるので、その閉曲線を短
い線分に分割してその屈曲点の位置データによって特定
する。なお、通信地域データは、通信可能地を大小各種
の四角形エリアに分割し、対角関係にある2点の座標デ
ータによりデータ化するようにしてもよい。通信地域デ
ータファイル301に格納される内容は、携帯電話の使
用可能な地域の拡大や縮小に伴って、更新できるのが望
ましく、このために、携帯電話と通信制御装置24を使
用することにより、情報提供局との間で通信を行なっ
て、通信地域データファイル301の内容を最新のデー
タと更新できるように構成されている。なお、通信地域
データファイル301をフロッピーディスク、ICカー
ド等で構成し、最新のデータと書換えを行うようにして
も良い。描画地図データファイル302には、表示装置
27に描画される描画地図データが格納されている。こ
の描画地図データは、階層化された地図、例えば最上位
層から日本、関東地方、東京、神田といった階層ごとの
地図データが格納されている。各階層の地図データは、
それぞれ地図コードが付されている。
【0046】交差点データファイル303には、各交差
点を特定する交差点番号、交差点名、交差点の座標(緯
度と経度)、その交差点が始点や終点になっている道路
の番号、および信号の有無などが交差点データとして格
納されている。ノードデータファイル304には、各道
路における各地点の座標を指定する緯度、経度などの情
報からなるノードデータが格納されている。すなわち、
このノードデータは、道路上の一地点に関するデータで
あり、ノード間を接続するものをアークと呼ぶと、複数
のノード列のそれぞれの間をアークで接続することによ
って道路が表現される。道路データファイル305に
は、各道路を特定する道路番号、始点や終点となる交差
点番号、同じ始点や終点を持つ道路の番号、道路の太
さ、進入禁止等の禁止情報、後述の写真データの写真番
号などが格納されている。交差点データファイル30
3、ノードデータファイル304、道路データファイル
305にそれぞれ格納された交差点データ、ノードデー
タ、道路データからなる道路網データは、経路探索に使
用される。
【0047】探索データファイル306には、経路探索
により生成された経路を構成する交差点列データ、ノー
ド列データなどが格納されている。交差点列データは、
交差点名、交差点番号、その交差点の特徴的風景を写し
た写真番号、曲がり角、距離等の情報からなる。また、
ノード列データは、そのノードの位置を表す東経、北緯
などの情報からなる。写真データファイル307には、
各交差点や直進中に見える特徴的な風景等を撮影した写
真が、その写真番号と対応してディジタル、アナログ、
またはネガフィルムの形式で格納されている。
【0048】図9は、状況センサ部40を構成する各種
センサを表したものである。図9に示すように状況セン
サ部40は、イグニッションセンサ401、車速センサ
402、アクセルセンサ403、ブレーキセンサ40
4、サイドブレーキ検出センサ405、シフト位置検出
センサ406、ウィンカー検出センサ407、ワイパー
検出センサ408、ライト検出センサ409、シートベ
ルト検出センサ410、ドア開閉検出センサ411、同
乗者検出センサ412、室内温度検出センサ413、室
外温度検出センサ414、燃料検出センサ415、水温
検出センサ416、ABS検出センサ417、エアコン
センサ418、体重センサ419、前車間距離センサ4
20、後車間距離センサ421、体温センサ422、心
拍数センサ423、発汗センサ424、脳波センサ42
5、アイトレーサー426、赤外線センサ427、その
他のセンサ(タイヤの空気圧低下検出センサ、ベルト類
のゆるみ検出センサ、窓の開閉状態センサ、クラクショ
ンセンサ、室内湿度センサ、室外湿度センサ、油温検出
センサ、油圧検出センサ等)428等の車両状況や運転
者状況、車内状況等を検出する各種センサを備えてい
る。これら各種センサは、それぞれのセンシング目的に
応じた所定の位置に配置されている。なお、これらの各
センサは独立したセンサとして存在しない場合には、他
のセンサ検出信号から間接的にセンシングする場合を含
む。例えば、タイヤの空気圧低下検出センサは、車速セ
ンサの信号の変動により間接的に空気圧の低下を検出す
る。
【0049】イグニッションセンサ401は、イグニッ
ションのONとOFFを検出する。車速センサ402
は、例えば、スピードメータケーブルの回転角速度又は
回転数を検出して車速を算出するもの等、従来より公知
の車速センサを特に制限なく用いることができる。アク
セルセンサ403は、アクセルペダルの踏み込み量を検
出する。ブレーキセンサ404は、ブレーキの踏み込み
量を検出したり、踏み込み力や踏む込む速度等から急ブ
レーキがかけられたか否かを検出する。サイドブレーキ
検出センサ405は、サイドブレーキがかけられている
か否かを検出する。シフト位置検出センサ406は、シ
フトレバー位置を検出する。ウィンカー検出センサ40
7は、ウィンカの点滅させている方向を検出する。ワイ
パー検出センサ408は、ワイパーの駆動状態(速度
等)を検出する。ライト検出センサ409は、ヘッドラ
ンプ、テールランプ、フォグランプ、ルームランプ等の
各ランプの点灯状態を検出する。シートベルト検出セン
サ410は、運転者、及び同乗者(補助席、後部座席)
がシートベルトを着用しているか否かを検出する。着用
していない場合には適宜(嫌われない程度に学習しなが
ら)エージェントが現れ、警告、注意、コメント等(学
習により程度を変更する)を行う。
【0050】ドア開閉検出センサ411は、ドアの開閉
状態を検出し、いわゆる半ドアの場合には、エージェン
トがその旨を知らせる。ドア開閉検出センサ411は、
運転席ドア、助手席ドア、後部運転席側ドア、後部助手
席側ドア等の、車種に応じた各ドア毎の開閉を検出でき
るようになっている。同乗者検出センサ412は、助手
席や後部座席に同乗者が乗っているか否かを検出するセ
ンサで、撮像装置28で撮像された車内の画像から検出
し、または、補助席等に配置された圧力センサや、体重
計により検出する。室内温度検出センサ413は室内の
気温を検出し、室外温度検出センサ414は車両外の気
温を検出する。燃料検出センサ415は、ガソリン、軽
油等の燃料の残量を検出する。給油時直前における過去
5回分の検出値が学習項目データ292に格納され、そ
の平均値になった場合にエージェントが給油時期である
ことを知らせる。
【0051】水温検出センサ416は、冷却水の温度を
検出する。イグニッションON直後において、この検出
温度が低い場合には、エージェントが眠そうな行為をす
る場合が多い。逆に水温が高すぎる場合にはオーバーヒ
ートする前に、エージェントが「だるそう」な行動と共
にその旨を知らせる。ABS検出センサ417は、急ブ
レーキによるタイヤのロックを防止し操縦性と車両安定
性を確保するABSが作動したか否かを検出する。エア
コンセンサ418は、エアコンの操作状態を検出する。
例えば、エアコンのON・OFF、設定温度、風量等が
検出される。体重センサ419は、運転者の体重を検出
するセンサである。この体重から、または、体重と撮像
装置28の画像から運転者を特定し、その運転者との関
係で学習したエージェントを出現させるようにする。す
なわち、特定した運転者に対してエージェントが学習し
た、学習項目データ292と応答データ293を使用す
ることで、その運転者専用のエージェントを出現させる
ようにする。前車間距離センサ420は車両前方の他車
両や障害物との距離を検出し、後車間距離センサ421
は後方の他車両や障害物との距離を検出する。
【0052】体温センサ422、心拍数センサ423、
発汗センサ424は、それぞれ運転者の体温、心拍数、
発汗状態を検出するセンサで、例えば、ハンドル表面に
各センサを配置し運転者の手の状態から検出する。また
は、体温センサ422として、赤外線検出素子を使用し
たサーモグラフィーにより運転者の各部の温度分布を検
出するようにしても良い。脳波センサ425は、運転者
の脳波を検出するセンサで、例えばα波やβ波等を検出
して運転者の覚醒状態等を調べる。アイトレーサー42
6は、ユーザの視線の動きを検出し、通常運転中、車外
の目的物を捜している、車内目的物をさがしている、覚
醒状態等を判断する。赤外線センサ427は、ユーザの
手の動きや顔の動きを検出する。
【0053】次に、以上のように構成された本実施形態
の動作について説明する。図10は本実施形態のエージ
ェントによる処理のメイン動作を表したフローチャート
である。エージェント処理部11は、イグニッションが
ONされたことがイグニッションセンサ401で検出さ
れると、まず最初に初期設定を行う(ステップ11)。
初期設定としては、RAMのクリア、各処理用のワーク
エリアをRAMに設定、プログラム選択テーブル291
(図2)のRAMへのロード、フラグの0設定、等の処
理が行われる。なお、本実施形態のエージェント処理で
は、その処理の開始をイグニッションONとしたが、例
えばドア開閉検出センサ411によりいずれかのドアの
開閉が検出された場合に処理を開始するようにしてもよ
い。
【0054】次に、エージェント処理部11は、主とし
てユーザ情報297に格納された各種データに基づい
て、運転者の特定を行う(ステップ12)。すなわち、
エージェント処理部11は、運転者から先に挨拶がかけ
られたときにはその声を分析して運転者を特定したり、
撮像した画像を分析することで運転者を特定したり、体
重センサ419で検出した体重から運転者を特定した
り、設定されたシート位置やルームミラーの角度から運
転者を特定したりする。なお、特定した運転者について
は、後述のエージェントの処理とは別個に、「○○さん
ですか?」等の問い合わせをする特別のコミュニケーシ
ョンプログラムが起動され、運転者の確認が行われる。
【0055】運転者が特定されると、次にエージェント
処理部11は、現在の状況を把握する(ステップ1
3)。すなわち、エージェント処理部11は、状況情報
処理部15に状況センサ部40の各センサから供給され
る検出値や、撮像装置28で撮像した画像の処理結果
や、現在位置検出装置21で検出した車両の現在位置等
のデータを取得して、RAMの所定エリアに格納し、格
納したデータから現在状況の把握を行う。例えば、水温
検出センサ416で検出された冷却水の温度がt1であ
る場合、エージェント処理部11は、この温度t1をR
AMに格納すると共に、t1が所定の閾値t2以下であ
れば、車両の現在の状態として冷却水温(図2参照)は
低い状態であると把握する。現在の状況としては、他に
マイク26からの入力に基づいて音声認識した運転者の
要求、例えば、「○○○番に電話をしてくれ。」や「こ
の辺のレストランを表示してくれ。」や「CDをかけて
くれ。」等の要求も現在の状況として把握される。この
場合、認識した音声に含まれるワード「CD」「かけ
て」等がプログラム選択テーブル291(図2)の選択
条件(横軸項目)になる。さらにエージェント処理部1
1は、現在状況として、エージェントデータ記憶装置2
9の学習項目データ292と応答データ293をチェッ
クすることで、エージェントがこれまでに学習してきた
状態(学習データ)を把握する。
【0056】エージェント処理部11は、現在の状況を
把握すると、図11により後で詳述するように、把握し
た状況に応じたエージェントの処理を行う(ステップ1
4)。ここでのエージェントの処理としては、エージェ
ントによる判断、行為(行動+発声)、制御、学習、検
査等の各種処理が含まれるが、把握した現在の状況によ
っては何も動作しない場合も含まれる。
【0057】次に、エージェント処理部11は、メイン
動作の処理を終了するか否かを判断し(ステップ1
5)、終了でない場合には(ステップ15;N)、ステ
ップ13に戻って処理を繰り返す。一方を終了する場
合、すなわち、イグニッションがOFFされたことがイ
グニッションセンサ401で検出され(ステップ1
3)、室内灯の消灯等の終了処理(ステップ14)が完
了した後(ステップ15;Y)、メイン処理の動作を終
了する。
【0058】図11は、本実施形態による名前付け処理
の処理動作を表したフローチャートである。この名前付
け処理は、図10におけるメイン動作において、現在の
状況として名前付け処理が入力装置22や音声により選
択され(ステップ13)、把握状況に応じたエージェン
トの処理(ステップ14)として処理される。エージェ
ント処理部11は、ステップ12で特定した運転者に対
応するユーザエリアが名前データ296に存在するか否
かを確認し(ステップ21)、存在しない場合には(ス
テップ21;N)、ユーザエリアを確保する(ステップ
22)。
【0059】次にエージェント処理部11は、各エージ
ェントの代表的な容姿(図7に示した容姿)を画像デー
タ294から読み出して、表示装置27に一覧表示する
と共に、エージェントの選択、名前の音声入力と表記入
力を画像表示および音声により促す(ステップ23)。
そして、ユーザによりエージェントの画像が選択される
と(ステップ24;Y)、エージェントの名前について
音声によるか表記によるかを確認する(ステップ2
5)。マイク26からの音声入力であれば(ステップ2
5;Y)、エージェント処理部11は、入力された音声
から音声認識用の特徴パラメータを抽出して、該当する
ユーザ及びエージェントについての音声関連データとし
て名前データ296に格納する(ステップ26)。表示
装置27に表示されたキーボード等から名前の表記が入
力された場合には、入力された表記から音声合成用のデ
ータを作成し該当するユーザおよびエージェントについ
ての音声関連データとして名前データ296に格納する
(ステップ27)。
【0060】エージェント処理部11は、音声と表記の
両者が入力されたか判断し(ステップ28)、いずれか
一方のみの場合(;N)にはステップ25に戻って他方
の入力を待つ。音声と表記の入力が済むと、エージェン
ト処理部11は、名前付け処理の終了か否かを判断する
(ステップ29)。すなわち、ユーザによって名前付け
処理の終了が選択された否か、および、全てのエージェ
ント容姿に対する名前の入力が終了したか否かから判断
する。終了でない場合(ステップ29;N)、エージェ
ント処理部11は、ステップ23に戻り次のエージェン
トについての名前付けを行う。終了であれば(ステップ
29;Y)、名前付け処理を終了し、メインルーチンに
リターンする。
【0061】図12は、把握した状況に応じたエージェ
ントの処理動作を表したフローチャートである。エージ
ェント処理部11は、把握済みの現在の状況(起動回
数、現在の天気、時間等)から、図2に示したプログラ
ム選択テーブル291に基づいて、現在の状態で起動可
能なコミュニケーションプログラム(の番号)があるか
否かを判断し(ステップ31)、該当プログラムが無け
れば(ステップ31;N)、メインルーチンにリターン
する。一方、起動可能なコミュニケーションプログラム
がある場合(ステップ31;Y)、そのプログラム番号
を決定する。そして、決定したプログラム番号に対する
運転者の応答履歴を応答データ293から確認し、当該
プログラム番号のコミュニケーションプログラムの起動
を、お休みすべき状態か否かを確認する(ステップ3
2)。
【0062】お休み状態ではない場合(ステップ32;
N)、エージェント処理部11は、起動するコミュニケ
ーションプログラムが、車両や車両に搭載された各種機
器等の制御を行う制御プログラムかどうか確認し(ステ
ップ33)、制御プログラムの場合(ステップ33;
Y)はそのままこのコミュニケーションプログラムを起
動し、プログラムに従った制御を行う(ステップ3
9)。
【0063】コミュニケーションプログラムが制御プロ
グラムでない場合(ステップ33;N)には、画面に表
示すべきエージェントの容姿を決定する(ステップ3
4)。すなわち、エージェント処理部11は、名前デー
タ296の現ユーザ(ステップ12で特定した運転者)
に対応する各音声関連データのうちフラグが”1”であ
るエージェントの容姿を選択する。続いて、コミュニケ
ーションプログラムを、選択されているエージェントの
容姿の画像で起動することで、エージェントの行為(行
動と音声)に従った画像を表示装置27に表示すると共
に、音声出力装置25から音声出力する(ステップ3
5)。
【0064】そして、このコミュニケーションプログラ
ムが運転者からの応答を取得する応答取得プログラムで
ない場合(ステップ36;N)には、メインのルーチン
にリターンする。一方、このコミュニケーションプログ
ラムが応答取得プログラムの場合(ステップ36;Y)
には、エージェント処理部11は、コミュニケーション
プログラムの起動によるエージェント行為に対する運転
者の応答を、マイク26からの入力に基づく音声認識結
果や、入力装置22からの入力結果から取得する(ステ
ップ37)。この応答取得において、エージェント処理
部11は、マイク26からの入力に基づく音声認識結果
や入力装置22への入力結果から、起動されたコミュニ
ケーションプログラムによるエージェントの行為に対す
る運転者の応答と、エージェントの行為が出力されてか
ら運転者の応答を取得するまでの時間等を、取得する。
【0065】そして、エージェント処理部11は、今回
のコミュニケーションプログラムに関するデータを蓄積
することで、エージェントに学習をさせ(ステップ3
8)、メインルーチンにリターンする。データの蓄積と
しては、例えば、コミュニケーションプログラムの起動
がお休みである場合には(ステップ32;Y)、学習項
目データ292の該当プログラム番号の回数欄をカウン
トアップさせる。ただし、学習項目データ292のお休
み回数/日時欄に格納されている回数をKa回とし、当
該プログラム番号に対する前回までの応答データ293
の履歴から決まるお休み回数をKb回とした場合、Ka
=Kb−1であれば、今回のお休みで規定回数休んだこ
とになる。そこで、学習項目データ292及び応答デー
タ293の当該プログラム番号欄の(該当する位置に格
納されている)データをクリアする。
【0066】その他の場合(ステップ37の後、ステッ
プ39の後)には、把握済みの現在状況(ステップ1
3)の中に学習項目があれば学習項目データ292の値
を更新し、応答内容を履歴として格納すべきプログラム
番号であればステップ17で取得した応答内容を応答デ
ータ293(図6)に格納する。この応答の履歴も各プ
ログラム番号毎に規定された所定回数分のデータが既に
格納されている場合には、最も古いデータを廃棄して新
しいデータを格納する。更に、コミュニケーションプロ
グラムが応答取得プログラムであった場合(ステップ3
7の後)には、習熟度データ297(図8)を書き換え
る。このとき、ステップ37で取得した応答時間をもと
に、前5回の応答時間は最も古いデータを破棄して新し
いデータを格納し、この前5回の応答時間から応答平均
時間、応答最短時間を算出する。また、応答取り消し回
数は、応答取り消しが無かった場合には0を格納する。
そして、所定の式により習熟度を求め、この習熟度を格
納する。データの蓄積の後は、メインのルーチンへリタ
ーンする。
【0067】図13は、ユーザによってエージェントの
名前が呼ばれた場合のエージェント呼び出し処理の処理
動作を表したフローチャートである。マイク26から音
声が入力されると、音声制御部14は、音声認識用辞書
及び名前データ296の音声認識用パラメータから、入
力された音声の認識を行う(ステップ41)。そして、
認識した音声がエージェントの名前でなければ(ステッ
プ42;N)メインルーチンにリターンする。エージェ
ントの名前であれば(ステップ42;Y)、エージェン
ト処理部11は、認識した名前のエージェントと名前デ
ータ296のフラグ”1”が立っているエージェントと
一致しているか否かにより、呼ばれた名前が現在表示さ
れているエージェントの名前か否かを判断する(ステッ
プ43)。フラグが”1”のエージェントの名前が呼ば
れたのであれば(ステップ43;Y)、メインルーチン
にリターンする。フラグ”0”のエージェントの名前が
呼ばれたのであれば(ステップ43;N)、エージェン
ト処理部11は、現在表示されているエージェントに対
してたてられているフラグ”1”を”0”に変更し、呼
ばれた名前(ステップ41で認識した名前)のエージェ
ントのフラグを”1”に変更する(ステップ44)。
【0068】エージェント処理部11は、その後、表示
装置27に表示されているエージェントを、呼ばれたエ
ージェントの容姿に変更して「はーい!」といった返事
と共に画面に登場させ、挨拶をさせる(ステップ4
5)。この画面動作とあわせて、新たなエージェントと
交代するエージェントは、手を振りながら去っていくよ
うに画像表示させてもよい。以上の処理の後、メインル
ーチンにリターンする。そして、その後のエージェント
処理では、新たに立てられたフラグ”1”のエージェン
ト(新たに呼ばれたエージェント)との間でのコミュニ
ケーションが行われることになる。
【0069】なお、ユーザが各エージェントに対して付
けた名前を忘れた場合には、名前一覧を表示することが
できる。この表示をさせる場合には、入力装置22から
所定の操作をするか、または、音声により「なまえいち
らん」とマイク26から入力する。名前一覧が選択され
ると、図7に示した各エージェントの容姿と、各エージ
ェントの下にそのユーザが付けた名前とが表示装置27
に画面表示される。ユーザが未だ名前を付けていないエ
ージェントについては、初期名前が表示される。初期名
前についてはユーザが付けた名前と区別するために、表
示濃度を薄くしたり、カッコで括ったりして表示する。
【0070】以上説明したように、第1の実施形態によ
れば、複数のエージェントをその容姿毎に名前を付け、
また変更することができるので、付けた名前を呼ぶこと
で該当するエージェントを容易に呼び出すことができ
る。また、ユーザにとってみると、自分が名付け親にな
るため、エージェントに対してより親近感を持って接す
ることができる。
【0071】なお、以上説明した第1の実施形態では、
表示装置27に表示されるエージェントの容姿と、その
容姿に対応してユーザが選択した(又はシステムによっ
て予め決められた)音質(女性、男性、大人、子供等の
声質)が変更されるのみであり、ユーザとの間で行うコ
ミュニケーションの内容(会話内容や、行動内容、制御
内容など)はエージェントを変更しても同一であるが、
次のように変形することも可能である。すなわち、エー
ジェントの容姿に対応して選択されるコミュニケーショ
ンプログラム(図2、図3)の内容を変更するようにし
てもよい。例えば、美人秘書風の容姿を持ったエージェ
ントの場合操作説明、落ち着いた対応、スケジュール管
理、操作代行、諭すように注意を促す等の行動が比較的
多くなり、女子高生風のエージェントの場合には、明る
く行動しユーザに対する話しかけの頻度が比較的多くな
るようにする。これらエージェントの行為(行動と発
声)を各エージェントの容姿に対応して変化させること
で、ユーザは、異なる疑似人格を持った種々のエージェ
ントとコミュニケーションをしているように感じること
ができ、一層の親近感を持つことができる。
【0072】(3)第2の実施形態の詳細 次に第2の実施形態について説明する。この第2の実施
形態では、エージェントが行う各種処理を複数のエージ
ェント(それぞれ異なる容姿のエージェント)に機能分
担させるようにし、各エージェントに対してユーザが自
由に名前を付けることができるようにしたものである。
この第2の実施形態におけるエージェント装置の構成お
よび処理動作については、主として第1の実施形態と異
なる点について説明し、第1の実施形態と同様な部分に
ついてはその説明を適宜省略することとする。
【0073】図14は、第2実施形態における名前デー
タ296の内容を概念的に表したものである。この図に
示すように、名前データ296には、図7に示した各デ
ータに加えて、各エージェントが担当する機能名と、そ
の機能を簡単に説明するための解説データからなる機能
データが格納されている。各エージェントが担当する機
能(機能名)としては、図7に示されるように、総合案
内機能、ヘルプ機能、ナビゲーション機能、その他、オ
ーディオ機能、エアコン機能などがある。
【0074】この実施形態では、図11で示した名前付
け処理のステップ23において、名前データ296から
各エージェントが担当する機能名と解説が読み出され、
当該エージェントの容姿と共に、表示装置27に表示さ
れる。ユーザは、各エージェントの機能を確認しながら
容姿を指定し(ステップ24)気に入った名前を自由に
付けることができる。例えば、機能を連想させる名前と
して、総合案内機能のエージェントに「あん」、ヘルプ
機能のエージェントに「へるぷくん」や「おたすけく
ん」、ナビゲーション機能のエージェントに「なびちゃ
ん」等の名前を付けることで、各機能を容易に思い出す
ことができるようになる。また、知人の名前や芸能人の
名前を付けたり、いつも助けてもらった学校の先生がい
る場合にその先生の名前をヘルプ機能のエージェントに
付けたりすることができる。なお、本実施形態の名前デ
ータ296の各音声関連データには、フラグ領域は存在
せず、”1”、”0”のフラグは格納されない。これ
は、各エージェントがそれぞれの担当する機能を分担し
ており、複数のエージェントが画面に登場する場合があ
るからである。
【0075】第1の実施形態では、現在表示されている
エージェントと別の名前が呼ばれると、現在のエージェ
ントが行っているコミュニケーションの内容を新たに呼
ばれたエージェントが引き継いで行うが、本実施形態で
は、ユーザに呼ばれた名前のエージェントは、担当する
機能の処理を別途行うことになる。例えば、ナビゲーシ
ョン機能のエージェントとの間で目的地設定を行ってい
る場合に、途中でオーディオ機能のエージェントの名前
を呼ぶと直ちにそのエージェントが表示装置27の画面
に登場し、オーディオの設定を行うことができる用にな
る。このオーディオの設定が行われている間、処理途中
にあるナビゲーション機能のエージェントは、オーディ
オ設定画像と重ならない位置(例えば、画面の右下な
ど)を選択して待機(例えば、膝を抱えて座った状態で
待機)し、オーディオ設定が終了すると立ち上がり、中
断していた目的地設定を継続する。
【0076】このように、本実施形態では、ユーザは、
希望する処理を担当するエージェントの名前を呼ぶこと
で、直ちにその機能の処理を行うことができ、操作性が
向上することになる。また、各機能を連想するような名
前を付けることができるので、容易に必要な機能のエー
ジェントを呼び出すことができる。
【0077】なお、以上説明した第2の実施形態では、
各機能を分担するエージェントの容姿が予め決められて
いたが、各機能に対応するエージェントの容姿を自由に
選択できるようにしてもよい。この場合、エージェント
の容姿と名前が決められていない機能については、総合
案内機能を担当するエージェントが処理する。エージェ
ントの容姿については、名前付け処理において、ユーザ
がエージェントの容姿を指定した後に、その容姿のエー
ジェントが担当する機能を画面から指定する(又は機能
名をユーザが音声入力する)ことで対応付けを行う。機
能が決定した後に、そのエージェントの名前を指定(音
声入力、表記入力)することになる。
【0078】この第2実施形態の変形例では、図7に示
した総合案内機能、ヘルプ機能等の各機能を更に細分化
し、細分化した機能を指定してエージェントの容姿と名
前を対応付けるようにしてもよい。これにより、細分化
した機能のエージェントの名前を呼ぶことで直ちに当該
機能の処理を行うことができるので、エージェントの名
前をショートカット的に使用することが可能になる。例
えば、ナビゲーション機能における目的地設定を駅名か
ら行う場合、通常であればナビゲーション機能のエージ
ェントを呼び出し、その後「目的地設定」を選択し、そ
の画面表示項目から「地名索引」を選択し、その画面表
示項目から「駅」を選択し、その後、駅の「県名」、
「鉄道名」を指定した後に表示される希望の駅名を選択
することになる。しかし、この変形例を使用して、「目
的地設定」−「地名索引」−「駅」まで設定した後の、
「県名」を表示して選択していく処理部分(機能)に対
してエージェントの容姿と名前(例えば、「もちえ」)
を付けるようにしてもよい。これにより、例えば、オー
ディオ機能のエージェントとの間でラジオの設定処理を
行っている途中であっても、ユーザは「もちえ」と発声
することで該当するエージェントが上位の処理をショー
トカットして「県名」の選択以降の処理をアシストして
くれることになる。
【0079】以上説明した第1の実施形態及び第2の実
施形態では、各エージェントの名前をユーザが自由に付
けることができるようにしたが、予め用意した複数のエ
ージェント名をリスト表示し、この中からユーザが名前
とエージェントの容姿とを選択するようにしてもよい。
これにより、ユーザは名前についての音声入力処理や表
記入力処理をすることが不要になり、操作性が向上す
る。なお、予め用意したエージェント名のリストから選
択して名前を付けることも、ユーザが自由に決めた名前
を付けることも、両者可能なようにしてもよい。ユーザ
が自由に決めた名前の場合には第1、第2の実施形態と
同様に、その名前を音声入力すると共に表記を入力する
必要がある。
【0080】また、ユーザが付けた名前の呼びかけをエ
ージェントの成長の仕方や学習に利用するようにしても
よい。例えば、一定回数以上の呼びかけがあったエージ
ェントの容姿や行動が成長するようにする。また、エー
ジェントの呼びかけ回数が増えるに従って、より細かい
提案をユーザに対して行うようにしてもよい。
【0081】(4)第3の実施形態 次に第3の実施形態の詳細について説明する。この第3
の実施形態についても、その構成と動作については基本
的に第1の実施形態と同一であり、以下の説明では同一
部分の説明を適宜省略して異なる部分を中心に説明す
る。この第3の実施形態では、学習状態に応じてエージ
ェントの登場パターンを変化させるようにしたものであ
る。例えば、第1の実施形態により図7に示されるよう
に各エージェントに名前が付けられているものとする。
そして、表示装置27にエージェント「なみ」が表示さ
れている状態で、ユーザAがエージェント「みか」の名
前を呼んだ場合、その入力音声に対する音声認識結果の
確からしさの程度によってエージェントの登場の仕方を
かえる。
【0082】図15は、ステップ13における現在の把
握状況に応じたエージェントの登場の仕方を決定するテ
ーブルを表したものである。このテーブルはエージェン
トデータ記憶装置29に格納されている。この図15に
示されるように、ユーザAが呼んだエージェントの名前
「みか」に対する認識結果の確かさが高い場合には、図
7の左側に表示された容姿のエージェントが表示装置2
7の画面に体全体を表示して堂々と登場する。また、認
識結果の確かさが中位の場合には、エージェントは体半
分を表示して不安そうな表情(例えば、少し眉毛をよ
せ、うつむきかげんで、僅かにほほを赤く染めた表情)
で登場する。さらに、認識結果の確からしさが低い場合
には、顔だけ表示しのぞき込むような表情で登場する。
【0083】なお、上記説明では、現在の把握状況とし
て音声認識の結果を例に説明したが、その他、イグニッ
ションがONされたときの登場の仕方や、画面が切り替
わった場合の登場の仕方、ユーザが特定操作をした場合
の登場の仕方について、それぞれ車両等や学習状況など
により登場の仕方を変更するようにしてもよい。例え
ば、画面右側から登場、画面左側から登場、画面上から
登場、画面下から登場、画面右上から登場、…というよ
うに、イグニッションONされる毎に前回登場した位置
と異なる位置から登場するようにしてもよい。また、ユ
ーザが付けた名前の呼びかけが一定回数以上になる毎に
登場のパターンを変えるようにしてもよい。例えば、ユ
ーザがエージェントの名前を付けた後、20回登場する
まではゆっくりと歩きながら画面中央まで進んで(最初
は小さな体が表示され歩行に合わせて徐々に大きな体に
なるように表示する)挨拶をするが、21回目以降は、
10回毎に画面中央に突然登場したり、フェード処理
(最初は薄い画像表示から徐々に濃い画像表示に代わ
る)により登場したりする。
【0084】この第3の実施形態によれば、エージェン
トの登場パターンを種々変化させることで、エージェン
トに対する親近感を高めることができる。なお、説明し
た実施形態では、エージェントに関して第1の実施形態
で説明したように複数のエージェントが存在し、各エー
ジェントに名前が付けられる場合を例に説明したが、エ
ージェントの容姿が1種類のみで、かつ名前もシステム
によって予め付けられた名前のみで変更できないような
場合であっても、現在の把握状況(ステップ13)に応
じて、種々のパターンでエージェントが登場するように
することも可能であり、この場合であっても登場パター
ンのバリエーションを豊富にすることでエージェントに
対する親近感を高めることができる。
【0085】(5)第4の実施形態 次に第4の実施形態について説明する。この第4の実施
形態についても、その構成と動作については基本的に第
1の実施形態と同一であり、以下の説明では同一部分の
説明を適宜省略して異なる部分を中心に説明する。この
第4の実施形態では、エージェントの動作に併せて音を
出力することにより、エージェントの存在を明確にする
ようにしたものである。例えば、第1の実施形態により
図7に示されるように各エージェントに名前が付けられ
ているものとする。そして、表示装置27にエージェン
ト「なみ」が表示されている状態で、ユーザAがエージ
ェント「みか」の名前を呼んだ場合、その入力音声に対
する音声認識結果の確からしさの程度によって、効果音
やBGM(背景音楽)を変更する。本実施形態の効果音
とBGMについては、その両者が使用され、効果音の後
にBGMが流れるようになっているが、ユーザによるモ
ード変更でいずれか一方のみとすることができる。現在
の把握状況に応じて出力されるBGMは、CD(コンパ
クトディスク)や、カセットテープ、MD等を利用する
が、予め決められた複数の曲のデータ(アナログ、ディ
ジタル)をエージェントデータ記憶装置29に格納して
おくようにしてもよい。この実施形態では第3の実施形
態と同様に、エージェントが登場するパターンを変更す
るが、登場パターンとは関係なく効果音等を出力するよ
うにしてもよい。
【0086】図16は、ステップ13における現在の把
握状況に応じた効果音及びBGMを決定するテーブルを
表したものである。このテーブルもエージェントデータ
記憶装置29に格納されている。この図16に示される
ように、ユーザAが呼んだエージェントの名前「みか」
に対する認識結果の確かさが高い場合には、「ジャー
ン」という効果音が流れた後、交響曲のBGMと共に図
7の左側に表示された容姿のエージェントが表示装置2
7の画面に体全体を表示して堂々と登場する。また、認
識結果の確かさが中位の場合には、「ポーン」という軽
い効果音が流れた後、バイオリンソナタのBGMと共に
エージェントは体半分を表示して不安そうな表情(例え
ば、少し眉毛をよせ、うつむきかげんで、僅かにほほを
赤く染めた表情)で登場する。さらに、認識結果の確か
らしさが低い場合には、「ブー」という効果音が流れた
後、ピアノソナタのBGMと共にエージェントが顔だけ
表示しのぞき込むような表情で登場する。
【0087】なお、上記説明では、現在の把握状況とし
て音声認識の結果を例に説明したが、その他、学習の結
果エージェントが成長する毎に効果音を出力したり、時
間、季節、場所に応じたBGM(音楽)が流れたりする
ようにしてもよい。また、効果音やBGMについては、
エージェントの存在を明確に認識させるだけでなく、車
両運転状態を認識させるための効果音やBGM、エージ
ェントの行為を認識させるための効果音やBGMを流す
ようにしてもよい。例えば、実際にはタイヤの音がして
いなくても、運転者がある程度の急ハンドルをきった場
合に、「キキッー」といった音を出力しそれに伴ってエ
ージェントがハンドルを切った方向に移動する(急ハン
ドルの程度によっては倒れる。)ことで、急ハンドルを
運転者に認識させることができる。また、サイドブレー
キを引いたまま発進しようとした場合に「ギギギィ」と
いった効果音を出すようにしてもよい。
【0088】
【発明の効果】本発明のエージェント装置によれば、本
発明は、現在の車両・運転者の状況だけでなく、過去の
履歴等に基づく学習結果から擬人化されたエージェント
が状況に合わせた行為をし、運転者とのコミュニケーシ
ョンをはかることができる。そして、各エージェントに
対してユーザが自由に名前を付け、その名前でエージェ
ントを呼び出すことができるので、エージェントに対す
る親近感を高めることができる。また、特定のエージェ
ントを比較的容易に呼び出すことが可能になり、操作性
が向上する。また、本発明は、エージェントの登場の仕
方、または、効果音やBGMが車両の状況などによって
変化するので、よりエージェントとの親近感を高めるこ
とができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態におけるコミュニケー
ション機能を実現するための構成を示すブロック図であ
る。
【図2】同上、実施形態におるプログラム選択テーブル
の内容を概念的にあらわした説明図である。
【図3】同上、実施形態において、各プログラム番号に
対応するエージェントの行為(行動と音声)を表した説
明図である。
【図4】同上、実施形態におけるプログラム番号000
01〜00002の起動により表示装置に表示されるエ
ージェントの「かしこまってお辞儀」行動についての数
画面を表した説明図である。
【図5】同上、実施形態における学習項目データの内容
を概念的に表した説明図である。
【図6】同上、実施形態における応答データの内容を概
念的に表した説明図である。
【図7】同上、第1の実施形態における名前データの内
容を概念的に表した説明図である。
【図8】同上、実施形態におけるナビゲーションデータ
記憶装置に格納されるデータファイルの内容を概念的に
表した説明図である。
【図9】同上、実施形態における状況センサ部を構成す
る各種センサを表した説明図である。
【図10】同上、実施形態においてエージェントによる
メイン動作を表したフローチャートである。
【図11】同上、実施形態による名前付け処理の動作を
表したフローチャートである。
【図12】同上、実施形態によるエージェント処理の動
作を表したフローチャートである。
【図13】同上、実施形態によるエージェント呼び出し
処理の動作を表したフローチャートである。
【図14】同上、第2の実施形態における名前データの
内容を概念的に表したフローチャートである。
【図15】同上、第3の実施形態における、現在の把握
状況に応じたエージェントの登場の仕方を決定するテー
ブルを表した説明図である。
【図16】同上、第4の実施形態における、現在の把握
状況に応じた効果音及びBGMを決定するテーブルを表
した説明図である。
【符号の説明】
1 全体処理部 10 ナビゲーション処理部 11 エージェント処理部 12 I/F部 13 画像処理部 14 音声制御部 15 状況情報処理部 21 現在位置検出装置 22 入力装置 23 記憶媒体駆動装置 24 通信制御装置 25 音声出力装置 26 マイク 27 表示装置 28 撮像装置 29 エージェントデータ記憶装置 290 エージェントプログラム 291 プログラム選択テーブル 292 学習項目データ 293 応答データ 294 画像データ 296 名前データ 297 ユーザ情報 30 ナビゲーションデータ記憶装置 40 状況センサ部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 松田 学 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 足立 和英 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 向井 康二 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 Fターム(参考) 2F029 AA02 AB09 AC02 AC14 AC16 5H180 BB12 BB13 BB20 CC02 CC04 FF04 FF05 FF22 FF25 FF33 FF40 LL20

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 擬人化された複数のエージェントに対
    し、その名前を入力する名前入力手段と、 この名前入力手段で入力されたエージェントの名前を記
    憶する名前記憶手段と、 呼ばれた名前を認識する音声認識手段と、 この音声認識手段により認識された名前に対応するエー
    ジェントを前記名前記憶手段に記憶された名前から特定
    し、車両内に出現させるエージェント出現手段と、 車両の状況を判断する状況判断手段と、 前記状況判断手段により判断された状況からエージェン
    トの行為を決定する行為決定手段と、 この行為決定手段で決定された行為を、前記エージェン
    ト出現手段により出現されるエージェントに行わせるエ
    ージェント制御手段と、を具備することを特徴とするエ
    ージェント装置。
  2. 【請求項2】 前記複数のエージェントは、所定単位の
    行為を分担して行う、ことを特徴とする請求項1に記載
    のエージェント装置。
  3. 【請求項3】 擬人化されたエージェントを車両内に出
    現させるエージェント出現手段と、 車両の状況を判断する状況判断手段と、 前記状況判断手段により判断された状況から、エージェ
    ントの行為を決定する行為決定手段と、 前記状況判断手段により判断された状況から、エージェ
    ントが登場するパターンを決定する登場パターン決定手
    段と、 前記エージェント出現手段により出現されるエージェン
    トを、前記登場パターン決定手段により決定されたパタ
    ーンに従って登場させると共に、前記行為決定手段で決
    定された行為を当該エージェントに行わせるエージェン
    ト制御手段と、を具備することを特徴とするエージェン
    ト装置。
  4. 【請求項4】 擬人化されたエージェントを車両内に出
    現させるエージェント出現手段と、 車両の状況を判断する状況判断手段と、 前記状況判断手段により判断された状況から、エージェ
    ントの行為を決定する行為決定手段と、 前記状況判断手段により判断された状況から、出力音を
    決定する音決定手段と、 前記行為決定手段で決定された行為を、前記エージェン
    ト出現手段により出現されるエージェントに行わせるエ
    ージェント制御手段と、 前記音決定手段により決定された出力音を、前記エージ
    ェント制御手段によりエージェントが行う行為に併せて
    出力する音出力手段と、を具備することを特徴とするエ
    ージェント装置。
  5. 【請求項5】 前記状況判断手段による所定の状況を記
    憶することで学習する学習手段を有し、 前記行為決定手段は、この学習手段による学習結果を含
    めて前記エージェントの行為を決定することを特徴とす
    る請求項1、請求項2、請求項3、又は請求項4に記載
    のエージェント装置。
JP10208583A 1998-07-07 1998-07-07 エージェント装置 Pending JP2000020888A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10208583A JP2000020888A (ja) 1998-07-07 1998-07-07 エージェント装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10208583A JP2000020888A (ja) 1998-07-07 1998-07-07 エージェント装置

Publications (1)

Publication Number Publication Date
JP2000020888A true JP2000020888A (ja) 2000-01-21

Family

ID=16558598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10208583A Pending JP2000020888A (ja) 1998-07-07 1998-07-07 エージェント装置

Country Status (1)

Country Link
JP (1) JP2000020888A (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001227962A (ja) * 2000-02-15 2001-08-24 Fujitsu Ten Ltd ナビゲーション装置
WO2002001409A1 (fr) * 2000-06-27 2002-01-03 Think Forest Corporation Systeme de recherche en temps reel dans deux directions dote d'un circuit de fibre optique
WO2003042002A1 (fr) * 2001-11-13 2003-05-22 Kabushiki Kaisha Equos Research Appareil de creation de donnees
JP2003521698A (ja) * 2000-02-04 2003-07-15 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング ナビゲーションシステムおよびナビゲーションシステムをコンフィギュレーションする方法
JP2004017939A (ja) * 2002-06-20 2004-01-22 Denso Corp 車両用情報報知装置及びプログラム
JP2004053251A (ja) * 2001-11-13 2004-02-19 Equos Research Co Ltd 車載装置、データ作成装置、及びデータ作成プログラム
WO2004078526A1 (ja) * 2003-03-05 2004-09-16 Yamaha Corporation 車両における状態及び操作報知装置及びプログラム
CN100364813C (zh) * 2003-03-05 2008-01-30 雅马哈株式会社 车辆状态和操作告知设备及方法
WO2008044325A1 (fr) * 2006-10-13 2008-04-17 Frepar Networks Kabushiki Kaisha Système de fourniture d'informations
JP2009514734A (ja) * 2005-11-11 2009-04-09 フオルクスヴアーゲン アクチエンゲゼルシヤフト 有利には自動車内に設けられる情報装置と、車両データを通知するための方法、とりわけ車両機能および該車両機能の操作に関する情報を通知するための方法
JP2017208091A (ja) * 2017-05-16 2017-11-24 株式会社ユピテル 車両用システム及びプログラム
JP2018024424A (ja) * 2017-10-02 2018-02-15 株式会社ユピテル 運転支援システムおよび運転支援プログラム
JP2018197054A (ja) * 2017-05-23 2018-12-13 カルソニックカンセイ株式会社 情報表示装置
WO2020070878A1 (ja) * 2018-10-05 2020-04-09 本田技研工業株式会社 エージェント装置、エージェント制御方法、およびプログラム
JP2020144618A (ja) * 2019-03-06 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020149106A (ja) * 2019-03-11 2020-09-17 本田技研工業株式会社 エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム
WO2021039456A1 (ja) 2019-08-27 2021-03-04 ソニー株式会社 エージェント提供システム、エージェント提供方法、及び記録媒体
US10956761B2 (en) 2018-11-14 2021-03-23 Honda Motor Co., Ltd. Control apparatus, control method agent apparatus, and computer readable storage medium
CN113632152A (zh) * 2019-03-15 2021-11-09 本田技研工业株式会社 车辆通信装置和程序
US11468888B2 (en) 2018-11-14 2022-10-11 Honda Motor Co., Ltd. Control apparatus, control method agent apparatus, and computer readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06239186A (ja) * 1993-02-17 1994-08-30 Fujitsu Ten Ltd 車載用電子装置
JPH0990963A (ja) * 1995-09-20 1997-04-04 Hitachi Ltd 音情報提供装置、及び音情報選択方法
JPH09287972A (ja) * 1996-04-24 1997-11-04 Denso Corp 車両用経路案内装置
JPH10149271A (ja) * 1996-11-19 1998-06-02 D M L:Kk ユーザーインターフェースシステム
JPH10293709A (ja) * 1997-04-18 1998-11-04 Casio Comput Co Ltd 情報処理装置及び記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06239186A (ja) * 1993-02-17 1994-08-30 Fujitsu Ten Ltd 車載用電子装置
JPH0990963A (ja) * 1995-09-20 1997-04-04 Hitachi Ltd 音情報提供装置、及び音情報選択方法
JPH09287972A (ja) * 1996-04-24 1997-11-04 Denso Corp 車両用経路案内装置
JPH10149271A (ja) * 1996-11-19 1998-06-02 D M L:Kk ユーザーインターフェースシステム
JPH10293709A (ja) * 1997-04-18 1998-11-04 Casio Comput Co Ltd 情報処理装置及び記憶媒体

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003521698A (ja) * 2000-02-04 2003-07-15 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング ナビゲーションシステムおよびナビゲーションシステムをコンフィギュレーションする方法
JP2001227962A (ja) * 2000-02-15 2001-08-24 Fujitsu Ten Ltd ナビゲーション装置
WO2002001409A1 (fr) * 2000-06-27 2002-01-03 Think Forest Corporation Systeme de recherche en temps reel dans deux directions dote d'un circuit de fibre optique
WO2003042002A1 (fr) * 2001-11-13 2003-05-22 Kabushiki Kaisha Equos Research Appareil de creation de donnees
JP2004053251A (ja) * 2001-11-13 2004-02-19 Equos Research Co Ltd 車載装置、データ作成装置、及びデータ作成プログラム
JP2004017939A (ja) * 2002-06-20 2004-01-22 Denso Corp 車両用情報報知装置及びプログラム
WO2004078526A1 (ja) * 2003-03-05 2004-09-16 Yamaha Corporation 車両における状態及び操作報知装置及びプログラム
CN100364813C (zh) * 2003-03-05 2008-01-30 雅马哈株式会社 车辆状态和操作告知设备及方法
JP2009514734A (ja) * 2005-11-11 2009-04-09 フオルクスヴアーゲン アクチエンゲゼルシヤフト 有利には自動車内に設けられる情報装置と、車両データを通知するための方法、とりわけ車両機能および該車両機能の操作に関する情報を通知するための方法
WO2008044325A1 (fr) * 2006-10-13 2008-04-17 Frepar Networks Kabushiki Kaisha Système de fourniture d'informations
JP2017208091A (ja) * 2017-05-16 2017-11-24 株式会社ユピテル 車両用システム及びプログラム
JP2018197054A (ja) * 2017-05-23 2018-12-13 カルソニックカンセイ株式会社 情報表示装置
JP2018024424A (ja) * 2017-10-02 2018-02-15 株式会社ユピテル 運転支援システムおよび運転支援プログラム
WO2020070878A1 (ja) * 2018-10-05 2020-04-09 本田技研工業株式会社 エージェント装置、エージェント制御方法、およびプログラム
JP7133029B2 (ja) 2018-10-05 2022-09-07 本田技研工業株式会社 エージェント装置、エージェント制御方法、およびプログラム
CN112805182B (zh) * 2018-10-05 2024-01-12 本田技研工业株式会社 智能体装置、智能体控制方法及存储介质
US11798552B2 (en) 2018-10-05 2023-10-24 Honda Motor Co., Ltd. Agent device, agent control method, and program
CN112805182A (zh) * 2018-10-05 2021-05-14 本田技研工业株式会社 智能体装置、智能体控制方法及程序
JPWO2020070878A1 (ja) * 2018-10-05 2021-09-02 本田技研工業株式会社 エージェント装置、エージェント制御方法、およびプログラム
US11468888B2 (en) 2018-11-14 2022-10-11 Honda Motor Co., Ltd. Control apparatus, control method agent apparatus, and computer readable storage medium
US10956761B2 (en) 2018-11-14 2021-03-23 Honda Motor Co., Ltd. Control apparatus, control method agent apparatus, and computer readable storage medium
JP2020144618A (ja) * 2019-03-06 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP7175221B2 (ja) 2019-03-06 2022-11-18 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
CN111667823B (zh) * 2019-03-06 2023-10-20 本田技研工业株式会社 智能体装置、智能体装置的控制方法及存储介质
CN111667823A (zh) * 2019-03-06 2020-09-15 本田技研工业株式会社 智能体装置、智能体装置的控制方法及存储介质
US11532303B2 (en) 2019-03-11 2022-12-20 Honda Motor Co., Ltd. Agent apparatus, agent system, and server device
JP7211856B2 (ja) 2019-03-11 2023-01-24 本田技研工業株式会社 エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム
JP2020149106A (ja) * 2019-03-11 2020-09-17 本田技研工業株式会社 エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム
CN113632152A (zh) * 2019-03-15 2021-11-09 本田技研工业株式会社 车辆通信装置和程序
WO2021039456A1 (ja) 2019-08-27 2021-03-04 ソニー株式会社 エージェント提供システム、エージェント提供方法、及び記録媒体
US11880922B2 (en) 2019-08-27 2024-01-23 Sony Group Corporation Agent providing system, agent providing method, and recording medium

Similar Documents

Publication Publication Date Title
JP3918850B2 (ja) エージェント装置
JP3873386B2 (ja) エージェント装置
JPH11259271A (ja) エージェント装置
JP4193300B2 (ja) エージェント装置
JPH11259446A (ja) エージェント装置
JP2000020888A (ja) エージェント装置
JP5019145B2 (ja) 運転者情報収集装置
JP3965538B2 (ja) エージェント装置
JP4085500B2 (ja) 車両状況把握装置、エージェント装置、および、車両制御装置
JP2000266551A (ja) 目的地設定装置及びエージェント装置
JP4441939B2 (ja) 目的地設定装置
JP2000181500A (ja) 音声認識装置及びエ―ジェント装置
JPH11272640A (ja) エージェント装置
JP4253918B2 (ja) エージェント装置
JP2000186942A (ja) エ―ジェントメンタルモデル作成装置、及びエ―ジェント装置
JP2001235343A (ja) 情報出力装置
JP4284733B2 (ja) エージェント装置
JP4259054B2 (ja) 車載装置
JP4032492B2 (ja) エージェント装置
JP2003106846A (ja) エージェント装置
JP2004037953A (ja) 車載装置、データ作成装置、及びデータ作成プログラム
JP2000203465A (ja) 情報記録装置
JP2004163232A (ja) 車載装置、データ作成装置、データ作成プログラム、及び車載用エージェントシステム
JP2004050975A (ja) 車載装置、データ作成装置、及びデータ作成プログラム
JP2004051074A (ja) 車載装置、データ作成装置、及びデータ作成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060822

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061219