JPH11259271A - エージェント装置 - Google Patents

エージェント装置

Info

Publication number
JPH11259271A
JPH11259271A JP10082710A JP8271098A JPH11259271A JP H11259271 A JPH11259271 A JP H11259271A JP 10082710 A JP10082710 A JP 10082710A JP 8271098 A JP8271098 A JP 8271098A JP H11259271 A JPH11259271 A JP H11259271A
Authority
JP
Japan
Prior art keywords
agent
voice
vehicle
action
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10082710A
Other languages
English (en)
Inventor
Tomoki Kubota
智氣 窪田
Koji Hori
孝二 堀
Manabu Matsuda
松田  学
Kazuhide Adachi
和英 足立
Koji Mukai
康二 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AQUEOUS Research KK
AQUEOUS RESERCH KK
Original Assignee
AQUEOUS Research KK
AQUEOUS RESERCH KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AQUEOUS Research KK, AQUEOUS RESERCH KK filed Critical AQUEOUS Research KK
Priority to JP10082710A priority Critical patent/JPH11259271A/ja
Priority to US09/119,238 priority patent/US6249720B1/en
Priority to EP98113679A priority patent/EP0893308B1/en
Priority to DE69836846T priority patent/DE69836846T2/de
Publication of JPH11259271A publication Critical patent/JPH11259271A/ja
Priority to JP2005098224A priority patent/JP3918850B2/ja
Priority to JP2005098227A priority patent/JP2005313886A/ja
Priority to JP2005098226A priority patent/JP2005293587A/ja
Priority to JP2005098223A priority patent/JP2005313885A/ja
Priority to JP2005098225A priority patent/JP3891202B2/ja
Priority to JP2008156559A priority patent/JP4353310B2/ja
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】 擬人化されたエージェントが発声する音声の
出力形態が各種条件によって決定され、その出力形態に
応じた発声をエージェントがすることで運転者とのコミ
ュニケーションをはかることが可能な車両を提供する。 【解決手段】 擬人化されたエージェントを画像と音声
により車両内に出現させる。そして、エージェントが運
転者とのコミュニケーションを行う場合の会話を構成す
る音声(音質)を、車両状態や、エージェントに関する
ユーザの好み、外的要因、時間、エージェントの性格
(職業)設定等に基づき、音声出力形態決定テーブル2
97を使用して切り替えることにより、より人間的なシ
ステムとする。例えば、状況に応じて、大きな声でエー
ジェントが話したり、落ち着いて話したり、機嫌良さそ
うに話したりする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、エージェント装置
に係り、例えば、擬人化されたエージェントを相手に車
両内での会話等が可能なコミュニケーション機能を備え
たエージェント装置に関する。
【0002】
【従来の技術】従来車両内において、運転者による走行
環境を向上させるようにしたものとして、ラジオやカセ
ットテーププレーヤが搭載されている。また、車両に搭
載したアマチュア無線機や携帯電話等の無線通信機器を
使用して、車両外の知人等との会話を楽しむことで、走
行環境を向上させるようにした車両もある。
【0003】
【発明が解決しようとする課題】このように従来の車両
におけるラジオ等では運転者に対して一方向の情報提示
にすぎず、双方向の会話等をすることができなかった。
一方、携帯電話等による場合には会話をすることができ
るが、コール待ち、ダイヤル等によって通話相手を捜さ
なければならなかった。たとえ、通話相手が見つかった
としても、車両の状況といった運転者の一方的な都合に
あわせた、適切な会話をしてくれるわけではなかった。
このように、従来の車両には、車両の過去の状態などの
履歴・運転者の状態に応じて、擬人化されたエージェン
トが存在しないため、車両が愛着のわかないただの乗り
物としての道具でしか役割を持たない場合もあった。
【0004】なお、運転者に対する情報の伝達を、人間
の表情や動作などにより行うようにした技術が特開平9
−102098号公報において提示されている。しか
し、この公報に記載された技術は、過去の運転者の応答
等の履歴や性別、年齢等のユーザ情報などに基づいて表
示が変わるわけではなく、同一の状況が生じた場合には
常に同一の表示がされるものである。すなわち、限られ
たセンサ出力に対して常に同一の表示を行うものであ
り、視認性が向上された従来の計器類の範疇に入るべき
ものである。
【0005】本発明は、擬人化されたエージェントが発
声する音声の出力形態が各種条件によって決定され、そ
の出力形態に応じた発声をエージェントがすることで運
転者とのコミュニケーションをはかることが可能な車両
を提供することを第1の目的とする。また、本発明は、
現在の車両・運転者の状況だけでなく、過去の履歴等に
基づく学習結果から擬人化されたエージェントが状況に
合わせた行為をし、運転者とのコミュニケーションをは
かることができる車両を提供することを第2の目的とす
る。
【0006】
【課題を解決するための手段】請求項1に記載した発明
では、擬人化されたエージェントの行動内容を画像表示
する画像表示手段と音声を出力する音声出力手段とによ
りエージェントを車両内に出現させるエージェント出現
手段と、車両の状況を判断する状況判断手段と、この状
況判断手段により判断された状況に基づいて、エージェ
ントの行動と発声内容からなる行為を決定する行為決定
手段と、前記状況判断手段により判断された状況に基づ
いて、エージェントが発声する音声の出力形態を決定す
る音声出力形態決定手段と、前記エージェント出現手段
により出現されるエージェントに対して、前記行為決定
手段で決定された行為に対応する行動を行わせると共
に、前記行為決定手段で決定された行為に対応する発声
内容の音声を、前記音声出力手段決定手段で決定された
出力形態で出力させるエージェント制御手段と、をエー
ジェント装置に具備させて前記第1の目的を達成する。
請求項2に記載した発明では、請求項1に記載したエー
ジェント装置において、前記発声形態決定手段は、車両
の状態、エージェントに関する運転者の好み、車外要
因、及び時間のうちの少なくとも1つに基づいて音声出
力形態を決定する。請求項3に記載した発明では、請求
項1に記載したエージェント装置において、前記エージ
ェント制御手段は、前記音声出力形態決定手段により決
定された音声出力形態に従って、音の高さ、強さ、音
質、長さのうちの少なくとも1の要素を変更した音声を
出力する。請求項4に記載した発明では、請求項1に記
載したエージェント装置において、前記状況判断手段に
よる所定の状況を記憶することで学習する学習手段を有
し、前記行為決定手段は、この学習手段による学習結果
を含めて前記エージェントの行為を決定する、ことで前
記第2の目的を更に達成する。
【0007】
【発明の実施の形態】以下、本発明のエージェント装置
における好適な実施の形態について、図1から図11を
参照して詳細に説明する。 (1)実施形態の概要 本実施形態のエージェント装置では、擬人化されたエー
ジェントを画像(平面的画像、ホログラフィ等の立体的
画像等)と音声により車両内に出現させる。そして、エ
ージェントが運転者とのコミュニケーションを行う場合
の会話を構成する音声(音質)を、車両状態や、エージ
ェントに関するユーザの好み、外的要因、時間、エージ
ェントの性格(職業)設定、等により切り替えることに
より、より人間的なシステムとする。そして、車両自
体、運転者、同乗者、対向車等を含む車両の状況の判断
と学習(状況の学習だけでなく運転者の応答や反応等も
含む)をし、各時点での車両状況とそれまでの学習結果
に基づいて、エージェントが運転者や車両に対して様々
なバリエーションをもった対応(行為=行動と音声)を
する。これにより運転者は、自分固有のエージェントと
車両内でつき合う(コミュニケーションする)ことが可
能になり、車両内での環境を快適にすることができる。
ここで、本実施形態において擬人化されたエージェント
とは、特定の人間、生物、漫画のキャラクター等との同
一性があり、その同一性のある生物が、同一性・連続性
を保つようなある傾向の出力(動作、音声により応答)
を行うものである。また、同一性・連続性は特有の個性
を持つ人格として表現され、電子機器内の一種の疑似生
命体としてもとらえることができる。車両内に出現させ
る本実施形態のエージェントは、人間と同様に判断する
疑似人格化(仮想人格化)された主体である。
【0008】(2)実施形態の詳細 図1は、本実施形態におけるエージェント装置の構成を
示すブロック図である。本実施形態では、コミュニケー
ション機能全体を制御する全体処理部1を備えている。
この全体処理部は、設定した目的地までの経路を探索し
て音声や画像表示により案内するナビゲーション処理部
10、エージェント処理部11、ナビゲーション処理部
10とエージェント処理部11に対するI/F部12、
エージェント画像や地図画像等の画像出力や入力画像を
処理する画像処理部13、エージェント音声や経路案内
音声等の音声出力や入力される音声を制御する音声制御
部14、及び車両や運転者に関する各種状況の検出デー
タを処理する状況情報処理部15を有している。エージ
ェント処理部11は、ユーザ情報や車両の状況等から車
両内に出現させるエージェントの性格を決定すると共
に、車両の状況や運転者による過去の応対等を学習して
適切な会話や制御をエージェントの性格に応じて行うよ
うになっている。
【0009】ナビゲーション処理部10とエージェント
処理部11は、データ処理及び各部の動作の制御を行う
CPU(中央処理装置)と、このCPUにデータバスや
制御バス等のバスラインで接続されたROM、RAM、
タイマ等を備えている。両処理部10、11はネットワ
ーク接続されており、互いの処理データを取得すること
ができるようになっている。ROMはCPUで制御を行
うための各種データやプログラムが予め格納されたリー
ドオンリーメモリであり、RAMはCPUがワーキング
メモリとして使用するランダムアクセスメモリである。
【0010】本実施形態のナビゲーション処理部10と
エージェント処理部11は、CPUがROMに格納され
た各種プログラムを読み込んで各種処理を実行するよう
になっている。なお、CPUは、記憶媒体駆動装置23
にセットされた外部の記憶媒体からコンピュータプログ
ラムを読み込んで、エージェント記憶装置29やナビゲ
ーションデータ記憶装置、図示しないハードディスク等
のその他の記憶装置に格納(インストール)し、この記
憶装置から必要なプログラム等をRAMに読み込んで
(ロードして)実行するようにしてもよい。また、必要
なプログラム等を記録媒体駆動装置23からRAMに直
接読み込んで実行するようにしてもよい。
【0011】ナビゲーション処理部10には、現在位置
検出装置21とナビゲーションデータ記憶装置30が接
続され、エージェント処理部11にはエージェントデー
タ記憶装置29が接続され、I/F部12には入力装置
22と記憶媒体駆動装置23と通信制御装置24が接続
され、画像処理部13には表示装置27と撮像装置28
が接続され、音声制御部14には音声処理装置25とマ
イク26が接続され、状況情報処理部15には状況セン
サ部40が接続されている。
【0012】現在位置検出装置21は、車両の絶対位置
(緯度、経度による)を検出するためのものであり、人
工衛星を利用して車両の位置を測定するGPS(Global
Positioning System)受信装置211と、方位センサ2
12と、舵角センサ213と、距離センサ214と、路
上に配置されたビーコンからの位置情報を受信するビー
コン受信装置215等が使用される。GPS受信装置2
11とビーコン受信装置215は単独で位置測定が可能
であるが、GPS受信装置211やビーコン受信装置2
15による受信が不可能な場所では、方位センサ212
と距離センサ214の双方を用いた推測航法によって現
在位置を検出するようになっている。方位センサ212
は、例えば、地磁気を検出して車両の方位を求める地磁
気センサ、車両の回転角速度を検出しその角速度を積分
して車両の方位を求めるガスレートジャイロや光ファイ
バジャイロ等のジャイロ、左右の車輪センサを配置しそ
の出力パルス差(移動距離の差)により車両の旋回を検
出することで方位の変位量を算出するようにした車輪セ
ンサ、等が使用される。舵角センサ213は、ステアリ
ングの回転部に取り付けた光学的な回転センサや回転抵
抗ボリューム等を用いてステアリングの角度αを検出す
る。距離センサ214は、例えば、車輪の回転数を検出
して計数し、または加速度を検出して2回積分するもの
等の各種の方法が使用される。
【0013】入力装置22は、エージェントの性格を決
定したり音声出力形態を決定するための、ユーザに関連
する情報(年齢、性別、趣味、性格、エージェントに関
するユーザの好み等)を入力するためのものである。な
お、これらユーザ関連情報は、入力装置22からユーザ
が直接入力する場合に限らず、例えば、プロ野球が好き
か否か、好きな球団名等に関する各種問い合わせをエー
ジェントがユーザに行い、ユーザの回答内容から取得す
るようにしてもよい。入力装置22は、本実施形態によ
るエージェントのその他全ての問い合わせ等に対して運
転者が応答するための1つの手段でもある。入力装置2
2は、ナビゲーション処理における走行開始時の現在地
(出発地点)や目的地(到達地点)、情報提供局へ渋滞
情報等の情報の請求を発信したい車両の所定の走行環境
(発信条件)、車両内で使用される携帯電話のタイプ
(型式)などを入力するためのものでもある。入力装置
22には、タッチパネル(スイッチとして機能)、キー
ボード、マウス、ライトペン、ジョイスティック、赤外
線等によるリモコン、音声認識装置などの各種の装置が
使用可能である。また、赤外線等を利用したリモコン
と、リモコンから送信される各種信号を受信する受信部
を備えてもよい。リモコンには、画面上に表示されたカ
ーソルの移動操作等を行うジョイスティックの他、メニ
ュー指定キー(ボタン)、テンキー等の各種キーが配置
される。
【0014】記憶媒体駆動装置23は、ナビゲーション
処理部10やエージェント処理部11が各種処理を行う
ためのコンピュータプログラムを外部の記憶媒体から読
み込むのに使用される駆動装置である。記憶媒体に記録
されているコンピュータプログラムには、各種のプログ
ラムやデータ等が含まれる。ここで、記憶媒体とは、コ
ンピュータプログラムが記録される記憶媒体をいい、具
体的には、フロッピーディスク、ハードディスク、磁気
テープ等の磁気記憶媒体、メモリチップやICカード等
の半導体記憶媒体、CD−ROMやMO、PD(相変化
書換型光ディスク)等の光学的に情報が読み取られる記
憶媒体、紙カードや紙テープ、文字認識装置を使用して
プログラムを読み込むための印刷物等の用紙(および、
紙に相当する機能を持った媒体)を用いた記憶媒体、そ
の他各種方法でコンピュータプログラムが記録される記
憶媒体が含まれる。
【0015】記憶媒体駆動装置23は、これらの各種記
憶媒体からコンピュータプログラムを読み込む他に、記
憶媒体がフロッピーディスクやICカード等のように書
き込み可能な記憶媒体である場合には、ナビゲーション
処理部10やエージェント処理部11のRAMや記憶装
置29、30のデータ等をその記憶媒体に書き込むこと
が可能である。例えば、ICカードにエージェント機能
に関する学習内容(学習項目データ、応答データ)や、
エージェントの性格を決定する際に使用するユーザ情報
等を記憶させ、他の車両を運転する場合でもこの記憶さ
せたICカードを使用することで、自分の好みに合わせ
て(過去の応対の状況に応じて)学習された同一性格の
エージェントとコミュニケーションすることが可能にな
る。これにより、車両毎のエージェントではなく、運転
者に固有な性格と学習内容のエージェントを車両内に出
現させることが可能になる。
【0016】通信制御装置24は、各種無線通信機器か
らなる携帯電話が接続されるようになっている。通信制
御部24は、電話回線による通話の他、道路の混雑状況
や交通規制等の交通情報に関するデータなどを提供する
情報提供局との通信や、車内での通信カラオケのために
使用するカラオケデータを提供する情報提供局との通信
を行うことができるようになっている。また、通信制御
装置24を介して、エージェント機能に関する学習デー
タや、エージェントの性格や音声出力形態等を決定する
際に使用するユーザ関連情報を送受信することも可能で
ある。
【0017】音声出力装置25は、車内に配置された複
数のスピーカで構成され、音声制御部14で制御された
音声、例えば、音声による経路案内を行う場合の案内音
声や、エージェントの行動に対応する音声や音が出力さ
れるようになっている。この音声出力装置25は、オー
ディオ用のスピーカと兼用するようにしてもよい。音声
制御部14は、エージェント処理部11の制御のもと、
エージェントが発する音声を音声出力装置から出力する
が、音声出力の際に、エージェント処理部11で決定さ
れた音声出力形態や、運転者のチューニング指示の入力
内容に応じて、音声出力装置25から出力する音声の音
色やアクセント等を変更して出力するようになってい
る。マイク26は、音声制御部14における音声認識の
対象となる音声、例えば、ナビゲーション処理における
目的地等の入力音声や、エージェントとの運転者の会話
(応答等)等を入出力する音声入力手段として機能す
る。このマイク26は、通信カラオケ等のカラオケを行
う際のマイクと兼用するようにしてもよく、また、運転
者の音声を的確に収集するために指向性のある専用のマ
イクを使用するようにしてもよい。音声出力装置25と
マイク26とでハンズフリーユニットを形成させて、携
帯電話を介さずに、電話通信における通話を行えるよう
にしてもよい。
【0018】表示装置27には、ナビゲーション処理部
10の処理による経路案内用の道路地図や各種画像情報
が表示されたり、エージェント処理部11によるエージ
ェントの各種行動(動画)が表示されたりするようにな
っている。また、撮像装置28で撮像された車両内外の
画像も画像処理部13で処理された後に表示されるよう
になっている。表示装置27は、液晶表示装置、CRT
等の各種表示装置が使用される。なお、この表示装置2
7は、例えばタッチパネル等の、前記入力装置2として
の機能を兼ね備えたものとすることができる。
【0019】撮像装置28は、画像を撮像するためのC
CD(電荷結合素子)を備えたカメラで構成されてお
り、運転者を撮像する車内カメラの他、車両前方、後
方、右側方、左側方を撮像する各車外カメラが配置され
ている。撮像装置28の各カメラにより撮像された画像
は、画像処理部13に供給され、画像認識等の処理が行
われ、各認識結果をエージェント処理部11によるプロ
グラム番号の決定にも使用されるようになっている。
【0020】エージェントデータ記憶装置29は、本実
施形態によるエージェント機能を実現するために必要な
各種データ(プログラムを含む)が格納される記憶装置
である。このエージェントデータ記憶装置29には、例
えば、フロッピーディスク、ハードディスク、CD−R
OM、光ディスク、磁気テープ、ICカード、光カード
等の各種記憶媒体と、その駆動装置が使用される。この
場合、例えば、学習項目データ292、応答データ29
3、ユーザ関連情報を持ち運びが容易なICカードやフ
ロッピーディスクで構成し、その他のデータをハードデ
ィスクで構成するというように、複数種類の異なる記憶
媒体と駆動装置で構成し、駆動装置としてそれらの駆動
装置を用いるようにしてもよい。
【0021】エージェントデータ記憶装置29には、エ
ージェントプログラム290、プログラム選択テーブル
291、学習項目データ292、応答データ293、図
4に例示したエージェントの容姿や行動を画像表示する
ための画像データ294、エージェントの音声データ2
95、エージェント性格決定テーブル296、音声出力
形態決定テーブル297、エージェント性格決定および
音声出力形態決定に使用されるユーザ関連情報298、
その他のエージェントのための処理に必要な各種のデー
タが格納されている。
【0022】エージェントプログラム290には、エー
ジェント機能を実現するためのエージェント処理プログ
ラムや、エージェントと運転者とがコミュニケーション
する場合の細かな行動を表示装置27に画像表示すると
共にその行動に対応した会話を音声出力装置25から出
力するためのコミュニケーションプログラムがプログラ
ム番号順に格納されている。
【0023】プログラム選択テーブル291は、エージ
ェントプログラム290に格納されているコミュニケー
ションプログラムを選択するためのテーブルである。図
2はプログラム選択テーブル291を表したものであ
り、図3はプログラム選択テーブル291で選択される
各プログラム番号に対応した、エージェントの行為(行
動と発声)内容と、各プログラムに対応して発声される
音声内容の種別を表したものである。図3に示した音声
内容種別は、決定されたエージェントの行為における発
声内容を分類するものとして予め決められている。音声
内容種別は、各プログラム番号に対応して規定されたエ
ージェントの発声内容をチューニングする場合に使用さ
れる音声出力形態を決定するための情報として使用され
る。この図2、図3で示されているプログラム番号は、
エージェントプログラム290に格納されている各コミ
ュニケーションプログラムの番号と一致している。
【0024】図4は、図2、図3のプログラム番号00
001〜00002により表示装置27に表示されるエ
ージェントの「かしこまってお辞儀」行動についての数
画面を表したものである。この図4に示されるように、
エージェントEは、口元を引き締めると共に手を膝に当
てながら、お辞儀をすることでかしこまったお辞儀であ
ることが表現されている。この行動(かしこまってお辞
儀)と共にエージェントEが話す言葉(発声)は、図3
に示されるように、車両状況や学習状況等によって異な
るプログラム番号(00001〜00007)が選択さ
れることで変えられる。また、同一の発声内容であって
も、音声出力形態に応じてチューニングされることで、
異なった感じで出力される。
【0025】図2に示すように、エンジンの冷却水温度
が低い場合には、例えば、プログラム番号00020〜
00029やプログラム番号00041〜が選択され、
エンジンの調子に合わせて行動「眠そうに…」が選択さ
れる。眠そうな表現として、瞼が下がった表情にした
り、あくびや伸びをした後に所定の行動(お辞儀等)を
したり、最初に目をこすったり、動きや発声を通常より
もゆっくりさせたりすることで表すことができる。これ
らの眠そうな表現は、常に同一にするのではなく、行動
回数等を学習することで適宜表現を変更する。例えば、
3回に1回は目をこすり(A行動)、10回に1回はあ
くびをするようにし(B行動)、それ以外では瞼を下が
った表情(C行動)にする。これらの変化は、行動Bや
行動Cの付加プログラムを行動Aの基本プログラムに組
み合わせることで実現される。そして、どの行動を組み
合わせるかについては、基本となる行動Aのプログラム
実行回数を学習項目として計数しておき、回数に応じて
付加プログラムを組み合わせるようにする。また、行動
「元気よく」を表現する場合には、音声の抑揚を大きく
したり、エージェントEを走りながら画面に登場させた
りすることで表現する。
【0026】図2に表示された各項目は、プログラム番
号を選択するための選択条件を表したもので、状態セン
サ40により検出される車両や運転者の各種状況から決
定される項目(時間、起動場所、冷却水温、シフトポジ
ション位置、アクセル開度等)と、学習項目データ29
2や応答データ293に格納されている学習内容から決
定される項目(今日のIG ON回数、前回終了時から
の経過時間、通算起動回数等)とがある。プログラム選
択テーブル291中で、これら全項目を満足するプログ
ラムは必ず一義的に決定するようになっている。なお、
テーブル中で「○」印は、そのプログラム番号が選択さ
れるために満たす必要がある項目を示し、「−」印、
「無印」はそのプログラムの選択には考慮されない項目
を示している。
【0027】図2、図3では、イグニッションをONに
した場合のコミュニケーション(挨拶)に関連する行為
と選択条件について記載しているが、その他各種行為
(行動と発声)を規定するプログラムを選択するための
プログラム番号と選択条件も種々規定されている。例え
ば、急ブレーキが踏まれたことを条件として、エージェ
ントが「しりもち」をついたり、「たたら」を踏んだり
する行動をとったり、驚き声をだすようなプログラムも
規定されている。エージェントによる各行動の選択は急
ブレーキに対する学習によって変化するようにし、例え
ば、最初の急ブレーキから3回目までは「しりもち」を
つき、4回目から10回目までは「たたら」を踏み、1
0回目以降は「片足を一歩前にだすだけで踏ん張る」行
動を取るようにし、エージェントが急ブレーキに対して
段階的に慣れるようにする。そして、最後の急ブレーキ
から1週間の間隔があいた場合には、1段階後退するよ
うにする。そして、これらの行動と共にエージェントが
発する音声は、音声出力形態決定テーブル297に基づ
いて決定される音声出力形態によってチューニングされ
る。例えば、「注意してね」といった音声の場合、車両
内の雑音が大きい場合には「大きな声で」話すようにチ
ューニングし、エージェントの性格が女子高生風で渋滞
している場合には「機嫌悪そうに」話すようにチューニ
ングする。
【0028】図1における学習項目データ292と応答
データ293は、運転者の運転操作や応答によってエー
ジェントが学習した結果を格納するデータである。従っ
て、学習項目データ292と応答データ293は、各運
転者毎にそのデータが格納・更新(学習)されるように
なっている。図5は学習項目データ292の内容を、図
6は応答データ293の内容を概念的に表したものであ
る。学習項目データ292には、図5に示されるよう
に、プログラム選択テーブル291(図2)の選択条件
を決定する通算起動回数、前回終了日時、今日のイグニ
ッションON回数、前5回の給油時残量等が格納され、
選択条件により選択されたプログラムを起動するか否か
(お休みするか否か)を決定するためのお休み回数/日
時、デフォルト値、その他のデータが格納される。
【0029】通算起動回数には、イグニッションを起動
した通算回数が格納され、イグニッションがONされる
毎にカウントアップされる。前回終了日時には、イグニ
ッションをOFFにする毎にその日時が格納される。今
日のイグニッションON回数には、その日におけるイグ
ニッションONの回数と、1日の終了時間が格納され
る。イグニッションがONされる毎にカウントアップさ
れるが、1日が終了するとデータが”0”に初期化され
る。1日の終了時間はデフォルト値として24:00が
格納されている。この時間はユーザ(運転者)の生活パ
ターンによって変更することが可能である。時間が変更
された場合には、変更後の時間が格納される。
【0030】前5回の給油残量には、燃料(ガソリン)
を給油する直前に検出された燃料の残量が格納され、新
たに給油される毎に各データが左側にシフトされ(最も
古い最左のデータが削除される)今回給油直前の残量が
一番右側に格納される。このデータは、後述する燃料検
出センサ415の検出値G1が、全5回分の給油残量の
平均値G2以下(G1≦G2)になった場合に、エージ
ェントEが表示装置27に現れて給油を促す行動が表示
装置27に表示され、「おなかが減ったなあ!ガソリン
がほしいな!」等の音声が音声出力装置25から出力さ
れる。
【0031】お休み回数/日時には、該当するコミュニ
ケーションプログラムが選択されたとしても実行せずに
お休みした回数等が各プログラム番号毎に格納される。
このお休み回数/日時は、例えば後述するエアコンの停
止を提案するエージェントの行為(プログラム番号00
123)のように、学習項目としてお休み項目が設定さ
れているエージェント行為について格納される。エージ
ェントの提案や会話に対する運転者の応答が、拒否(拒
絶)であった場合や無視(又は無応答)であった場合、
コミュニケーションプログラムに応じて選択的に「お休
み」が設定される。
【0032】デフォルト値には、時間、回数、温度、車
速、日時等の各項目に対する初期設定値が格納されてお
り、前記した1日の終了時間のように学習項目の中で変
更された値を初期値に戻す場合に使用される。学習項目
データ292に格納されるその他のデータとしては、例
えば、運転者やその関係者の誕生日(これはユーザ入力
項目である)、祭日とその言われ、クリスマス、バレン
タインデー、ホワイトデー等のイベント日などが格納さ
れる。各イベント日に応じた特別メニューのコミュニケ
ーションプログラムも用意されており、例えば、クリス
マスイブにはサンタクロースに変装したエージェントが
現れる。
【0033】図6の応答データ293には、エージェン
トの行為に対するユーザの応答の履歴が、ユーザ応答を
学習項目とする各コミュニケーションプログラム番号毎
に格納される。ユーザ応答データは、図6(A)のコミ
ュニケーションプログラム番号00123、00125
のように最新の応答日時と応答内容が所定回分(プログ
ラム番号00123は2回分)格納されるものと、プロ
グラム番号00124のように最新の応答内容のみが1
回分格納される(従って応答がある毎に更新される。)
ものと、最新の応答内容のみが所定回分格納されるもの
と、最新の日時と応答内容が一回分格納されるものと、
最新の日時だけが1回分または所定回分格納されるもの
等がある。図6(A)中に表示された記号A、B、Cは
応答内容を表すもので、同図(B)に示すように、記号
Aが無視された場合、記号Bが拒絶された場合、記号C
が受容された場合を表す。運転者の応答内容について
は、マイク26から入力される運転者の音声に対する音
声認識の結果や、入力装置による入力結果から判断され
る。なお、本実施形態では運転者の応答を無視、拒絶、
受容の3パターンに分類しているが、「強く拒絶」、
「怒られた」、「喜ばれてた」を新たに加えるようにし
てもよい。この場合、新たに加えた応答により、学習項
目データ292(例えば、お休み回数等)や応答データ
293を追加変更する。
【0034】画像データ294に格納される容姿として
は、人間(男性、女性)的な容姿である必要はなく、例
えば、ひよこや犬、猫、カエル、ネズミ等の動物自体の
容姿や人間的に図案化(イラスト化)した動物の容姿で
あってもよく、更にロボット的な容姿や、特定のキャラ
クタの容姿等であってもよい。またエージェントの年齢
としても一定である必要がなく、エージェントの学習機
能として、最初は子供の容姿とし、時間の経過と共に成
長していき容姿が変化していく(大人の容姿に変化し、
更に老人の容姿に変化していく)ようにしてもよい。画
像データ294には、これらの各種エージェントの容姿
の画像が格納されており、運転者の好みによって入力装
置22等から選択することができるようになっている。
【0035】音声データ295には、エージェントによ
る会話を規則合成により音声出力装置25から出力する
ための音声データが格納されており、規則合成を行う場
合の音素に関する音声データや、複数音素からなる所定
単位の会話を予め規則合成しておいた音声データ、が複
数格納されている。運転者等のユーザは、エージェント
の容姿の選択と併せて音声を入力装置22等から選択す
ることができるようになっている。エージェントの音声
としては、男性の音声、女性の音声、子供の音声、機械
的な音声、動物的な音声、特定の声優や俳優の音声、特
定のキャラクタの音声等があり、これらの中から適宜運
転者が選択する。なお、この音声と前記容姿の選択は、
適時変更することが可能である。そして、選択された音
声、例えば、「女性の音声」に対して、音声出力形態に
応じたチューニングが行われて音声出力装置25から出
力される。
【0036】エージェント性格決定テーブル296は、
ユーザ関連情報に格納された各種情報に従ってエージェ
ントの性格を決定するためのテーブルである。このテー
ブルに従って決定されたエージェントの性格は、音声出
力形態を決定するためのデータとして使用される。図7
は、エージェント性格決定テーブル295を表したもの
である。このテーブル右側に示されるように、エージェ
ントの性格としては、世話好き、ひかえめ、泣き虫、正
義感が強い、美人秘書風、優秀なマネージャー風、女子
高生風等の各種性格がある。例えば、性格が美人秘書風
である場合には、落ち着いて話す音声出力形態に反映さ
れる場合が多い。また、性格が女子高生風である場合に
は、渋滞や天候によって機嫌がよくなって話したり悪く
なって話したりする音声出力形態に反映される場合が多
い。これらのエージェントの性格は、図7に示すよう
に、車種や起動回数等の車両状態、ユーザの年齢、性
別、趣味、性格等のユーザ情報、その日の天候、その時
点での時間帯等といった各種項目に基づいて決定される
ようになっている。これらの各項目は、ユーザ自らの入
力(システム導入の初期、使用後所定期間が経過した適
当な時期等の入力)により取得したり、エージェントが
未取得項目について一括して(又は必要に応じて個別
に)問いかけてその応答として取得したり、また、運転
者の車両の操作や外部機器等から取得する。取得した各
項目のうち、起動回数等の学習項目データ292に格納
されるデータや、天気、時間帯等の状況センサ40での
検出項目を除いたユーザに関連するデータは、ユーザ関
連情報格納部298に格納されるようになっている。
【0037】音声出力形態決定テーブル297は、エー
ジェントの発声内容のチューニング時の出力形態を決定
するためのものである。図8は音声出力形態決定テーブ
ル297を表したものである。この図8の最右欄に示す
ように、音声出力形態としては、「大きな声で」「落ち
着いて」「冷静に」「丁寧に」「やさしく」「親切に」
「おろおろして」「怒って」「面倒くさそうに」「機嫌
よく」「機嫌悪そうに」等の音声出力形態が存在する。
そして、これらのなかから1の音声出力形態を決定する
ための条件として、音声内容種別、車両状態、エージェ
ント性格、使用者の好み、外的要因、及び時間帯が規定
されている。
【0038】音声内容種別には、ルート案内音声A、警
告メッセージB、説明ガイダンスC、あいさつD、音声
認識コールバックE、会話F、その他がある。この音声
内容種別は、図2のプログラム選択テーブル291によ
って決定される各プログラム番号毎に、いずれかの種別
(A、B、C、…)が図3の最右欄に規定されている。
そして、プログラム選択テーブル291に従って決定さ
れたプログラム番号に対応する音声種別が音声出力形態
決定の際に使用される。
【0039】車両状態としては、時速80km以上の高
速走行中、経路案内中のルートをはずれた、車両内の雑
音が大きい(所定の閾値以上)、イグニッションの通算
起動回数、その他がある。エージェント性格としては、
世話好き、ひかえめ、泣き虫、正義感が強い、美人秘
書、優秀なマネージャ、女子高生風、その他の性格があ
り、図7のエージェント性格決定テーブル295により
決定されたエージェントの性格が使用される。
【0040】使用者の好みは、エージェントに関する使
用者の好みで、キャラクタは女性が良い、おちついた感
じが好き、派手好き、明るい子が好き、冗談のわかる子
が良い、その他の項目がある。この項目は、ユーザが入
力装置22から入力する項目であるが、未入力である場
合にはエージェントからの問い合わせを行うことで得ら
れる回答(入力装置22からの入力、音声認識の結果)
を使用するようにしてもよい。使用者の好みに関するデ
ータは、ユーザ関連情報298に格納される。
【0041】外的要因としては、天気(晴れ、くもり、
雨、雪等)、渋滞中、上り坂、下り坂、その他の項目が
あり、いずれも状況センサ部40の検出結果が使用され
る。時間帯としては、朝(日の出〜12時)、昼(12
時〜日没)、夜(日没〜23時)、深夜(23時から翌
日の日の出)があり、エージェント処理部11が備える
タイマによる日時と、エージェント記憶装置29の所定
エリアに格納されている日の出時間と日没時間が規定さ
れたカレンダとにより決定される。
【0042】音声出力形態決定テーブル297により音
声出力形態が決定されると、その形態に従って、図3に
規定されているエージェントの発声内容がチューニング
されるようになっている。チューニングの具体的方法に
ついては、各音声形態毎に細かく規定され、エージェン
トデータ記憶装置29の所定エリアに格納されている。
例えば、エージェントが「大きな声で」話すようにチュ
ーニングする場合、音声出力装置25から出力するボリ
ュームを大きくする。また、「落ち着いて」や「丁寧
に」話すようにチューニングする場合には、1語1語が
はっきりとするように比較的ゆっくり出力するようにチ
ューニングし、「落ち着いて」の場合、句読
点「。」「、」の間隔を「丁寧に」の場合よりも多少な
長めにチューニングする。また、音声出力形態が「機嫌
よさそうに」である場合には、例えば、「ます」「で
す」の部分を「ま〜す」「で〜す」といように少し伸ば
すと共に、発声内容全体の音の高さを少し高くするよう
にもチューニングする。一方「機嫌悪そうに」の場合に
は、語尾部分の音の高さを少し下げるようにチューニン
グする。音声出力形態「面倒くさそうに」で話す場合に
は、発声内容の中心的意味をなす部分以外の部分、例え
ば、「窓を開けましょうか?」であれば「窓を開けま」
以外の「しょうか?」の部分を少し早く話すようにチュ
ーニングする。以上のように、エージェントの発声内容
を、音の高さ、強さ、音質、長さ等の観点からチューニ
ングする方法が各音声出力形態毎に詳細に規定されてい
る。
【0043】エージェントデータ記憶装置29のユーザ
関連情報298(図1)には、車種、ユーザの生年月
日、性別、性格、エージェントに関するユーザの好み等
といったエージェントの性格を決定するために必要とさ
れる基礎的なデータと、音声出力形態を決定する場合に
必要とされるエージェントに関する使用者の好みとが、
各運転者毎に格納・更新(学習)されるようになってい
る。
【0044】図9は、ナビゲーションデータ記憶装置3
0(図1)に格納されるデータファイルの内容を表した
ものである。図9に示されるように、ナビゲーションデ
ータ記憶装置30には経路案内等で使用される各種デー
タファイルとして、通信地域データファイル301、描
画地図データファイル302、交差点データファイル3
03、ノードデータファイル304、道路データファイ
ル305、探索データファイル306、写真データファ
イル307が格納されるようになっている。このナビゲ
ーションデータ記憶装置4は、例えば、フロッピーディ
スク、ハードディスク、CD−ROM、光ディスク、磁
気テープ、ICカード、光カード等の各種記憶媒体と、
その駆動装置が使用される。なお、ナビゲーションデー
タ記憶装置4は、複数種類の異なる記憶媒体と駆動装置
で構成するようにしてもよい。例えば、検索データファ
イル46を読み書き可能な記憶媒体(例えば、フラッシ
ュメモリ等)で、その他のファイルをCD−ROMで構
成し、駆動装置としてそれらの駆動装置を用いるように
する。
【0045】通信地域データファイル301には、通信
制御装置24に接続され又は無接続で車内において使用
される携帯電話が、車内から通信できる地域を表示装置
5に表示したり、その通信できる地域を経路探索の際に
使用するための通信地域データが、携帯電話のタイプ別
に格納されている。この携帯電話のタイプ別の各通信地
域データには、検索しやすいように番号が付されて管理
され、その通信可能な地域は、閉曲線で囲まれる内側に
より表現できるので、その閉曲線を短い線分に分割して
その屈曲点の位置データによって特定する。なお、通信
地域データは、通信可能地を大小各種の四角形エリアに
分割し、対角関係にある2点の座標データによりデータ
化するようにしてもよい。通信地域データファイル30
1に格納される内容は、携帯電話の使用可能な地域の拡
大や縮小に伴って、更新できるのが望ましく、このため
に、携帯電話と通信制御装置24を使用することによ
り、情報提供局との間で通信を行なって、通信地域デー
タファイル301の内容を最新のデータと更新できるよ
うに構成されている。なお、通信地域データファイル3
01をフロッピーディスク、ICカード等で構成し、最
新のデータと書換えを行うようにしても良い。描画地図
データファイル302には、表示装置27に描画される
描画地図データが格納されている。この描画地図データ
は、階層化された地図、例えば最上位層から日本、関東
地方、東京、神田といった階層ごとの地図データが格納
されている。各階層の地図データは、それぞれ地図コー
ドが付されている。
【0046】交差点データファイル303には、各交差
点を特定する交差点番号、交差点名、交差点の座標(緯
度と経度)、その交差点が始点や終点になっている道路
の番号、および信号の有無などが交差点データとして格
納されている。ノードデータファイル304には、各道
路における各地点の座標を指定する緯度、経度などの情
報からなるノードデータが格納されている。すなわち、
このノードデータは、道路上の一地点に関するデータで
あり、ノード間を接続するものをアークと呼ぶと、複数
のノード列のそれぞれの間をアークで接続することによ
って道路が表現される。道路データファイル305に
は、各道路を特定する道路番号、始点や終点となる交差
点番号、同じ始点や終点を持つ道路の番号、道路の太
さ、進入禁止等の禁止情報、後述の写真データの写真番
号などが格納されている。交差点データファイル30
3、ノードデータファイル304、道路データファイル
305にそれぞれ格納された交差点データ、ノードデー
タ、道路データからなる道路網データは、経路探索に使
用される。
【0047】探索データファイル306には、経路探索
により生成された経路を構成する交差点列データ、ノー
ド列データなどが格納されている。交差点列データは、
交差点名、交差点番号、その交差点の特徴的風景を写し
た写真番号、曲がり角、距離等の情報からなる。また、
ノード列データは、そのノードの位置を表す東経、北緯
などの情報からなる。写真データファイル307には、
各交差点や直進中に見える特徴的な風景等を撮影した写
真が、その写真番号と対応してディジタル、アナログ、
またはネガフィルムの形式で格納されている。
【0048】図10は、状況センサ部40を構成する各
種センサを表したものである。図10に示すように状況
センサ部40は、イグニッションセンサ401、車速セ
ンサ402、アクセルセンサ403、ブレーキセンサ4
04、サイドブレーキ検出センサ405、シフト位置検
出センサ406、ウィンカー検出センサ407、ワイパ
ー検出センサ408、ライト検出センサ409、シート
ベルト検出センサ410、ドア開閉検出センサ411、
同乗者検出センサ412、室内温度検出センサ413、
室外温度検出センサ414、燃料検出センサ415、水
温検出センサ416、ABS検出センサ417、エアコ
ンセンサ418、体重センサ419、前車間距離センサ
420、後車間距離センサ421、体温センサ422、
心拍数センサ423、発汗センサ424、脳波センサ4
25、アイトレーサー426、赤外線センサ427、そ
の他のセンサ(タイヤの空気圧低下検出センサ、ベルト
類のゆるみ検出センサ、窓の開閉状態センサ、クラクシ
ョンセンサ、室内湿度センサ、室外湿度センサ、油温検
出センサ、油圧検出センサ等)428等の車両状況や運
転者状況、車内状況等を検出する各種センサを備えてい
る。これら各種センサは、それぞれのセンシング目的に
応じた所定の位置に配置されている。なお、これらの各
センサは独立したセンサとして存在しない場合には、他
のセンサ検出信号から間接的にセンシングする場合を含
む。例えば、タイヤの空気圧低下検出センサは、車輪速
センサの信号の変動により間接的に空気圧の低下を検出
する。
【0049】イグニッションセンサ401は、イグニッ
ションのONとOFFを検出する。車速センサ402
は、例えば、スピードメータケーブルの回転角速度又は
回転数を検出して車速を算出するもの等、従来より公知
の車速センサを特に制限なく用いることができる。アク
セルセンサ403は、アクセルペダルの踏み込み量を検
出する。ブレーキセンサ404は、ブレーキの踏み込み
量を検出したり、踏み込み力や踏む込む速度等から急ブ
レーキがかけられたか否かを検出する。サイドブレーキ
検出センサ405は、サイドブレーキがかけられている
か否かを検出する。シフト位置検出センサ406は、シ
フトレバー位置を検出する。ウィンカー検出センサ40
7は、ウィンカの点滅させている方向を検出する。ワイ
パー検出センサ408は、ワイパーの駆動状態(速度
等)を検出する。ライト検出センサ409は、ヘッドラ
ンプ、テールランプ、フォグランプ、ルームランプ等の
各ランプの点灯状態を検出する。シートベルト検出セン
サ410は、運転者、及び同乗者(補助席、後部座席)
がシートベルトを着用しているか否かを検出する。着用
していない場合には適宜(嫌われない程度に)エージェ
ントが現れ、警告、注意、コメント等(学習により程度
を変更する)を行う。
【0050】ドア開閉検出センサ411は、ドアの開閉
状態を検出し、いわゆる半ドアの場合には、エージェン
トがその旨を知らせる。ドア開閉検出センサ411は、
運転席ドア、助手席ドア、後部運転席側ドア、後部助手
席側ドア等の、車種に応じた各ドア毎の開閉を検出でき
るようになっている。同乗者検出センサ412は、助手
席や後部座席に同乗者が乗っているか否かを検出するセ
ンサで、撮像装置28で撮像された車内の画像から検出
し、または、補助席等に配置された圧力センサや、体重
計により検出する。室内温度検出センサ413は室内の
気温を検出し、室外温度検出センサ414は車両外の気
温を検出する。燃料検出センサ415は、ガソリン、軽
油等の燃料の残量を検出する。給油時直前における過去
5回分の検出値が学習項目データ292に格納され、そ
の平均値になった場合にエージェントが給油時期である
ことを知らせる。
【0051】水温検出センサ416は、冷却水の温度を
検出する。イグニッションON直後において、この検出
温度が低い場合には、エージェントが眠そうな行為をす
る場合が多い。逆に水温が高すぎる場合にはオーバーヒ
ートする前に、エージェントが「だるそう」な行動と共
にその旨を知らせる。ABS検出センサ417は、急ブ
レーキによるタイヤのロックを防止し操縦性と車両安定
性を確保するABSが作動したか否かを検出する。エア
コンセンサ418は、エアコンの操作状態を検出する。
例えば、エアコンのON・OFF、設定温度、風量等が
検出される。体重センサ419は、運転者の体重を検出
するセンサである。この体重から、または、体重と撮像
装置28の画像から運転者を特定し、その運転者との関
係で学習したエージェントを出現させるようにする。す
なわち、特定した運転者に対してエージェントが学習し
た、学習項目データ292と応答データ293を使用す
ることで、その運転者専用のエージェントを出現させる
ようにする。前車間距離センサ420は車両前方の他車
両や障害物との距離を検出し、後車間距離センサ421
は後方の他車両や障害物との距離を検出する。
【0052】体温センサ422、心拍数センサ423、
発汗センサ424は、それぞれ運転者の体温、心拍数、
発汗状態を検出するセンサで、例えば、ハンドル表面に
各センサを配置し運転者の手の状態から検出する。また
は、体温センサ422として、赤外線検出素子を使用し
たサーモグラフィーにより運転者の各部の温度分布を検
出するようにしても良い。脳波センサ425は、運転者
の脳波を検出するセンサで、例えばα波やβ波等を検出
して運転者の覚醒状態等を調べる。アイトレーサー42
6は、ユーザの視線の動きを検出し、通常運転中、車外
の目的物を捜している、車内目的物をさがしている、覚
醒状態等を判断する。赤外線センサ427は、ユーザの
手の動きや顔の動きを検出する。
【0053】次に、以上のように構成された本実施形態
の動作について説明する。図11は本実施形態のエージ
ェントによる処理のメイン動作を表したフローチャート
である。エージェント処理部11は、イグニッションが
ONされたことがイグニッションセンサ401で検出さ
れると、まず最初に初期設定を行う(ステップ11)。
初期設定としては、RAMのクリア、各処理用のワーク
エリアをRAMに設定、プログラム選択テーブル291
(図2)のRAMへのロード、フラグの0設定、等の処
理が行われる。なお、本実施形態のエージェント処理で
は、その処理の開始をイグニッションONとしたが、例
えばドア開閉検出センサ411によりいずれかのドアの
開閉が検出された場合に処理を開始するようにしてもよ
い。
【0054】次に、エージェント処理部11は、運転者
の特定を行う(ステップ12)。すなわち、エージェン
ト処理部11は、運転者から先に挨拶がかけられたとき
にはその声を分析して運転者を特定したり、撮像した画
像を分析することで運転者を特定したり、体重センサ4
19で検出した体重から運転者を特定したり、設定され
たシート位置やルームミラーの角度から運転者を特定し
たりする。なお、特定した運転者については、後述のエ
ージェントの処理とは別個に、「○○さんですか?」等
の問い合わせをする特別のコミュニケーションプログラ
ムが起動され、運転者の確認が行われる。
【0055】運転者が特定されると、次にエージェント
処理部11は、現在の状況を把握する(ステップ1
3)。すなわち、エージェント処理部11は、状況情報
処理部15に状況センサ部40の各センサから供給され
る検出値や、撮像装置28で撮像した画像の処理結果
や、現在位置検出装置21で検出した車両の現在位置等
のデータを取得して、RAMの所定エリアに格納し、格
納したデータから現在状況の把握を行う。例えば、水温
検出センサ416で検出された冷却水の温度がt1であ
る場合、エージェント処理部11は、この温度t1をR
AMに格納すると共に、t1が所定の閾値t2以下であ
れば、車両の現在の状態として冷却水温(図2参照)は
低い状態であると把握する。現在の状況としては、他に
マイク26からの入力に基づいて音声認識した運転者の
要求、例えば、「○○○番に電話をしてくれ。」や「こ
の辺のレストランを表示してくれ。」や「CDをかけて
くれ。」等の要求も現在の状況として把握される。この
場合、認識した音声に含まれるワード「CD」「かけ
て」等がプログラム選択テーブル291(図2)の選択
条件(横軸項目)になる。さらにエージェント処理部1
1は、現在状況として、エージェントデータ記憶装置2
9の学習項目データ292と応答データ293をチェッ
クすることで、エージェントがこれまでに学習してきた
状態(学習データ)を把握する。
【0056】エージェント処理部11は、現在の状況を
把握すると、後で図12に従って詳述するように、把握
した状況に応じたエージェントの処理を行う(ステップ
14)。ここでのエージェントの処理としては、エージ
ェントによる判断、行為(行動+発声)、制御、学習、
検査等の各種処理が含まれるが、把握した現在の状況に
よっては何も動作しない場合も含まれる。
【0057】次に、エージェント処理部11は、メイン
動作の処理を終了するか否かを判断し(ステップ1
5)、終了でない場合には(ステップ15;N)、ステ
ップ13に戻って処理を繰り返す。一方を終了する場
合、すなわち、イグニッションがOFFされたことがイ
グニッションセンサ401で検出され(ステップ1
3)、室内灯の消灯等の終了処理(ステップ14)が完
了した後(ステップ15;Y)、メイン処理の動作を終
了する。
【0058】図12は、把握した状況に応じたエージェ
ントの処理動作のうち、エージェントの発声内容を音声
出力形態によってチューニングする処理について詳細に
表したフローチャートである。エージェント処理部11
は、把握済みの現在の状況から、図2に示したプログラ
ム選択テーブル291に基づいて、現在の状態で起動可
能なコミュニケーションプログラム(の番号)があるか
否かを判断し(ステップ21)、該当プログラムが無け
れば(ステップ21;N)、メインルーチンにリターン
する。コミュニケーションプログラムがある場合(ステ
ップ21;Y)、把握済みの現在状況(起動回数、現在
の天気、時間等)及び、エージェントデータ記憶装置2
9のユーザ関連情報298から、エージェント性格決定
テーブル295に従って、エージェントの性格を決定す
る(ステップ22)。
【0059】そして、ステップ21で決定したコミュニ
ケーションプログラムのプログラム番号に対応する音声
内容種別と、ステップ22で決定したエージェントの性
格、及び、把握済みの現在状態(車両状態、外的要因、
時間帯等)から、音声出力形態を決定する。すなわち、
「大きな声で」「落ち着いて」「機嫌良く」等のうちの
1の音声出力形態を決定する(ステップ23)。
【0060】次に、エージェント処理部11は、決定し
た音声出力形態に合わせて、ステップ21で決定したコ
ミュニケーションプログラムのプログラム番号に対応す
るエージェントの発声内容(図3参照)を音声データ2
95から取り出し、チューニングする(ステップ2
4)。例えば、プログラム番号が00011で発声内容
が「こんにちは、私は○○です。よろしくお願いしま
す。」であったものとする。そして、音声出力形態が
「丁寧に」である場合には、1語1語がはっきりとする
ように比較的ゆっくり出力するようにチューニングす
る。また、音声出力形態が「機嫌よさそうに」である場
合には、「ます」の部分を少し伸ばして「ま〜す」とい
ようにチューニングする。
【0061】エージェント処理部11は、音声出力形態
に応じた発声内容のチューニングが終わると、ステップ
21で決定したプログラム番号のコミュニケーションプ
ログラムを起動する(ステップ25)。すなわち、図3
のプログラム番号に応じた行動をエージェントに行動と
して表示装置27に画像表示すると共に、チューニング
した発声内容を音声出力装置25から出力する。なお、
コミュニケーションプログラムの起動によって、エージ
ェント処理部11は、図5の学習項目データや図6の応
答データ等の、図11のステップ13で把握した現在の
状況に応じて、起動をお休みしたり、エージェントの行
為に対するユーザからの応答を取得したり、制御対象プ
ログラムの場合にはラジオの電源オン等の対応する制御
を行ったり、取得した応答による学習を行ったりする。
これらの処理を行った後、エージェント処理部11は、
メインルーチンにリターンする。
【0062】以上説明したように、本実施形態によれ
ば、エージェントが運転者とのコミュニケーションを行
う場合の会話を構成する音声内容を、車両状態や、エー
ジェントに関するユーザの好み、外的要因、時間、エー
ジェントの性格(職業)設定、等により決定される音声
出力形態に従ってチューニングすることにより、より人
間的なシステムとすることができる。例えば、同一の会
話内容であっても、窓を開けて走行している場合の風切
り音が大きい場合には大きな声で話し、悪天候で渋滞し
ている場合には機嫌悪そうに話し、晴天時に海岸沿いの
道路(ナビゲーション処理部10により認識)を高速走
行している場合には機嫌良く話す。このように、車両の
状態や車外の状態、その他各種状態によってエージェン
トの気分が人間と同様に変化しているように会話の出力
形態が変化するので、より人間的なシステムとなる。
【0063】なお、以上説明した実施形態では、音声デ
ータ295に格納された規則合成用の音素データや、複
数音素からなる所定単位の会話を予め規則合成しておい
た音声データを使用し、音声出力形態に応じて、チュー
ニングしたうえでエージェントに発声させるようにした
が、本発明では、この方法に限定されるものではなく請
求項に記載された範囲で変形が可能である。例えば、音
声データ295に格納されている音声データは、「音
素」を音声合成の単位(約27個)としているが、日本
語の発声の基本単位(50音、濁音、半濁音、拗音)の
先頭から母音の定常部までの「CV」単位(約100
個)、前の母音の定常部後半から後の母音の定常部前半
までの「VCV」単位(約800個)、又は、前の子音
の定常部後半から後の子音の定常部前半までの「CV
C」単位(約1300個)、を音声合成の単位として音
声データ295に格納するようにしてもよい。なお、規
則合成の単位を表すCは子音を意味し、Vは母音をあら
わしている。
【0064】また、実施形態では、規則合成ではなく、
アナウンサ等の話し手が実際に発声した音声を素材にし
て単語や文節の単位で文音声を編集する編集合成方式を
使用してもよく、また編集合成方式と規則合成方式を組
み合わせて使用するようにしてもよい。ここで編集合成
方式としては、音声の波形情報レベルで編集する録音編
集方式や、自然音声から特徴パラメータを抽出(分析)
して音声を特徴パラメータで表しておき合成時に特徴パ
ラメータから元の音声を再生する分析合成方式(PAR
COR方式、LSP方式、ホルマント合成方式等)があ
り、何れも使用することが可能である。
【0065】これら編集合成方式を使用する場合には、
各プログラム番号により決まる各発声内容に対して、予
め音声出力形態に応じて発声した実際の音声に基づいて
作成した複数(音声出力形態の種類の数)の音声データ
を予め用意し、音声データ295に格納しておく。そし
て、ステップ21で決定したプログラム番号と、ステッ
プ23で決定した音声出力形式に対応するエージェント
の音声データを音声データ295から取得し(ステップ
24に代わる処理)、エージェントの行動の画像表示と
共に、音声を出力する。
【0066】
【発明の効果】本発明のエージェント装置によれば、車
両内において、擬人化されたエージェントによる音声の
出力形態が種々の状況によって変更されるため、より人
間的な感情を持ったエージェントのように振る舞わせる
ことが可能になる。また、本発明は、現在の車両・運転
者の状況だけでなく、過去の履歴等に基づく学習結果か
ら擬人化されたエージェントが状況に合わせた行為を
し、運転者とのコミュニケーションをはかることができ
る。したがって、運転者は、自己と同様な気分状態のエ
ージェントとの間で会話をしたり、エージェントに窓の
開閉、CDやラジオの制御、走行道路や施設の詳細な案
内といった各種の制御をしてもらうことができ、車内で
の運転環境を快適にすることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態におけるコミュニケー
ション機能を実現するための構成を示すブロック図であ
る。
【図2】同上、実施形態におるプログラム選択テーブル
の内容を概念的にあらわした説明図である。
【図3】同上、実施形態において、各プログラム番号に
対応するエージェントの行為(行動と音声)と音声内容
種別を表した説明図である。
【図4】同上、実施形態におけるプログラム番号000
01〜00002の起動により表示装置に表示されるエ
ージェントの「かしこまってお辞儀」行動についての数
画面を表した説明図である。
【図5】同上、実施形態における学習項目データの内容
を概念的に表した説明図である。
【図6】同上、実施形態における応答データの内容を概
念的に表した説明図である。
【図7】同上、実施形態におけるエージェント性格決定
テーブルの内容を概念的に表した説明図である。
【図8】同上、実施形態における音声出力形態決定テー
ブルの内容を概念的に表した説明図である。
【図9】同上、実施形態におけるナビゲーションデータ
記憶装置に格納されるデータファイルの内容を概念的に
表した説明図である。
【図10】同上、実施形態における状況センサ部を構成
する各種センサを表した説明図である。
【図11】同上、実施形態においてエージェントによる
メイン動作を表したフローチャートである。
【図12】同上、実施形態によるエージェント処理の動
作を表したフローチャートである。
【符号の説明】
1 全体処理部 10 ナビゲーション処理部 11 エージェント処理部 12 I/F部 13 画像処理部 14 音声制御部 15 状況情報処理部 21 現在位置検出装置 22 入力装置 23 記憶媒体駆動装置 24 通信制御装置 25 音声出力装置 26 マイク 27 表示装置 28 撮像装置 29 エージェントデータ記憶装置 30 ナビゲーションデータ記憶装置 40 状況センサ部
フロントページの続き (51)Int.Cl.6 識別記号 FI G10L 5/02 G06F 15/62 340K // G01C 21/00 G10K 15/00 M (72)発明者 足立 和英 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 向井 康二 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 擬人化されたエージェントの行動内容を
    画像表示する画像表示手段と音声を出力する音声出力手
    段とによりエージェントを車両内に出現させるエージェ
    ント出現手段と、 車両の状況を判断する状況判断手段と、 この状況判断手段により判断された状況に基づいて、エ
    ージェントの行動と発声内容からなる行為を決定する行
    為決定手段と、 前記状況判断手段により判断された状況に基づいて、エ
    ージェントが発声する音声の出力形態を決定する音声出
    力形態決定手段と、 前記エージェント出現手段により出現されるエージェン
    トに対して、前記行為決定手段で決定された行為に対応
    する行動を行わせると共に、前記行為決定手段で決定さ
    れた行為に対応する発声内容の音声を、前記音声出力手
    段決定手段で決定された出力形態で出力させるエージェ
    ント制御手段と、を具備することを特徴とするエージェ
    ント装置。
  2. 【請求項2】 前記発声形態決定手段は、車両の状態、
    エージェントに関する運転者の好み、車外要因、及び時
    間のうちの少なくとも1つに基づいて音声出力形態を決
    定することを特徴とする請求項1に記載のエージェント
    装置。
  3. 【請求項3】 前記エージェント制御手段は、前記音声
    出力形態決定手段により決定された音声出力形態に従っ
    て、音の高さ、強さ、音質、長さのうちの少なくとも1
    の要素を変更した音声を出力することを特徴とする請求
    項1に記載のエージェント装置。
  4. 【請求項4】 前記状況判断手段による所定の状況を記
    憶することで学習する学習手段を有し、前記行為決定手
    段は、この学習手段による学習結果を含めて前記エージ
    ェントの行為を決定することを特徴とする請求項1に記
    載のエージェント装置。
JP10082710A 1997-07-22 1998-03-13 エージェント装置 Pending JPH11259271A (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP10082710A JPH11259271A (ja) 1998-03-13 1998-03-13 エージェント装置
US09/119,238 US6249720B1 (en) 1997-07-22 1998-07-21 Device mounted in vehicle
EP98113679A EP0893308B1 (en) 1997-07-22 1998-07-22 Device mounted in vehicle
DE69836846T DE69836846T2 (de) 1997-07-22 1998-07-22 Im Kraftfahrzeug eingebautes Gerät
JP2005098225A JP3891202B2 (ja) 1997-07-22 2005-03-30 エージェント装置
JP2005098224A JP3918850B2 (ja) 1997-07-22 2005-03-30 エージェント装置
JP2005098227A JP2005313886A (ja) 1997-07-22 2005-03-30 エージェント装置
JP2005098226A JP2005293587A (ja) 1997-07-22 2005-03-30 エージェント装置
JP2005098223A JP2005313885A (ja) 1997-07-22 2005-03-30 エージェント装置
JP2008156559A JP4353310B2 (ja) 1997-07-22 2008-06-16 車載装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10082710A JPH11259271A (ja) 1998-03-13 1998-03-13 エージェント装置

Publications (1)

Publication Number Publication Date
JPH11259271A true JPH11259271A (ja) 1999-09-24

Family

ID=13781972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10082710A Pending JPH11259271A (ja) 1997-07-22 1998-03-13 エージェント装置

Country Status (1)

Country Link
JP (1) JPH11259271A (ja)

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000193463A (ja) * 1998-12-25 2000-07-14 Aisin Aw Co Ltd ナビゲ―ション装置及び記憶媒体
JP2001209820A (ja) * 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2001209400A (ja) * 2000-01-24 2001-08-03 Denso Corp 音声合成装置及び音声案内システム
JP2002005678A (ja) * 2000-06-16 2002-01-09 Tokai Rika Co Ltd 操作入力装置
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
WO2002082423A1 (fr) * 2001-04-05 2002-10-17 Sony Corporation Dispositif d'elaboration de suites de mots
JP2003177029A (ja) * 2001-12-12 2003-06-27 Navitime Japan Co Ltd 地図表示装置、地図表示システム
JP2003237490A (ja) * 2002-02-19 2003-08-27 Altia Co Ltd 車両用コミュニケーション装置
JP2003237453A (ja) * 2002-02-19 2003-08-27 Altia Co Ltd 車両用コミュニケーション装置
JP2004016743A (ja) * 2002-06-20 2004-01-22 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004028702A (ja) * 2002-06-24 2004-01-29 Equos Research Co Ltd 車載装置、データ作成装置、及びデータ作成プログラム
JP2004065309A (ja) * 2002-08-01 2004-03-04 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004102719A (ja) * 2002-09-10 2004-04-02 Sony Ericsson Mobilecommunications Japan Inc 情報処理装置
JP2004144718A (ja) * 2002-10-28 2004-05-20 Nissan Motor Co Ltd 地図表示装置
JP2004152183A (ja) * 2002-10-31 2004-05-27 Konami Computer Entertainment Yokyo Inc 仮想コミュニケーションシステム
JP2004231020A (ja) * 2003-01-30 2004-08-19 Nippon Seiki Co Ltd 車両用表示装置
WO2005027091A1 (en) * 2003-09-12 2005-03-24 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
JP2005135519A (ja) * 2003-10-30 2005-05-26 Fujitsu Ten Ltd 音楽再生装置
JP2005250010A (ja) * 2004-03-03 2005-09-15 Denso It Laboratory Inc 音声データ出力装置及び音声データ出力制御装置並びに音声データ出力制御システム
JP2006500704A (ja) * 2002-07-29 2006-01-05 デジタル ネットワークス ノース アメリカ インコーポレイテッド 自動再生リスト生成
JP2006301059A (ja) * 2005-04-18 2006-11-02 Denso Corp 音声出力システム
JP2006330484A (ja) * 2005-05-27 2006-12-07 Kenwood Corp 音声案内装置及び音声案内プログラム
WO2007055259A1 (ja) * 2005-11-09 2007-05-18 Pioneer Corporation ナビゲーション装置、ナビゲーション方法、並びにナビゲーションプログラム及びその記録媒体
US7222019B2 (en) 2004-01-14 2007-05-22 Yamaha Hatsudoki Kabushiki Kaisha Vehicle image display apparatus and vehicle having the same
JP2007279971A (ja) * 2006-04-05 2007-10-25 Kenwood Corp エージェント装置及びエージェントシステム
JP2008114095A (ja) * 2000-02-04 2008-05-22 Sega Corp 情報表示システム及び課金方法
US7440899B2 (en) 2002-04-09 2008-10-21 Matsushita Electric Industrial Co., Ltd. Phonetic-sound providing system, server, client machine, information-provision managing server and phonetic-sound providing method
US7539618B2 (en) 2004-11-25 2009-05-26 Denso Corporation System for operating device using animated character display and such electronic device
JP2010531478A (ja) * 2007-04-26 2010-09-24 フォード グローバル テクノロジーズ、リミテッド ライアビリティ カンパニー 感情に訴える助言システム及び方法
JP2012108522A (ja) * 2006-12-12 2012-06-07 Mitsubishi Electric Corp 車載用ガイダンス装置
WO2014073612A1 (ja) * 2012-11-08 2014-05-15 日本電気株式会社 会話文生成装置、会話文生成方法及び会話文生成プログラム
WO2014097629A1 (ja) * 2012-12-21 2014-06-26 株式会社デンソー 車両用情報提供装置
JP2016110151A (ja) * 2014-12-04 2016-06-20 悠之介 北 音声管理サーバー装置、会話音声提供方法、会話音声提供システム
JP2017058318A (ja) * 2015-09-18 2017-03-23 ヤフー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017207777A (ja) * 2017-08-07 2017-11-24 シャープ株式会社 ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2018189840A1 (ja) * 2017-04-12 2018-10-18 川崎重工業株式会社 車両の会話情報出力装置、及び会話情報出力方法
JP2019185470A (ja) * 2018-04-12 2019-10-24 株式会社Nttドコモ 情報処理装置
US11106426B2 (en) 2017-04-12 2021-08-31 Kawasaki Jukogyo Kabushiki Kaisha Vehicle conversation information output device and conversation information output method
WO2023031640A1 (ja) * 2021-09-06 2023-03-09 日産自動車株式会社 情報処理システム及び情報処理方法

Cited By (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000193463A (ja) * 1998-12-25 2000-07-14 Aisin Aw Co Ltd ナビゲ―ション装置及び記憶媒体
JP2001209400A (ja) * 2000-01-24 2001-08-03 Denso Corp 音声合成装置及び音声案内システム
JP2001209820A (ja) * 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
JP4710912B2 (ja) * 2000-02-04 2011-06-29 株式会社セガ 情報表示システム及び情報表示システム
JP2008114095A (ja) * 2000-02-04 2008-05-22 Sega Corp 情報表示システム及び課金方法
JP2002005678A (ja) * 2000-06-16 2002-01-09 Tokai Rika Co Ltd 操作入力装置
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
US7233900B2 (en) 2001-04-05 2007-06-19 Sony Corporation Word sequence output device
WO2002082423A1 (fr) * 2001-04-05 2002-10-17 Sony Corporation Dispositif d'elaboration de suites de mots
JP2003177029A (ja) * 2001-12-12 2003-06-27 Navitime Japan Co Ltd 地図表示装置、地図表示システム
JP2003237453A (ja) * 2002-02-19 2003-08-27 Altia Co Ltd 車両用コミュニケーション装置
JP2003237490A (ja) * 2002-02-19 2003-08-27 Altia Co Ltd 車両用コミュニケーション装置
US7440899B2 (en) 2002-04-09 2008-10-21 Matsushita Electric Industrial Co., Ltd. Phonetic-sound providing system, server, client machine, information-provision managing server and phonetic-sound providing method
JP2004016743A (ja) * 2002-06-20 2004-01-22 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004028702A (ja) * 2002-06-24 2004-01-29 Equos Research Co Ltd 車載装置、データ作成装置、及びデータ作成プログラム
US9247295B2 (en) 2002-07-29 2016-01-26 North Star Innovations Inc. Automated playlist generation
JP2006500704A (ja) * 2002-07-29 2006-01-05 デジタル ネットワークス ノース アメリカ インコーポレイテッド 自動再生リスト生成
US7228054B2 (en) 2002-07-29 2007-06-05 Sigmatel, Inc. Automated playlist generation
JP2004065309A (ja) * 2002-08-01 2004-03-04 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004102719A (ja) * 2002-09-10 2004-04-02 Sony Ericsson Mobilecommunications Japan Inc 情報処理装置
JP2004144718A (ja) * 2002-10-28 2004-05-20 Nissan Motor Co Ltd 地図表示装置
JP2004152183A (ja) * 2002-10-31 2004-05-27 Konami Computer Entertainment Yokyo Inc 仮想コミュニケーションシステム
JP2004231020A (ja) * 2003-01-30 2004-08-19 Nippon Seiki Co Ltd 車両用表示装置
US7881934B2 (en) 2003-09-12 2011-02-01 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
WO2005027091A1 (en) * 2003-09-12 2005-03-24 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
JP2005135519A (ja) * 2003-10-30 2005-05-26 Fujitsu Ten Ltd 音楽再生装置
US7222019B2 (en) 2004-01-14 2007-05-22 Yamaha Hatsudoki Kabushiki Kaisha Vehicle image display apparatus and vehicle having the same
JP2005250010A (ja) * 2004-03-03 2005-09-15 Denso It Laboratory Inc 音声データ出力装置及び音声データ出力制御装置並びに音声データ出力制御システム
US7539618B2 (en) 2004-11-25 2009-05-26 Denso Corporation System for operating device using animated character display and such electronic device
JP2006301059A (ja) * 2005-04-18 2006-11-02 Denso Corp 音声出力システム
JP4655268B2 (ja) * 2005-04-18 2011-03-23 株式会社デンソー 音声出力システム
JP2006330484A (ja) * 2005-05-27 2006-12-07 Kenwood Corp 音声案内装置及び音声案内プログラム
JP4573877B2 (ja) * 2005-11-09 2010-11-04 パイオニア株式会社 ナビゲーション装置、ナビゲーション方法、並びにナビゲーションプログラム及びその記録媒体
JPWO2007055259A1 (ja) * 2005-11-09 2009-04-30 パイオニア株式会社 ナビゲーション装置、ナビゲーション方法、並びにナビゲーションプログラム及びその記録媒体
WO2007055259A1 (ja) * 2005-11-09 2007-05-18 Pioneer Corporation ナビゲーション装置、ナビゲーション方法、並びにナビゲーションプログラム及びその記録媒体
JP2007279971A (ja) * 2006-04-05 2007-10-25 Kenwood Corp エージェント装置及びエージェントシステム
JP2012108522A (ja) * 2006-12-12 2012-06-07 Mitsubishi Electric Corp 車載用ガイダンス装置
US9292952B2 (en) 2007-04-26 2016-03-22 Ford Global Technologies, Llc Task manager and method for managing tasks of an information system
JP2010531478A (ja) * 2007-04-26 2010-09-24 フォード グローバル テクノロジーズ、リミテッド ライアビリティ カンパニー 感情に訴える助言システム及び方法
US9811935B2 (en) 2007-04-26 2017-11-07 Ford Global Technologies, Llc Emotive advisory system and method
US9495787B2 (en) 2007-04-26 2016-11-15 Ford Global Technologies, Llc Emotive text-to-speech system and method
US8812171B2 (en) 2007-04-26 2014-08-19 Ford Global Technologies, Llc Emotive engine and method for generating a simulated emotion for an information system
US9189879B2 (en) 2007-04-26 2015-11-17 Ford Global Technologies, Llc Emotive engine and method for generating a simulated emotion for an information system
US9570064B2 (en) 2012-11-08 2017-02-14 Nec Corporation Conversation-sentence generation device, conversation-sentence generation method, and conversation-sentence generation program
WO2014073612A1 (ja) * 2012-11-08 2014-05-15 日本電気株式会社 会話文生成装置、会話文生成方法及び会話文生成プログラム
JP2014139777A (ja) * 2012-12-21 2014-07-31 Denso Corp 車両用情報提供装置
WO2014097629A1 (ja) * 2012-12-21 2014-06-26 株式会社デンソー 車両用情報提供装置
JP2016110151A (ja) * 2014-12-04 2016-06-20 悠之介 北 音声管理サーバー装置、会話音声提供方法、会話音声提供システム
JP2017058318A (ja) * 2015-09-18 2017-03-23 ヤフー株式会社 情報処理装置、情報処理方法及びプログラム
WO2018189840A1 (ja) * 2017-04-12 2018-10-18 川崎重工業株式会社 車両の会話情報出力装置、及び会話情報出力方法
JPWO2018189840A1 (ja) * 2017-04-12 2019-11-07 川崎重工業株式会社 車両の会話情報出力装置、及び会話情報出力方法
US11106426B2 (en) 2017-04-12 2021-08-31 Kawasaki Jukogyo Kabushiki Kaisha Vehicle conversation information output device and conversation information output method
US11124139B2 (en) 2017-04-12 2021-09-21 Kawasaki Jukogyo Kabushiki Kaisha Vehicle conversation information output device and conversation information output method
JP2017207777A (ja) * 2017-08-07 2017-11-24 シャープ株式会社 ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2019185470A (ja) * 2018-04-12 2019-10-24 株式会社Nttドコモ 情報処理装置
WO2023031640A1 (ja) * 2021-09-06 2023-03-09 日産自動車株式会社 情報処理システム及び情報処理方法

Similar Documents

Publication Publication Date Title
JPH11259271A (ja) エージェント装置
JP3918850B2 (ja) エージェント装置
JP3873386B2 (ja) エージェント装置
JPH11259446A (ja) エージェント装置
JP4193300B2 (ja) エージェント装置
JP2000020888A (ja) エージェント装置
JPH11250395A (ja) エージェント装置
JP4085500B2 (ja) 車両状況把握装置、エージェント装置、および、車両制御装置
JP5019145B2 (ja) 運転者情報収集装置
JP4441939B2 (ja) 目的地設定装置
US11188293B2 (en) Playback sound provision device
JP2000181500A (ja) 音声認識装置及びエ―ジェント装置
JPH11272640A (ja) エージェント装置
JP2000186942A (ja) エ―ジェントメンタルモデル作成装置、及びエ―ジェント装置
JP4253918B2 (ja) エージェント装置
JP4284733B2 (ja) エージェント装置
JP2001235343A (ja) 情報出力装置
JP2004045616A (ja) 車載装置、データ作成装置、及びデータ作成プログラム
JP4032492B2 (ja) エージェント装置
JP2000203465A (ja) 情報記録装置
JP2004037953A (ja) 車載装置、データ作成装置、及びデータ作成プログラム
JP2003106846A (ja) エージェント装置
JP2004050975A (ja) 車載装置、データ作成装置、及びデータ作成プログラム
JP2004054300A (ja) 車載装置、データ作成装置、及びデータ作成プログラム
JP2023170240A (ja) エージェントの制御方法及びエージェントの制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060606

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070625