JP2004093354A - Driving information output device and program - Google Patents
Driving information output device and program Download PDFInfo
- Publication number
- JP2004093354A JP2004093354A JP2002254887A JP2002254887A JP2004093354A JP 2004093354 A JP2004093354 A JP 2004093354A JP 2002254887 A JP2002254887 A JP 2002254887A JP 2002254887 A JP2002254887 A JP 2002254887A JP 2004093354 A JP2004093354 A JP 2004093354A
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- robot
- output
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Emergency Alarm Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、運転者の危険を警告しカーナビゲーションを行う運転情報出力装置に関するものである。
【0002】
【従来の技術】
カーナビゲーション装置(以下、「カーナビ」と略す。)の普及により、現在地から目的地までの順路が地図表示や音声でガイドされるようになったため、運転者は不慣れな道でも簡単に目的地まで走行ができるようになった。しかしながら、一方ではカーナビに表示された地図や文字情報を運転者が注視するために、対向車や歩行者と接触事故を起こすケースが多発している。このため、運転中はカーナビ操作を無効にする等の事故防止機能が考え出されている。
【0003】
【発明が解決しようとする課題】
しかし、カーナビのインターネット接続化や地図の付加価値機能の高度化に伴い、例えば店舗情報や渋滞情報等の様々な情報の表示が可能となった。このため、カーナビに表示される情報は増大する傾向にあり、それに伴って、カーナビの情報表示に対する運転者の注視は増大傾向にある。
【0004】
本発明の目的は、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことを可能とする運転情報出力装置を提供することである。
【0005】
【課題を解決するための手段】
以上の課題を解決するために、請求項1に記載の発明の運転者情報出力装置は、
車に装備される運転情報出力装置において、車内又は車外の状況情報に対応づけて報知制御情報を記憶する記憶手段(例えば、図4のROM61;図24、図25)と、
状況情報を取得する取得手段(例えば、図4のカーナビ通信部51、図17のステップB1)と、
複数種の出力形態による報知が可能な報知手段(例えば、図4の音声出力部59、駆動部60)と、
運転者状態を検知する検知手段(例えば、ロボット10の具備するカメラ、図17のステップB2)と、
前記取得手段により取得された状況情報に基づき前記記憶手段に対応づけて記憶された報知制御情報を読み出し、前記検知手段による検知結果に応じた出力形態で、読み出された報知制御情報に基づく前記報知手段の制御を行う制御手段(例えば、図4のCPU50:図18のロボット作動制御処理)と、
を備えることを特徴としている。
【0006】
また、請求項9に記載の発明のプログラムは、車に装備される、コンピュータを搭載した運転情報出力装置に対して、
車内又は車外の状況情報に対応づけて報知制御情報を記憶する記憶機能と、
状況情報を取得する取得機能(例えば、図17のステップB1およびB2)と、
複数種の出力形態による報知が可能な報知機能(図20のステップD4)と、
運転者状態を検知する検知機能(例えば、図17のステップB1)と、
前記取得機能により取得された状況情報に基づき前記記憶機能に対応づけて記憶された報知制御情報を読み出し、前記検知機能による検知結果に応じた出力形態で、読み出され報知制御情報に基づく前記報知機能の制御を行う制御機能(例えば、図18のロボット作動制御処理)と、
を前記コンピュータにより実現させることを特徴としている。
【0007】
この請求項1および9に記載の発明によれば、前記取得手段により取得された状況情報に基づき前記記憶手段に対応づけて記憶された報知制御情報を読み出し、前記検知手段による検知結果に応じた出力形態で、読み出され報知制御情報に基づく前記報知機能の制御を行う。そのため、例えば、車外の危険な状況情が取得された場合、検知された運転者状態に応じて例えば、運転者がディスプレイを注視している場合は、、大音量の警報(出力形態の1つ)で状況情報を出力する等といったことが可能となり、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0008】
請求項2に記載の発明は、請求項1に記載の運転情報出力装置であって、前記制御手段は、前記検知手段による検知結果及び前記取得手段により取得された状況情報に応じた出力形態で、読み出された報知制御情報に基づく前記報知手段の制御を行う報知制御手段(例えば、図4のCPU50:図18のロボット作動制御処理)を有することを特徴している。
【0009】
この請求項2に記載の発明によれば、運転者の状態および状況情報に応じた出力形態で、報知手段の制御が行われる。そのため、例えば、運転者が車の走行中に危険な行動を取り、更に車の前方に障害物がある等といった状況の時に、大音量の警報で状況情報を出力する等といったことが可能となり、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0010】
そして請求項3に記載の発明は、請求項1または2に記載の運転情報出力装置であって、
前記取得手段はカーナビゲーション装置と通信する通信手段(例えば、図4のカーナビ通信部51、図16のステップA14)を有し、この通信手段による通信により前記状況情報として進路情報を取得し、
前記報知手段は前記複数種の出力形態として音声出力手段(例えば、図4の音声出力部59、図20のステップD5、ステップD6)および駆動手段(例えば、図4の駆動部60、図20のステップD5)とを有し、
前記制御手段により、前記音声出力手段からの音声出力または前記駆動手段の駆動制御が行われる、人形(例えば、図1のロボット10)であることを特徴としている。
【0011】
この請求項3に記載の発明によれば、運転者の状態や状況情報に従って、人形の音声情報や駆動内容が決定され、音声出力や人形の駆動によって、状況情報が運転者に報知される。このため、カーナビによって行っていた車の走行のナビゲーションを人形の駆動と音声出力によって行わせることができる。また、例えば、運転者が車の走行中に危険な行動を取った時に、人形の動作や大音量の警報で状況情報を出力するといったことが可能となる。そして、人形の動作や音声で警報を出力するため、運転者にとって視覚的に馴染みやすく、また理解しやすい。従って、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0012】
また請求項4に記載の発明は、請求項1または2に記載の運転情報出力装置であって、
前記取得手段はGPSと通信する通信手段(例えば、図23の通信部72、図16のステップA14)を有し、この通信手段による通信により前記状況情報として進路情報を取得し、
前記報知手段は前記複数種の出力形態として画像出力手段(例えば、図23の表示部75、図32のステップG2)および音声出力手段(例えば、図23の音声出力部76、図32のステップG2、ステップG3)とを有し、
前記検知手段による検知結果に応じて前記画像出力手段または前記音声出力手段を切り換えることを特徴としている。
【0013】
この請求項4に記載の発明によれば、運転者の状態に従って画像および音声による状況情報の報知と、音声のみによる状況情報の報知とを切り替えることによって、運転者が車の走行中に画像出力手段を注視した時に画像出力手段による状況情報の報知を停止し、音声のみによって報知するといったことができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0014】
請求項5に記載の発明は、請求項4に記載の運転情報出力装置であって、
前記検知手段は、運転者の視線方向を検知する視線方向検知手段(例えば、PDA900の具備するカメラ、図29のステップE12)を有し、
前記制御手段が前記画像出力手段の制御中であって、前記視線方向検知手段により視線方向が所定方向であると検知された場合には、前記制御手段は、前記画像出力手段の制御を停止し、前記音声出力手段の制御を行うことを特徴としている。
【0015】
この請求項5に記載の発明によれば、例えば、所定の視線方向を運転者が画像出力手段を見たときの方向に設定することにより、運転手が車を走行中に画像を表示している画像出力手段を注視した際に、画像出力手段による画像出力を停止し、音声のみによって状況情報を出力させることができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0016】
また請求項6に記載の発明は、請求項3に記載の運転情報出力装置であって、
前記検知手段は、運転者の視線方向を検知する視線方向検知手段(例えば、ロボット10の具備するカメラ、図29のステップE12)を有し、
前記制御手段が前記駆動手段の制御中であって、前記視線方向検知手段により視線方向が所定方向であると検知された場合には、前記制御手段は、前記駆動手段の制御を停止し、前記音声出力手段の制御を行うことを特徴としている。
【0017】
この請求項6に記載の発明によれば、例えば、所定の視線方向を運転者が人形を見たときの方向に設定することにより、運転手が車を走行中に駆動中の人形を注視した際に、駆動手段の駆動を停止し、音声のみによって状況情報を出力させることができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0018】
請求項7に記載の発明は、請求項1〜6の何れか一項に記載の運転情報出力装置であって、
前記記憶手段は警告用報知制御情報(例えば、図4の車センサ情報テーブル616等)を更に記憶し、
前記取得手段により取得された状況情報が所定条件を満たす場合には、前記制御手段が、前記警告用報知制御情報に基づく報知手段の制御を行うことを特徴としている。
【0019】
この請求項7に記載の発明によれば、運転者に対して警報を出力することができる。警報を出力する基準としては、例えば、車の前方に障害物が所定範囲内にあることを示す状況情報を取得した場合等がある。これにより、交通事故等を未然に防ぐことができる。
【0020】
また請求項8に記載の発明は、請求項1〜6の何れか一項に記載の運転情報出力装置であって、
前記記憶手段は警告用報知制御情報(例えば、図4の運転者行動情報テーブル617)を更に記憶し、
前記検知手段により検知された運転者状態が所定条件を満たす場合には、前記制御手段が、前記警告用報知制御情報に基づく報知手段の制御を行うことを特徴としている。
【0021】
この請求項8に記載の発明によれば、運転者に対して警報を出力することができる。警報を出力する基準として、例えば、脇見や居眠り等を検知手段が検知した場合等がある。これにより、交通事故等を未然に防ぐことができる。
【0022】
【発明の実施の形態】
以下、本発明の実施の形態を図示例と共に説明する。
【0023】
〔第1の実施の形態〕
本実施の形態では、車両走行のためのナビゲーション機能や各種警告機能等を備えたナビゲーションロボット(以下、単に「ロボット」と言う。)を運転情報出力装置として説明する。
【0024】
図1は、運転情報出力装置であるロボット10と周辺機器の接続構成を説明するためのブロック図である。車両100は、ロボット10、カーナビ11、GPS(Global Positioning System:全地球測位システム)12、ビーコンレシーバ13、カメラ14、車間距離センサ20、前方障害物センサ21、側方障害物センサ22および23、後方障害物センサ24、障害物検出回路25、窓開閉センサ30および31、ドア開閉センサ32および33、シートベルト装着センサ34および35、安全確認回路36を備える。
【0025】
ロボット10は、例えば人や動物、架空の生物を模したや人形であり、首、両腕、腰、両足等の関節部分にあるモータの駆動によって、様々な姿勢や動作を行うことができる。図2はロボット10の一例を示した外観図である。また図3は、ロボット10の車両100への設置例を示した図である。ロボット10は、車両100のインストルメントパネル3の上面等の運転者の視野の妨げにならない場所に設置される。ロボット10は、配線40を介してカーナビ11と接続される。
【0026】
更にロボット10には、温度センサ、湿度センサ、照度センサ、煙センサ、空気センサ、紫外線センサ、マイク等の車両100の内部の各種環境を検出するためのセンサが内蔵されている。温度センサは車両100内の気温を検出し、湿度センサは車両100内の湿度を検出する。照度センサは車両100内の照度を検出し、煙センサは車両100内の煙の量を検出する。空気センサは車両100内の空気の一酸化炭素濃度や不純物濃度等を検出し、紫外線センサは太陽光より照射される紫外線の量を検出する。マイクは車両100内の音声を入力して音量を検出する。
【0027】
またロボット10は、配線40によってカーナビ11と接続し、データの送受信を行うこととしたが、配線40を用いずにBluetooth等による無線通信によってデータの送受信を行ってもよい。
【0028】
カーナビ11は、GPSユニット12から車両100の現在位置を入力し、現在位置から目的地までの順路検索を行う。そして、画面に出力した地図上に順路を表示し、画像や音声等で走行のナビゲーションを行う。カーナビ11は、パソコン、携帯電話、PDA(Personal Digital Assistant)等のコンピュータであってもよい。
【0029】
GPSユニット12は、上空のGPS衛星から電波を受信し、車両100の現在位置を検出する。検出結果は配線41を介してカーナビ11に送信され、カーナビ11は検出結果に基づいて画面に出力した地図上に車両100の現在位置を表示する。
【0030】
ビーコンレシーバ13は、ビーコンアンテナ等を備えており、道路上に設置されているビーコンから送信される光や電波を受信して、渋滞情報等の必要な道路交通情報を受信する。
【0031】
カメラ14は、CCD(Charge Coupled Device:電荷結合素子)カメラ等であり、運転者の顔部分等の画像を撮影して、運転者の居眠りや脇見等の危険な行動を検知するためのカメラである。居眠りや脇見等の検知方法は公知技術であるため、説明を省略する。カメラ14は、例えば、運転者の視線が車の走行に適した前方を向いている場合は「正常」、ロボット10を数秒間注視していた場合は「ロボット」、カーナビ11の画面を数秒間注視していた場合は「画面」、脇見を数秒間していた場合は「脇見」というデータを運転者行動情報として出力し、他に運転者が居眠りをしているか否かを出力する。運転者行動情報は配線41を介してカーナビ11に出力される。
【0032】
車間距離センサ20は、前方を走行する車両と車両100との車間距離を検出し、前方障害物センサ21は車両100の前方に接近した障害物を検出する。側方障害物センサ22および23は、車両100の左右に接近した障害物を検出し、後方障害物センサ24は、後方に接近した障害物を検出する。これらのセンサからは電波が送波され、電波が障害物に反射して再びセンサによって受信されるまでの時間のズレにより、車両100と障害物との間の距離を測定する。
【0033】
そして、車間距離センサ20、前方障害物センサ21、側方障害物センサ22および23、後方障害物センサ24(以下、包括的に「車外センサ」と言う。)の測定結果は、障害物検出回路25に出力される。障害物検出回路25は、車外センサから車間距離や障害物に対する距離の測定結果を入力して配線41を介してカーナビ11に出力する。
【0034】
窓開閉センサ30および31は、車両100の左右の窓の開閉状態を検知し、ドア開閉センサ32および33は、車両100の左右のドアの開閉状態を検知する。シートベルト装着センサ34および35は、運転席および助手席のシートベルトの装着状況を検知する。
【0035】
そして、窓開閉センサ30および31、ドア開閉センサ32および33、シートベルト装着センサ34および35(以下、包括的に「車内センサ」と言う。)の検知結果は、安全確認回路36に出力される。安全確認回路36は、車内センサから窓およびドアの開閉やシートベルトの装着の検知結果を入力し、検知結果を配線41を介してカーナビ11に出力する。以下、障害物検出回路25から出力される測定結果、および安全確認回路36から出力される検出結果を「車センサ情報」と言う。
【0036】
ここで、GPSユニット12、ビーコンユニット13、カメラ14、障害物検出回路25および安全確認回路36は、配線41によってカーナビ11と接続し、データの送受信を行うこととしたが、配線41を用いず、Bluetooth等による無線通信によってデータの送受信を行ってもよい。また、便宜上、ロボット10とカメラ14は別体としたが、例えば、ロボット10の顔部2gにカメラを内蔵し、運転者の行動を検知するようにしてもよい。
【0037】
図4は、ロボット10の回路構成を示すブロック図である。ロボット10は、CPU(Central Processing Unit)50、カーナビ通信部51、温度検出部52、湿度検出部53、照度検出部54、煙検出部55、空気検出部56、紫外線検出部57、音声入力部58、音声出力部59、駆動部60、ROM(Read Only Memory)61、RAM(Random Access Memory)62およびバス63によって構成されている。
【0038】
CPU50は、カーナビ通信部51よりデータを入力してROM61に予め記憶されている各種プログラムの命令に従ってデータの処理を行い、処理後のデータをRAM62へ記憶、あるいは音声出力部59および駆動部60に出力する等の回路各部の動作の制御を行う。このCPU50には、カーナビ通信部51、温度検出部52、湿度検出部53、照度検出部54、煙検出部55、空気検出部56、紫外線検出部57、音声入力部58、音声出力部59、駆動部60、ROM61およびRAM62がバス63を介して接続されている。また、CPU50は制御手段としての機能を有する。
【0039】
カーナビ通信部51は、CPU50の制御によって配線40を介して接続されたカーナビ11等の外部機器とのデータ送受信を行う。また、カーナビ11とBluetooth等の無線によってデータ送受信を行う場合は、無線の送受信モジュール等を備える。また、カーナビ通信部51は取得手段、通信手段としての機能を有する。
【0040】
温度検出部52は、車両100内の温度を検出し、検出した温度データをCPU50に出力する。湿度検出部53は、車両100内の湿度を検出し、検出した湿度データをCPU50に出力する。
【0041】
照度検出部54は、車両100内の照度を検出し、検出した照度データをCPU50へ信号を出力する。煙検出部55は、車両100内の煙の量を検出し、検出した煙量データをCPU50に出力する。煙とは、例えば、タバコの煙などである。
【0042】
空気検出部56は、車両100内の空気中の一酸化炭素濃度や不純物濃度等を検出し、検出した濃度データをCPU50に出力する。紫外線検出部57は、太陽光中の紫外線量を検出し、検出した紫外線量データをCPU50に出力する。
【0043】
音声入力部58は、車両100内の音声を入力し、音量データをCPU50に出力する。以下、温度検出部52、湿度検出部53、照度検出部54、煙検出部55、空気検出部56、紫外線検出部57および音声入力部58を包括的にロボットセンサ500と言う。
【0044】
音声出力部59は、スピーカ等を備え、CPU50から入力される音声信号を音声に変換し、スピーカ等から出力する。また、音声出力部59は報知手段、音声出力手段としての機能を有する。
【0045】
駆動部60は、CPU50から入力される信号に従って、首モータ601、右手モータ602、左手モータ603、腰モータ604、右足モータ605および左足モータ606を制御するための信号を出力する。首モータ601はロボット10の首部2a、右手モータ602は右腕部2b、左手モータ603は左腕部2c、腰モータ604は腰部2d、右足モータ605は右足部2e、左足モータ606は左足部2fを動かすためのモータである。この他に、例えば、左右肘、左右手首、左右膝および左右足首等を動かすためのモータを備えてもよい。以下、首モータ601、右手モータ602、左手モータ603、腰モータ604、右足モータ605および左足モータ606を包括的にモータ600と言う。また、駆動部60は報知手段、駆動手段としての機能を有する。
【0046】
ROM61は、ロボット10を作動させるための各種プログラムおよびデータを記憶する。本実施の形態においては、ロボット作動プログラム610、ロボット作動制御プログラム611、ロボット駆動プログラム612、運転情報テーブル614、ロボットセンサ情報テーブル615、車センサ情報テーブル616、運転者行動情報テーブル617およびロボット動作テーブル618を記憶する。また、ROM61は記憶手段としての機能を有する。
【0047】
ロボット作動プログラム610は、ロボット10を作動させるためのプログラムである。ロボット作動制御プログラム611は、ロボット作動プログラム610のサブプログラムであり、運転者の行動や車両100の進路状況、車内外の情報に応じてロボット10を駆動させるためのプログラムである。ロボット駆動プログラム612は、ロボット作動制御プログラム611のサブプログラムであり、カーナビ11に対して画面出力の指示信号を出力し、ロボット10の駆動を開始させるためのプログラムである。
【0048】
運転情報テーブル614には、CPU50がカーナビ11からカーナビ通信部51を介して入力する運転情報に対応して、音声出力部59から出力させる音声情報およびロボット動作番号が記憶されている。運転情報とは、カーナビ11によって検索される現在位置から目的地までの順路やビーコンレシーバ13から入力される渋滞情報等のことである。図5は運転情報テーブル614のデータ構成の一例を示した図である。例えば、「前方に右折する交差点有り」という運転情報には、「もうすぐ右折交差点だよ。」という音声情報が記憶されている。音声情報はCPU50から音声出力部59に音声信号として出力される。またロボット動作番号については、後述するロボット動作テーブル618にて説明する。
【0049】
ロボットセンサ情報テーブル615には、CPU50がロボットセンサ500から入力する各種検出信号に対応して、音声出力部59に出力する音声情報およびロボット動作番号が記憶されている。図6はロボットセンサ情報テーブル615のデータ構成の一例を示した図である。例えば、「温度10℃未満」というロボットセンサ情報には、「寒いぃ〜。エアコンつけようよ。」という音声情報が記憶されている。
【0050】
ロボットセンサ情報テーブル615においては、他に、例えば車内温度が高温な時、車内が多湿の時、エンジン点火時に車内が暗い時、トンネル通過等によって急激に照度が変化した時、車内オーディオの音が大きすぎる時、携帯電話の着信時、車内に煙が充満した時、車内の空気中において一酸化炭素等の不純物濃度が高い時、太陽光の紫外線量が多い時等に対応した音声情報およびロボット動作番号が記憶されている。
【0051】
車センサ情報テーブル616には、CPU50がカーナビ11からカーナビ通信部51を介して入力する車センサ情報に対応して、音声出力部59に出力する音声情報およびロボット動作番号が記憶されている。図7は車センサ情報テーブル616のデータ構成の一例を示した図である。例えば、「時速xkm以上、反射距離ym未満」という車センサ情報には、「車間距離短いよ!」という音声情報が記憶されている。
【0052】
車センサ情報テーブル616においては、他に、例えばバック中に後方障害物センサ24の反射距離がzcm未満の時、走行中に側方障害物センサ22または23の反射距離がzcm未満の時、シートベルト未装着時、エンジン停止時に窓が開いている時、エンジン停止時にライトが点灯している時、防犯アラーム設定時にドアが開いた時等に対応した音声情報およびロボット動作番号が記憶されている。
【0053】
運転者行動情報テーブル617は、CPU50がカーナビ通信部51を介して入力する運転者行動情報に対応して、音声出力部59に出力する音声情報およびロボット動作番号が記憶されている。図9は運転者行動情報テーブル617のデータ構成の一例を示した図である。例えば、「居眠り」という運転者行動情報には、「居眠りしちゃダメ!」という音声情報が記憶されている。他に、例えば、運転者がカーナビ11の画面を注視している時、ロボット10を注視している時、脇見をしている時等に対応した音声情報およびロボット動作番号が記憶されている。
【0054】
ロボット動作テーブル618には、ロボット10の動作内容がロボット動作番号と対応付けて記憶されている。運転情報テーブル614、ロボットセンサ情報テーブル615、車情報テーブル616および運転者行動情報テーブル617に記憶されているロボット動作番号は、ロボット動作テーブル618のロボット動作番号の示すロボットの動作内容を指す。
【0055】
図9はロボット動作テーブル618のデータ構成の一例を示した図である。例えば、ロボット動作番号500に対して、「左手を上げる」というロボットの動作内容が記憶されている。つまり、仮にCPU50が入力した運転情報が「前方に右折する交差点有り」の場合、運転情報テーブル614に基づいて、CPU50は音声出力部59に「もうすぐ右折交差点だよ。」という音声出力の命令を出力し、ロボット動作番号が「500」であるから、駆動部60に「左手をあげる」という駆動信号を出力することになる。すると駆動部60によって左手モータ603が駆動されてロボット10の左腕部2cが動き、ロボット10は左手を挙手した姿勢となる。
【0056】
RAM62は、CPU50の作業領域として、プログラムやデータを一時的に記憶する。本実施の形態においては、ロボット側運転情報データ620、ロボット側運転者行動情報データ621、ロボット側ロボットセンサ情報データ622およびロボット側車センサ情報データ623を記憶する。
【0057】
ロボット側運転情報データ620には、CPU50が入力した進路情報および渋滞情報等を記憶する。進路情報とは、カーナビ11によって検索された順路に基づいて走行するために車両100が次に進むべき進路の情報であり、渋滞情報とは、順路上に発生した渋滞に関する情報である。図10はロボット側運転情報データ620のデータ構造の一例を示した図である。例えば、CPU50が「前方に右折する交差点有り」という進路情報を入力した場合、CPU50はロボット側運転情報データ620の進路情報として「前方に右折する交差点有り」を記憶する。
【0058】
ロボット側運転者行動情報データ621には、CPU50が入力した運転者行動情報を記憶する。運転者行動情報とは、運転者の視線方向や、運転者が居眠りをしているか否かを示す情報である。図11はロボット側運転者行動情報データ621のデータ構造の一例を示した図である。例えば、CPU50が運転者の視線の方向として「画面」という情報を入力した場合、CPU50はロボット側運転者情報データ621の視線方向として「画面」を記憶する。また、CPU50が運転者行動情報として、運転者が居眠りをしていると入力した場合は、ロボット側運転者行動情報データ621の居眠りの項目に“H”を記憶し、居眠りをしていないと入力した場合は“L”を記憶する。
【0059】
ロボット側ロボットセンサ情報データ622には、ロボットセンサ500から出力された各種検出結果に対して、それぞれ所定の条件を満たしている場合は“H”、満たしていない場合は“L”を記憶する。図12はロボット側ロボットセンサ情報データ622のデータ構造の一例を示した図である。例えば、CPU50が温度検出部52から「車内温度=5℃」という検出信号を入力した場合、ロボット側ロボットセンサ情報データ622の車内温度の条件「30℃以上」に“L”、条件「10℃未満」に“H”を記憶する。また、CPU50が湿度検出部53から「車内湿度30%」という検出信号を入力した場合、CPU50は車内湿度の条件「50%以上」に“L”を記憶する。
【0060】
障害物検出回路25および安全確認回路36から出力される車センサ情報は、カーナビ11によってそれぞれの検出結果が所定の条件を満たしているか否かが判定される。そしてその判定結果がロボット10に出力され、ロボット側車センサ情報データ623に記憶される。ロボット側車センサ情報データ623は、車センサ情報の各検出項目が所定の条件を満たしていれば“H”、満たしていない場合は“L”を記憶する。
【0061】
図13はロボット側車センサ情報データ623のデータ構造の一例を示した図である。例えば、カーナビ11が障害物検出回路25から「時速xkm以上」であり且つ「反射距離ym未満」という検出結果を入力した場合、カーナビ11は車センサ情報の車間距離の条件「時速xkm以上」を“H”、条件「反射距離ym未満」を“H”として、ロボット10に出力する。CPU50は車センサ情報として入力し、ロボット側車センサ情報623の車間距離の条件「時速xkm以上」に“H”、条件「反射距離ym」に“H”を記憶する。
【0062】
図14は、カーナビ11の回路構成を示すブロック図である。カーナビ11は、CPU80、通信部81、ロボット通信部82、入力部83、表示部84、ROM87、RAM88およびバス86によって構成されている。
【0063】
CPU80は、入力部83よりデータを入力してROM87に予め記憶されている各種プログラムの命令に従ってデータの処理を行い、処理後のデータをRAM88へ記憶、表示部84へ画面出力させる等の回路各部の動作の制御を行う。このCPU80には、通信部81、ロボット通信部82、入力部83、表示部84、ROM87およびRAM88がバス86を介して接続されている。
【0064】
通信部81は、CPU80の制御によって配線41を介して接続されたGPSユニット12、ビーコンレシーバ13、障害物検出回路25および安全確認回路36等の外部機器とのデータ送受信を行う。また、上記のような外部機器とBluetooth等の無線によってデータの送受信を行う場合は、無線の送受信モジュール等を備える。
【0065】
ロボット通信部82は、CPU80の制御によって配線40を介して接続されたロボット10とのデータ送受信を行う。また、ロボット10とBluetooth等の無線によってデータの送受信を行う場合は、無線の送受信モジュール等を備える。
【0066】
入力部83は、目的地等のカーナビ11の動作に必要なデータを入力するために用いられ、入力されたデータはCPU80へ出力される。入力部83はタッチパネル形式となっており、表示部84と一体化している。尚、入力部83はこれに限らず、キーボードやマウス等のポインティングデバイスで構成してもよい。
【0067】
表示部84は、LCD(Liquid Crystal Display:液晶ディスプレイ)やCRT(Cathode Ray Tube:ブラウン管)等で構成され、入力部83において入力された文字、符号、各種モード画面や地図等のCPU80から入力される表示データを表示する。
【0068】
ROM87は、カーナビ11を動作させるための各種プログラムおよびデータを記憶する。本実施の形態においては、基本プログラム870、ナビゲーションプログラム871およびGPS用地図ファイル872を記憶する。
【0069】
基本プログラム870は、カーナビ11の電源投入時の起動等の基本処理を実行するためのプログラムを含む。ナビゲーションプログラム871は、GPSユニット12から現在位置を入力して目的地までの順路検索を行い、道路交通情報や運転者の行動情報を取得してロボット10へ出力する。GPS用地図ファイル872は、表示部84におけるナビゲーションの表示に使用する地図データ、及び道路、施設、海、川等の各種シンボルデータ等が記憶されている。
【0070】
RAM88は、CPU80の作業領域として、プログラムやデータを一時的に記憶する。本実施の形態においては、ナビ側運転情報データ880、ナビ側運転者行動情報データ881およびナビ側車センサ情報データ882を記憶する。
【0071】
ナビ側運転情報データ880には、CPU80がGPSユニット12およびビーコンレシーバ13から通信部81を介して入力した進路情報および渋滞情報等を記憶する。ナビ側運転者行動情報データ881には、運転者の視線方向や居眠りをしているか否かを判別した運転者行動情報を記憶する。ナビ側車センサ情報データ882には、障害物検出回路25および安全確認回路36から入力した車センサ情報に対して、それぞれ所定の条件を満たしている場合は“H”、満たしていない場合は“L”を記憶する。
【0072】
尚、ナビ側運転情報データ880はロボット側運転情報データ620と、ナビ側運転者行動情報データ881はロボット側運転者行動情報データ621と、ナビ側車センサ情報データ882はロボット側車センサ情報データ623とデータ構成がそれぞれ同一であるため、その説明を省略する。
【0073】
次に、ロボット10およびカーナビ11の動作について説明する。まずカーナビ11の動作について説明する。図15および図16はCPU80によって実行されるナビゲーション処理の動作を示すフローチャートである。まずカーナビ11のCPU80は、入力部83から目的地を入力し(ステップA1)、GPSユニット12から現在位置を入力して現在位置から目的地までの順路を検索する(ステップA2)。そして表示部84に地図と順路を出力する(ステップA3)。次に、GPSユニット12から現在位置を入力し(ステップA4)、当該現在位置がステップA2で検索した順路から外れているか否かを判定する(ステップA5)。順路から外れていない場合(ステップA5:No)、CPU80はステップA7へ処理を進める。順路から外れている場合(ステップA5:Yes)、CPU80は再び現在位置から目的地までの順路を検索し、表示部84に地図と順路を出力する(ステップA6)。
【0074】
続いて、CPU80はビーコンレシーバ13から道路交通情報を入力し(ステップA7)、順路上に渋滞があるか否かを判定する(ステップA8)。順路上に渋滞がない場合(ステップA8:No)、CPU80はナビ側運転情報データ880の渋滞情報のデータを消去する(ステップA9)。順路上に渋滞がある場合(ステップA8:Yes)、CPU80はステップA7で入力した道路交通情報を渋滞情報として、ナビ側運転情報データ880に記憶する(ステップA10)。
【0075】
次にCPU80は、検索された順路に基づいて車両100が次に進むべき進路である進路情報をナビ側運転情報データ880に記憶する(ステップA11)。また、CPU80はカメラ14から運転者行動情報を入力し、運転者の視線方向や居眠りをしているか否かを判別して、判別結果をナビ側運転者行動情報データ881に記憶する(ステップA12)。更に、CPU80は障害物検出回路25および安全確認回路36から車センサ情報を入力し、それぞれの検出結果に対して所定の条件を満たしているか否かを判別して“H”または“L”をナビ側車センサ情報データ882に記憶する(ステップA13)。
【0076】
続いてCPU80は、ナビ側運転情報データ880、ナビ側運転者行動情報データ881およびナビ側車センサ情報データ882のデータをロボット通信部82を介してロボット10に出力する(ステップA14)。そしてCPU80は、ロボット通信部82から表示部84の表示指示を示す指示信号が入力されたか否かを判定する(ステップA15)。表示部84の表示を行う指示信号が入力された場合(ステップA15:No)、CPU80は表示部84に地図や順路等を表示する通常画面を表示する(ステップA16)。表示を停止する指示信号が入力された場合(ステップA15:Yes)、CPU80は表示部84の画面表示を停止する(ステップA17)。そしてCPU80はステップA4へ処理を移行する。
【0077】
このようにCPU80によるナビゲーション処理の実行によって、現在位置から目的地までの順路が検索される。そして、ビーコンレシーバ13より道路交通情報が入力され、順路上の渋滞の有無がナビ側運転情報データ880に記憶される。そして車両100が次に進むべき進路の進路情報と、運転者行動情報と、車センサ情報がナビ側運転情報データ880、ナビ側運転者行動情報データ881およびナビ側車センサ情報データ882にそれぞれ記憶され、記憶されたデータがロボット10に出力される。また、ロボット10から入力される表示部84の画面表示停止あるいは画面表示開始の指示信号に従って、表示部84のオン/オフが行われる。
【0078】
次に、ロボット10の動作について説明する。図17はCPU50によって実行されるロボット作動処理の動作を示すフローチャートである。まずCPU50は、カーナビ11からカーナビ通信部51を介して運転情報、運転者行動情報および車センサ情報を入力し、運転情報をロボット側運転情報データ620、運転者行動情報をロボット側運転者行動情報データ621、車センサ情報をロボット側車センサ情報データ623に記憶する(ステップB1)。
【0079】
続いてCPU50はロボットセンサ500の各種センサから検出結果を入力し、各検出結果に対して所定の条件を満たしているか否かを判別して、ロボット側ロボットセンサ情報データ622に記憶する(ステップB2)。そしてCPU50はロボット作動制御処理に処理を移行し(ステップB3)、ロボット作動制御処理の終了後、再びステップB1に戻り、処理を繰り返す。
【0080】
このようにCPU50によるロボット作動処理の実行によって、カーナビ通信部51を介して入力された運転情報、運転者行動情報および車センサ情報と、ロボットセンサ500から出力された各種検出結果がRAM62に記憶され、ロボット作動制御処理が実行される。
【0081】
図18および図19は、CPU50によって実行されるロボット作動制御処理の動作を示すフローチャートである。まずCPU50は、ロボット側運転者行動情報データ621の視線方向の項目に「正常」が記憶され、且つ、居眠りの項目に“L”が記憶されているか否かを判別する(ステップC1)。「正常」および“L”が記憶されている場合(ステップC1:Yes)、CPU50は音声出力部59の音量を通常音量に設定する(ステップC2)。「正常」および“L”が記憶されていない場合、つまり運転者の視線が画面あるいはロボット等を注視していたり、脇見や居眠りをしている場合(ステップC1:No)、CPU50は音声出力部59の音量を「大」に設定する(ステップC3)。
【0082】
次にCPU50は、ロボット側運転者行動情報データ621の居眠りの項目に“H”あるいは“L”の何れが記憶されているかを判別する(ステップC4)。“L”が記憶されている場合(ステップC4:No)、CPU50はステップC7へ処理を進める。“H”が記憶されている場合(ステップC4:Yes)、CPU50は運転者行動情報テーブル617より運転者行動情報が「居眠り」に対応する音声情報およびロボット動作番号を検索し(ステップC5)、ロボット駆動処理へ処理を移行する(ステップC6)。
【0083】
続いてCPU50は、ロボット側運転者行動情報データ621の視線方向の項目に「画面」が記憶されているか否かを判別する(ステップC7)。「画面」が記憶されていない場合(ステップC7:No)、CPU50はカーナビ通信部51より表示部84の表示を指示する指示信号を出力する(ステップC8)。一方、「画面」が記憶されている場合(ステップC7:Yes)、CPU50は運転者行動情報テーブル617より運転者行動情報が「画面」に対応する音声情報およびロボット動作番号を検索し(ステップC9)、ロボット駆動処理へ処理を移行する(ステップC10)。そして、CPU50はカーナビ通信部51より表示部84の表示を停止する指示信号を出力する(ステップC11)。
【0084】
次にCPU50は、ロボット側運転者行動情報データ621の視線方向の項目に「ロボット」が記憶されているか否かを判別する(ステップC12)。「ロボット」が記憶されていない場合(ステップC12:No)、CPU50は駆動部60にモータ600の駆動を待機状態にする信号を出力する(ステップC13)。一方、「ロボット」が記憶されている場合(ステップC12:Yes)、CPU50は運転者行動情報テーブル617より運転者行動情報が「ロボット」に対応する音声情報およびロボット動作番号を検索し(ステップC14)、ロボット駆動処理へ処理を移行する(ステップC15)。そしてCPU50は、駆動部60にモータ600をニュートラル状態にして駆動を停止状態にする信号を出力する(ステップC16)。
【0085】
次にCPU50は、ロボット側運転情報データ620の進路情報の項目に、次に進むべき進路情報が記憶されているか否かを判別する(ステップC17)。進路情報が記憶されていない場合(ステップC17:No)、CPU50はステップC20へ処理を移行する。進路情報が記憶されている場合(ステップC17:Yes)、CPU50はロボット側運転情報データ620に記憶されている進路情報に基づいて、運転情報テーブル614より音声情報およびロボット動作番号を検索し(ステップC18)、ロボット駆動処理へ処理を移行する(ステップC19)。
【0086】
続いてCPU50は、ロボット側ロボットセンサ情報データ622の各検出項目に対して“H”が記憶されているか否かを判別する(ステップC20)。“H”が記憶されている検出項目がない場合(ステップC20:No)、CPU50はステップC23へ処理を移行する。“H”が記憶されている検出項目がある場合(ステップC20:Yes)、CPU50は“H”が記憶されている検出項目に基づいて、ロボットセンサ情報テーブル615より音声情報およびロボット動作番号を検索し(ステップC21)、ロボット駆動処理へ処理を移行する(ステップC22)。
【0087】
そしてCPU50は、ロボット側車センサ情報データ623の各検出項目に対して“H”が記憶されているか否かを判別する(ステップC23)。“H”が記憶されている検出項目がない場合(ステップC23:No)、CPU50はロボット作動制御処理を終了する。“H”が記憶されている検出項目がある場合(ステップC23:Yes)、CPU50は“H”が記憶されている検出項目に基づいて、車センサ情報テーブル616より音声情報およびロボット動作番号を検索し(ステップC24)、ロボット駆動処理へ処理を移行する(ステップC25)。
【0088】
尚、ここで、例えば、ロボット側車センサ情報データ623の車間距離の項目において、条件「時速xkm以上」および条件「反射距離ym未満」の両方が“H”の時にステップC23からステップC24へ進み、ロボット駆動処理を実行する等の条件を含めることとしてもよい。この場合には、何れか一方が“L”の場合は、ロボット作業制御処理を終了する。このように、2つの検出項目がどちらも“H”の状態である場合のみ、ロボット10による警告を行うこととしてもよい。
【0089】
このようにCPU50によるロボット作動制御処理の実行によって、運転者が運転時に危険な行動を取っている場合には、音声出力の音量が「大」に設定される。更に、運転者が表示部84を注視している場合には表示部84の画面表示が停止され、ロボット10を注視している場合にはロボット10のモータ600が駆動停止状態に設定される。そして、ロボット側運転情報データ620、ロボット側ロボットセンサ情報データ622およびロボット側車センサ情報データ623に記憶されているデータに基づいて音声情報とロボットの動作内容が検索され、ロボット駆動処理が実行される。
【0090】
図20は、CPU50によって実行されるロボット駆動処理の動作を示すフローチャートである。まずCPU50は、カーナビ11の表示部84が表示状態であるか否かを判別する(ステップD1)。表示部84が表示停止状態である場合(ステップD1:No)、CPU50はステップD3へ処理を移行する。表示部84が表示状態である場合(ステップD1:Yes)、CPU50はナビ側運転情報データ880に記憶されている進路情報を表示部84に出力させるための指示信号を出力する(ステップD2)。
【0091】
次にCPU50はモータ600が駆動待機状態であるか否かを判別する(ステップD3)。モータ600の駆動が待機状態である場合(ステップD3:Yes)、CPU50はロボット作動制御処理のステップC5、C9、C14、C18、C21あるいはC24で検索したロボット動作番号に基づいてロボット動作テーブル618よりロボットの動作内容を検索し、検索したロボットの動作内容に従ってモータ600を駆動させるために駆動信号を駆動部60へ出力する(ステップD4)。同時に、ロボット作動制御処理のステップC5、C9、C14、C18、C21あるいはC24で検索した音声情報に従って音声を出力させるために、音声信号を音声出力部59へ出力する(ステップD5)。そしてCPU50はロボット駆動処理を終了する。
【0092】
一方、モータ600の駆動が停止状態である場合(ステップD3:No)、CPU50はロボット作動制御処理のステップC5、C9、C14、C18、C21あるいはC24で運転者行動情報テーブル617より読み出した音声情報に従って音声信号を音声出力部59へ出力し(ステップD6)、ロボット駆動処理を終了する。
【0093】
このようにCPU50によるロボット駆動処理の実行によって、表示部84の画面表示がされている場合には、表示部84に進路情報が出力され、モータ600が駆動待機状態の場合には、駆動部60に対して駆動信号が出力されて、モータ600を作動させる。同時に、音声出力部59に対して音声信号が出力され、音声が出力される。また、モータ600が駆動停止状態の場合には、音声のみ出力される。
【0094】
以上のように、ロボット10は、CPU50の各種処理の実行により、カーナビ11から入力される運転情報に基づいて、手足等を動かし、音声を出力して、運転者に対して現在位置から目的地までの順路をナビゲーションする。更に、運転者が脇見や居眠りをする等の危険な行動を取った際には、手足等の動きと大音量の音声によって警告を行う。これにより、運転者の脇見や居眠り等による交通事故を防ぐことができる。また運転者がロボット10を注視している場合にはロボット10は作動を停止し、表示部84を注視している場合には、表示部84の画面表示を停止させる。このため、運転者がロボット10やカーナビ11を注視することによる前方不注意により発生する接触事故等を防ぐことができる。また車内の各種環境が所定の条件を満たしていない場合もロボット10が動作および音声で運転者に知らせるため、車内を快適な状態に保つことができる。
【0095】
なお、本実施の形態では、車両100の走行速度に関わらず、運転者の視線がロボット10や表示部84の方向に数秒間向いていれば注視と判断するものとして説明したが、これに限定されない。つまり、車両100が時速100kmで走行していた場合と、時速50kmで走行していた場合とでは、車両100が1秒間に進む距離が異なってくることから、車両100の走行速度が所定の速度以上である場合、運転者の視線がロボット10や表示部84の方向に例えば2秒間向いていれば注視と判断し、走行速度が所定の速度以下である場合、運転者の視線がロボット10や表示部84の方向に例えば3秒間向いていれば注視と判断してもよい。これにより車両100の走行速度が速い場合には運転者のロボット10や表示部84に対する注視の判断を迅速に行うことができるため、前方不注意等による交通事故を更に防止することができる。
【0096】
〔第2の実施の形態〕
第1の実施の形態では、カーナビ11から出力される運転情報、運転者行動情報および車センサ情報やロボットセンサ600から出力される各種検出信号に基づいてロボット10を作動させ、更に音声を出力させることにより、運転者に対して順路のナビゲーションを行ったり、運転中の危険な行動に対して警告を行ったりしたが、本実施の形態では、運転情報出力装置をカーナビ機能付きPDA(以下、単に「PDA」と言う。)として同様の機能を実現させる場合を説明する。
【0097】
図21は、車両200の搭載されている運転情報出力装置であるPDA900と周辺機器の接続構成を説明するためのブロック図である。車両200は、GPS12、ビーコンレシーバ13、カメラ14、車内センサ回路15、車間距離センサ20、前方障害物センサ21、側方障害物センサ22および23、後方障害物センサ24、障害物検出回路25、窓開閉センサ30および31、ドア開閉センサ32および33、シートベルト装着センサ34および35、安全確認回路36およびPDA900を備える。図中、図1と同一の符号を付した部分は同一物を表わしており、詳しい説明を省略する。
【0098】
車内センサ回路15は、温度センサ、湿度センサ、照度センサ、煙センサ、空気センサ、紫外線センサおよびマイク等の車両200の各種車内環境を検出するためのセンサが内蔵されている。温度センサは車両200内の気温を検出し、湿度センサは車両200内の湿度を検出する。照度センサは車両200内の照度を検出し、煙センサは車両200内の煙の量を検出する。空気センサは車両200内の空気の一酸化炭素濃度や不純物濃度等を検出し、紫外線センサは太陽光より照射される紫外線の量を検出する。マイクは車両200内の音声を入力して音量を検出する。そして、車内センサ回路15から出力される検出結果を「車内センサ情報」と言う。
【0099】
図22は、PDA900の外観の一例を示した図である。本実施の形態では、PDA900として一般的なPDAを適用した場合を例としているが、その他、カーナビ機能を備えたパソコンや携帯電話(コンピュータ)等であればこれに限らない。同図において、PDA900は、通信ネットワークとデータを送受信するためのアンテナ(図示略)と、カーソルの移動や入力文字の確定、画面のスクロール等を行う入力キー90と、入力された文字や地図等を表示する表示画面91と、内蔵電池や太陽電池等の電源(図示略)とを備える。
【0100】
入力キー90は、例えば、キースイッチ、タッチパネル等によっても実現可能である。表示画面91は、地図や入力キー90の押下に応じた文字や符号を表示する等、PDA900を使用するために必要な各種データが表示される部分である。表示画面91は、LCDやELD(Electroluminescence Display:ELディスプレイ)等で構成される。
【0101】
また、PDA900は、記憶媒体用のスロット92と、通信回線や周辺機器とデータの送受信が可能な信号ケーブルと接続する接続端子93と、を備える。
【0102】
スロット92に挿入して使用する記憶媒体は、個人データ等を記憶する記憶媒体であって、例えば、メモリカード、ハードディスク等である。スロット92は、記憶媒体を着脱自在に装着し、記憶媒体に対してデータの読み書きができる装置であって、記憶媒体の種類に応じて適宜選択される。また、スロット92にデジタルカメラカードを挿入して、当該デジタルカメラにカメラ14と同様の機能を持たせてもよい。
【0103】
接続端子93は、通信回線や周辺機器と接続するための信号ケーブルに接続可能な端子とその制御部である。尚、信号ケーブル等の有線接続に限らず、例えば、Bluetooth等の無線を利用してデータの送受信を実現してもよい。この場合には、接続端子93は無線の送受信モジュールおよび無線送受信端子に該当する。
【0104】
図23は、PDA900の回路構成を示したブロック図である。PDA900は、CPU70、電送制御部71、通信部72、入力部74、表示部75、音声出力部76、記憶媒体読取部77、ROM78、RAM79およびバス73によって構成されている。
【0105】
CPU70は、入力部74よりデータを入力してROM78に予め記憶されている各種プログラムの命令に従ってデータの処理を行い、処理後のデータをRAM79へ記憶、表示部75へ画面出力あるいは音声出力部76へ音声出力させる等の回路各部の動作の制御を行う。このCPU70には、電送制御部71、通信部72、入力部74、表示部75、音声出力部76、記憶媒体読取部77、ROM78およびRAM79がバス73を介して接続されている。また、CPU70は制御手段としての機能を有する。
【0106】
電送制御部71は、電話回線網、ISDN回線網、専用線、移動体通信網や通信衛星回線網等の各種通信ネットワークとデータを送受信するためのアンテナやモデム、ターミナルアダプタ等によって構成され、CPU70の制御によってデータの送受信が行われる。
【0107】
通信部72は、CPU70の制御によって配線41を介して接続されたGPSユニット12、ビーコンレシーバ13、カメラ14、車内センサ回路15、障害物検出回路25および安全確認回路36等の外部機器とのデータ送受信を行う。図22では接続端子93に該当する。そして、上記のような外部機器とBluetooth等の無線によってデータの送受信を行う場合は、無線の送受信モジュール等を備える。また、通信部72は取得手段、通信手段としての機能を有する。
【0108】
入力部74は、目的地等のカーナビ11の動作に必要なデータを入力するために用いられ、入力されたデータはCPU70へ出力される。入力部74は図22の例では入力キー90に該当し、他に、例えば表示部75がタッチパネル形式となって文字や符号が入力されてもよい。
【0109】
表示部75は、LCDやCRT等で構成され、入力部74において入力された文字、符号、各種モード画面や地図等のCPU70から入力される表示データを表示する。図22では表示画面91に該当する。また、表示部75は報知手段、画像出力手段としての機能を有する。
【0110】
音声出力部76は、スピーカ等を備え、CPU70から入力される音声信号を音声に変換し、スピーカ等から出力する。また、音声出力部76は報知手段、音声出力手段としての機能を有する。
【0111】
記憶媒体読取部77は、例えば、メモリカード、ハードディスク等の記憶媒体に対してデータの読み書きをする。図22では、スロット92に該当する。
【0112】
ROM78は、PDA900を動作させるための各種プログラムおよびデータを記憶する。本実施の形態においては、基本プログラム780、ナビゲーションプログラム781、情報画面プログラム782、情報出力プログラム783、運転情報テーブル784、車内センサ情報テーブル785、車センサ情報テーブル786、運転者行動情報テーブル787、GPS用地図ファイル788、ロボット画像ファイル789を記憶する。また、ROM78は記憶手段としての機能を有する。
【0113】
基本プログラム780は、PDA900の電源投入時の起動等の基本処理を実行するためのプログラムを含む。ナビゲーションプログラム781は、GPSユニット12から現在位置を入力して目的地までの順路検索を行い、道路交通情報や運転者の行動情報を取得して表示部75へ出力するためのプログラムである。
【0114】
情報画面プログラム782は、ナビゲーションプログラム781のサブプログラムであり、運転者の行動や車両200の進路状況、車内外の情報に応じて表示部75に表示データを出力するためのプログラムである。情報出力プログラム783は、情報画面プログラム782のサブプログラムであり、表示部75の画面表示を行い、同時に音声を出力するためのプログラムである。
【0115】
運転情報テーブル784には、CPU70が入力する運転情報に対応して、音声出力部76から出力させる音声情報およびロボット画像番号が記憶されている。図24は運転情報テーブル784のデータ構成の一例を示した図である。運転情報テーブル784の運転情報および音声情報は、図5の運転情報テーブル614の運転情報および音声情報と同一のデータ構成であるため、詳しい説明を省略する。またロボット画像番号については、後述するロボット画像ファイル789にて説明する。
【0116】
車内センサ情報テーブル785には、CPU70が入力する車内センサ情報に対応して、音声出力部76から出力させる音声情報およびロボット画像番号が記憶されている。図25は車内センサ情報テーブル785のデータ構成の一例を示した図である。車内センサ情報テーブル785の車内センサ情報および音声情報は、図6のロボットセンサ情報テーブル615のロボットセンサ情報および音声情報と同一のデータ構成であるため、詳しい説明を省略する。
【0117】
車センサ情報テーブル786には、CPU70が入力する検出信号に対応して、音声出力部76から出力させる音声情報およびロボット画像番号が記憶されている。図26は車センサ情報テーブル786のデータ構成の一例を示した図である。車センサ情報テーブル786の車センサ情報および音声情報は、図7の車センサ情報テーブル616の車センサ情報および音声情報と同一のデータ構成であるため、詳しい説明を省略する。
【0118】
運転者行動情報テーブル787には、CPU70が入力する運転者行動情報に対応して、音声出力部76から出力させる音声情報およびロボット画像番号が記憶されている。図27は運転者行動情報テーブル787のデータ構成の一例を示した図である。運転者行動情報テーブル787の運転者行動情報および音声情報は、図9の運転者行動情報テーブル617と同一のデータ構成であるため、詳しい説明を省略する。
【0119】
GPS用地図ファイル788は、表示部75におけるナビゲーションの表示に使用する地図データ、及び道路、施設、海、川等の各種シンボルデータ等が記憶されている。
【0120】
ロボット画像ファイル789には、表示部75に表示するロボット画像データがロボット画像番号と対応付けて記憶されている。運転情報テーブル784、車内センサ情報テーブル785、車センサ情報テーブル786および運転者行動情報テーブル787に記憶されているロボット画像番号は、ロボット画像ファイル789のロボット画像番号を指す。
【0121】
図28はロボット画像ファイル789のデータ構成の一例を示した図である。例えば、ロボット画像番号1500に対して、ロボット画像データ788aが記憶されているとすると、仮にCPU70が入力した運転情報が「前方に右折する交差点有り」の場合、運転情報テーブル784に基づいて、CPU70は音声出力部76に「もうすぐ右折交差点だよ。」という音声信号を出力し、更にロボット画像番号が「1500」であるから、画像データとして表示部75にロボット画像データ788aを出力することになる。
【0122】
RAM79は、CPU70の作業領域として、プログラムやデータを一時的に記憶する。本実施の形態においては、運転情報データ790、運転者行動情報データ791、車センサ情報データ792および車内センサ情報データ793を記憶する。
【0123】
運転情報データ790には、CPU70が入力した進路情報および渋滞情報等を記憶する。運転者行動情報データ791には、CPU70が入力した運転者行動情報に基づいて、運転者の視線方向や居眠りをしているか否かを記憶する。車センサ情報データ792には、CPU70が入力した車センサ情報に対して、それぞれ所定の条件を満たしている場合は“H”、満たしていない場合は“L”を記憶する。車内センサ情報データ793には、CPU70が入力した車内センサ情報に対して、それぞれ所定の条件を満たしている場合は“H”、満たしていない場合は“L”を記憶する。
【0124】
尚、運転情報データ790はロボット側運転情報データ620と、運転者行動情報データ791はロボット側運転者行動情報データ621と、車センサ情報データ792はロボット側車センサ情報データ623と、車内センサ情報テーブル793はロボット側ロボットセンサ情報データ622とデータ構成がそれぞれ同一であるため、その説明を省略する。
【0125】
次に、PDA900の動作について説明する。図29はCPU70によって実行されるナビゲーション処理の動作を示すフローチャートである。まずCPU70は、入力部74から目的地を入力し(ステップE1)、GPSユニット12から現在位置を入力して現在位置から目的地までの順路を検索する(ステップE2)。そして表示部75に地図と順路を出力する(ステップE3)。次に、GPSユニット12から現在位置を入力し(ステップE4)、当該現在位置がステップE2で検索した順路から外れているか否かを判定する(ステップE5)。順路から外れていない場合(ステップE5:No)、CPU70はステップE7へ処理を進める。順路から外れている場合(ステップE5:Yes)、CPU70は再び現在位置から目的地までの順路を検索し、表示部75に地図と順路を出力する(ステップE6)。
【0126】
続いて、CPU70はビーコンレシーバ13から道路交通情報を入力し(ステップE7)、順路上に渋滞があるか否かを判定する(ステップE8)。順路上に渋滞がない場合(ステップE8:No)、CPU70は運転情報データ790の渋滞情報のデータを消去する(ステップE9)。順路上に渋滞がある場合(ステップE8:Yes)、CPU70はステップE7で入力した道路交通情報を渋滞情報として、運転情報データ790に記憶する(ステップE10)。
【0127】
次にCPU70は、検索された順路に基づいて車両200が次に進むべき進路である進路情報を運転情報データ790に記憶する(ステップE11)。また、CPU70はカメラ14から運転者行動情報を入力し、運転者行動情報データ791に記憶する(ステップE12)。更に、CPU70は車内センサ回路15から車内センサ情報を入力し、それぞれの検出結果に対して所定の条件を満たしているか否かを判別して“H”または“L”を車内センサ情報データ793に記憶する。また、CPU70は障害物検出回路25および安全確認回路36から車センサ情報を入力し、それぞれの検出結果に対して所定の条件を満たしているか否かを判別して“H”または“L”を車センサ情報データ792に記憶する(ステップE13)。
【0128】
続いてCPU70は、情報画面処理に処理を移行する(ステップE14)。情報画面処理の処理が終了したら、CPU70はステップE4へ処理を移行する。
【0129】
このようにCPU70によるナビゲーション処理の実行によって、現在位置から目的地までの順路が検索される。そして、ビーコンレシーバ13より道路交通情報を入力され、順路上の渋滞の有無が運転情報データ790に記憶される。そして車両200が次に進むべき進路の進路情報と、運転者行動情報と、車内センサ情報および車センサ情報が運転情報データ790、運転者行動情報データ791、車センサ情報データ792および車内センサ情報793に記憶され、情報画面処理が実行される。
【0130】
図30および29は、CPU70によって実行される情報画面処理の動作を示すフローチャートである。まずCPU70は、運転者行動情報データ791の視線方向の項目に「正常」が記憶され、且つ、居眠りの項目に“L”が記憶されているか否かを判別する(ステップF1)。「正常」且つ“L”が記憶されている場合(ステップF1:Yes)、CPU70は音声出力部76の音量を通常音量に設定する(ステップF2)。「正常」且つ“L”が記憶されていない場合(ステップF1:No)、CPU70は音声出力部76の音量を「大」に設定する(ステップF3)。
【0131】
次にCPU70は、運転者行動情報データ791の居眠りの項目に“H”あるいは“L”の何れが記憶されているかを判別する(ステップF4)。“L”が記憶されている場合(ステップF4:No)、CPU70はステップF7へ処理を進める。“H”が記憶されている場合(ステップF4:Yes)、CPU70は運転者行動情報テーブル787より音声情報およびロボット画像番号を検索し(ステップF5)、情報出力処理へ処理を移行する(ステップF6)。
【0132】
続いてCPU70は、運転者行動情報データ791の視線方向の項目に「画面」が記憶されているか否かを判別する(ステップF7)。「画面」が記憶されていない場合(ステップF7:No)、CPU70は表示部75に地図や順路等を表示する(ステップF8)。一方、「画面」が記憶されている場合(ステップF7:Yes)、CPU70は運転者行動情報テーブル787より音声情報およびロボット画像番号を検索し(ステップF9)、情報出力処理へ処理を移行する(ステップF10)。そして、CPU70は表示部75の画面表示を停止する(ステップF11)。
【0133】
次にCPU70は、運転情報データ790の進路情報の項目に、次に進むべき進路情報が記憶されているか否かを判別する(ステップF12)。進路情報が記憶されていない場合(ステップF12:No)、CPU70はステップF15へ処理を移行する。進路情報が記憶されている場合(ステップF12:Yes)、CPU70は運転情報データ790に記憶されている進路情報に基づいて、運転情報テーブル784より音声情報およびロボット画像番号を検索し(ステップF13)、情報出力処理へ処理を移行する(ステップF14)。
【0134】
続いてCPU70は、車内センサ情報データ793の各検出項目に対して“H”が記憶されているか否かを判別する(ステップF15)。“H”が記憶されている検出項目がない場合(ステップF15:No)、CPU70はステップF18へ処理を移行する。“H”が記憶されている検出項目がある場合(ステップF15:Yes)、CPU70は“H”が記憶されている検出項目に基づいて、車内センサ情報テーブル785より音声情報およびロボット画像番号を検索し(ステップF16)、情報出力処理へ処理を移行する(ステップF17)。
【0135】
そしてCPU70は、車センサ情報データ792の各検出項目に対して“H”が記憶されているか否かを判別する(ステップF18)。“H”が記憶されている検出項目がない場合(ステップF18:No)、CPU70は情報画面処理を終了する。“H”が記憶されている検出項目がある場合(ステップF18:Yes)、CPU70は“H”が記憶されている検出項目に基づいて、車センサ情報テーブル786より音声情報およびロボット画像番号を検索し(ステップF19)、情報出力処理へ処理を移行する(ステップF20)。そしてCPU70は情報画面処理を終了する。
【0136】
このようにCPU70による情報画面処理の実行によって、運転者が運転時に危険な行動を取っている場合には、音声出力の音量を「大」に設定する。更に、運転者が表示部75を注視している場合には表示部75の画面表示が停止される。そして、運転情報データ790、車センサ情報データ792および車内センサ情報データ793に記憶されているデータに基づいて音声情報とロボット画像番号が検索され、情報出力処理が実行される。
【0137】
図32は、CPU70によって実行される情報出力処理の動作を示すフローチャートである。まずCPU70は、表示部75が表示状態であるか否かを判別する(ステップG1)。表示部75が表示状態である場合(ステップG1:Yes)、CPU70は情報画面処理のステップF5、F9、F13、F16あるいはF19で検索したロボット画像番号に従って、ロボット画像ファイル789の画像データを表示部75に出力する。同時に、音声情報に従って音声信号を音声出力部76に出力し(ステップG2)、情報出力処理を終了する。
【0138】
一方、表示部75が表示停止状態である場合(ステップG1:No)、CPU70は情報画面処理のステップF5、F9、F13、F16あるいはF19で検索した音声情報に従って音声信号を音声出力部76に出力し(ステップG3)、情報出力処理を終了する。
【0139】
このようにCPU70による情報出力処理の実行によって、表示部75が表示状態である場合には、表示部75に表示されるロボット画像と音声によって進路情報、渋滞情報、車センサ情報および車内センサ情報等が出力される。一方、表示部75が表示停止状態の場合には、各情報が音声のみによって出力される。
【0140】
図33は、PDA900の表示画面91に一例としてロボット画像データ788aが表示された場合を示した図である。更に進路情報が「前方に右折する交差点有り」の場合、音声出力部76(図示略)から「もうすぐ右折交差点だよ。」という音声が出力されて、走行順路のナビゲーションを行う。
【0141】
以上のように、PDA900は出力する画像および音声によって運転者に対して現在位置から目的地までの順路をナビゲーションし、更に、運転者が脇見や居眠りをする等の危険な行動を取った際には、大音量の音声によって警告を行う。これにより、運転者の脇見や居眠り等による交通事故を防ぐことができる。また運転者が表示画面91を注視している場合には表示部75の表示を停止させる。これにより、運転者の前方不注意によって発生する接触事故等を防ぐことができる。また車内の各種環境が所定の条件を満たしていない場合もPDA900の出力する画像および音声で運転者に知らせるため、車内を快適な状態に保つことができる。
【0142】
尚、本発明の運転情報出力装置は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
【0143】
【発明の効果】
請求項1および9に記載の発明によれば、前記取得手段により取得された状況情報に基づき前記記憶手段に対応づけて記憶された報知制御情報を読み出し、前記検知手段による検知結果に応じた出力形態で、読み出され報知制御情報に基づく前記報知機能の制御を行う。そのため、例えば、車外の危険な状況情が取得された場合、検知された運転者状態に応じて例えば、運転者がディスプレイを注視している場合は、、大音量の警報(出力形態の1つ)で状況情報を出力する等といったことが可能となり、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0144】
請求項2に記載の発明によれば、運転者の状態および状況情報に応じた出力形態で、報知手段の制御が行われる。そのため、例えば、運転者が車の走行中に危険な行動を取り、更に車の前方に障害物がある等といった状況の時に、大音量の警報で状況情報を出力する等といったことが可能となり、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0145】
請求項3に記載の発明によれば、運転者の状態や状況情報に従って、人形の音声情報や駆動内容が決定され、音声出力や人形の駆動によって、状況情報が運転者に報知される。このため、カーナビによって行っていた車の走行のナビゲーションを人形の駆動と音声出力によって行わせることができる。また、例えば、運転者が車の走行中に危険な行動を取った時に、人形の動作や大音量の警報で状況情報を出力するといったことが可能となる。そして、人形の動作や音声で警報を出力するため、運転者にとって視覚的に馴染みやすく、また理解しやすい。従って、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0146】
請求項4に記載の発明によれば、運転者の状態に従って画像および音声による状況情報の報知と、音声のみによる状況情報の報知とを切り替えることによって、運転者が車の走行中に画像出力手段を注視した時に画像出力手段による状況情報の報知を停止し、音声のみによって報知するといったことができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0147】
請求項5に記載の発明によれば、例えば、所定の視線方向を運転者が画像出力手段を見たときの方向に設定することにより、運転手が車を走行中に画像を表示している画像出力手段を注視した際に、画像出力手段による画像出力を停止し、音声のみによって状況情報を出力させることができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0148】
請求項6に記載の発明によれば、例えば、所定の視線方向を運転者が人形を見たときの方向に設定することにより、運転手が車を走行中に駆動中の人形を注視した際に、駆動手段の駆動を停止し、音声のみによって状況情報を出力させることができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0149】
請求項7に記載の発明によれば、運転者に対して警報を出力することができる。警報を出力する基準としては、例えば、車の前方に障害物が所定範囲内にあることを示す状況情報を取得した場合等がある。これにより、交通事故等を未然に防ぐことができる。
【0150】
請求項8に記載の発明によれば、運転者に対して警報を出力することができる。警報を出力する基準として、例えば、脇見や居眠り等を検知手段が検知した場合等がある。これにより、交通事故等を未然に防ぐことができる。
【図面の簡単な説明】
【図1】ロボットと周辺機器の接続構成を説明するためのブロック図。
【図2】ロボットの一例を示した外観図。
【図3】ロボットの車両への設置例を示した図。
【図4】ロボットの回路構成を示すブロック図。
【図5】運転情報テーブルのデータ構成の一例を示した図。
【図6】ロボットセンサ情報テーブルのデータ構成の一例を示した図。
【図7】車センサ情報テーブルのデータ構成の一例を示した図。
【図8】運転者行動情報テーブルのデータ構成の一例を示した図。
【図9】ロボット動作テーブルのデータ構成の一例を示した図。
【図10】ロボット側運転情報データのデータ構造の一例を示した図。
【図11】ロボット側運転者行動情報データのデータ構造の一例を示した図。
【図12】ロボット側ロボットセンサ情報データのデータ構造の一例を示した図。
【図13】ロボット側車センサ情報データのデータ構造の一例を示した図。
【図14】カーナビの回路構成を示すブロック図。
【図15】第1の実施の形態における、ナビゲーション処理の動作を示すフローチャート。
【図16】図15に続く、ナビゲーション処理の動作を示すフローチャート。
【図17】ロボット作動処理の動作を示すフローチャート。
【図18】ロボット作動制御処理の動作を示すフローチャート。
【図19】図18に続く、ロボット作動制御処理の動作を示すフローチャート。
【図20】ロボット駆動処理の動作を示すフローチャート。
【図21】運転情報出力装置であるPDAと周辺機器の接続構成を説明するためのブロック図。
【図22】PDAの外観の一例を示した図。
【図23】PDAの回路構成を示したブロック図。
【図24】運転情報テーブルのデータ構成の一例を示した図。
【図25】車内センサ情報テーブルのデータ構成の一例を示した図。
【図26】車センサ情報テーブルのデータ構成の一例を示した図。
【図27】運転者行動情報テーブルのデータ構成の一例を示した図。
【図28】ロボット画像テーブルのデータ構成の一例を示した図。
【図29】第2の実施の形態におけるナビゲーション処理の動作を示すフローチャート。
【図30】情報画面処理の動作を示すフローチャート。
【図31】図30に続く、情報画面処理の動作を示すフローチャート。
【図32】情報出力処理の動作を示すフローチャート。
【図33】PDAの表示画面にロボット画像を表示した時の図。
【符号の説明】
10 ナビゲーションロボット
50 CPU
51 カーナビ通信部
52 温度検知部
53 湿度検知部
54 照度検知部
55 煙検知部
56 空気検知部
57 紫外線検知部
58 音声入力部
59 音声出力部
60 駆動部
61 ROM
62 RAM
900 カーナビ機能付きPDA
70 CPU
71 電送制御部
72 通信部
74 入力部
75 表示部
76 音声出力部
77 記憶媒体読取部
78 ROM
79 RAM[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a driving information output device that warns a driver of a danger and performs car navigation.
[0002]
[Prior art]
With the spread of car navigation systems (hereinafter abbreviated as "car navigation systems"), the route from the current location to the destination has been guided by a map display or voice, so that the driver can easily reach the destination even on unfamiliar roads. You can now run. However, on the other hand, there are many cases in which the driver gazes at the map or character information displayed on the car navigation system, causing a collision accident with an oncoming vehicle or a pedestrian. For this reason, an accident prevention function such as disabling the car navigation operation during driving has been devised.
[0003]
[Problems to be solved by the invention]
However, with the Internet connection of car navigation systems and the sophistication of value-added functions of maps, various information such as store information and traffic congestion information can be displayed. Therefore, the information displayed on the car navigation system tends to increase, and accordingly, the driver's gaze on the information display of the car navigation system tends to increase.
[0004]
An object of the present invention is to provide a driving information output device that outputs driving information appropriately in accordance with the situation of a driver and enables safe and appropriate navigation.
[0005]
[Means for Solving the Problems]
In order to solve the above problems, the driver information output device according to the invention described in
A driving information output device mounted on the vehicle, a storage means (for example,
Acquiring means for acquiring status information (for example, the car
A notification unit (for example, the
Detecting means for detecting the driver state (for example, a camera included in the
The notification control information stored in association with the storage unit is read based on the status information acquired by the acquisition unit, and the notification control information is output based on the read notification control information in an output form corresponding to a detection result by the detection unit. Control means for controlling the notification means (for example,
It is characterized by having.
[0006]
The program according to the ninth aspect of the present invention is directed to a driving information output device equipped with a computer, which is mounted on a car.
A storage function of storing notification control information in association with the in-vehicle or out-of-vehicle situation information;
An acquisition function for acquiring status information (for example, steps B1 and B2 in FIG. 17);
A notification function (step D4 in FIG. 20) capable of notification in a plurality of output modes;
A detection function for detecting the driver state (for example, step B1 in FIG. 17);
The notification control information stored in association with the storage function is read based on the status information acquired by the acquisition function, and the notification based on the read notification control information is output in an output form corresponding to a detection result by the detection function. A control function for controlling functions (for example, a robot operation control process in FIG. 18);
Is realized by the computer.
[0007]
According to the first and ninth aspects of the present invention, the notification control information stored in association with the storage unit is read out based on the situation information acquired by the acquisition unit, and the notification control information is read in accordance with the detection result by the detection unit. In the output mode, the notification function is controlled based on the read notification control information. Therefore, for example, when a dangerous situation outside the vehicle is acquired, or according to the detected driver state, for example, when the driver is gazing at the display, a loud alarm (one of output forms) ), It is possible to output situation information, etc., and it is possible to output driving information appropriately according to the situation of the driver and perform safe and appropriate navigation.
[0008]
The invention according to claim 2 is the driving information output device according to
[0009]
According to the second aspect of the present invention, the control of the notifying means is performed in an output form corresponding to the state and situation information of the driver. Therefore, for example, it is possible for the driver to take dangerous actions while the vehicle is running and to output situation information with a loud alarm when the situation is such that there is an obstacle in front of the car, and so on. It is possible to output driving information appropriately according to the situation of the driver, and to perform safe and appropriate navigation.
[0010]
The invention according to
The acquisition unit has a communication unit (for example, the car
The notification means includes a sound output means (for example, the
It is a doll (for example, the
[0011]
According to the third aspect of the invention, the voice information and the driving content of the doll are determined according to the driver's state and status information, and the driver is notified of the status information by voice output and driving of the doll. For this reason, it is possible to cause the navigation of the car, which has been performed by the car navigation, to be performed by driving the doll and outputting the voice. Further, for example, when the driver takes a dangerous action while the vehicle is running, it is possible to output situation information by a doll action or a loud alarm. Then, since the warning is output by the operation of the doll and the voice, the driver can easily understand and understand the visual recognition. Therefore, it is possible to output driving information appropriately according to the situation of the driver, and to perform safe and appropriate navigation.
[0012]
The invention according to claim 4 is the driving information output device according to
The acquisition unit has a communication unit (for example, the
The notifying unit includes an image output unit (for example, the
The image output unit or the audio output unit is switched according to a detection result by the detection unit.
[0013]
According to the fourth aspect of the present invention, by switching between the notification of the situation information by the image and the voice and the notification of the status information by the voice only in accordance with the driver's state, the driver can output the image while the vehicle is running. The notification of the status information by the image output means can be stopped when the means is watched, and the notification can be made only by sound. Thus, it is possible to prevent a traffic accident or the like caused by the driver's carelessness in front of the vehicle.
[0014]
The invention according to
The detection unit includes a line-of-sight direction detection unit that detects the line-of-sight direction of the driver (for example, a camera included in the
If the control unit is controlling the image output unit and the line-of-sight direction detection unit detects that the line-of-sight direction is a predetermined direction, the control unit stops the control of the image output unit. And controlling the audio output means.
[0015]
According to the invention described in
[0016]
The invention according to claim 6 is the driving information output device according to
The detection unit includes a line-of-sight direction detection unit that detects the line-of-sight direction of the driver (for example, a camera included in the
When the control unit is controlling the driving unit, and when the line-of-sight direction detecting unit detects that the line-of-sight direction is a predetermined direction, the control unit stops controlling the driving unit, It is characterized by controlling the audio output means.
[0017]
According to the invention described in claim 6, for example, by setting the predetermined line-of-sight direction to the direction when the driver looks at the doll, the driver gazes at the driven doll while driving the car. At this time, the driving of the driving means can be stopped, and the status information can be output only by sound. Thus, it is possible to prevent a traffic accident or the like caused by the driver's carelessness in front of the vehicle.
[0018]
The invention according to claim 7 is the driving information output device according to any one of
The storage unit further stores warning notification control information (for example, the car sensor information table 616 in FIG. 4).
When the situation information obtained by the obtaining means satisfies a predetermined condition, the control means controls the notification means based on the warning notification control information.
[0019]
According to the invention described in claim 7, it is possible to output a warning to the driver. As a criterion for outputting an alarm, for example, there is a case where status information indicating that an obstacle is within a predetermined range in front of the vehicle is acquired. Thereby, a traffic accident or the like can be prevented beforehand.
[0020]
The invention according to claim 8 is the driving information output device according to any one of
The storage unit further stores warning notification control information (for example, the driver action information table 617 in FIG. 4),
When the driver state detected by the detection means satisfies a predetermined condition, the control means controls the notification means based on the warning notification control information.
[0021]
According to the eighth aspect of the invention, it is possible to output a warning to the driver. As a criterion for outputting an alarm, for example, there is a case where the detection unit detects inattentiveness, dozing, and the like. Thereby, a traffic accident or the like can be prevented beforehand.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0023]
[First Embodiment]
In the present embodiment, a navigation robot (hereinafter, simply referred to as “robot”) having a navigation function for running a vehicle, various warning functions, and the like will be described as a driving information output device.
[0024]
FIG. 1 is a block diagram for explaining a connection configuration between a
[0025]
The
[0026]
Further, the
[0027]
In addition, the
[0028]
The
[0029]
The
[0030]
The
[0031]
The
[0032]
The
[0033]
The measurement results of the
[0034]
Window open /
[0035]
The detection results of the window opening /
[0036]
Here, the
[0037]
FIG. 4 is a block diagram illustrating a circuit configuration of the
[0038]
The
[0039]
The car
[0040]
[0041]
[0042]
The
[0043]
The
[0044]
The
[0045]
The
[0046]
The
[0047]
The
[0048]
The driving information table 614 stores voice information to be output from the
[0049]
The robot sensor information table 615 stores voice information output to the
[0050]
In the robot sensor information table 615, for example, when the temperature inside the vehicle is high, when the inside of the vehicle is humid, when the inside of the vehicle is dark when the engine is ignited, when the illuminance suddenly changes due to tunnel passage, etc., the sound of the audio inside the vehicle is generated. Voice information and robot corresponding to when the volume is too large, when a mobile phone arrives, when the interior of the car is filled with smoke, when the concentration of impurities such as carbon monoxide in the interior of the car is high, or when the amount of ultraviolet light from sunlight is large. The operation number is stored.
[0051]
The car sensor information table 616 stores voice information to be output to the
[0052]
In the car sensor information table 616, for example, when the reflection distance of the
[0053]
The driver action information table 617 stores voice information to be output to the
[0054]
The robot operation table 618 stores the operation content of the
[0055]
FIG. 9 is a diagram showing an example of the data configuration of the robot operation table 618. For example, for the
[0056]
The
[0057]
The robot-side
[0058]
The robot-side driver
[0059]
In the robot-side robot
[0060]
The
[0061]
FIG. 13 is a diagram showing an example of the data structure of the robot-side vehicle
[0062]
FIG. 14 is a block diagram showing a circuit configuration of the
[0063]
The
[0064]
The
[0065]
The robot communication unit 82 transmits and receives data to and from the
[0066]
The
[0067]
The
[0068]
The
[0069]
The
[0070]
The
[0071]
The navigation-side
[0072]
The navigation-side driving
[0073]
Next, operations of the
[0074]
Subsequently, the
[0075]
Next, the
[0076]
Subsequently, the
[0077]
By executing the navigation processing by the
[0078]
Next, the operation of the
[0079]
Subsequently, the
[0080]
As described above, by the execution of the robot operation process by the
[0081]
18 and 19 are flowcharts showing the operation of the robot operation control process executed by the
[0082]
Next, the
[0083]
Subsequently, the
[0084]
Next, the
[0085]
Next, the
[0086]
Subsequently, the
[0087]
Then, the
[0088]
Here, for example, in the item of the inter-vehicle distance in the robot-side vehicle
[0089]
As described above, by the execution of the robot operation control process by the
[0090]
FIG. 20 is a flowchart showing the operation of the robot driving process executed by the
[0091]
Next, the
[0092]
On the other hand, when the driving of the
[0093]
As described above, when the screen of the
[0094]
As described above, the
[0095]
In this embodiment, regardless of the traveling speed of the
[0096]
[Second embodiment]
In the first embodiment, the
[0097]
FIG. 21 is a block diagram for describing a connection configuration between a
[0098]
The in-
[0099]
FIG. 22 is a diagram illustrating an example of the external appearance of the
[0100]
The input key 90 can be realized by, for example, a key switch, a touch panel, or the like. The
[0101]
The
[0102]
The storage medium used by inserting it into the
[0103]
The
[0104]
FIG. 23 is a block diagram showing a circuit configuration of the
[0105]
The
[0106]
The
[0107]
The
[0108]
The
[0109]
The
[0110]
The
[0111]
The storage
[0112]
The
[0113]
[0114]
The
[0115]
The driving information table 784 stores voice information output from the
[0116]
The in-vehicle sensor information table 785 stores voice information and a robot image number output from the
[0117]
The vehicle sensor information table 786 stores voice information output from the
[0118]
The driver action information table 787 stores voice information and a robot image number to be output from the
[0119]
The
[0120]
The
[0121]
FIG. 28 is a diagram showing an example of the data configuration of the
[0122]
The
[0123]
The driving
[0124]
Note that the driving
[0125]
Next, the operation of the
[0126]
Subsequently, the
[0127]
Next, the
[0128]
Subsequently, the
[0129]
By executing the navigation processing by the
[0130]
30 and 29 are flowcharts showing the operation of the information screen processing executed by the
[0131]
Next, the
[0132]
Subsequently, the
[0133]
Next, the
[0134]
Subsequently, the
[0135]
Then, the
[0136]
As described above, when the driver performs a dangerous action during driving by executing the information screen processing by the
[0137]
FIG. 32 is a flowchart showing the operation of the information output process executed by the
[0138]
On the other hand, when the
[0139]
When the
[0140]
FIG. 33 is a diagram illustrating a case where the
[0141]
As described above, the
[0142]
It should be noted that the driving information output device of the present invention is not limited to the illustrated example described above, and it is needless to say that various changes can be made without departing from the gist of the present invention.
[0143]
【The invention's effect】
According to the first and ninth aspects of the present invention, the notification control information stored in association with the storage unit is read based on the status information acquired by the acquisition unit, and an output corresponding to a detection result by the detection unit is output. In the embodiment, the notification function is controlled based on the read notification control information. Therefore, for example, when a dangerous situation outside the vehicle is acquired, or according to the detected driver state, for example, when the driver is gazing at the display, a loud alarm (one of output forms) ), It is possible to output situation information, etc., and it is possible to output driving information appropriately according to the situation of the driver and perform safe and appropriate navigation.
[0144]
According to the second aspect of the present invention, the control of the notifying means is performed in an output form according to the driver's state and situation information. Therefore, for example, it is possible for the driver to take dangerous actions while the vehicle is running and to output situation information with a loud alarm when the situation is such that there is an obstacle in front of the car, and so on. It is possible to output driving information appropriately according to the situation of the driver, and to perform safe and appropriate navigation.
[0145]
According to the third aspect of the present invention, the voice information and the driving content of the doll are determined in accordance with the driver's state and status information, and the driver is notified of the status information by voice output and driving of the doll. For this reason, it is possible to cause the navigation of the car, which has been performed by the car navigation, to be performed by driving the doll and outputting the voice. Further, for example, when the driver takes a dangerous action while the vehicle is running, it is possible to output situation information by a doll action or a loud alarm. Then, since the warning is output by the operation of the doll and the voice, the driver can easily understand and understand the visual recognition. Therefore, it is possible to output driving information appropriately according to the situation of the driver, and to perform safe and appropriate navigation.
[0146]
According to the invention described in claim 4, by switching between the notification of the situation information by the image and the voice and the notification of the status information by the voice only in accordance with the state of the driver, the image output means during the driving of the vehicle by the driver When the user gazes at, the notification of the status information by the image output means can be stopped and the notification can be made only by voice. Thus, it is possible to prevent a traffic accident or the like caused by the driver's carelessness in front of the vehicle.
[0147]
According to the invention described in
[0148]
According to the invention described in claim 6, for example, by setting the predetermined line-of-sight direction to the direction when the driver looks at the doll, when the driver gazes at the driven doll while driving the car In addition, the driving of the driving means can be stopped, and the status information can be output only by voice. Thus, it is possible to prevent a traffic accident or the like caused by the driver's carelessness in front of the vehicle.
[0149]
According to the invention described in claim 7, it is possible to output an alarm to the driver. As a criterion for outputting an alarm, for example, there is a case where status information indicating that an obstacle is within a predetermined range in front of the vehicle is acquired. Thereby, a traffic accident or the like can be prevented beforehand.
[0150]
According to the invention described in claim 8, an alarm can be output to the driver. As a criterion for outputting an alarm, for example, there is a case where the detection unit detects inattentiveness, dozing, and the like. Thereby, a traffic accident or the like can be prevented beforehand.
[Brief description of the drawings]
FIG. 1 is a block diagram for explaining a connection configuration between a robot and peripheral devices.
FIG. 2 is an external view showing an example of a robot.
FIG. 3 is a diagram showing an example of installation of a robot on a vehicle.
FIG. 4 is a block diagram showing a circuit configuration of the robot.
FIG. 5 is a diagram showing an example of a data configuration of a driving information table.
FIG. 6 is a diagram showing an example of a data configuration of a robot sensor information table.
FIG. 7 is a diagram showing an example of a data configuration of a vehicle sensor information table.
FIG. 8 is a diagram showing an example of a data configuration of a driver action information table.
FIG. 9 is a diagram illustrating an example of a data configuration of a robot operation table.
FIG. 10 is a diagram showing an example of a data structure of robot-side operation information data.
FIG. 11 is a diagram showing an example of a data structure of robot-side driver action information data.
FIG. 12 is a diagram showing an example of a data structure of robot-side robot sensor information data.
FIG. 13 is a diagram showing an example of the data structure of robot-side vehicle sensor information data.
FIG. 14 is a block diagram showing a circuit configuration of a car navigation system.
FIG. 15 is a flowchart illustrating an operation of a navigation process according to the first embodiment.
FIG. 16 is a flowchart showing the operation of the navigation process following FIG. 15;
FIG. 17 is a flowchart illustrating an operation of a robot operation process.
FIG. 18 is a flowchart illustrating an operation of a robot operation control process.
FIG. 19 is a flowchart showing the operation of the robot operation control process following FIG. 18;
FIG. 20 is a flowchart illustrating an operation of a robot driving process.
FIG. 21 is a block diagram for explaining a connection configuration between a PDA, which is an operation information output device, and peripheral devices.
FIG. 22 is a diagram showing an example of the appearance of a PDA.
FIG. 23 is a block diagram showing a circuit configuration of a PDA.
FIG. 24 is a diagram showing an example of a data configuration of a driving information table.
FIG. 25 is a diagram showing an example of a data configuration of an in-vehicle sensor information table.
FIG. 26 is a diagram showing an example of a data configuration of a vehicle sensor information table.
FIG. 27 is a diagram showing an example of a data configuration of a driver action information table.
FIG. 28 is a diagram showing an example of a data configuration of a robot image table.
FIG. 29 is a flowchart illustrating an operation of a navigation process according to the second embodiment.
FIG. 30 is a flowchart showing the operation of an information screen process.
FIG. 31 is a flowchart showing the operation of the information screen process following FIG. 30;
FIG. 32 is a flowchart showing an operation of an information output process.
FIG. 33 is a diagram when a robot image is displayed on the display screen of the PDA.
[Explanation of symbols]
10 Navigation robot
50 CPU
51 Car Navigation Communication Department
52 Temperature detector
53 Humidity detector
54 Illuminance detector
55 Smoke detector
56 Air detector
57 UV detector
58 Voice input section
59 Audio output unit
60 drive unit
61 ROM
62 RAM
900 PDA with car navigation function
70 CPU
71 Transmission control unit
72 Communication unit
74 Input section
75 Display
76 Audio output section
77 Storage medium reading unit
78 ROM
79 RAM
Claims (9)
車内又は車外の状況情報に対応づけて報知制御情報を記憶する記憶手段と、
状況情報を取得する取得手段と、
複数種の出力形態による報知が可能な報知手段と、
運転者状態を検知する検知手段と、
前記取得手段により取得された状況情報に基づき前記記憶手段に対応づけて記憶された報知制御情報を読み出し、前記検知手段による検知結果に応じた出力形態で、読み出された報知制御情報に基づく前記報知手段の制御を行う制御手段と、
を備えることを特徴とする運転情報出力装置。In the driving information output device installed in the car,
Storage means for storing notification control information in association with in-vehicle or out-of-vehicle situation information;
Acquisition means for acquiring status information;
An informing means capable of informing by a plurality of output forms;
Detecting means for detecting a driver state;
The notification control information stored in association with the storage unit is read based on the status information obtained by the obtaining unit, and the notification control information is output based on the read notification control information in an output form corresponding to a detection result by the detection unit. Control means for controlling the notification means;
A driving information output device comprising:
前記報知手段は前記複数種の出力形態として音声出力手段および駆動手段とを有し、
前記制御手段により、前記音声出力手段からの音声出力または前記駆動手段の駆動制御が行われる、人形であることを特徴とする請求項1または2に記載の運転情報出力装置。The acquisition means has communication means for communicating with a car navigation device, and acquires route information as the status information by communication by the communication means,
The notifying unit has an audio output unit and a driving unit as the plurality of types of output forms,
3. The driving information output device according to claim 1, wherein the driving information output device is a doll in which a voice output from the voice output unit or a drive control of the driving unit is performed by the control unit. 4.
前記報知手段は前記複数種の出力形態として画像出力手段および音声出力手段とを有し、
前記検知手段による検知結果に応じて前記画像出力手段または前記音声出力手段を切り換えることを特徴とする請求項1または2に記載の運転情報出力装置。The acquisition means has communication means for communicating with GPS, and acquires route information as the status information by communication by the communication means,
The notification means has an image output means and a sound output means as the plurality of types of output forms,
The driving information output device according to claim 1, wherein the image output unit or the audio output unit is switched according to a detection result by the detection unit.
前記制御手段が前記画像出力手段の制御中であって、前記視線方向検知手段により視線方向が所定方向であると検知された場合には、前記制御手段は、前記画像出力手段の制御を停止し、前記音声出力手段の制御を行うことを特徴とする請求項4に記載の運転情報出力装置。The detection unit has a line-of-sight direction detection unit that detects the line-of-sight direction of the driver,
If the control unit is controlling the image output unit and the gaze direction detection unit detects that the line of sight is in a predetermined direction, the control unit stops controlling the image output unit. 5. The driving information output device according to claim 4, wherein the driving information output device is controlled.
前記制御手段が前記駆動手段の制御中であって、前記視線方向検知手段により視線方向が所定方向であると検知された場合には、前記制御手段は、前記駆動手段の制御を停止し、前記音声出力手段の制御を行うことを特徴とする請求項3に記載の運転情報出力装置。The detection unit has a line-of-sight direction detection unit that detects the line-of-sight direction of the driver,
When the control unit is controlling the driving unit, and when the line-of-sight direction detecting unit detects that the line-of-sight direction is a predetermined direction, the control unit stops controlling the driving unit, 4. The driving information output device according to claim 3, wherein the driving information output device controls the voice output means.
前記取得手段により取得された状況情報が所定条件を満たす場合には、前記制御手段が、前記警告用報知制御情報に基づく報知手段の制御を行うことを特徴とする請求項1〜6の何れか一項に記載の運転情報出力装置。The storage means further stores warning notification control information,
7. The method according to claim 1, wherein when the status information acquired by the acquisition unit satisfies a predetermined condition, the control unit controls the notification unit based on the warning notification control information. The driving information output device according to claim 1.
前記検知手段により検知された運転者状態が所定条件を満たす場合には、前記制御手段が、前記警告用報知制御情報に基づく報知手段の制御を行うことを特徴とする請求項1〜6の何れか一項に記載の運転情報出力装置。The storage means further stores warning notification control information,
7. The control device according to claim 1, wherein when the driver state detected by the detection device satisfies a predetermined condition, the control device controls the notification device based on the warning notification control information. 8. The driving information output device according to claim 1.
車内又は車外の状況情報に対応づけて報知制御情報を記憶する記憶機能と、
状況情報を取得する取得機能と、
複数種の出力形態による報知が可能な報知機能と、
運転者状態を検知する検知機能と、
前記取得機能により取得された状況情報に基づき前記記憶機能に対応づけて記憶された報知制御情報を読み出し、前記検知機能による検知結果に応じた出力形態で、読み出された報知制御情報に基づく前記報知機能の制御を行う制御機能と、
を前記コンピュータにより実現させるためのプログラム。For a driving information output device equipped with a computer, which is equipped on a car,
A storage function of storing notification control information in association with the in-vehicle or out-of-vehicle situation information;
An acquisition function for acquiring status information;
A notification function capable of notification in a plurality of output forms;
A detection function for detecting a driver state;
The notification control information stored in association with the storage function is read based on the status information acquired by the acquisition function, and the output form is based on the read notification control information in an output form corresponding to a detection result by the detection function. A control function for controlling the notification function;
For realizing the above by the computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002254887A JP2004093354A (en) | 2002-08-30 | 2002-08-30 | Driving information output device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002254887A JP2004093354A (en) | 2002-08-30 | 2002-08-30 | Driving information output device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004093354A true JP2004093354A (en) | 2004-03-25 |
Family
ID=32060557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002254887A Pending JP2004093354A (en) | 2002-08-30 | 2002-08-30 | Driving information output device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004093354A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010096773A (en) * | 2010-01-22 | 2010-04-30 | Ixs Research:Kk | Robot navigation system |
JP2010127779A (en) * | 2008-11-27 | 2010-06-10 | Denso It Laboratory Inc | Information serving apparatus, information serving method and program |
US8160772B2 (en) | 2006-09-28 | 2012-04-17 | Pioneer Corporation | Drive control apparatus, drive control method, drive control program, and recording medium |
JP2018032204A (en) * | 2016-08-24 | 2018-03-01 | トヨタ自動車株式会社 | Driving support device |
JP2018055590A (en) * | 2016-09-30 | 2018-04-05 | トヨタ自動車株式会社 | Information providing system and information providing method |
JP2018520408A (en) * | 2015-05-05 | 2018-07-26 | ビー.ジー.ネゲヴ テクノロジーズ アンド アプリケーションズ リミテッドB.G.Negev Technologies and Applications Ltd. | Universal autonomous robot operation system |
WO2020195462A1 (en) * | 2019-03-26 | 2020-10-01 | 株式会社東海理化電機製作所 | Information presentation system |
JP2021099561A (en) * | 2019-12-20 | 2021-07-01 | 株式会社東海理化電機製作所 | Control device, input device, and program |
-
2002
- 2002-08-30 JP JP2002254887A patent/JP2004093354A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8160772B2 (en) | 2006-09-28 | 2012-04-17 | Pioneer Corporation | Drive control apparatus, drive control method, drive control program, and recording medium |
JP2010127779A (en) * | 2008-11-27 | 2010-06-10 | Denso It Laboratory Inc | Information serving apparatus, information serving method and program |
JP2010096773A (en) * | 2010-01-22 | 2010-04-30 | Ixs Research:Kk | Robot navigation system |
JP2018520408A (en) * | 2015-05-05 | 2018-07-26 | ビー.ジー.ネゲヴ テクノロジーズ アンド アプリケーションズ リミテッドB.G.Negev Technologies and Applications Ltd. | Universal autonomous robot operation system |
JP7023116B2 (en) | 2015-05-05 | 2022-02-21 | ビー.ジー.ネゲヴ テクノロジーズ アンド アプリケーションズ リミテッド | Universal autonomous robot driving system |
JP2018032204A (en) * | 2016-08-24 | 2018-03-01 | トヨタ自動車株式会社 | Driving support device |
JP2018055590A (en) * | 2016-09-30 | 2018-04-05 | トヨタ自動車株式会社 | Information providing system and information providing method |
WO2020195462A1 (en) * | 2019-03-26 | 2020-10-01 | 株式会社東海理化電機製作所 | Information presentation system |
JP2020160726A (en) * | 2019-03-26 | 2020-10-01 | 株式会社東海理化電機製作所 | Information presentation system |
CN113613931A (en) * | 2019-03-26 | 2021-11-05 | 株式会社东海理化电机制作所 | Information prompting system |
JP2021099561A (en) * | 2019-12-20 | 2021-07-01 | 株式会社東海理化電機製作所 | Control device, input device, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102552285B1 (en) | Portable electronic device and method thereof | |
KR101901799B1 (en) | Method and apparatus for controlling vehicular user interface | |
KR101570369B1 (en) | Telematics terminal and method for controlling vehicle by using thereof | |
JP5251805B2 (en) | In-vehicle electronic device and program | |
US9281965B2 (en) | Communication system and mobile communication device | |
KR20140120618A (en) | Terminal device and method for preventing accident | |
US20210179289A1 (en) | Aerial vehicle, communication terminal and non-transitory computer-readable medium | |
JP2007249477A (en) | Onboard information transmission device | |
CN109104689B (en) | Safety warning method and terminal | |
CN109495641B (en) | Reminding method and mobile terminal | |
CN107650796A (en) | System, the method and apparatus of vehicle-mounted media content are presented based on vehicle sensor data | |
CN114555401A (en) | Display system, display device, display method, and mobile device | |
CN109153352B (en) | Intelligent reminding method and device for automobile | |
CN108362303B (en) | Navigation method and mobile terminal | |
JP2004093354A (en) | Driving information output device and program | |
KR20160114486A (en) | Mobile terminal and method for controlling the same | |
KR101841501B1 (en) | Mobile device for car sharing and method for car sharing system | |
JP2008213604A (en) | Indication device | |
KR101578721B1 (en) | Navigation device and method for guiding route thereof | |
KR101525840B1 (en) | Navigation device and method for providing information using the same | |
KR101698102B1 (en) | Apparatus for controlling vehicle and method for controlling the same | |
JP2012178127A (en) | Attention calling system and attention calling device | |
KR101667699B1 (en) | Navigation terminal and method for guiding movement thereof | |
JP5640284B2 (en) | In-vehicle electronic device and program | |
WO2021253926A1 (en) | Method and apparatus for giving alarm regarding child being left in vehicle, and wearable device |