JP2004093354A - Driving information output device and program - Google Patents

Driving information output device and program Download PDF

Info

Publication number
JP2004093354A
JP2004093354A JP2002254887A JP2002254887A JP2004093354A JP 2004093354 A JP2004093354 A JP 2004093354A JP 2002254887 A JP2002254887 A JP 2002254887A JP 2002254887 A JP2002254887 A JP 2002254887A JP 2004093354 A JP2004093354 A JP 2004093354A
Authority
JP
Japan
Prior art keywords
information
unit
robot
output
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002254887A
Other languages
Japanese (ja)
Inventor
Hiroaki Nakanishi
中西 宏明
Shinichi Yagi
八木 愼一
Atsushi Oshima
大島 淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2002254887A priority Critical patent/JP2004093354A/en
Publication of JP2004093354A publication Critical patent/JP2004093354A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driving information output device capable of safe and proper navigation by outputting driving information properly corresponding to the driver's state. <P>SOLUTION: A driver's action is detected by a camera, and the detection result is inputted from a car navigation communication part 51 into a CPU 50 as driver's action information. The CPU 50 retrieves voice information and a movement content of a robot from a driver's action information table 617 based on the driver's action information, outputs a driving signal to a driving part 60 following the retrieved movement content of the robot, and outputs simultaneously a voice signal to a voice output part 59. When detected by the camera that the driver watches the robot, the CPU 50 stops driving of the robot. Similarly, when detected that the driver watches a car navigation screen, the CPU 50 outputs an instruction signal for stopping display on the car navigation screen to the car navigation. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、運転者の危険を警告しカーナビゲーションを行う運転情報出力装置に関するものである。
【0002】
【従来の技術】
カーナビゲーション装置(以下、「カーナビ」と略す。)の普及により、現在地から目的地までの順路が地図表示や音声でガイドされるようになったため、運転者は不慣れな道でも簡単に目的地まで走行ができるようになった。しかしながら、一方ではカーナビに表示された地図や文字情報を運転者が注視するために、対向車や歩行者と接触事故を起こすケースが多発している。このため、運転中はカーナビ操作を無効にする等の事故防止機能が考え出されている。
【0003】
【発明が解決しようとする課題】
しかし、カーナビのインターネット接続化や地図の付加価値機能の高度化に伴い、例えば店舗情報や渋滞情報等の様々な情報の表示が可能となった。このため、カーナビに表示される情報は増大する傾向にあり、それに伴って、カーナビの情報表示に対する運転者の注視は増大傾向にある。
【0004】
本発明の目的は、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことを可能とする運転情報出力装置を提供することである。
【0005】
【課題を解決するための手段】
以上の課題を解決するために、請求項1に記載の発明の運転者情報出力装置は、
車に装備される運転情報出力装置において、車内又は車外の状況情報に対応づけて報知制御情報を記憶する記憶手段(例えば、図4のROM61;図24、図25)と、
状況情報を取得する取得手段(例えば、図4のカーナビ通信部51、図17のステップB1)と、
複数種の出力形態による報知が可能な報知手段(例えば、図4の音声出力部59、駆動部60)と、
運転者状態を検知する検知手段(例えば、ロボット10の具備するカメラ、図17のステップB2)と、
前記取得手段により取得された状況情報に基づき前記記憶手段に対応づけて記憶された報知制御情報を読み出し、前記検知手段による検知結果に応じた出力形態で、読み出された報知制御情報に基づく前記報知手段の制御を行う制御手段(例えば、図4のCPU50:図18のロボット作動制御処理)と、
を備えることを特徴としている。
【0006】
また、請求項9に記載の発明のプログラムは、車に装備される、コンピュータを搭載した運転情報出力装置に対して、
車内又は車外の状況情報に対応づけて報知制御情報を記憶する記憶機能と、
状況情報を取得する取得機能(例えば、図17のステップB1およびB2)と、
複数種の出力形態による報知が可能な報知機能(図20のステップD4)と、
運転者状態を検知する検知機能(例えば、図17のステップB1)と、
前記取得機能により取得された状況情報に基づき前記記憶機能に対応づけて記憶された報知制御情報を読み出し、前記検知機能による検知結果に応じた出力形態で、読み出され報知制御情報に基づく前記報知機能の制御を行う制御機能(例えば、図18のロボット作動制御処理)と、
を前記コンピュータにより実現させることを特徴としている。
【0007】
この請求項1および9に記載の発明によれば、前記取得手段により取得された状況情報に基づき前記記憶手段に対応づけて記憶された報知制御情報を読み出し、前記検知手段による検知結果に応じた出力形態で、読み出され報知制御情報に基づく前記報知機能の制御を行う。そのため、例えば、車外の危険な状況情が取得された場合、検知された運転者状態に応じて例えば、運転者がディスプレイを注視している場合は、、大音量の警報(出力形態の1つ)で状況情報を出力する等といったことが可能となり、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0008】
請求項2に記載の発明は、請求項1に記載の運転情報出力装置であって、前記制御手段は、前記検知手段による検知結果及び前記取得手段により取得された状況情報に応じた出力形態で、読み出された報知制御情報に基づく前記報知手段の制御を行う報知制御手段(例えば、図4のCPU50:図18のロボット作動制御処理)を有することを特徴している。
【0009】
この請求項2に記載の発明によれば、運転者の状態および状況情報に応じた出力形態で、報知手段の制御が行われる。そのため、例えば、運転者が車の走行中に危険な行動を取り、更に車の前方に障害物がある等といった状況の時に、大音量の警報で状況情報を出力する等といったことが可能となり、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0010】
そして請求項3に記載の発明は、請求項1または2に記載の運転情報出力装置であって、
前記取得手段はカーナビゲーション装置と通信する通信手段(例えば、図4のカーナビ通信部51、図16のステップA14)を有し、この通信手段による通信により前記状況情報として進路情報を取得し、
前記報知手段は前記複数種の出力形態として音声出力手段(例えば、図4の音声出力部59、図20のステップD5、ステップD6)および駆動手段(例えば、図4の駆動部60、図20のステップD5)とを有し、
前記制御手段により、前記音声出力手段からの音声出力または前記駆動手段の駆動制御が行われる、人形(例えば、図1のロボット10)であることを特徴としている。
【0011】
この請求項3に記載の発明によれば、運転者の状態や状況情報に従って、人形の音声情報や駆動内容が決定され、音声出力や人形の駆動によって、状況情報が運転者に報知される。このため、カーナビによって行っていた車の走行のナビゲーションを人形の駆動と音声出力によって行わせることができる。また、例えば、運転者が車の走行中に危険な行動を取った時に、人形の動作や大音量の警報で状況情報を出力するといったことが可能となる。そして、人形の動作や音声で警報を出力するため、運転者にとって視覚的に馴染みやすく、また理解しやすい。従って、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0012】
また請求項4に記載の発明は、請求項1または2に記載の運転情報出力装置であって、
前記取得手段はGPSと通信する通信手段(例えば、図23の通信部72、図16のステップA14)を有し、この通信手段による通信により前記状況情報として進路情報を取得し、
前記報知手段は前記複数種の出力形態として画像出力手段(例えば、図23の表示部75、図32のステップG2)および音声出力手段(例えば、図23の音声出力部76、図32のステップG2、ステップG3)とを有し、
前記検知手段による検知結果に応じて前記画像出力手段または前記音声出力手段を切り換えることを特徴としている。
【0013】
この請求項4に記載の発明によれば、運転者の状態に従って画像および音声による状況情報の報知と、音声のみによる状況情報の報知とを切り替えることによって、運転者が車の走行中に画像出力手段を注視した時に画像出力手段による状況情報の報知を停止し、音声のみによって報知するといったことができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0014】
請求項5に記載の発明は、請求項4に記載の運転情報出力装置であって、
前記検知手段は、運転者の視線方向を検知する視線方向検知手段(例えば、PDA900の具備するカメラ、図29のステップE12)を有し、
前記制御手段が前記画像出力手段の制御中であって、前記視線方向検知手段により視線方向が所定方向であると検知された場合には、前記制御手段は、前記画像出力手段の制御を停止し、前記音声出力手段の制御を行うことを特徴としている。
【0015】
この請求項5に記載の発明によれば、例えば、所定の視線方向を運転者が画像出力手段を見たときの方向に設定することにより、運転手が車を走行中に画像を表示している画像出力手段を注視した際に、画像出力手段による画像出力を停止し、音声のみによって状況情報を出力させることができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0016】
また請求項6に記載の発明は、請求項3に記載の運転情報出力装置であって、
前記検知手段は、運転者の視線方向を検知する視線方向検知手段(例えば、ロボット10の具備するカメラ、図29のステップE12)を有し、
前記制御手段が前記駆動手段の制御中であって、前記視線方向検知手段により視線方向が所定方向であると検知された場合には、前記制御手段は、前記駆動手段の制御を停止し、前記音声出力手段の制御を行うことを特徴としている。
【0017】
この請求項6に記載の発明によれば、例えば、所定の視線方向を運転者が人形を見たときの方向に設定することにより、運転手が車を走行中に駆動中の人形を注視した際に、駆動手段の駆動を停止し、音声のみによって状況情報を出力させることができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0018】
請求項7に記載の発明は、請求項1〜6の何れか一項に記載の運転情報出力装置であって、
前記記憶手段は警告用報知制御情報(例えば、図4の車センサ情報テーブル616等)を更に記憶し、
前記取得手段により取得された状況情報が所定条件を満たす場合には、前記制御手段が、前記警告用報知制御情報に基づく報知手段の制御を行うことを特徴としている。
【0019】
この請求項7に記載の発明によれば、運転者に対して警報を出力することができる。警報を出力する基準としては、例えば、車の前方に障害物が所定範囲内にあることを示す状況情報を取得した場合等がある。これにより、交通事故等を未然に防ぐことができる。
【0020】
また請求項8に記載の発明は、請求項1〜6の何れか一項に記載の運転情報出力装置であって、
前記記憶手段は警告用報知制御情報(例えば、図4の運転者行動情報テーブル617)を更に記憶し、
前記検知手段により検知された運転者状態が所定条件を満たす場合には、前記制御手段が、前記警告用報知制御情報に基づく報知手段の制御を行うことを特徴としている。
【0021】
この請求項8に記載の発明によれば、運転者に対して警報を出力することができる。警報を出力する基準として、例えば、脇見や居眠り等を検知手段が検知した場合等がある。これにより、交通事故等を未然に防ぐことができる。
【0022】
【発明の実施の形態】
以下、本発明の実施の形態を図示例と共に説明する。
【0023】
〔第1の実施の形態〕
本実施の形態では、車両走行のためのナビゲーション機能や各種警告機能等を備えたナビゲーションロボット(以下、単に「ロボット」と言う。)を運転情報出力装置として説明する。
【0024】
図1は、運転情報出力装置であるロボット10と周辺機器の接続構成を説明するためのブロック図である。車両100は、ロボット10、カーナビ11、GPS(Global Positioning System:全地球測位システム)12、ビーコンレシーバ13、カメラ14、車間距離センサ20、前方障害物センサ21、側方障害物センサ22および23、後方障害物センサ24、障害物検出回路25、窓開閉センサ30および31、ドア開閉センサ32および33、シートベルト装着センサ34および35、安全確認回路36を備える。
【0025】
ロボット10は、例えば人や動物、架空の生物を模したや人形であり、首、両腕、腰、両足等の関節部分にあるモータの駆動によって、様々な姿勢や動作を行うことができる。図2はロボット10の一例を示した外観図である。また図3は、ロボット10の車両100への設置例を示した図である。ロボット10は、車両100のインストルメントパネル3の上面等の運転者の視野の妨げにならない場所に設置される。ロボット10は、配線40を介してカーナビ11と接続される。
【0026】
更にロボット10には、温度センサ、湿度センサ、照度センサ、煙センサ、空気センサ、紫外線センサ、マイク等の車両100の内部の各種環境を検出するためのセンサが内蔵されている。温度センサは車両100内の気温を検出し、湿度センサは車両100内の湿度を検出する。照度センサは車両100内の照度を検出し、煙センサは車両100内の煙の量を検出する。空気センサは車両100内の空気の一酸化炭素濃度や不純物濃度等を検出し、紫外線センサは太陽光より照射される紫外線の量を検出する。マイクは車両100内の音声を入力して音量を検出する。
【0027】
またロボット10は、配線40によってカーナビ11と接続し、データの送受信を行うこととしたが、配線40を用いずにBluetooth等による無線通信によってデータの送受信を行ってもよい。
【0028】
カーナビ11は、GPSユニット12から車両100の現在位置を入力し、現在位置から目的地までの順路検索を行う。そして、画面に出力した地図上に順路を表示し、画像や音声等で走行のナビゲーションを行う。カーナビ11は、パソコン、携帯電話、PDA(Personal Digital Assistant)等のコンピュータであってもよい。
【0029】
GPSユニット12は、上空のGPS衛星から電波を受信し、車両100の現在位置を検出する。検出結果は配線41を介してカーナビ11に送信され、カーナビ11は検出結果に基づいて画面に出力した地図上に車両100の現在位置を表示する。
【0030】
ビーコンレシーバ13は、ビーコンアンテナ等を備えており、道路上に設置されているビーコンから送信される光や電波を受信して、渋滞情報等の必要な道路交通情報を受信する。
【0031】
カメラ14は、CCD(Charge Coupled Device:電荷結合素子)カメラ等であり、運転者の顔部分等の画像を撮影して、運転者の居眠りや脇見等の危険な行動を検知するためのカメラである。居眠りや脇見等の検知方法は公知技術であるため、説明を省略する。カメラ14は、例えば、運転者の視線が車の走行に適した前方を向いている場合は「正常」、ロボット10を数秒間注視していた場合は「ロボット」、カーナビ11の画面を数秒間注視していた場合は「画面」、脇見を数秒間していた場合は「脇見」というデータを運転者行動情報として出力し、他に運転者が居眠りをしているか否かを出力する。運転者行動情報は配線41を介してカーナビ11に出力される。
【0032】
車間距離センサ20は、前方を走行する車両と車両100との車間距離を検出し、前方障害物センサ21は車両100の前方に接近した障害物を検出する。側方障害物センサ22および23は、車両100の左右に接近した障害物を検出し、後方障害物センサ24は、後方に接近した障害物を検出する。これらのセンサからは電波が送波され、電波が障害物に反射して再びセンサによって受信されるまでの時間のズレにより、車両100と障害物との間の距離を測定する。
【0033】
そして、車間距離センサ20、前方障害物センサ21、側方障害物センサ22および23、後方障害物センサ24(以下、包括的に「車外センサ」と言う。)の測定結果は、障害物検出回路25に出力される。障害物検出回路25は、車外センサから車間距離や障害物に対する距離の測定結果を入力して配線41を介してカーナビ11に出力する。
【0034】
窓開閉センサ30および31は、車両100の左右の窓の開閉状態を検知し、ドア開閉センサ32および33は、車両100の左右のドアの開閉状態を検知する。シートベルト装着センサ34および35は、運転席および助手席のシートベルトの装着状況を検知する。
【0035】
そして、窓開閉センサ30および31、ドア開閉センサ32および33、シートベルト装着センサ34および35(以下、包括的に「車内センサ」と言う。)の検知結果は、安全確認回路36に出力される。安全確認回路36は、車内センサから窓およびドアの開閉やシートベルトの装着の検知結果を入力し、検知結果を配線41を介してカーナビ11に出力する。以下、障害物検出回路25から出力される測定結果、および安全確認回路36から出力される検出結果を「車センサ情報」と言う。
【0036】
ここで、GPSユニット12、ビーコンユニット13、カメラ14、障害物検出回路25および安全確認回路36は、配線41によってカーナビ11と接続し、データの送受信を行うこととしたが、配線41を用いず、Bluetooth等による無線通信によってデータの送受信を行ってもよい。また、便宜上、ロボット10とカメラ14は別体としたが、例えば、ロボット10の顔部2gにカメラを内蔵し、運転者の行動を検知するようにしてもよい。
【0037】
図4は、ロボット10の回路構成を示すブロック図である。ロボット10は、CPU(Central Processing Unit)50、カーナビ通信部51、温度検出部52、湿度検出部53、照度検出部54、煙検出部55、空気検出部56、紫外線検出部57、音声入力部58、音声出力部59、駆動部60、ROM(Read Only Memory)61、RAM(Random Access Memory)62およびバス63によって構成されている。
【0038】
CPU50は、カーナビ通信部51よりデータを入力してROM61に予め記憶されている各種プログラムの命令に従ってデータの処理を行い、処理後のデータをRAM62へ記憶、あるいは音声出力部59および駆動部60に出力する等の回路各部の動作の制御を行う。このCPU50には、カーナビ通信部51、温度検出部52、湿度検出部53、照度検出部54、煙検出部55、空気検出部56、紫外線検出部57、音声入力部58、音声出力部59、駆動部60、ROM61およびRAM62がバス63を介して接続されている。また、CPU50は制御手段としての機能を有する。
【0039】
カーナビ通信部51は、CPU50の制御によって配線40を介して接続されたカーナビ11等の外部機器とのデータ送受信を行う。また、カーナビ11とBluetooth等の無線によってデータ送受信を行う場合は、無線の送受信モジュール等を備える。また、カーナビ通信部51は取得手段、通信手段としての機能を有する。
【0040】
温度検出部52は、車両100内の温度を検出し、検出した温度データをCPU50に出力する。湿度検出部53は、車両100内の湿度を検出し、検出した湿度データをCPU50に出力する。
【0041】
照度検出部54は、車両100内の照度を検出し、検出した照度データをCPU50へ信号を出力する。煙検出部55は、車両100内の煙の量を検出し、検出した煙量データをCPU50に出力する。煙とは、例えば、タバコの煙などである。
【0042】
空気検出部56は、車両100内の空気中の一酸化炭素濃度や不純物濃度等を検出し、検出した濃度データをCPU50に出力する。紫外線検出部57は、太陽光中の紫外線量を検出し、検出した紫外線量データをCPU50に出力する。
【0043】
音声入力部58は、車両100内の音声を入力し、音量データをCPU50に出力する。以下、温度検出部52、湿度検出部53、照度検出部54、煙検出部55、空気検出部56、紫外線検出部57および音声入力部58を包括的にロボットセンサ500と言う。
【0044】
音声出力部59は、スピーカ等を備え、CPU50から入力される音声信号を音声に変換し、スピーカ等から出力する。また、音声出力部59は報知手段、音声出力手段としての機能を有する。
【0045】
駆動部60は、CPU50から入力される信号に従って、首モータ601、右手モータ602、左手モータ603、腰モータ604、右足モータ605および左足モータ606を制御するための信号を出力する。首モータ601はロボット10の首部2a、右手モータ602は右腕部2b、左手モータ603は左腕部2c、腰モータ604は腰部2d、右足モータ605は右足部2e、左足モータ606は左足部2fを動かすためのモータである。この他に、例えば、左右肘、左右手首、左右膝および左右足首等を動かすためのモータを備えてもよい。以下、首モータ601、右手モータ602、左手モータ603、腰モータ604、右足モータ605および左足モータ606を包括的にモータ600と言う。また、駆動部60は報知手段、駆動手段としての機能を有する。
【0046】
ROM61は、ロボット10を作動させるための各種プログラムおよびデータを記憶する。本実施の形態においては、ロボット作動プログラム610、ロボット作動制御プログラム611、ロボット駆動プログラム612、運転情報テーブル614、ロボットセンサ情報テーブル615、車センサ情報テーブル616、運転者行動情報テーブル617およびロボット動作テーブル618を記憶する。また、ROM61は記憶手段としての機能を有する。
【0047】
ロボット作動プログラム610は、ロボット10を作動させるためのプログラムである。ロボット作動制御プログラム611は、ロボット作動プログラム610のサブプログラムであり、運転者の行動や車両100の進路状況、車内外の情報に応じてロボット10を駆動させるためのプログラムである。ロボット駆動プログラム612は、ロボット作動制御プログラム611のサブプログラムであり、カーナビ11に対して画面出力の指示信号を出力し、ロボット10の駆動を開始させるためのプログラムである。
【0048】
運転情報テーブル614には、CPU50がカーナビ11からカーナビ通信部51を介して入力する運転情報に対応して、音声出力部59から出力させる音声情報およびロボット動作番号が記憶されている。運転情報とは、カーナビ11によって検索される現在位置から目的地までの順路やビーコンレシーバ13から入力される渋滞情報等のことである。図5は運転情報テーブル614のデータ構成の一例を示した図である。例えば、「前方に右折する交差点有り」という運転情報には、「もうすぐ右折交差点だよ。」という音声情報が記憶されている。音声情報はCPU50から音声出力部59に音声信号として出力される。またロボット動作番号については、後述するロボット動作テーブル618にて説明する。
【0049】
ロボットセンサ情報テーブル615には、CPU50がロボットセンサ500から入力する各種検出信号に対応して、音声出力部59に出力する音声情報およびロボット動作番号が記憶されている。図6はロボットセンサ情報テーブル615のデータ構成の一例を示した図である。例えば、「温度10℃未満」というロボットセンサ情報には、「寒いぃ〜。エアコンつけようよ。」という音声情報が記憶されている。
【0050】
ロボットセンサ情報テーブル615においては、他に、例えば車内温度が高温な時、車内が多湿の時、エンジン点火時に車内が暗い時、トンネル通過等によって急激に照度が変化した時、車内オーディオの音が大きすぎる時、携帯電話の着信時、車内に煙が充満した時、車内の空気中において一酸化炭素等の不純物濃度が高い時、太陽光の紫外線量が多い時等に対応した音声情報およびロボット動作番号が記憶されている。
【0051】
車センサ情報テーブル616には、CPU50がカーナビ11からカーナビ通信部51を介して入力する車センサ情報に対応して、音声出力部59に出力する音声情報およびロボット動作番号が記憶されている。図7は車センサ情報テーブル616のデータ構成の一例を示した図である。例えば、「時速xkm以上、反射距離ym未満」という車センサ情報には、「車間距離短いよ!」という音声情報が記憶されている。
【0052】
車センサ情報テーブル616においては、他に、例えばバック中に後方障害物センサ24の反射距離がzcm未満の時、走行中に側方障害物センサ22または23の反射距離がzcm未満の時、シートベルト未装着時、エンジン停止時に窓が開いている時、エンジン停止時にライトが点灯している時、防犯アラーム設定時にドアが開いた時等に対応した音声情報およびロボット動作番号が記憶されている。
【0053】
運転者行動情報テーブル617は、CPU50がカーナビ通信部51を介して入力する運転者行動情報に対応して、音声出力部59に出力する音声情報およびロボット動作番号が記憶されている。図9は運転者行動情報テーブル617のデータ構成の一例を示した図である。例えば、「居眠り」という運転者行動情報には、「居眠りしちゃダメ!」という音声情報が記憶されている。他に、例えば、運転者がカーナビ11の画面を注視している時、ロボット10を注視している時、脇見をしている時等に対応した音声情報およびロボット動作番号が記憶されている。
【0054】
ロボット動作テーブル618には、ロボット10の動作内容がロボット動作番号と対応付けて記憶されている。運転情報テーブル614、ロボットセンサ情報テーブル615、車情報テーブル616および運転者行動情報テーブル617に記憶されているロボット動作番号は、ロボット動作テーブル618のロボット動作番号の示すロボットの動作内容を指す。
【0055】
図9はロボット動作テーブル618のデータ構成の一例を示した図である。例えば、ロボット動作番号500に対して、「左手を上げる」というロボットの動作内容が記憶されている。つまり、仮にCPU50が入力した運転情報が「前方に右折する交差点有り」の場合、運転情報テーブル614に基づいて、CPU50は音声出力部59に「もうすぐ右折交差点だよ。」という音声出力の命令を出力し、ロボット動作番号が「500」であるから、駆動部60に「左手をあげる」という駆動信号を出力することになる。すると駆動部60によって左手モータ603が駆動されてロボット10の左腕部2cが動き、ロボット10は左手を挙手した姿勢となる。
【0056】
RAM62は、CPU50の作業領域として、プログラムやデータを一時的に記憶する。本実施の形態においては、ロボット側運転情報データ620、ロボット側運転者行動情報データ621、ロボット側ロボットセンサ情報データ622およびロボット側車センサ情報データ623を記憶する。
【0057】
ロボット側運転情報データ620には、CPU50が入力した進路情報および渋滞情報等を記憶する。進路情報とは、カーナビ11によって検索された順路に基づいて走行するために車両100が次に進むべき進路の情報であり、渋滞情報とは、順路上に発生した渋滞に関する情報である。図10はロボット側運転情報データ620のデータ構造の一例を示した図である。例えば、CPU50が「前方に右折する交差点有り」という進路情報を入力した場合、CPU50はロボット側運転情報データ620の進路情報として「前方に右折する交差点有り」を記憶する。
【0058】
ロボット側運転者行動情報データ621には、CPU50が入力した運転者行動情報を記憶する。運転者行動情報とは、運転者の視線方向や、運転者が居眠りをしているか否かを示す情報である。図11はロボット側運転者行動情報データ621のデータ構造の一例を示した図である。例えば、CPU50が運転者の視線の方向として「画面」という情報を入力した場合、CPU50はロボット側運転者情報データ621の視線方向として「画面」を記憶する。また、CPU50が運転者行動情報として、運転者が居眠りをしていると入力した場合は、ロボット側運転者行動情報データ621の居眠りの項目に“H”を記憶し、居眠りをしていないと入力した場合は“L”を記憶する。
【0059】
ロボット側ロボットセンサ情報データ622には、ロボットセンサ500から出力された各種検出結果に対して、それぞれ所定の条件を満たしている場合は“H”、満たしていない場合は“L”を記憶する。図12はロボット側ロボットセンサ情報データ622のデータ構造の一例を示した図である。例えば、CPU50が温度検出部52から「車内温度=5℃」という検出信号を入力した場合、ロボット側ロボットセンサ情報データ622の車内温度の条件「30℃以上」に“L”、条件「10℃未満」に“H”を記憶する。また、CPU50が湿度検出部53から「車内湿度30%」という検出信号を入力した場合、CPU50は車内湿度の条件「50%以上」に“L”を記憶する。
【0060】
障害物検出回路25および安全確認回路36から出力される車センサ情報は、カーナビ11によってそれぞれの検出結果が所定の条件を満たしているか否かが判定される。そしてその判定結果がロボット10に出力され、ロボット側車センサ情報データ623に記憶される。ロボット側車センサ情報データ623は、車センサ情報の各検出項目が所定の条件を満たしていれば“H”、満たしていない場合は“L”を記憶する。
【0061】
図13はロボット側車センサ情報データ623のデータ構造の一例を示した図である。例えば、カーナビ11が障害物検出回路25から「時速xkm以上」であり且つ「反射距離ym未満」という検出結果を入力した場合、カーナビ11は車センサ情報の車間距離の条件「時速xkm以上」を“H”、条件「反射距離ym未満」を“H”として、ロボット10に出力する。CPU50は車センサ情報として入力し、ロボット側車センサ情報623の車間距離の条件「時速xkm以上」に“H”、条件「反射距離ym」に“H”を記憶する。
【0062】
図14は、カーナビ11の回路構成を示すブロック図である。カーナビ11は、CPU80、通信部81、ロボット通信部82、入力部83、表示部84、ROM87、RAM88およびバス86によって構成されている。
【0063】
CPU80は、入力部83よりデータを入力してROM87に予め記憶されている各種プログラムの命令に従ってデータの処理を行い、処理後のデータをRAM88へ記憶、表示部84へ画面出力させる等の回路各部の動作の制御を行う。このCPU80には、通信部81、ロボット通信部82、入力部83、表示部84、ROM87およびRAM88がバス86を介して接続されている。
【0064】
通信部81は、CPU80の制御によって配線41を介して接続されたGPSユニット12、ビーコンレシーバ13、障害物検出回路25および安全確認回路36等の外部機器とのデータ送受信を行う。また、上記のような外部機器とBluetooth等の無線によってデータの送受信を行う場合は、無線の送受信モジュール等を備える。
【0065】
ロボット通信部82は、CPU80の制御によって配線40を介して接続されたロボット10とのデータ送受信を行う。また、ロボット10とBluetooth等の無線によってデータの送受信を行う場合は、無線の送受信モジュール等を備える。
【0066】
入力部83は、目的地等のカーナビ11の動作に必要なデータを入力するために用いられ、入力されたデータはCPU80へ出力される。入力部83はタッチパネル形式となっており、表示部84と一体化している。尚、入力部83はこれに限らず、キーボードやマウス等のポインティングデバイスで構成してもよい。
【0067】
表示部84は、LCD(Liquid Crystal Display:液晶ディスプレイ)やCRT(Cathode Ray Tube:ブラウン管)等で構成され、入力部83において入力された文字、符号、各種モード画面や地図等のCPU80から入力される表示データを表示する。
【0068】
ROM87は、カーナビ11を動作させるための各種プログラムおよびデータを記憶する。本実施の形態においては、基本プログラム870、ナビゲーションプログラム871およびGPS用地図ファイル872を記憶する。
【0069】
基本プログラム870は、カーナビ11の電源投入時の起動等の基本処理を実行するためのプログラムを含む。ナビゲーションプログラム871は、GPSユニット12から現在位置を入力して目的地までの順路検索を行い、道路交通情報や運転者の行動情報を取得してロボット10へ出力する。GPS用地図ファイル872は、表示部84におけるナビゲーションの表示に使用する地図データ、及び道路、施設、海、川等の各種シンボルデータ等が記憶されている。
【0070】
RAM88は、CPU80の作業領域として、プログラムやデータを一時的に記憶する。本実施の形態においては、ナビ側運転情報データ880、ナビ側運転者行動情報データ881およびナビ側車センサ情報データ882を記憶する。
【0071】
ナビ側運転情報データ880には、CPU80がGPSユニット12およびビーコンレシーバ13から通信部81を介して入力した進路情報および渋滞情報等を記憶する。ナビ側運転者行動情報データ881には、運転者の視線方向や居眠りをしているか否かを判別した運転者行動情報を記憶する。ナビ側車センサ情報データ882には、障害物検出回路25および安全確認回路36から入力した車センサ情報に対して、それぞれ所定の条件を満たしている場合は“H”、満たしていない場合は“L”を記憶する。
【0072】
尚、ナビ側運転情報データ880はロボット側運転情報データ620と、ナビ側運転者行動情報データ881はロボット側運転者行動情報データ621と、ナビ側車センサ情報データ882はロボット側車センサ情報データ623とデータ構成がそれぞれ同一であるため、その説明を省略する。
【0073】
次に、ロボット10およびカーナビ11の動作について説明する。まずカーナビ11の動作について説明する。図15および図16はCPU80によって実行されるナビゲーション処理の動作を示すフローチャートである。まずカーナビ11のCPU80は、入力部83から目的地を入力し(ステップA1)、GPSユニット12から現在位置を入力して現在位置から目的地までの順路を検索する(ステップA2)。そして表示部84に地図と順路を出力する(ステップA3)。次に、GPSユニット12から現在位置を入力し(ステップA4)、当該現在位置がステップA2で検索した順路から外れているか否かを判定する(ステップA5)。順路から外れていない場合(ステップA5:No)、CPU80はステップA7へ処理を進める。順路から外れている場合(ステップA5:Yes)、CPU80は再び現在位置から目的地までの順路を検索し、表示部84に地図と順路を出力する(ステップA6)。
【0074】
続いて、CPU80はビーコンレシーバ13から道路交通情報を入力し(ステップA7)、順路上に渋滞があるか否かを判定する(ステップA8)。順路上に渋滞がない場合(ステップA8:No)、CPU80はナビ側運転情報データ880の渋滞情報のデータを消去する(ステップA9)。順路上に渋滞がある場合(ステップA8:Yes)、CPU80はステップA7で入力した道路交通情報を渋滞情報として、ナビ側運転情報データ880に記憶する(ステップA10)。
【0075】
次にCPU80は、検索された順路に基づいて車両100が次に進むべき進路である進路情報をナビ側運転情報データ880に記憶する(ステップA11)。また、CPU80はカメラ14から運転者行動情報を入力し、運転者の視線方向や居眠りをしているか否かを判別して、判別結果をナビ側運転者行動情報データ881に記憶する(ステップA12)。更に、CPU80は障害物検出回路25および安全確認回路36から車センサ情報を入力し、それぞれの検出結果に対して所定の条件を満たしているか否かを判別して“H”または“L”をナビ側車センサ情報データ882に記憶する(ステップA13)。
【0076】
続いてCPU80は、ナビ側運転情報データ880、ナビ側運転者行動情報データ881およびナビ側車センサ情報データ882のデータをロボット通信部82を介してロボット10に出力する(ステップA14)。そしてCPU80は、ロボット通信部82から表示部84の表示指示を示す指示信号が入力されたか否かを判定する(ステップA15)。表示部84の表示を行う指示信号が入力された場合(ステップA15:No)、CPU80は表示部84に地図や順路等を表示する通常画面を表示する(ステップA16)。表示を停止する指示信号が入力された場合(ステップA15:Yes)、CPU80は表示部84の画面表示を停止する(ステップA17)。そしてCPU80はステップA4へ処理を移行する。
【0077】
このようにCPU80によるナビゲーション処理の実行によって、現在位置から目的地までの順路が検索される。そして、ビーコンレシーバ13より道路交通情報が入力され、順路上の渋滞の有無がナビ側運転情報データ880に記憶される。そして車両100が次に進むべき進路の進路情報と、運転者行動情報と、車センサ情報がナビ側運転情報データ880、ナビ側運転者行動情報データ881およびナビ側車センサ情報データ882にそれぞれ記憶され、記憶されたデータがロボット10に出力される。また、ロボット10から入力される表示部84の画面表示停止あるいは画面表示開始の指示信号に従って、表示部84のオン/オフが行われる。
【0078】
次に、ロボット10の動作について説明する。図17はCPU50によって実行されるロボット作動処理の動作を示すフローチャートである。まずCPU50は、カーナビ11からカーナビ通信部51を介して運転情報、運転者行動情報および車センサ情報を入力し、運転情報をロボット側運転情報データ620、運転者行動情報をロボット側運転者行動情報データ621、車センサ情報をロボット側車センサ情報データ623に記憶する(ステップB1)。
【0079】
続いてCPU50はロボットセンサ500の各種センサから検出結果を入力し、各検出結果に対して所定の条件を満たしているか否かを判別して、ロボット側ロボットセンサ情報データ622に記憶する(ステップB2)。そしてCPU50はロボット作動制御処理に処理を移行し(ステップB3)、ロボット作動制御処理の終了後、再びステップB1に戻り、処理を繰り返す。
【0080】
このようにCPU50によるロボット作動処理の実行によって、カーナビ通信部51を介して入力された運転情報、運転者行動情報および車センサ情報と、ロボットセンサ500から出力された各種検出結果がRAM62に記憶され、ロボット作動制御処理が実行される。
【0081】
図18および図19は、CPU50によって実行されるロボット作動制御処理の動作を示すフローチャートである。まずCPU50は、ロボット側運転者行動情報データ621の視線方向の項目に「正常」が記憶され、且つ、居眠りの項目に“L”が記憶されているか否かを判別する(ステップC1)。「正常」および“L”が記憶されている場合(ステップC1:Yes)、CPU50は音声出力部59の音量を通常音量に設定する(ステップC2)。「正常」および“L”が記憶されていない場合、つまり運転者の視線が画面あるいはロボット等を注視していたり、脇見や居眠りをしている場合(ステップC1:No)、CPU50は音声出力部59の音量を「大」に設定する(ステップC3)。
【0082】
次にCPU50は、ロボット側運転者行動情報データ621の居眠りの項目に“H”あるいは“L”の何れが記憶されているかを判別する(ステップC4)。“L”が記憶されている場合(ステップC4:No)、CPU50はステップC7へ処理を進める。“H”が記憶されている場合(ステップC4:Yes)、CPU50は運転者行動情報テーブル617より運転者行動情報が「居眠り」に対応する音声情報およびロボット動作番号を検索し(ステップC5)、ロボット駆動処理へ処理を移行する(ステップC6)。
【0083】
続いてCPU50は、ロボット側運転者行動情報データ621の視線方向の項目に「画面」が記憶されているか否かを判別する(ステップC7)。「画面」が記憶されていない場合(ステップC7:No)、CPU50はカーナビ通信部51より表示部84の表示を指示する指示信号を出力する(ステップC8)。一方、「画面」が記憶されている場合(ステップC7:Yes)、CPU50は運転者行動情報テーブル617より運転者行動情報が「画面」に対応する音声情報およびロボット動作番号を検索し(ステップC9)、ロボット駆動処理へ処理を移行する(ステップC10)。そして、CPU50はカーナビ通信部51より表示部84の表示を停止する指示信号を出力する(ステップC11)。
【0084】
次にCPU50は、ロボット側運転者行動情報データ621の視線方向の項目に「ロボット」が記憶されているか否かを判別する(ステップC12)。「ロボット」が記憶されていない場合(ステップC12:No)、CPU50は駆動部60にモータ600の駆動を待機状態にする信号を出力する(ステップC13)。一方、「ロボット」が記憶されている場合(ステップC12:Yes)、CPU50は運転者行動情報テーブル617より運転者行動情報が「ロボット」に対応する音声情報およびロボット動作番号を検索し(ステップC14)、ロボット駆動処理へ処理を移行する(ステップC15)。そしてCPU50は、駆動部60にモータ600をニュートラル状態にして駆動を停止状態にする信号を出力する(ステップC16)。
【0085】
次にCPU50は、ロボット側運転情報データ620の進路情報の項目に、次に進むべき進路情報が記憶されているか否かを判別する(ステップC17)。進路情報が記憶されていない場合(ステップC17:No)、CPU50はステップC20へ処理を移行する。進路情報が記憶されている場合(ステップC17:Yes)、CPU50はロボット側運転情報データ620に記憶されている進路情報に基づいて、運転情報テーブル614より音声情報およびロボット動作番号を検索し(ステップC18)、ロボット駆動処理へ処理を移行する(ステップC19)。
【0086】
続いてCPU50は、ロボット側ロボットセンサ情報データ622の各検出項目に対して“H”が記憶されているか否かを判別する(ステップC20)。“H”が記憶されている検出項目がない場合(ステップC20:No)、CPU50はステップC23へ処理を移行する。“H”が記憶されている検出項目がある場合(ステップC20:Yes)、CPU50は“H”が記憶されている検出項目に基づいて、ロボットセンサ情報テーブル615より音声情報およびロボット動作番号を検索し(ステップC21)、ロボット駆動処理へ処理を移行する(ステップC22)。
【0087】
そしてCPU50は、ロボット側車センサ情報データ623の各検出項目に対して“H”が記憶されているか否かを判別する(ステップC23)。“H”が記憶されている検出項目がない場合(ステップC23:No)、CPU50はロボット作動制御処理を終了する。“H”が記憶されている検出項目がある場合(ステップC23:Yes)、CPU50は“H”が記憶されている検出項目に基づいて、車センサ情報テーブル616より音声情報およびロボット動作番号を検索し(ステップC24)、ロボット駆動処理へ処理を移行する(ステップC25)。
【0088】
尚、ここで、例えば、ロボット側車センサ情報データ623の車間距離の項目において、条件「時速xkm以上」および条件「反射距離ym未満」の両方が“H”の時にステップC23からステップC24へ進み、ロボット駆動処理を実行する等の条件を含めることとしてもよい。この場合には、何れか一方が“L”の場合は、ロボット作業制御処理を終了する。このように、2つの検出項目がどちらも“H”の状態である場合のみ、ロボット10による警告を行うこととしてもよい。
【0089】
このようにCPU50によるロボット作動制御処理の実行によって、運転者が運転時に危険な行動を取っている場合には、音声出力の音量が「大」に設定される。更に、運転者が表示部84を注視している場合には表示部84の画面表示が停止され、ロボット10を注視している場合にはロボット10のモータ600が駆動停止状態に設定される。そして、ロボット側運転情報データ620、ロボット側ロボットセンサ情報データ622およびロボット側車センサ情報データ623に記憶されているデータに基づいて音声情報とロボットの動作内容が検索され、ロボット駆動処理が実行される。
【0090】
図20は、CPU50によって実行されるロボット駆動処理の動作を示すフローチャートである。まずCPU50は、カーナビ11の表示部84が表示状態であるか否かを判別する(ステップD1)。表示部84が表示停止状態である場合(ステップD1:No)、CPU50はステップD3へ処理を移行する。表示部84が表示状態である場合(ステップD1:Yes)、CPU50はナビ側運転情報データ880に記憶されている進路情報を表示部84に出力させるための指示信号を出力する(ステップD2)。
【0091】
次にCPU50はモータ600が駆動待機状態であるか否かを判別する(ステップD3)。モータ600の駆動が待機状態である場合(ステップD3:Yes)、CPU50はロボット作動制御処理のステップC5、C9、C14、C18、C21あるいはC24で検索したロボット動作番号に基づいてロボット動作テーブル618よりロボットの動作内容を検索し、検索したロボットの動作内容に従ってモータ600を駆動させるために駆動信号を駆動部60へ出力する(ステップD4)。同時に、ロボット作動制御処理のステップC5、C9、C14、C18、C21あるいはC24で検索した音声情報に従って音声を出力させるために、音声信号を音声出力部59へ出力する(ステップD5)。そしてCPU50はロボット駆動処理を終了する。
【0092】
一方、モータ600の駆動が停止状態である場合(ステップD3:No)、CPU50はロボット作動制御処理のステップC5、C9、C14、C18、C21あるいはC24で運転者行動情報テーブル617より読み出した音声情報に従って音声信号を音声出力部59へ出力し(ステップD6)、ロボット駆動処理を終了する。
【0093】
このようにCPU50によるロボット駆動処理の実行によって、表示部84の画面表示がされている場合には、表示部84に進路情報が出力され、モータ600が駆動待機状態の場合には、駆動部60に対して駆動信号が出力されて、モータ600を作動させる。同時に、音声出力部59に対して音声信号が出力され、音声が出力される。また、モータ600が駆動停止状態の場合には、音声のみ出力される。
【0094】
以上のように、ロボット10は、CPU50の各種処理の実行により、カーナビ11から入力される運転情報に基づいて、手足等を動かし、音声を出力して、運転者に対して現在位置から目的地までの順路をナビゲーションする。更に、運転者が脇見や居眠りをする等の危険な行動を取った際には、手足等の動きと大音量の音声によって警告を行う。これにより、運転者の脇見や居眠り等による交通事故を防ぐことができる。また運転者がロボット10を注視している場合にはロボット10は作動を停止し、表示部84を注視している場合には、表示部84の画面表示を停止させる。このため、運転者がロボット10やカーナビ11を注視することによる前方不注意により発生する接触事故等を防ぐことができる。また車内の各種環境が所定の条件を満たしていない場合もロボット10が動作および音声で運転者に知らせるため、車内を快適な状態に保つことができる。
【0095】
なお、本実施の形態では、車両100の走行速度に関わらず、運転者の視線がロボット10や表示部84の方向に数秒間向いていれば注視と判断するものとして説明したが、これに限定されない。つまり、車両100が時速100kmで走行していた場合と、時速50kmで走行していた場合とでは、車両100が1秒間に進む距離が異なってくることから、車両100の走行速度が所定の速度以上である場合、運転者の視線がロボット10や表示部84の方向に例えば2秒間向いていれば注視と判断し、走行速度が所定の速度以下である場合、運転者の視線がロボット10や表示部84の方向に例えば3秒間向いていれば注視と判断してもよい。これにより車両100の走行速度が速い場合には運転者のロボット10や表示部84に対する注視の判断を迅速に行うことができるため、前方不注意等による交通事故を更に防止することができる。
【0096】
〔第2の実施の形態〕
第1の実施の形態では、カーナビ11から出力される運転情報、運転者行動情報および車センサ情報やロボットセンサ600から出力される各種検出信号に基づいてロボット10を作動させ、更に音声を出力させることにより、運転者に対して順路のナビゲーションを行ったり、運転中の危険な行動に対して警告を行ったりしたが、本実施の形態では、運転情報出力装置をカーナビ機能付きPDA(以下、単に「PDA」と言う。)として同様の機能を実現させる場合を説明する。
【0097】
図21は、車両200の搭載されている運転情報出力装置であるPDA900と周辺機器の接続構成を説明するためのブロック図である。車両200は、GPS12、ビーコンレシーバ13、カメラ14、車内センサ回路15、車間距離センサ20、前方障害物センサ21、側方障害物センサ22および23、後方障害物センサ24、障害物検出回路25、窓開閉センサ30および31、ドア開閉センサ32および33、シートベルト装着センサ34および35、安全確認回路36およびPDA900を備える。図中、図1と同一の符号を付した部分は同一物を表わしており、詳しい説明を省略する。
【0098】
車内センサ回路15は、温度センサ、湿度センサ、照度センサ、煙センサ、空気センサ、紫外線センサおよびマイク等の車両200の各種車内環境を検出するためのセンサが内蔵されている。温度センサは車両200内の気温を検出し、湿度センサは車両200内の湿度を検出する。照度センサは車両200内の照度を検出し、煙センサは車両200内の煙の量を検出する。空気センサは車両200内の空気の一酸化炭素濃度や不純物濃度等を検出し、紫外線センサは太陽光より照射される紫外線の量を検出する。マイクは車両200内の音声を入力して音量を検出する。そして、車内センサ回路15から出力される検出結果を「車内センサ情報」と言う。
【0099】
図22は、PDA900の外観の一例を示した図である。本実施の形態では、PDA900として一般的なPDAを適用した場合を例としているが、その他、カーナビ機能を備えたパソコンや携帯電話(コンピュータ)等であればこれに限らない。同図において、PDA900は、通信ネットワークとデータを送受信するためのアンテナ(図示略)と、カーソルの移動や入力文字の確定、画面のスクロール等を行う入力キー90と、入力された文字や地図等を表示する表示画面91と、内蔵電池や太陽電池等の電源(図示略)とを備える。
【0100】
入力キー90は、例えば、キースイッチ、タッチパネル等によっても実現可能である。表示画面91は、地図や入力キー90の押下に応じた文字や符号を表示する等、PDA900を使用するために必要な各種データが表示される部分である。表示画面91は、LCDやELD(Electroluminescence Display:ELディスプレイ)等で構成される。
【0101】
また、PDA900は、記憶媒体用のスロット92と、通信回線や周辺機器とデータの送受信が可能な信号ケーブルと接続する接続端子93と、を備える。
【0102】
スロット92に挿入して使用する記憶媒体は、個人データ等を記憶する記憶媒体であって、例えば、メモリカード、ハードディスク等である。スロット92は、記憶媒体を着脱自在に装着し、記憶媒体に対してデータの読み書きができる装置であって、記憶媒体の種類に応じて適宜選択される。また、スロット92にデジタルカメラカードを挿入して、当該デジタルカメラにカメラ14と同様の機能を持たせてもよい。
【0103】
接続端子93は、通信回線や周辺機器と接続するための信号ケーブルに接続可能な端子とその制御部である。尚、信号ケーブル等の有線接続に限らず、例えば、Bluetooth等の無線を利用してデータの送受信を実現してもよい。この場合には、接続端子93は無線の送受信モジュールおよび無線送受信端子に該当する。
【0104】
図23は、PDA900の回路構成を示したブロック図である。PDA900は、CPU70、電送制御部71、通信部72、入力部74、表示部75、音声出力部76、記憶媒体読取部77、ROM78、RAM79およびバス73によって構成されている。
【0105】
CPU70は、入力部74よりデータを入力してROM78に予め記憶されている各種プログラムの命令に従ってデータの処理を行い、処理後のデータをRAM79へ記憶、表示部75へ画面出力あるいは音声出力部76へ音声出力させる等の回路各部の動作の制御を行う。このCPU70には、電送制御部71、通信部72、入力部74、表示部75、音声出力部76、記憶媒体読取部77、ROM78およびRAM79がバス73を介して接続されている。また、CPU70は制御手段としての機能を有する。
【0106】
電送制御部71は、電話回線網、ISDN回線網、専用線、移動体通信網や通信衛星回線網等の各種通信ネットワークとデータを送受信するためのアンテナやモデム、ターミナルアダプタ等によって構成され、CPU70の制御によってデータの送受信が行われる。
【0107】
通信部72は、CPU70の制御によって配線41を介して接続されたGPSユニット12、ビーコンレシーバ13、カメラ14、車内センサ回路15、障害物検出回路25および安全確認回路36等の外部機器とのデータ送受信を行う。図22では接続端子93に該当する。そして、上記のような外部機器とBluetooth等の無線によってデータの送受信を行う場合は、無線の送受信モジュール等を備える。また、通信部72は取得手段、通信手段としての機能を有する。
【0108】
入力部74は、目的地等のカーナビ11の動作に必要なデータを入力するために用いられ、入力されたデータはCPU70へ出力される。入力部74は図22の例では入力キー90に該当し、他に、例えば表示部75がタッチパネル形式となって文字や符号が入力されてもよい。
【0109】
表示部75は、LCDやCRT等で構成され、入力部74において入力された文字、符号、各種モード画面や地図等のCPU70から入力される表示データを表示する。図22では表示画面91に該当する。また、表示部75は報知手段、画像出力手段としての機能を有する。
【0110】
音声出力部76は、スピーカ等を備え、CPU70から入力される音声信号を音声に変換し、スピーカ等から出力する。また、音声出力部76は報知手段、音声出力手段としての機能を有する。
【0111】
記憶媒体読取部77は、例えば、メモリカード、ハードディスク等の記憶媒体に対してデータの読み書きをする。図22では、スロット92に該当する。
【0112】
ROM78は、PDA900を動作させるための各種プログラムおよびデータを記憶する。本実施の形態においては、基本プログラム780、ナビゲーションプログラム781、情報画面プログラム782、情報出力プログラム783、運転情報テーブル784、車内センサ情報テーブル785、車センサ情報テーブル786、運転者行動情報テーブル787、GPS用地図ファイル788、ロボット画像ファイル789を記憶する。また、ROM78は記憶手段としての機能を有する。
【0113】
基本プログラム780は、PDA900の電源投入時の起動等の基本処理を実行するためのプログラムを含む。ナビゲーションプログラム781は、GPSユニット12から現在位置を入力して目的地までの順路検索を行い、道路交通情報や運転者の行動情報を取得して表示部75へ出力するためのプログラムである。
【0114】
情報画面プログラム782は、ナビゲーションプログラム781のサブプログラムであり、運転者の行動や車両200の進路状況、車内外の情報に応じて表示部75に表示データを出力するためのプログラムである。情報出力プログラム783は、情報画面プログラム782のサブプログラムであり、表示部75の画面表示を行い、同時に音声を出力するためのプログラムである。
【0115】
運転情報テーブル784には、CPU70が入力する運転情報に対応して、音声出力部76から出力させる音声情報およびロボット画像番号が記憶されている。図24は運転情報テーブル784のデータ構成の一例を示した図である。運転情報テーブル784の運転情報および音声情報は、図5の運転情報テーブル614の運転情報および音声情報と同一のデータ構成であるため、詳しい説明を省略する。またロボット画像番号については、後述するロボット画像ファイル789にて説明する。
【0116】
車内センサ情報テーブル785には、CPU70が入力する車内センサ情報に対応して、音声出力部76から出力させる音声情報およびロボット画像番号が記憶されている。図25は車内センサ情報テーブル785のデータ構成の一例を示した図である。車内センサ情報テーブル785の車内センサ情報および音声情報は、図6のロボットセンサ情報テーブル615のロボットセンサ情報および音声情報と同一のデータ構成であるため、詳しい説明を省略する。
【0117】
車センサ情報テーブル786には、CPU70が入力する検出信号に対応して、音声出力部76から出力させる音声情報およびロボット画像番号が記憶されている。図26は車センサ情報テーブル786のデータ構成の一例を示した図である。車センサ情報テーブル786の車センサ情報および音声情報は、図7の車センサ情報テーブル616の車センサ情報および音声情報と同一のデータ構成であるため、詳しい説明を省略する。
【0118】
運転者行動情報テーブル787には、CPU70が入力する運転者行動情報に対応して、音声出力部76から出力させる音声情報およびロボット画像番号が記憶されている。図27は運転者行動情報テーブル787のデータ構成の一例を示した図である。運転者行動情報テーブル787の運転者行動情報および音声情報は、図9の運転者行動情報テーブル617と同一のデータ構成であるため、詳しい説明を省略する。
【0119】
GPS用地図ファイル788は、表示部75におけるナビゲーションの表示に使用する地図データ、及び道路、施設、海、川等の各種シンボルデータ等が記憶されている。
【0120】
ロボット画像ファイル789には、表示部75に表示するロボット画像データがロボット画像番号と対応付けて記憶されている。運転情報テーブル784、車内センサ情報テーブル785、車センサ情報テーブル786および運転者行動情報テーブル787に記憶されているロボット画像番号は、ロボット画像ファイル789のロボット画像番号を指す。
【0121】
図28はロボット画像ファイル789のデータ構成の一例を示した図である。例えば、ロボット画像番号1500に対して、ロボット画像データ788aが記憶されているとすると、仮にCPU70が入力した運転情報が「前方に右折する交差点有り」の場合、運転情報テーブル784に基づいて、CPU70は音声出力部76に「もうすぐ右折交差点だよ。」という音声信号を出力し、更にロボット画像番号が「1500」であるから、画像データとして表示部75にロボット画像データ788aを出力することになる。
【0122】
RAM79は、CPU70の作業領域として、プログラムやデータを一時的に記憶する。本実施の形態においては、運転情報データ790、運転者行動情報データ791、車センサ情報データ792および車内センサ情報データ793を記憶する。
【0123】
運転情報データ790には、CPU70が入力した進路情報および渋滞情報等を記憶する。運転者行動情報データ791には、CPU70が入力した運転者行動情報に基づいて、運転者の視線方向や居眠りをしているか否かを記憶する。車センサ情報データ792には、CPU70が入力した車センサ情報に対して、それぞれ所定の条件を満たしている場合は“H”、満たしていない場合は“L”を記憶する。車内センサ情報データ793には、CPU70が入力した車内センサ情報に対して、それぞれ所定の条件を満たしている場合は“H”、満たしていない場合は“L”を記憶する。
【0124】
尚、運転情報データ790はロボット側運転情報データ620と、運転者行動情報データ791はロボット側運転者行動情報データ621と、車センサ情報データ792はロボット側車センサ情報データ623と、車内センサ情報テーブル793はロボット側ロボットセンサ情報データ622とデータ構成がそれぞれ同一であるため、その説明を省略する。
【0125】
次に、PDA900の動作について説明する。図29はCPU70によって実行されるナビゲーション処理の動作を示すフローチャートである。まずCPU70は、入力部74から目的地を入力し(ステップE1)、GPSユニット12から現在位置を入力して現在位置から目的地までの順路を検索する(ステップE2)。そして表示部75に地図と順路を出力する(ステップE3)。次に、GPSユニット12から現在位置を入力し(ステップE4)、当該現在位置がステップE2で検索した順路から外れているか否かを判定する(ステップE5)。順路から外れていない場合(ステップE5:No)、CPU70はステップE7へ処理を進める。順路から外れている場合(ステップE5:Yes)、CPU70は再び現在位置から目的地までの順路を検索し、表示部75に地図と順路を出力する(ステップE6)。
【0126】
続いて、CPU70はビーコンレシーバ13から道路交通情報を入力し(ステップE7)、順路上に渋滞があるか否かを判定する(ステップE8)。順路上に渋滞がない場合(ステップE8:No)、CPU70は運転情報データ790の渋滞情報のデータを消去する(ステップE9)。順路上に渋滞がある場合(ステップE8:Yes)、CPU70はステップE7で入力した道路交通情報を渋滞情報として、運転情報データ790に記憶する(ステップE10)。
【0127】
次にCPU70は、検索された順路に基づいて車両200が次に進むべき進路である進路情報を運転情報データ790に記憶する(ステップE11)。また、CPU70はカメラ14から運転者行動情報を入力し、運転者行動情報データ791に記憶する(ステップE12)。更に、CPU70は車内センサ回路15から車内センサ情報を入力し、それぞれの検出結果に対して所定の条件を満たしているか否かを判別して“H”または“L”を車内センサ情報データ793に記憶する。また、CPU70は障害物検出回路25および安全確認回路36から車センサ情報を入力し、それぞれの検出結果に対して所定の条件を満たしているか否かを判別して“H”または“L”を車センサ情報データ792に記憶する(ステップE13)。
【0128】
続いてCPU70は、情報画面処理に処理を移行する(ステップE14)。情報画面処理の処理が終了したら、CPU70はステップE4へ処理を移行する。
【0129】
このようにCPU70によるナビゲーション処理の実行によって、現在位置から目的地までの順路が検索される。そして、ビーコンレシーバ13より道路交通情報を入力され、順路上の渋滞の有無が運転情報データ790に記憶される。そして車両200が次に進むべき進路の進路情報と、運転者行動情報と、車内センサ情報および車センサ情報が運転情報データ790、運転者行動情報データ791、車センサ情報データ792および車内センサ情報793に記憶され、情報画面処理が実行される。
【0130】
図30および29は、CPU70によって実行される情報画面処理の動作を示すフローチャートである。まずCPU70は、運転者行動情報データ791の視線方向の項目に「正常」が記憶され、且つ、居眠りの項目に“L”が記憶されているか否かを判別する(ステップF1)。「正常」且つ“L”が記憶されている場合(ステップF1:Yes)、CPU70は音声出力部76の音量を通常音量に設定する(ステップF2)。「正常」且つ“L”が記憶されていない場合(ステップF1:No)、CPU70は音声出力部76の音量を「大」に設定する(ステップF3)。
【0131】
次にCPU70は、運転者行動情報データ791の居眠りの項目に“H”あるいは“L”の何れが記憶されているかを判別する(ステップF4)。“L”が記憶されている場合(ステップF4:No)、CPU70はステップF7へ処理を進める。“H”が記憶されている場合(ステップF4:Yes)、CPU70は運転者行動情報テーブル787より音声情報およびロボット画像番号を検索し(ステップF5)、情報出力処理へ処理を移行する(ステップF6)。
【0132】
続いてCPU70は、運転者行動情報データ791の視線方向の項目に「画面」が記憶されているか否かを判別する(ステップF7)。「画面」が記憶されていない場合(ステップF7:No)、CPU70は表示部75に地図や順路等を表示する(ステップF8)。一方、「画面」が記憶されている場合(ステップF7:Yes)、CPU70は運転者行動情報テーブル787より音声情報およびロボット画像番号を検索し(ステップF9)、情報出力処理へ処理を移行する(ステップF10)。そして、CPU70は表示部75の画面表示を停止する(ステップF11)。
【0133】
次にCPU70は、運転情報データ790の進路情報の項目に、次に進むべき進路情報が記憶されているか否かを判別する(ステップF12)。進路情報が記憶されていない場合(ステップF12:No)、CPU70はステップF15へ処理を移行する。進路情報が記憶されている場合(ステップF12:Yes)、CPU70は運転情報データ790に記憶されている進路情報に基づいて、運転情報テーブル784より音声情報およびロボット画像番号を検索し(ステップF13)、情報出力処理へ処理を移行する(ステップF14)。
【0134】
続いてCPU70は、車内センサ情報データ793の各検出項目に対して“H”が記憶されているか否かを判別する(ステップF15)。“H”が記憶されている検出項目がない場合(ステップF15:No)、CPU70はステップF18へ処理を移行する。“H”が記憶されている検出項目がある場合(ステップF15:Yes)、CPU70は“H”が記憶されている検出項目に基づいて、車内センサ情報テーブル785より音声情報およびロボット画像番号を検索し(ステップF16)、情報出力処理へ処理を移行する(ステップF17)。
【0135】
そしてCPU70は、車センサ情報データ792の各検出項目に対して“H”が記憶されているか否かを判別する(ステップF18)。“H”が記憶されている検出項目がない場合(ステップF18:No)、CPU70は情報画面処理を終了する。“H”が記憶されている検出項目がある場合(ステップF18:Yes)、CPU70は“H”が記憶されている検出項目に基づいて、車センサ情報テーブル786より音声情報およびロボット画像番号を検索し(ステップF19)、情報出力処理へ処理を移行する(ステップF20)。そしてCPU70は情報画面処理を終了する。
【0136】
このようにCPU70による情報画面処理の実行によって、運転者が運転時に危険な行動を取っている場合には、音声出力の音量を「大」に設定する。更に、運転者が表示部75を注視している場合には表示部75の画面表示が停止される。そして、運転情報データ790、車センサ情報データ792および車内センサ情報データ793に記憶されているデータに基づいて音声情報とロボット画像番号が検索され、情報出力処理が実行される。
【0137】
図32は、CPU70によって実行される情報出力処理の動作を示すフローチャートである。まずCPU70は、表示部75が表示状態であるか否かを判別する(ステップG1)。表示部75が表示状態である場合(ステップG1:Yes)、CPU70は情報画面処理のステップF5、F9、F13、F16あるいはF19で検索したロボット画像番号に従って、ロボット画像ファイル789の画像データを表示部75に出力する。同時に、音声情報に従って音声信号を音声出力部76に出力し(ステップG2)、情報出力処理を終了する。
【0138】
一方、表示部75が表示停止状態である場合(ステップG1:No)、CPU70は情報画面処理のステップF5、F9、F13、F16あるいはF19で検索した音声情報に従って音声信号を音声出力部76に出力し(ステップG3)、情報出力処理を終了する。
【0139】
このようにCPU70による情報出力処理の実行によって、表示部75が表示状態である場合には、表示部75に表示されるロボット画像と音声によって進路情報、渋滞情報、車センサ情報および車内センサ情報等が出力される。一方、表示部75が表示停止状態の場合には、各情報が音声のみによって出力される。
【0140】
図33は、PDA900の表示画面91に一例としてロボット画像データ788aが表示された場合を示した図である。更に進路情報が「前方に右折する交差点有り」の場合、音声出力部76(図示略)から「もうすぐ右折交差点だよ。」という音声が出力されて、走行順路のナビゲーションを行う。
【0141】
以上のように、PDA900は出力する画像および音声によって運転者に対して現在位置から目的地までの順路をナビゲーションし、更に、運転者が脇見や居眠りをする等の危険な行動を取った際には、大音量の音声によって警告を行う。これにより、運転者の脇見や居眠り等による交通事故を防ぐことができる。また運転者が表示画面91を注視している場合には表示部75の表示を停止させる。これにより、運転者の前方不注意によって発生する接触事故等を防ぐことができる。また車内の各種環境が所定の条件を満たしていない場合もPDA900の出力する画像および音声で運転者に知らせるため、車内を快適な状態に保つことができる。
【0142】
尚、本発明の運転情報出力装置は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
【0143】
【発明の効果】
請求項1および9に記載の発明によれば、前記取得手段により取得された状況情報に基づき前記記憶手段に対応づけて記憶された報知制御情報を読み出し、前記検知手段による検知結果に応じた出力形態で、読み出され報知制御情報に基づく前記報知機能の制御を行う。そのため、例えば、車外の危険な状況情が取得された場合、検知された運転者状態に応じて例えば、運転者がディスプレイを注視している場合は、、大音量の警報(出力形態の1つ)で状況情報を出力する等といったことが可能となり、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0144】
請求項2に記載の発明によれば、運転者の状態および状況情報に応じた出力形態で、報知手段の制御が行われる。そのため、例えば、運転者が車の走行中に危険な行動を取り、更に車の前方に障害物がある等といった状況の時に、大音量の警報で状況情報を出力する等といったことが可能となり、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0145】
請求項3に記載の発明によれば、運転者の状態や状況情報に従って、人形の音声情報や駆動内容が決定され、音声出力や人形の駆動によって、状況情報が運転者に報知される。このため、カーナビによって行っていた車の走行のナビゲーションを人形の駆動と音声出力によって行わせることができる。また、例えば、運転者が車の走行中に危険な行動を取った時に、人形の動作や大音量の警報で状況情報を出力するといったことが可能となる。そして、人形の動作や音声で警報を出力するため、運転者にとって視覚的に馴染みやすく、また理解しやすい。従って、運転者の状況に応じて適切に運転情報を出力して、安全で適切なナビゲーションを行うことができる。
【0146】
請求項4に記載の発明によれば、運転者の状態に従って画像および音声による状況情報の報知と、音声のみによる状況情報の報知とを切り替えることによって、運転者が車の走行中に画像出力手段を注視した時に画像出力手段による状況情報の報知を停止し、音声のみによって報知するといったことができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0147】
請求項5に記載の発明によれば、例えば、所定の視線方向を運転者が画像出力手段を見たときの方向に設定することにより、運転手が車を走行中に画像を表示している画像出力手段を注視した際に、画像出力手段による画像出力を停止し、音声のみによって状況情報を出力させることができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0148】
請求項6に記載の発明によれば、例えば、所定の視線方向を運転者が人形を見たときの方向に設定することにより、運転手が車を走行中に駆動中の人形を注視した際に、駆動手段の駆動を停止し、音声のみによって状況情報を出力させることができる。これにより、運転者の前方不注意等による交通事故等を未然に防ぐことができる。
【0149】
請求項7に記載の発明によれば、運転者に対して警報を出力することができる。警報を出力する基準としては、例えば、車の前方に障害物が所定範囲内にあることを示す状況情報を取得した場合等がある。これにより、交通事故等を未然に防ぐことができる。
【0150】
請求項8に記載の発明によれば、運転者に対して警報を出力することができる。警報を出力する基準として、例えば、脇見や居眠り等を検知手段が検知した場合等がある。これにより、交通事故等を未然に防ぐことができる。
【図面の簡単な説明】
【図1】ロボットと周辺機器の接続構成を説明するためのブロック図。
【図2】ロボットの一例を示した外観図。
【図3】ロボットの車両への設置例を示した図。
【図4】ロボットの回路構成を示すブロック図。
【図5】運転情報テーブルのデータ構成の一例を示した図。
【図6】ロボットセンサ情報テーブルのデータ構成の一例を示した図。
【図7】車センサ情報テーブルのデータ構成の一例を示した図。
【図8】運転者行動情報テーブルのデータ構成の一例を示した図。
【図9】ロボット動作テーブルのデータ構成の一例を示した図。
【図10】ロボット側運転情報データのデータ構造の一例を示した図。
【図11】ロボット側運転者行動情報データのデータ構造の一例を示した図。
【図12】ロボット側ロボットセンサ情報データのデータ構造の一例を示した図。
【図13】ロボット側車センサ情報データのデータ構造の一例を示した図。
【図14】カーナビの回路構成を示すブロック図。
【図15】第1の実施の形態における、ナビゲーション処理の動作を示すフローチャート。
【図16】図15に続く、ナビゲーション処理の動作を示すフローチャート。
【図17】ロボット作動処理の動作を示すフローチャート。
【図18】ロボット作動制御処理の動作を示すフローチャート。
【図19】図18に続く、ロボット作動制御処理の動作を示すフローチャート。
【図20】ロボット駆動処理の動作を示すフローチャート。
【図21】運転情報出力装置であるPDAと周辺機器の接続構成を説明するためのブロック図。
【図22】PDAの外観の一例を示した図。
【図23】PDAの回路構成を示したブロック図。
【図24】運転情報テーブルのデータ構成の一例を示した図。
【図25】車内センサ情報テーブルのデータ構成の一例を示した図。
【図26】車センサ情報テーブルのデータ構成の一例を示した図。
【図27】運転者行動情報テーブルのデータ構成の一例を示した図。
【図28】ロボット画像テーブルのデータ構成の一例を示した図。
【図29】第2の実施の形態におけるナビゲーション処理の動作を示すフローチャート。
【図30】情報画面処理の動作を示すフローチャート。
【図31】図30に続く、情報画面処理の動作を示すフローチャート。
【図32】情報出力処理の動作を示すフローチャート。
【図33】PDAの表示画面にロボット画像を表示した時の図。
【符号の説明】
10  ナビゲーションロボット
50   CPU
51   カーナビ通信部
52   温度検知部
53   湿度検知部
54   照度検知部
55   煙検知部
56   空気検知部
57   紫外線検知部
58   音声入力部
59   音声出力部
60   駆動部
61   ROM
62   RAM
900  カーナビ機能付きPDA
70   CPU
71   電送制御部
72   通信部
74   入力部
75   表示部
76   音声出力部
77   記憶媒体読取部
78   ROM
79   RAM
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a driving information output device that warns a driver of a danger and performs car navigation.
[0002]
[Prior art]
With the spread of car navigation systems (hereinafter abbreviated as "car navigation systems"), the route from the current location to the destination has been guided by a map display or voice, so that the driver can easily reach the destination even on unfamiliar roads. You can now run. However, on the other hand, there are many cases in which the driver gazes at the map or character information displayed on the car navigation system, causing a collision accident with an oncoming vehicle or a pedestrian. For this reason, an accident prevention function such as disabling the car navigation operation during driving has been devised.
[0003]
[Problems to be solved by the invention]
However, with the Internet connection of car navigation systems and the sophistication of value-added functions of maps, various information such as store information and traffic congestion information can be displayed. Therefore, the information displayed on the car navigation system tends to increase, and accordingly, the driver's gaze on the information display of the car navigation system tends to increase.
[0004]
An object of the present invention is to provide a driving information output device that outputs driving information appropriately in accordance with the situation of a driver and enables safe and appropriate navigation.
[0005]
[Means for Solving the Problems]
In order to solve the above problems, the driver information output device according to the invention described in claim 1 is
A driving information output device mounted on the vehicle, a storage means (for example, ROM 61 in FIG. 4; FIGS. 24 and 25) for storing the notification control information in association with the in-vehicle or out-of-vehicle situation information;
Acquiring means for acquiring status information (for example, the car navigation communication unit 51 in FIG. 4, step B1 in FIG. 17);
A notification unit (for example, the audio output unit 59 and the driving unit 60 in FIG. 4) capable of performing notification in a plurality of output modes;
Detecting means for detecting the driver state (for example, a camera included in the robot 10, step B2 in FIG. 17);
The notification control information stored in association with the storage unit is read based on the status information acquired by the acquisition unit, and the notification control information is output based on the read notification control information in an output form corresponding to a detection result by the detection unit. Control means for controlling the notification means (for example, CPU 50 in FIG. 4: robot operation control processing in FIG. 18);
It is characterized by having.
[0006]
The program according to the ninth aspect of the present invention is directed to a driving information output device equipped with a computer, which is mounted on a car.
A storage function of storing notification control information in association with the in-vehicle or out-of-vehicle situation information;
An acquisition function for acquiring status information (for example, steps B1 and B2 in FIG. 17);
A notification function (step D4 in FIG. 20) capable of notification in a plurality of output modes;
A detection function for detecting the driver state (for example, step B1 in FIG. 17);
The notification control information stored in association with the storage function is read based on the status information acquired by the acquisition function, and the notification based on the read notification control information is output in an output form corresponding to a detection result by the detection function. A control function for controlling functions (for example, a robot operation control process in FIG. 18);
Is realized by the computer.
[0007]
According to the first and ninth aspects of the present invention, the notification control information stored in association with the storage unit is read out based on the situation information acquired by the acquisition unit, and the notification control information is read in accordance with the detection result by the detection unit. In the output mode, the notification function is controlled based on the read notification control information. Therefore, for example, when a dangerous situation outside the vehicle is acquired, or according to the detected driver state, for example, when the driver is gazing at the display, a loud alarm (one of output forms) ), It is possible to output situation information, etc., and it is possible to output driving information appropriately according to the situation of the driver and perform safe and appropriate navigation.
[0008]
The invention according to claim 2 is the driving information output device according to claim 1, wherein the control unit outputs in an output form according to a detection result by the detection unit and status information acquired by the acquisition unit. And a notification control means for controlling the notification means based on the read notification control information (for example, CPU 50 in FIG. 4: robot operation control processing in FIG. 18).
[0009]
According to the second aspect of the present invention, the control of the notifying means is performed in an output form corresponding to the state and situation information of the driver. Therefore, for example, it is possible for the driver to take dangerous actions while the vehicle is running and to output situation information with a loud alarm when the situation is such that there is an obstacle in front of the car, and so on. It is possible to output driving information appropriately according to the situation of the driver, and to perform safe and appropriate navigation.
[0010]
The invention according to claim 3 is the driving information output device according to claim 1 or 2,
The acquisition unit has a communication unit (for example, the car navigation communication unit 51 in FIG. 4, step A14 in FIG. 16) for communicating with the car navigation device, and acquires route information as the status information by communication by the communication unit.
The notification means includes a sound output means (for example, the sound output unit 59 in FIG. 4, step D5 and step D6 in FIG. 20) and a drive means (for example, the drive unit 60 in FIG. Step D5),
It is a doll (for example, the robot 10 in FIG. 1) in which a voice output from the voice output unit or a drive control of the driving unit is performed by the control unit.
[0011]
According to the third aspect of the invention, the voice information and the driving content of the doll are determined according to the driver's state and status information, and the driver is notified of the status information by voice output and driving of the doll. For this reason, it is possible to cause the navigation of the car, which has been performed by the car navigation, to be performed by driving the doll and outputting the voice. Further, for example, when the driver takes a dangerous action while the vehicle is running, it is possible to output situation information by a doll action or a loud alarm. Then, since the warning is output by the operation of the doll and the voice, the driver can easily understand and understand the visual recognition. Therefore, it is possible to output driving information appropriately according to the situation of the driver, and to perform safe and appropriate navigation.
[0012]
The invention according to claim 4 is the driving information output device according to claim 1 or 2,
The acquisition unit has a communication unit (for example, the communication unit 72 in FIG. 23, step A14 in FIG. 16) for communicating with the GPS, and acquires the course information as the status information by communication by the communication unit.
The notifying unit includes an image output unit (for example, the display unit 75 in FIG. 23, step G2 in FIG. 32) and an audio output unit (for example, the audio output unit 76 in FIG. 23, and step G2 in FIG. 32) as the plurality of output forms. , Step G3),
The image output unit or the audio output unit is switched according to a detection result by the detection unit.
[0013]
According to the fourth aspect of the present invention, by switching between the notification of the situation information by the image and the voice and the notification of the status information by the voice only in accordance with the driver's state, the driver can output the image while the vehicle is running. The notification of the status information by the image output means can be stopped when the means is watched, and the notification can be made only by sound. Thus, it is possible to prevent a traffic accident or the like caused by the driver's carelessness in front of the vehicle.
[0014]
The invention according to claim 5 is the driving information output device according to claim 4,
The detection unit includes a line-of-sight direction detection unit that detects the line-of-sight direction of the driver (for example, a camera included in the PDA 900, step E12 in FIG. 29),
If the control unit is controlling the image output unit and the line-of-sight direction detection unit detects that the line-of-sight direction is a predetermined direction, the control unit stops the control of the image output unit. And controlling the audio output means.
[0015]
According to the invention described in claim 5, for example, by setting the predetermined line of sight direction to the direction when the driver looks at the image output means, the image is displayed while the driver is driving the car. When the user gazes at the image output unit, the image output by the image output unit is stopped, and the status information can be output only by sound. Thus, it is possible to prevent a traffic accident or the like caused by the driver's carelessness in front of the vehicle.
[0016]
The invention according to claim 6 is the driving information output device according to claim 3,
The detection unit includes a line-of-sight direction detection unit that detects the line-of-sight direction of the driver (for example, a camera included in the robot 10, step E12 in FIG. 29),
When the control unit is controlling the driving unit, and when the line-of-sight direction detecting unit detects that the line-of-sight direction is a predetermined direction, the control unit stops controlling the driving unit, It is characterized by controlling the audio output means.
[0017]
According to the invention described in claim 6, for example, by setting the predetermined line-of-sight direction to the direction when the driver looks at the doll, the driver gazes at the driven doll while driving the car. At this time, the driving of the driving means can be stopped, and the status information can be output only by sound. Thus, it is possible to prevent a traffic accident or the like caused by the driver's carelessness in front of the vehicle.
[0018]
The invention according to claim 7 is the driving information output device according to any one of claims 1 to 6,
The storage unit further stores warning notification control information (for example, the car sensor information table 616 in FIG. 4).
When the situation information obtained by the obtaining means satisfies a predetermined condition, the control means controls the notification means based on the warning notification control information.
[0019]
According to the invention described in claim 7, it is possible to output a warning to the driver. As a criterion for outputting an alarm, for example, there is a case where status information indicating that an obstacle is within a predetermined range in front of the vehicle is acquired. Thereby, a traffic accident or the like can be prevented beforehand.
[0020]
The invention according to claim 8 is the driving information output device according to any one of claims 1 to 6,
The storage unit further stores warning notification control information (for example, the driver action information table 617 in FIG. 4),
When the driver state detected by the detection means satisfies a predetermined condition, the control means controls the notification means based on the warning notification control information.
[0021]
According to the eighth aspect of the invention, it is possible to output a warning to the driver. As a criterion for outputting an alarm, for example, there is a case where the detection unit detects inattentiveness, dozing, and the like. Thereby, a traffic accident or the like can be prevented beforehand.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0023]
[First Embodiment]
In the present embodiment, a navigation robot (hereinafter, simply referred to as “robot”) having a navigation function for running a vehicle, various warning functions, and the like will be described as a driving information output device.
[0024]
FIG. 1 is a block diagram for explaining a connection configuration between a robot 10 as a driving information output device and peripheral devices. The vehicle 100 includes a robot 10, a car navigation system 11, a GPS (Global Positioning System) 12, a beacon receiver 13, a camera 14, an inter-vehicle distance sensor 20, a front obstacle sensor 21, side obstacle sensors 22 and 23, The vehicle includes a rear obstacle sensor 24, an obstacle detection circuit 25, window opening / closing sensors 30 and 31, door opening / closing sensors 32 and 33, seat belt wearing sensors 34 and 35, and a safety confirmation circuit 36.
[0025]
The robot 10 is, for example, a doll imitating a human, an animal, or an imaginary creature, and can perform various postures and actions by driving motors at joints such as a neck, both arms, a waist, and both feet. FIG. 2 is an external view illustrating an example of the robot 10. FIG. 3 is a diagram illustrating an example of installation of the robot 10 on the vehicle 100. The robot 10 is installed in a place such as the upper surface of the instrument panel 3 of the vehicle 100 that does not hinder the driver's view. The robot 10 is connected to the car navigation 11 via the wiring 40.
[0026]
Further, the robot 10 has built-in sensors for detecting various environments inside the vehicle 100, such as a temperature sensor, a humidity sensor, an illuminance sensor, a smoke sensor, an air sensor, an ultraviolet sensor, and a microphone. The temperature sensor detects the temperature inside the vehicle 100, and the humidity sensor detects the humidity inside the vehicle 100. The illuminance sensor detects the illuminance in the vehicle 100, and the smoke sensor detects the amount of smoke in the vehicle 100. The air sensor detects the concentration of carbon monoxide and impurities in the air in the vehicle 100, and the ultraviolet sensor detects the amount of ultraviolet rays emitted from sunlight. The microphone detects the volume by inputting the sound in the vehicle 100.
[0027]
In addition, the robot 10 is connected to the car navigation system 11 via the wiring 40 and transmits and receives data. However, the robot 10 may transmit and receive data by wireless communication using Bluetooth or the like without using the wiring 40.
[0028]
The car navigation system 11 inputs the current position of the vehicle 100 from the GPS unit 12 and performs a route search from the current position to the destination. Then, the route is displayed on the map output on the screen, and the navigation of the traveling is performed using images, sounds, and the like. The car navigation system 11 may be a computer such as a personal computer, a mobile phone, and a PDA (Personal Digital Assistant).
[0029]
The GPS unit 12 receives a radio wave from a GPS satellite in the sky and detects the current position of the vehicle 100. The detection result is transmitted to the car navigation system 11 via the wiring 41, and the car navigation system 11 displays the current position of the vehicle 100 on a map output on the screen based on the detection result.
[0030]
The beacon receiver 13 includes a beacon antenna or the like, receives light or radio waves transmitted from a beacon installed on a road, and receives necessary road traffic information such as traffic congestion information.
[0031]
The camera 14 is a CCD (Charge Coupled Device) camera or the like, and captures an image of a driver's face and the like, and detects a dangerous behavior such as a driver's falling asleep or looking aside. is there. The method of detecting a drowsiness or inattentiveness is a known technique, and therefore, the description is omitted. The camera 14 is, for example, “normal” when the driver's line of sight is directed to the front suitable for driving the car, “robot” when the user watches the robot 10 for several seconds, and displays the screen of the car navigation system 11 for several seconds. If the user is gazing, data of "screen" is output as driver behavior information if the driver looks aside for a few seconds, and whether or not the driver is dozing is output. The driver action information is output to the car navigation 11 via the wiring 41.
[0032]
The inter-vehicle distance sensor 20 detects the inter-vehicle distance between a vehicle traveling ahead and the vehicle 100, and the front obstacle sensor 21 detects an obstacle approaching ahead of the vehicle 100. The side obstacle sensors 22 and 23 detect an obstacle approaching left and right of the vehicle 100, and the rear obstacle sensor 24 detects an obstacle approaching backward. Radio waves are transmitted from these sensors, and the distance between the vehicle 100 and the obstacle is measured by a time lag between the reflection of the radio waves on the obstacle and the reception of the radio waves by the sensor again.
[0033]
The measurement results of the inter-vehicle distance sensor 20, the front obstacle sensor 21, the side obstacle sensors 22 and 23, and the rear obstacle sensor 24 (hereinafter, collectively referred to as "outside vehicle sensor") are used as an obstacle detection circuit. 25. The obstacle detection circuit 25 inputs the measurement result of the inter-vehicle distance and the distance to the obstacle from the outside sensor and outputs the result to the car navigation system 11 via the wiring 41.
[0034]
Window open / close sensors 30 and 31 detect the open / close state of left and right windows of vehicle 100, and door open / close sensors 32 and 33 detect the open / close state of left and right doors of vehicle 100. The seat belt wearing sensors 34 and 35 detect the wearing state of the seat belts in the driver's seat and the passenger's seat.
[0035]
The detection results of the window opening / closing sensors 30 and 31, the door opening / closing sensors 32 and 33, and the seat belt wearing sensors 34 and 35 (hereinafter, collectively referred to as "in-vehicle sensors") are output to the safety confirmation circuit 36. . The safety confirmation circuit 36 inputs a detection result of opening / closing of a window and a door and wearing of a seat belt from an in-vehicle sensor, and outputs the detection result to the car navigation system 11 via a wiring 41. Hereinafter, the measurement result output from the obstacle detection circuit 25 and the detection result output from the safety confirmation circuit 36 are referred to as “vehicle sensor information”.
[0036]
Here, the GPS unit 12, the beacon unit 13, the camera 14, the obstacle detection circuit 25, and the safety confirmation circuit 36 are connected to the car navigation system 11 via the wiring 41 to transmit and receive data, but do not use the wiring 41. , Bluetooth or the like may be used to transmit and receive data. Further, for convenience, the robot 10 and the camera 14 are separate bodies. However, for example, a camera may be built in the face 2g of the robot 10 to detect the behavior of the driver.
[0037]
FIG. 4 is a block diagram illustrating a circuit configuration of the robot 10. The robot 10 includes a CPU (Central Processing Unit) 50, a car navigation communication unit 51, a temperature detection unit 52, a humidity detection unit 53, an illuminance detection unit 54, a smoke detection unit 55, an air detection unit 56, an ultraviolet detection unit 57, and a voice input unit. 58, an audio output unit 59, a drive unit 60, a ROM (Read Only Memory) 61, a RAM (Random Access Memory) 62, and a bus 63.
[0038]
The CPU 50 receives data from the car navigation communication unit 51, processes the data in accordance with instructions of various programs stored in the ROM 61 in advance, and stores the processed data in the RAM 62, or stores the processed data in the voice output unit 59 and the drive unit 60. It controls the operation of each part of the circuit such as outputting. The CPU 50 includes a car navigation communication unit 51, a temperature detection unit 52, a humidity detection unit 53, an illuminance detection unit 54, a smoke detection unit 55, an air detection unit 56, an ultraviolet detection unit 57, a voice input unit 58, a voice output unit 59, The drive unit 60, the ROM 61 and the RAM 62 are connected via the bus 63. Further, the CPU 50 has a function as a control unit.
[0039]
The car navigation communication unit 51 transmits and receives data to and from an external device such as the car navigation 11 connected via the wiring 40 under the control of the CPU 50. When data is transmitted and received to and from the car navigation system 11 by wireless such as Bluetooth, a wireless transmitting and receiving module is provided. Further, the car navigation communication unit 51 has a function as an acquisition unit and a communication unit.
[0040]
Temperature detecting section 52 detects the temperature inside vehicle 100 and outputs the detected temperature data to CPU 50. The humidity detecting section 53 detects the humidity in the vehicle 100 and outputs the detected humidity data to the CPU 50.
[0041]
Illuminance detector 54 detects the illuminance in vehicle 100 and outputs a signal of the detected illuminance data to CPU 50. Smoke detector 55 detects the amount of smoke in vehicle 100 and outputs detected smoke amount data to CPU 50. The smoke is, for example, cigarette smoke.
[0042]
The air detection unit 56 detects the concentration of carbon monoxide, the concentration of impurities, and the like in the air in the vehicle 100, and outputs the detected concentration data to the CPU 50. The ultraviolet ray detector 57 detects the amount of ultraviolet rays in sunlight, and outputs the detected ultraviolet ray data to the CPU 50.
[0043]
The voice input unit 58 inputs voice in the vehicle 100 and outputs volume data to the CPU 50. Hereinafter, the temperature detecting section 52, the humidity detecting section 53, the illuminance detecting section 54, the smoke detecting section 55, the air detecting section 56, the ultraviolet ray detecting section 57, and the voice input section 58 are collectively referred to as a robot sensor 500.
[0044]
The audio output section 59 includes a speaker or the like, converts an audio signal input from the CPU 50 into audio, and outputs the audio from the speaker or the like. The audio output unit 59 has a function as a notification unit and an audio output unit.
[0045]
The drive unit 60 outputs a signal for controlling the neck motor 601, the right hand motor 602, the left hand motor 603, the waist motor 604, the right foot motor 605, and the left foot motor 606 according to a signal input from the CPU 50. The neck motor 601 moves the neck 2a of the robot 10, the right hand motor 602 moves the right arm 2b, the left hand motor 603 moves the left arm 2c, the waist motor 604 moves the waist 2d, the right leg motor 605 moves the right leg 2e, and the left leg motor 606 moves the left leg 2f. Motor. In addition, for example, a motor for moving the left and right elbows, the left and right wrists, the left and right knees, the left and right ankles, and the like may be provided. Hereinafter, the neck motor 601, the right hand motor 602, the left hand motor 603, the waist motor 604, the right foot motor 605, and the left foot motor 606 are collectively referred to as a motor 600. Further, the driving unit 60 has a function as a notification unit and a driving unit.
[0046]
The ROM 61 stores various programs and data for operating the robot 10. In the present embodiment, a robot operation program 610, a robot operation control program 611, a robot drive program 612, a driving information table 614, a robot sensor information table 615, a car sensor information table 616, a driver action information table 617, and a robot operation table 618 is stored. The ROM 61 has a function as a storage unit.
[0047]
The robot operation program 610 is a program for operating the robot 10. The robot operation control program 611 is a sub-program of the robot operation program 610, and is a program for driving the robot 10 according to the driver's action, the traveling state of the vehicle 100, and information on the inside and outside of the vehicle. The robot driving program 612 is a sub-program of the robot operation control program 611, and is a program for outputting an instruction signal for screen output to the car navigation system 11 and starting driving of the robot 10.
[0048]
The driving information table 614 stores voice information to be output from the voice output unit 59 and a robot operation number corresponding to the driving information input from the car navigation 11 by the CPU 50 via the car navigation communication unit 51. The driving information refers to a route from the current position searched by the car navigation system 11 to the destination, traffic congestion information input from the beacon receiver 13, and the like. FIG. 5 is a diagram showing an example of a data configuration of the operation information table 614. For example, in the driving information that "there is an intersection that turns right ahead", voice information that "it is a right-turn intersection soon" is stored. The audio information is output from the CPU 50 to the audio output unit 59 as an audio signal. The robot operation number will be described later in a robot operation table 618.
[0049]
The robot sensor information table 615 stores voice information output to the voice output unit 59 and a robot operation number in accordance with various detection signals input from the robot sensor 500 by the CPU 50. FIG. 6 is a diagram showing an example of the data configuration of the robot sensor information table 615. For example, in the robot sensor information “Temperature less than 10 ° C.”, voice information “Cold.
[0050]
In the robot sensor information table 615, for example, when the temperature inside the vehicle is high, when the inside of the vehicle is humid, when the inside of the vehicle is dark when the engine is ignited, when the illuminance suddenly changes due to tunnel passage, etc., the sound of the audio inside the vehicle is generated. Voice information and robot corresponding to when the volume is too large, when a mobile phone arrives, when the interior of the car is filled with smoke, when the concentration of impurities such as carbon monoxide in the interior of the car is high, or when the amount of ultraviolet light from sunlight is large. The operation number is stored.
[0051]
The car sensor information table 616 stores voice information to be output to the voice output unit 59 and a robot operation number corresponding to the car sensor information input from the car navigation 11 by the CPU 50 via the car navigation communication unit 51. FIG. 7 is a diagram showing an example of the data configuration of the vehicle sensor information table 616. For example, in the vehicle sensor information “more than or equal to x km / h and less than the reflection distance ym”, voice information that “the inter-vehicle distance is short!” Is stored.
[0052]
In the car sensor information table 616, for example, when the reflection distance of the rear obstacle sensor 24 is less than zcm during backing, when the reflection distance of the side obstacle sensor 22 or 23 is less than zcm during traveling, the seat Voice information and robot operation numbers corresponding to when the belt is not worn, when the window is opened when the engine is stopped, when the light is lit when the engine is stopped, when the door is opened when the security alarm is set, etc. are stored. .
[0053]
The driver action information table 617 stores voice information to be output to the voice output unit 59 and a robot operation number corresponding to the driver action information input by the CPU 50 via the car navigation communication unit 51. FIG. 9 is a diagram showing an example of a data configuration of the driver action information table 617. For example, in the driver behavior information “Dozing off”, voice information “Do not fall asleep!” Is stored. In addition, for example, voice information and a robot operation number corresponding to when the driver is gazing at the screen of the car navigation system 11, gazing at the robot 10, or looking aside are stored.
[0054]
The robot operation table 618 stores the operation content of the robot 10 in association with the robot operation number. The robot operation numbers stored in the operation information table 614, the robot sensor information table 615, the vehicle information table 616, and the driver action information table 617 indicate the operation contents of the robot indicated by the robot operation number in the robot operation table 618.
[0055]
FIG. 9 is a diagram showing an example of the data configuration of the robot operation table 618. For example, for the robot operation number 500, the operation content of the robot “raising the left hand” is stored. In other words, if the driving information input by the CPU 50 is “there is an intersection that turns right ahead”, the CPU 50 instructs the audio output unit 59 to output a voice message “It is a right-turn intersection soon” based on the driving information table 614. Then, since the robot operation number is “500”, a drive signal of “raise your left hand” is output to the drive unit 60. Then, the left hand motor 603 is driven by the drive unit 60, and the left arm 2c of the robot 10 moves, and the robot 10 assumes a posture in which the left hand is raised.
[0056]
The RAM 62 temporarily stores programs and data as a work area for the CPU 50. In the present embodiment, robot side driving information data 620, robot side driver behavior information data 621, robot side robot sensor information data 622, and robot side vehicle sensor information data 623 are stored.
[0057]
The robot-side operation information data 620 stores course information, traffic congestion information, and the like input by the CPU 50. The route information is information on a route to be followed by the vehicle 100 in order to travel based on the route searched by the car navigation system 11, and the traffic jam information is information on traffic jam occurring on the route. FIG. 10 is a diagram showing an example of the data structure of the robot-side operation information data 620. For example, when the CPU 50 inputs the route information “there is an intersection that turns right forward”, the CPU 50 stores “there is an intersection that turns right forward” as the route information of the robot-side operation information data 620.
[0058]
The robot-side driver behavior information data 621 stores the driver behavior information input by the CPU 50. The driver behavior information is information indicating the driver's gaze direction and whether or not the driver is dozing. FIG. 11 is a diagram illustrating an example of a data structure of the robot-side driver behavior information data 621. For example, when the CPU 50 inputs the information “screen” as the direction of the driver's line of sight, the CPU 50 stores “screen” as the line of sight of the robot-side driver information data 621. When the CPU 50 inputs the driver's dozing as the driver's behavior information, “H” is stored in the item of dozing of the robot-side driver's behavior information data 621, and it is determined that the driver is not falling asleep. When input, "L" is stored.
[0059]
In the robot-side robot sensor information data 622, “H” is stored for each of various detection results output from the robot sensor 500 if predetermined conditions are satisfied, and “L” otherwise. FIG. 12 is a diagram showing an example of the data structure of the robot-side robot sensor information data 622. For example, when the CPU 50 inputs a detection signal of “in-vehicle temperature = 5 ° C.” from the temperature detection unit 52, “L” is set for the in-vehicle temperature condition “30 ° C. or more” in the robot-side robot sensor information data 622, and the condition is “10 ° C. “H” is stored in “less than”. When the CPU 50 receives the detection signal “30% in-vehicle humidity” from the humidity detection unit 53, the CPU 50 stores “L” in the condition “50% or more” in the vehicle.
[0060]
The car navigation system 11 determines whether each detection result of the vehicle sensor information output from the obstacle detection circuit 25 and the safety confirmation circuit 36 satisfies a predetermined condition. Then, the determination result is output to the robot 10 and stored in the robot-side vehicle sensor information data 623. The robot-side vehicle sensor information data 623 stores “H” if each detection item of the vehicle sensor information satisfies a predetermined condition, and stores “L” otherwise.
[0061]
FIG. 13 is a diagram showing an example of the data structure of the robot-side vehicle sensor information data 623. For example, when the car navigation system 11 inputs a detection result of “not less than xkm / h” and “less than the reflection distance ym” from the obstacle detection circuit 25, the car navigation device 11 sets the inter-vehicle distance condition “not less than xkm / h” of the vehicle sensor information. “H” and the condition “less than the reflection distance ym” are output to the robot 10 as “H”. The CPU 50 inputs the information as vehicle sensor information, and stores “H” in the inter-vehicle distance condition “at least x km / h” and “H” in the condition “reflection distance ym” of the robot side vehicle sensor information 623.
[0062]
FIG. 14 is a block diagram showing a circuit configuration of the car navigation system 11. The car navigation system 11 includes a CPU 80, a communication unit 81, a robot communication unit 82, an input unit 83, a display unit 84, a ROM 87, a RAM 88, and a bus 86.
[0063]
The CPU 80 inputs data from the input unit 83, performs data processing according to instructions of various programs stored in the ROM 87 in advance, stores the processed data in the RAM 88, and outputs the processed data to the display unit 84 on the screen. Is controlled. A communication unit 81, a robot communication unit 82, an input unit 83, a display unit 84, a ROM 87, and a RAM 88 are connected to the CPU 80 via a bus 86.
[0064]
The communication unit 81 transmits and receives data to and from external devices such as the GPS unit 12, the beacon receiver 13, the obstacle detection circuit 25, and the safety confirmation circuit 36, which are connected via the wiring 41 under the control of the CPU 80. In the case where data is transmitted and received to and from the external device by wireless such as Bluetooth, a wireless transmitting and receiving module and the like are provided.
[0065]
The robot communication unit 82 transmits and receives data to and from the robot 10 connected via the wiring 40 under the control of the CPU 80. Further, when data is transmitted and received to and from the robot 10 by wireless such as Bluetooth, a wireless transmitting and receiving module and the like are provided.
[0066]
The input unit 83 is used to input data necessary for the operation of the car navigation system 11 such as a destination, and the input data is output to the CPU 80. The input unit 83 has a touch panel type and is integrated with the display unit 84. The input unit 83 is not limited to this, and may be configured by a pointing device such as a keyboard and a mouse.
[0067]
The display unit 84 is constituted by an LCD (Liquid Crystal Display: liquid crystal display), a CRT (Cathode Ray Tube: cathode ray tube), or the like, and is input from the CPU 80 such as characters, codes, various mode screens, maps, and the like inputted in the input unit 83. Display data to be displayed.
[0068]
The ROM 87 stores various programs and data for operating the car navigation system 11. In the present embodiment, a basic program 870, a navigation program 871, and a GPS map file 872 are stored.
[0069]
The basic program 870 includes a program for executing basic processing such as activation of the car navigation system 11 when the power is turned on. The navigation program 871 inputs a current position from the GPS unit 12 to search for a route to a destination, obtains road traffic information and driver behavior information, and outputs the information to the robot 10. The GPS map file 872 stores map data used for displaying navigation on the display unit 84, and various symbol data such as roads, facilities, seas, and rivers.
[0070]
The RAM 88 temporarily stores programs and data as a work area for the CPU 80. In the present embodiment, navigation-side driving information data 880, navigation-side driver action information data 881, and navigation-side vehicle sensor information data 882 are stored.
[0071]
The navigation-side operation information data 880 stores route information, traffic congestion information, and the like input by the CPU 80 from the GPS unit 12 and the beacon receiver 13 via the communication unit 81. The navigation-side driver behavior information data 881 stores driver behavior information in which the driver's gaze direction and whether or not he or she is dozing are determined. The navigation-side vehicle sensor information data 882 includes “H” when the vehicle sensor information input from the obstacle detection circuit 25 and the vehicle sensor information input from the safety confirmation circuit 36 satisfies predetermined conditions, and “H” when the predetermined conditions are not satisfied. L ”is stored.
[0072]
The navigation-side driving information data 880 is the robot-side driving information data 620, the navigation-side driver action information data 881 is the robot-side driver action information data 621, and the navigation-side vehicle sensor information data 882 is the robot-side vehicle sensor information data. Since the data configuration is the same as 623, the description is omitted.
[0073]
Next, operations of the robot 10 and the car navigation system 11 will be described. First, the operation of the car navigation 11 will be described. FIGS. 15 and 16 are flowcharts showing the operation of the navigation processing executed by the CPU 80. First, the CPU 80 of the car navigation system 11 inputs a destination from the input unit 83 (step A1), inputs a current position from the GPS unit 12, and searches for a route from the current position to the destination (step A2). Then, the map and the route are output to the display unit 84 (step A3). Next, the current position is input from the GPS unit 12 (step A4), and it is determined whether the current position is out of the route searched in step A2 (step A5). If the route is not deviated (step A5: No), the CPU 80 proceeds to step A7. If the route is out of the route (step A5: Yes), the CPU 80 searches the route from the current position to the destination again, and outputs the map and the route to the display unit 84 (step A6).
[0074]
Subsequently, the CPU 80 inputs road traffic information from the beacon receiver 13 (step A7), and determines whether or not there is a traffic jam on the route (step A8). When there is no congestion on the route (step A8: No), the CPU 80 deletes the data of the congestion information of the navigation-side driving information data 880 (step A9). If there is a traffic jam on the route (Step A8: Yes), the CPU 80 stores the road traffic information input in Step A7 as traffic jam information in the navigation-side driving information data 880 (Step A10).
[0075]
Next, the CPU 80 stores, in the navigation-side driving information data 880, route information indicating a route to which the vehicle 100 should proceed next based on the searched route (step A11). Further, the CPU 80 inputs the driver's behavior information from the camera 14, determines the driver's gaze direction and whether or not he / she is dozing, and stores the determination result in the navigation-side driver's behavior information data 881 (step A12). ). Further, the CPU 80 inputs the vehicle sensor information from the obstacle detection circuit 25 and the safety confirmation circuit 36, determines whether each detection result satisfies a predetermined condition, and sets “H” or “L”. It is stored in the navigation-side vehicle sensor information data 882 (step A13).
[0076]
Subsequently, the CPU 80 outputs the navigation-side driving information data 880, the navigation-side driver action information data 881, and the navigation-side vehicle sensor information data 882 to the robot 10 via the robot communication unit 82 (step A14). Then, the CPU 80 determines whether or not an instruction signal indicating a display instruction on the display unit 84 has been input from the robot communication unit 82 (step A15). When an instruction signal for displaying on the display unit 84 is input (Step A15: No), the CPU 80 displays a normal screen for displaying a map, a route, and the like on the display unit 84 (Step A16). When the instruction signal to stop the display is input (Step A15: Yes), the CPU 80 stops the screen display of the display unit 84 (Step A17). Then, the CPU 80 shifts the processing to Step A4.
[0077]
By executing the navigation processing by the CPU 80 in this manner, a route from the current position to the destination is searched. Then, road traffic information is input from the beacon receiver 13, and the presence or absence of traffic congestion on the route is stored in the navigation-side driving information data 880. Then, the route information of the route to be followed by the vehicle 100, the driver behavior information, and the vehicle sensor information are stored in the navigation-side driving information data 880, the navigation-side driver behavior information data 881, and the navigation-side vehicle sensor information data 882, respectively. Then, the stored data is output to the robot 10. Further, the display unit 84 is turned on / off in accordance with an instruction signal for stopping the screen display or starting the screen display of the display unit 84 input from the robot 10.
[0078]
Next, the operation of the robot 10 will be described. FIG. 17 is a flowchart showing the operation of the robot operation process executed by the CPU 50. First, the CPU 50 inputs driving information, driver behavior information, and vehicle sensor information from the car navigation system 11 via the car navigation communication unit 51, and converts the driving information into robot-side driving information data 620 and the driver behavior information into robot-side driver behavior information. The data 621 and the vehicle sensor information are stored in the robot-side vehicle sensor information data 623 (step B1).
[0079]
Subsequently, the CPU 50 inputs detection results from various sensors of the robot sensor 500, determines whether or not each detection result satisfies a predetermined condition, and stores it in the robot-side robot sensor information data 622 (step B2). ). Then, the CPU 50 shifts the processing to the robot operation control processing (step B3), and after the robot operation control processing ends, returns to step B1 again and repeats the processing.
[0080]
As described above, by the execution of the robot operation process by the CPU 50, the driving information, the driver action information and the vehicle sensor information input via the car navigation communication unit 51, and various detection results output from the robot sensor 500 are stored in the RAM 62. Then, a robot operation control process is executed.
[0081]
18 and 19 are flowcharts showing the operation of the robot operation control process executed by the CPU 50. First, the CPU 50 determines whether “normal” is stored in the item of the line of sight direction of the robot-side driver behavior information data 621 and “L” is stored in the item of dozing (step C1). If “normal” and “L” are stored (step C1: Yes), the CPU 50 sets the volume of the audio output unit 59 to the normal volume (step C2). When “normal” and “L” are not stored, that is, when the driver's line of sight is gazing at the screen or the robot, or looking aside or falling asleep (No at step C1 :), the CPU 50 outputs the voice output unit. The volume of 59 is set to "high" (step C3).
[0082]
Next, the CPU 50 determines whether “H” or “L” is stored in the dozing item of the robot-side driver behavior information data 621 (step C4). If “L” is stored (Step C4: No), the CPU 50 proceeds to Step C7. If “H” is stored (step C4: Yes), the CPU 50 searches the driver action information table 617 for voice information and a robot operation number corresponding to the driver action information corresponding to “sleeping” (step C5), The process is shifted to the robot driving process (Step C6).
[0083]
Subsequently, the CPU 50 determines whether or not “screen” is stored in the line-of-sight direction item of the robot-side driver behavior information data 621 (Step C7). If "screen" is not stored (step C7: No), the CPU 50 outputs an instruction signal for instructing display on the display unit 84 from the car navigation communication unit 51 (step C8). On the other hand, when the “screen” is stored (step C7: Yes), the CPU 50 searches the driver action information table 617 for voice information and a robot operation number corresponding to the “screen” in the driver action information (step C9). ), The process proceeds to a robot driving process (step C10). Then, the CPU 50 outputs an instruction signal to stop the display on the display unit 84 from the car navigation communication unit 51 (step C11).
[0084]
Next, the CPU 50 determines whether or not “robot” is stored in the line-of-sight direction item of the robot-side driver behavior information data 621 (step C12). If "robot" is not stored (step C12: No), the CPU 50 outputs a signal for setting the driving of the motor 600 to a standby state to the driving unit 60 (step C13). On the other hand, when “robot” is stored (step C12: Yes), the CPU 50 searches the driver action information table 617 for voice information and a robot operation number corresponding to the driver action information corresponding to “robot” (step C14). ), The process proceeds to a robot driving process (step C15). Then, the CPU 50 outputs a signal to the driving section 60 to put the motor 600 in the neutral state and stop driving (step C16).
[0085]
Next, the CPU 50 determines whether or not the route information to be advanced next is stored in the route information item of the robot-side operation information data 620 (step C17). When the route information is not stored (Step C17: No), the CPU 50 shifts the processing to Step C20. When the route information is stored (step C17: Yes), the CPU 50 searches the driving information table 614 for voice information and a robot operation number based on the route information stored in the robot-side driving information data 620 (step C17). C18), the processing shifts to the robot driving processing (step C19).
[0086]
Subsequently, the CPU 50 determines whether or not “H” is stored for each detection item of the robot-side robot sensor information data 622 (Step C20). When there is no detected item in which “H” is stored (Step C20: No), the CPU 50 shifts the processing to Step C23. If there is a detection item in which “H” is stored (step C20: Yes), the CPU 50 searches the robot sensor information table 615 for voice information and a robot operation number based on the detection item in which “H” is stored. Then, the process proceeds to the robot driving process (step C22).
[0087]
Then, the CPU 50 determines whether or not “H” is stored for each detection item of the robot-side vehicle sensor information data 623 (Step C23). When there is no detected item in which “H” is stored (step C23: No), the CPU 50 ends the robot operation control process. If there is a detection item in which “H” is stored (step C23: Yes), the CPU 50 searches the vehicle sensor information table 616 for voice information and a robot operation number based on the detection item in which “H” is stored. Then, the process proceeds to the robot driving process (step C25).
[0088]
Here, for example, in the item of the inter-vehicle distance in the robot-side vehicle sensor information data 623, when both the condition “greater than or equal to xkm / h” and the condition “less than the reflection distance ym” are “H”, the process proceeds from step C23 to step C24. For example, conditions for executing the robot driving process may be included. In this case, if either one is “L”, the robot work control processing ends. As described above, the warning by the robot 10 may be performed only when both of the two detection items are in the “H” state.
[0089]
As described above, by the execution of the robot operation control process by the CPU 50, when the driver is taking a dangerous action during driving, the volume of the sound output is set to “high”. Further, when the driver is gazing at the display unit 84, the screen display of the display unit 84 is stopped, and when the driver is gazing at the robot 10, the motor 600 of the robot 10 is set to the driving stop state. Then, based on the data stored in the robot-side operation information data 620, the robot-side robot sensor information data 622, and the robot-side vehicle sensor information data 623, the voice information and the operation contents of the robot are searched, and the robot driving process is executed. You.
[0090]
FIG. 20 is a flowchart showing the operation of the robot driving process executed by the CPU 50. First, the CPU 50 determines whether or not the display unit 84 of the car navigation system 11 is in a display state (step D1). When the display unit 84 is in the display stop state (Step D1: No), the CPU 50 shifts the processing to Step D3. When the display unit 84 is in the display state (step D1: Yes), the CPU 50 outputs an instruction signal for causing the display unit 84 to output the route information stored in the navigation-side driving information data 880 (step D2).
[0091]
Next, the CPU 50 determines whether or not the motor 600 is in a drive standby state (step D3). If the driving of the motor 600 is in the standby state (step D3: Yes), the CPU 50 reads the robot operation table 618 based on the robot operation number searched in step C5, C9, C14, C18, C21 or C24 of the robot operation control process. The operation content of the robot is searched, and a drive signal is output to the drive unit 60 to drive the motor 600 according to the searched operation content of the robot (step D4). At the same time, an audio signal is output to the audio output unit 59 in order to output an audio according to the audio information retrieved in steps C5, C9, C14, C18, C21 or C24 of the robot operation control process (step D5). Then, the CPU 50 ends the robot driving process.
[0092]
On the other hand, when the driving of the motor 600 is stopped (Step D3: No), the CPU 50 reads the voice information read from the driver action information table 617 in Step C5, C9, C14, C18, C21 or C24 of the robot operation control processing. Is output to the audio output unit 59 in accordance with (step D6), and the robot driving process ends.
[0093]
As described above, when the screen of the display unit 84 is displayed by the execution of the robot driving process by the CPU 50, the route information is output to the display unit 84, and when the motor 600 is in the drive standby state, the driving unit 60 , A drive signal is output, and the motor 600 is operated. At the same time, an audio signal is output to the audio output unit 59, and an audio is output. When the motor 600 is in the driving stop state, only sound is output.
[0094]
As described above, the robot 10 moves the limbs and the like based on the driving information input from the car navigation system 11 by executing various processes of the CPU 50, and outputs a voice to the driver from the current position to the destination. Navigate the route to. Further, when the driver takes a dangerous action such as looking aside or falling asleep, a warning is issued by the movement of the limbs and the loud sound. This can prevent a traffic accident due to the driver's inattentiveness, falling asleep, and the like. When the driver is gazing at the robot 10, the operation of the robot 10 is stopped. When the driver is gazing at the display unit 84, the screen display of the display unit 84 is stopped. For this reason, it is possible to prevent a contact accident or the like that occurs due to the driver's inattention when the driver gazes at the robot 10 or the car navigation system 11. In addition, even when the various environments in the vehicle do not satisfy the predetermined conditions, the robot 10 notifies the driver by operation and voice, so that the interior of the vehicle can be maintained in a comfortable state.
[0095]
In this embodiment, regardless of the traveling speed of the vehicle 100, it has been described that the gaze is determined when the driver's line of sight is directed to the robot 10 or the display unit 84 for several seconds. Not done. That is, when the vehicle 100 travels at 100 km / h and when it travels at 50 km / h, the traveling distance of the vehicle 100 per second is different. In the above case, if the driver's line of sight is directed toward the robot 10 or the display unit 84 for, for example, 2 seconds, it is determined that the driver gazes. If the traveling speed is equal to or lower than a predetermined speed, the driver's line of sight is If the user faces the display unit 84 for, for example, three seconds, it may be determined that the user gazes. Accordingly, when the traveling speed of the vehicle 100 is high, it is possible to quickly determine whether or not the driver gazes at the robot 10 or the display unit 84, and thus it is possible to further prevent a traffic accident due to carelessness ahead.
[0096]
[Second embodiment]
In the first embodiment, the robot 10 is operated based on driving information output from the car navigation 11, driver action information, vehicle sensor information, and various detection signals output from the robot sensor 600, and further outputs audio. As a result, the driver is provided with a navigation on a route or a warning is issued for dangerous behavior during driving. However, in the present embodiment, the driving information output device is connected to a PDA with a car navigation function (hereinafter simply referred to as a PDA). A case in which a similar function is realized as “PDA” will be described.
[0097]
FIG. 21 is a block diagram for describing a connection configuration between a PDA 900, which is a driving information output device mounted on vehicle 200, and peripheral devices. The vehicle 200 includes a GPS 12, a beacon receiver 13, a camera 14, an in-vehicle sensor circuit 15, an inter-vehicle distance sensor 20, a front obstacle sensor 21, side obstacle sensors 22 and 23, a rear obstacle sensor 24, an obstacle detection circuit 25, It includes window opening / closing sensors 30 and 31, door opening / closing sensors 32 and 33, seat belt wearing sensors 34 and 35, a safety confirmation circuit 36, and a PDA 900. In the figure, portions denoted by the same reference numerals as those in FIG. 1 represent the same components, and detailed description thereof will be omitted.
[0098]
The in-vehicle sensor circuit 15 includes sensors for detecting various in-vehicle environments of the vehicle 200, such as a temperature sensor, a humidity sensor, an illuminance sensor, a smoke sensor, an air sensor, an ultraviolet sensor, and a microphone. The temperature sensor detects the temperature inside the vehicle 200, and the humidity sensor detects the humidity inside the vehicle 200. The illuminance sensor detects the illuminance in the vehicle 200, and the smoke sensor detects the amount of smoke in the vehicle 200. The air sensor detects the concentration of carbon monoxide and impurities in the air in the vehicle 200, and the ultraviolet sensor detects the amount of ultraviolet light emitted from sunlight. The microphone inputs the sound in the vehicle 200 and detects the volume. The detection result output from the in-vehicle sensor circuit 15 is referred to as “in-vehicle sensor information”.
[0099]
FIG. 22 is a diagram illustrating an example of the external appearance of the PDA 900. In the present embodiment, a case where a general PDA is applied as the PDA 900 is described as an example, but the present invention is not limited to a personal computer or a mobile phone (computer) having a car navigation function. In the figure, a PDA 900 includes an antenna (not shown) for transmitting and receiving data to and from a communication network, input keys 90 for moving a cursor, fixing input characters, scrolling a screen, and the like; And a power supply (not shown) such as a built-in battery or a solar battery.
[0100]
The input key 90 can be realized by, for example, a key switch, a touch panel, or the like. The display screen 91 is a portion on which various data necessary for using the PDA 900 are displayed, such as displaying characters such as a map and characters or codes corresponding to pressing of the input keys 90. The display screen 91 is configured by an LCD, an ELD (Electro Luminescence Display: EL display), or the like.
[0101]
The PDA 900 also includes a storage medium slot 92 and a connection terminal 93 for connecting to a signal cable capable of transmitting and receiving data to and from a communication line or peripheral device.
[0102]
The storage medium used by inserting it into the slot 92 is a storage medium for storing personal data and the like, and is, for example, a memory card, a hard disk, or the like. The slot 92 is a device in which a storage medium can be removably mounted and data can be read from and written to the storage medium, and is appropriately selected according to the type of the storage medium. Further, a digital camera card may be inserted into the slot 92 so that the digital camera has the same function as the camera 14.
[0103]
The connection terminal 93 is a terminal that can be connected to a signal cable for connecting to a communication line or a peripheral device, and a control unit thereof. The transmission and reception of data may be realized not only by a wired connection such as a signal cable but also by wireless such as Bluetooth. In this case, the connection terminal 93 corresponds to a wireless transmitting / receiving module and a wireless transmitting / receiving terminal.
[0104]
FIG. 23 is a block diagram showing a circuit configuration of the PDA 900. The PDA 900 includes a CPU 70, a transmission control unit 71, a communication unit 72, an input unit 74, a display unit 75, an audio output unit 76, a storage medium reading unit 77, a ROM 78, a RAM 79, and a bus 73.
[0105]
The CPU 70 receives data from the input unit 74, processes the data in accordance with the instructions of various programs stored in the ROM 78 in advance, stores the processed data in the RAM 79, outputs the screen to the display unit 75, or outputs the data to the display unit 75 or the audio output unit 76. It controls the operation of each part of the circuit such as outputting sound to the circuit. The CPU 70 is connected with a transmission control unit 71, a communication unit 72, an input unit 74, a display unit 75, a sound output unit 76, a storage medium reading unit 77, a ROM 78, and a RAM 79 via a bus 73. Further, the CPU 70 has a function as a control unit.
[0106]
The transmission control unit 71 includes an antenna, a modem, and a terminal adapter for transmitting and receiving data to and from various communication networks such as a telephone line network, an ISDN line network, a dedicated line, a mobile communication network and a communication satellite line network. Is transmitted and received under the control of.
[0107]
The communication unit 72 communicates with external devices such as the GPS unit 12, the beacon receiver 13, the camera 14, the in-vehicle sensor circuit 15, the obstacle detection circuit 25, and the safety confirmation circuit 36 which are connected via the wiring 41 under the control of the CPU 70. Send and receive. In FIG. 22, it corresponds to the connection terminal 93. When data is transmitted and received to and from the external device by wireless such as Bluetooth, a wireless transmitting and receiving module is provided. The communication unit 72 has a function as an acquisition unit and a communication unit.
[0108]
The input unit 74 is used to input data necessary for the operation of the car navigation system 11 such as a destination, and the input data is output to the CPU 70. The input unit 74 corresponds to the input key 90 in the example of FIG. 22. Alternatively, for example, the display unit 75 may be in a touch panel format and characters and codes may be input.
[0109]
The display unit 75 is configured by an LCD, a CRT, or the like, and displays characters, codes, various mode screens, maps, and other display data input from the CPU 70, input from the input unit 74. In FIG. 22, it corresponds to the display screen 91. The display unit 75 has a function as a notification unit and an image output unit.
[0110]
The sound output unit 76 includes a speaker or the like, converts a sound signal input from the CPU 70 into sound, and outputs the sound from the speaker or the like. The audio output unit 76 has a function as a notification unit and an audio output unit.
[0111]
The storage medium reading unit 77 reads and writes data from and to a storage medium such as a memory card and a hard disk. In FIG. 22, it corresponds to the slot 92.
[0112]
The ROM 78 stores various programs and data for operating the PDA 900. In the present embodiment, the basic program 780, the navigation program 781, the information screen program 782, the information output program 783, the driving information table 784, the in-vehicle sensor information table 785, the car sensor information table 786, the driver action information table 787, the GPS A map file 788 for use and a robot image file 789 are stored. The ROM 78 has a function as a storage unit.
[0113]
Basic program 780 includes a program for executing basic processing such as activation of PDA 900 at power-on. The navigation program 781 is a program for inputting the current position from the GPS unit 12, searching for a route to a destination, acquiring road traffic information and driver behavior information, and outputting the information to the display unit 75.
[0114]
The information screen program 782 is a sub-program of the navigation program 781 and is a program for outputting display data to the display unit 75 in accordance with the driver's action, the traveling state of the vehicle 200, and information on the inside and outside of the vehicle. The information output program 783 is a subprogram of the information screen program 782, and is a program for displaying a screen on the display unit 75 and simultaneously outputting sound.
[0115]
The driving information table 784 stores voice information output from the voice output unit 76 and a robot image number corresponding to the driving information input by the CPU 70. FIG. 24 is a diagram showing an example of the data configuration of the operation information table 784. The driving information and the voice information of the driving information table 784 have the same data configuration as the driving information and the voice information of the driving information table 614 of FIG. The robot image number will be described later in a robot image file 789.
[0116]
The in-vehicle sensor information table 785 stores voice information and a robot image number output from the voice output unit 76 in accordance with the in-vehicle sensor information input by the CPU 70. FIG. 25 is a diagram showing an example of the data configuration of the in-vehicle sensor information table 785. The in-vehicle sensor information and the voice information in the in-vehicle sensor information table 785 have the same data configuration as the robot sensor information and the voice information in the robot sensor information table 615 in FIG.
[0117]
The vehicle sensor information table 786 stores voice information output from the voice output unit 76 and a robot image number in accordance with the detection signal input by the CPU 70. FIG. 26 is a diagram showing an example of the data configuration of the car sensor information table 786. The vehicle sensor information and the voice information of the vehicle sensor information table 786 have the same data configuration as the vehicle sensor information and the voice information of the vehicle sensor information table 616 of FIG.
[0118]
The driver action information table 787 stores voice information and a robot image number to be output from the voice output unit 76 in correspondence with the driver action information input by the CPU 70. FIG. 27 is a diagram showing an example of the data configuration of the driver action information table 787. The driver action information and the voice information in the driver action information table 787 have the same data configuration as the driver action information table 617 in FIG.
[0119]
The GPS map file 788 stores map data used for displaying navigation on the display unit 75, and various symbol data such as roads, facilities, seas, and rivers.
[0120]
The robot image file 789 stores the robot image data to be displayed on the display unit 75 in association with the robot image number. The robot image numbers stored in the driving information table 784, the in-vehicle sensor information table 785, the vehicle sensor information table 786, and the driver action information table 787 indicate the robot image numbers in the robot image file 789.
[0121]
FIG. 28 is a diagram showing an example of the data configuration of the robot image file 789. For example, assuming that the robot image data 788a is stored for the robot image number 1500, if the driving information input by the CPU 70 is “there is an intersection that turns right forward”, the CPU 70 based on the driving information table 784 Outputs a voice signal to the voice output unit 76 saying "It is about to be a right turn intersection." Since the robot image number is "1500", the robot image data 788a is output to the display unit 75 as image data. .
[0122]
The RAM 79 temporarily stores programs and data as a work area of the CPU 70. In the present embodiment, driving information data 790, driver behavior information data 791, vehicle sensor information data 792, and in-vehicle sensor information data 793 are stored.
[0123]
The driving information data 790 stores the route information and the traffic congestion information input by the CPU 70. The driver behavior information data 791 stores the driver's gaze direction and whether or not he or she is dozing, based on the driver behavior information input by the CPU 70. In the vehicle sensor information data 792, “H” is stored when the vehicle sensor information input by the CPU 70 satisfies a predetermined condition, and “L” when the predetermined condition is not satisfied. The in-vehicle sensor information data 793 stores “H” when the predetermined conditions are satisfied and “L” when the predetermined conditions are not satisfied with respect to the in-vehicle sensor information input by the CPU 70.
[0124]
Note that the driving information data 790 is the robot-side driving information data 620, the driver action information data 791 is the robot-side driver action information data 621, the car sensor information data 792 is the robot side car sensor information data 623, and the in-vehicle sensor information. Since the data configuration of the table 793 is the same as that of the robot-side robot sensor information data 622, the description thereof is omitted.
[0125]
Next, the operation of the PDA 900 will be described. FIG. 29 is a flowchart showing the operation of the navigation processing executed by the CPU 70. First, the CPU 70 inputs a destination from the input unit 74 (step E1), inputs a current position from the GPS unit 12, and searches for a route from the current position to the destination (step E2). Then, the map and the route are output to the display unit 75 (step E3). Next, the current position is input from the GPS unit 12 (step E4), and it is determined whether the current position is out of the route searched in step E2 (step E5). If the route is not out of the route (step E5: No), the CPU 70 proceeds to step E7. If the route is out of the route (step E5: Yes), the CPU 70 searches the route from the current position to the destination again, and outputs the map and the route to the display unit 75 (step E6).
[0126]
Subsequently, the CPU 70 inputs road traffic information from the beacon receiver 13 (step E7), and determines whether or not there is a traffic jam on the route (step E8). When there is no traffic congestion on the route (step E8: No), the CPU 70 deletes the data of the traffic congestion information of the driving information data 790 (step E9). If there is a traffic jam on the route (step E8: Yes), the CPU 70 stores the road traffic information input in step E7 as traffic jam information in the driving information data 790 (step E10).
[0127]
Next, the CPU 70 stores, in the driving information data 790, route information indicating a route to which the vehicle 200 should proceed next based on the searched route (step E11). Further, the CPU 70 inputs the driver action information from the camera 14 and stores it in the driver action information data 791 (step E12). Further, the CPU 70 inputs the in-vehicle sensor information from the in-vehicle sensor circuit 15, determines whether each detection result satisfies a predetermined condition, and sets “H” or “L” to the in-vehicle sensor information data 793. Remember. Further, the CPU 70 inputs the vehicle sensor information from the obstacle detection circuit 25 and the safety confirmation circuit 36, determines whether each detection result satisfies a predetermined condition, and sets “H” or “L”. It is stored in the vehicle sensor information data 792 (step E13).
[0128]
Subsequently, the CPU 70 shifts the processing to an information screen process (Step E14). Upon completion of the information screen process, the CPU 70 shifts the processing to Step E4.
[0129]
By executing the navigation processing by the CPU 70 in this manner, a route from the current position to the destination is searched. Then, road traffic information is input from the beacon receiver 13, and the presence or absence of traffic congestion on the route is stored in the driving information data 790. Then, the route information of the route to be followed by the vehicle 200, the driver's behavior information, the in-vehicle sensor information and the vehicle sensor information are the driving information data 790, the driver's behavior information data 791, the vehicle sensor information data 792, and the in-vehicle sensor information 793. And an information screen process is executed.
[0130]
30 and 29 are flowcharts showing the operation of the information screen processing executed by the CPU 70. First, the CPU 70 determines whether or not “normal” is stored in the item of the line-of-sight direction of the driver action information data 791 and “L” is stored in the item of dozing (step F1). When "normal" and "L" are stored (step F1: Yes), the CPU 70 sets the volume of the audio output unit 76 to the normal volume (step F2). If "normal" and "L" are not stored (step F1: No), the CPU 70 sets the volume of the audio output unit 76 to "high" (step F3).
[0131]
Next, the CPU 70 determines whether “H” or “L” is stored as the dozing item in the driver action information data 791 (step F4). If “L” is stored (step F4: No), the CPU 70 proceeds to step F7. If "H" is stored (step F4: Yes), the CPU 70 searches the driver action information table 787 for voice information and a robot image number (step F5), and shifts the processing to information output processing (step F6). ).
[0132]
Subsequently, the CPU 70 determines whether or not “screen” is stored in the line-of-sight direction item of the driver action information data 791 (step F7). If "screen" is not stored (step F7: No), the CPU 70 displays a map, a route, and the like on the display unit 75 (step F8). On the other hand, when the “screen” is stored (step F7: Yes), the CPU 70 retrieves the voice information and the robot image number from the driver action information table 787 (step F9), and shifts the processing to the information output processing (step F9). Step F10). Then, the CPU 70 stops displaying the screen on the display unit 75 (step F11).
[0133]
Next, the CPU 70 determines whether or not the route information to be advanced to next is stored in the item of the route information of the driving information data 790 (step F12). When the route information is not stored (step F12: No), the CPU 70 shifts the processing to step F15. When the route information is stored (step F12: Yes), the CPU 70 searches the driving information table 784 for voice information and a robot image number based on the route information stored in the driving information data 790 (step F13). Then, the process proceeds to an information output process (step F14).
[0134]
Subsequently, the CPU 70 determines whether or not “H” is stored for each detection item of the in-vehicle sensor information data 793 (step F15). When there is no detection item in which “H” is stored (step F15: No), the CPU 70 shifts the processing to step F18. If there is a detection item in which “H” is stored (step F15: Yes), the CPU 70 searches the in-vehicle sensor information table 785 for voice information and a robot image number based on the detection item in which “H” is stored. Then, the process proceeds to the information output process (step F17).
[0135]
Then, the CPU 70 determines whether or not “H” is stored for each detection item of the vehicle sensor information data 792 (step F18). When there is no detected item in which “H” is stored (step F18: No), the CPU 70 ends the information screen processing. If there is a detection item in which “H” is stored (step F18: Yes), the CPU 70 searches the car sensor information table 786 for voice information and a robot image number based on the detection item in which “H” is stored. Then, the process proceeds to an information output process (step F20). Then, the CPU 70 ends the information screen processing.
[0136]
As described above, when the driver performs a dangerous action during driving by executing the information screen processing by the CPU 70, the volume of the sound output is set to “high”. Further, when the driver is watching the display unit 75, the screen display of the display unit 75 is stopped. Then, the voice information and the robot image number are searched based on the data stored in the driving information data 790, the vehicle sensor information data 792, and the in-vehicle sensor information data 793, and an information output process is executed.
[0137]
FIG. 32 is a flowchart showing the operation of the information output process executed by the CPU 70. First, the CPU 70 determines whether or not the display unit 75 is in a display state (step G1). When the display unit 75 is in the display state (step G1: Yes), the CPU 70 displays the image data of the robot image file 789 on the display unit according to the robot image number searched in step F5, F9, F13, F16 or F19 of the information screen process. Output to 75. At the same time, an audio signal is output to the audio output unit 76 according to the audio information (step G2), and the information output process ends.
[0138]
On the other hand, when the display unit 75 is in the display stop state (step G1: No), the CPU 70 outputs an audio signal to the audio output unit 76 according to the audio information searched in step F5, F9, F13, F16 or F19 of the information screen process. (Step G3), and terminates the information output process.
[0139]
When the display unit 75 is in the display state by the execution of the information output process by the CPU 70 in this manner, the route information, the traffic congestion information, the vehicle sensor information, the in-vehicle sensor information, and the like are provided by the robot image and the voice displayed on the display unit 75. Is output. On the other hand, when the display unit 75 is in the display stop state, each information is output only by voice.
[0140]
FIG. 33 is a diagram illustrating a case where the robot image data 788a is displayed on the display screen 91 of the PDA 900 as an example. Further, when the route information is "there is an intersection that turns right ahead", a voice saying "You are about to make a right turn intersection" is output from the voice output unit 76 (not shown), and navigation of the traveling route is performed.
[0141]
As described above, the PDA 900 navigates the driver from the current position to the destination by the output image and sound, and furthermore, when the driver takes a dangerous action such as looking aside or falling asleep. Gives a warning by a loud sound. This can prevent a traffic accident due to the driver's inattentiveness, falling asleep, and the like. When the driver is watching the display screen 91, the display on the display unit 75 is stopped. Thereby, it is possible to prevent a contact accident or the like caused by the carelessness of the driver in front. Further, even when the various environments in the vehicle do not satisfy the predetermined conditions, the driver is notified by the image and the sound output from the PDA 900, so that the vehicle can be kept in a comfortable state.
[0142]
It should be noted that the driving information output device of the present invention is not limited to the illustrated example described above, and it is needless to say that various changes can be made without departing from the gist of the present invention.
[0143]
【The invention's effect】
According to the first and ninth aspects of the present invention, the notification control information stored in association with the storage unit is read based on the status information acquired by the acquisition unit, and an output corresponding to a detection result by the detection unit is output. In the embodiment, the notification function is controlled based on the read notification control information. Therefore, for example, when a dangerous situation outside the vehicle is acquired, or according to the detected driver state, for example, when the driver is gazing at the display, a loud alarm (one of output forms) ), It is possible to output situation information, etc., and it is possible to output driving information appropriately according to the situation of the driver and perform safe and appropriate navigation.
[0144]
According to the second aspect of the present invention, the control of the notifying means is performed in an output form according to the driver's state and situation information. Therefore, for example, it is possible for the driver to take dangerous actions while the vehicle is running and to output situation information with a loud alarm when the situation is such that there is an obstacle in front of the car, and so on. It is possible to output driving information appropriately according to the situation of the driver, and to perform safe and appropriate navigation.
[0145]
According to the third aspect of the present invention, the voice information and the driving content of the doll are determined in accordance with the driver's state and status information, and the driver is notified of the status information by voice output and driving of the doll. For this reason, it is possible to cause the navigation of the car, which has been performed by the car navigation, to be performed by driving the doll and outputting the voice. Further, for example, when the driver takes a dangerous action while the vehicle is running, it is possible to output situation information by a doll action or a loud alarm. Then, since the warning is output by the operation of the doll and the voice, the driver can easily understand and understand the visual recognition. Therefore, it is possible to output driving information appropriately according to the situation of the driver, and to perform safe and appropriate navigation.
[0146]
According to the invention described in claim 4, by switching between the notification of the situation information by the image and the voice and the notification of the status information by the voice only in accordance with the state of the driver, the image output means during the driving of the vehicle by the driver When the user gazes at, the notification of the status information by the image output means can be stopped and the notification can be made only by voice. Thus, it is possible to prevent a traffic accident or the like caused by the driver's carelessness in front of the vehicle.
[0147]
According to the invention described in claim 5, for example, the image is displayed while the driver is driving the car by setting the predetermined line-of-sight direction to the direction when the driver looks at the image output means. When gazing at the image output means, the image output by the image output means can be stopped and the status information can be output only by sound. Thus, it is possible to prevent a traffic accident or the like caused by the driver's carelessness in front of the vehicle.
[0148]
According to the invention described in claim 6, for example, by setting the predetermined line-of-sight direction to the direction when the driver looks at the doll, when the driver gazes at the driven doll while driving the car In addition, the driving of the driving means can be stopped, and the status information can be output only by voice. Thus, it is possible to prevent a traffic accident or the like caused by the driver's carelessness in front of the vehicle.
[0149]
According to the invention described in claim 7, it is possible to output an alarm to the driver. As a criterion for outputting an alarm, for example, there is a case where status information indicating that an obstacle is within a predetermined range in front of the vehicle is acquired. Thereby, a traffic accident or the like can be prevented beforehand.
[0150]
According to the invention described in claim 8, an alarm can be output to the driver. As a criterion for outputting an alarm, for example, there is a case where the detection unit detects inattentiveness, dozing, and the like. Thereby, a traffic accident or the like can be prevented beforehand.
[Brief description of the drawings]
FIG. 1 is a block diagram for explaining a connection configuration between a robot and peripheral devices.
FIG. 2 is an external view showing an example of a robot.
FIG. 3 is a diagram showing an example of installation of a robot on a vehicle.
FIG. 4 is a block diagram showing a circuit configuration of the robot.
FIG. 5 is a diagram showing an example of a data configuration of a driving information table.
FIG. 6 is a diagram showing an example of a data configuration of a robot sensor information table.
FIG. 7 is a diagram showing an example of a data configuration of a vehicle sensor information table.
FIG. 8 is a diagram showing an example of a data configuration of a driver action information table.
FIG. 9 is a diagram illustrating an example of a data configuration of a robot operation table.
FIG. 10 is a diagram showing an example of a data structure of robot-side operation information data.
FIG. 11 is a diagram showing an example of a data structure of robot-side driver action information data.
FIG. 12 is a diagram showing an example of a data structure of robot-side robot sensor information data.
FIG. 13 is a diagram showing an example of the data structure of robot-side vehicle sensor information data.
FIG. 14 is a block diagram showing a circuit configuration of a car navigation system.
FIG. 15 is a flowchart illustrating an operation of a navigation process according to the first embodiment.
FIG. 16 is a flowchart showing the operation of the navigation process following FIG. 15;
FIG. 17 is a flowchart illustrating an operation of a robot operation process.
FIG. 18 is a flowchart illustrating an operation of a robot operation control process.
FIG. 19 is a flowchart showing the operation of the robot operation control process following FIG. 18;
FIG. 20 is a flowchart illustrating an operation of a robot driving process.
FIG. 21 is a block diagram for explaining a connection configuration between a PDA, which is an operation information output device, and peripheral devices.
FIG. 22 is a diagram showing an example of the appearance of a PDA.
FIG. 23 is a block diagram showing a circuit configuration of a PDA.
FIG. 24 is a diagram showing an example of a data configuration of a driving information table.
FIG. 25 is a diagram showing an example of a data configuration of an in-vehicle sensor information table.
FIG. 26 is a diagram showing an example of a data configuration of a vehicle sensor information table.
FIG. 27 is a diagram showing an example of a data configuration of a driver action information table.
FIG. 28 is a diagram showing an example of a data configuration of a robot image table.
FIG. 29 is a flowchart illustrating an operation of a navigation process according to the second embodiment.
FIG. 30 is a flowchart showing the operation of an information screen process.
FIG. 31 is a flowchart showing the operation of the information screen process following FIG. 30;
FIG. 32 is a flowchart showing an operation of an information output process.
FIG. 33 is a diagram when a robot image is displayed on the display screen of the PDA.
[Explanation of symbols]
10 Navigation robot
50 CPU
51 Car Navigation Communication Department
52 Temperature detector
53 Humidity detector
54 Illuminance detector
55 Smoke detector
56 Air detector
57 UV detector
58 Voice input section
59 Audio output unit
60 drive unit
61 ROM
62 RAM
900 PDA with car navigation function
70 CPU
71 Transmission control unit
72 Communication unit
74 Input section
75 Display
76 Audio output section
77 Storage medium reading unit
78 ROM
79 RAM

Claims (9)

車に装備される運転情報出力装置において、
車内又は車外の状況情報に対応づけて報知制御情報を記憶する記憶手段と、
状況情報を取得する取得手段と、
複数種の出力形態による報知が可能な報知手段と、
運転者状態を検知する検知手段と、
前記取得手段により取得された状況情報に基づき前記記憶手段に対応づけて記憶された報知制御情報を読み出し、前記検知手段による検知結果に応じた出力形態で、読み出された報知制御情報に基づく前記報知手段の制御を行う制御手段と、
を備えることを特徴とする運転情報出力装置。
In the driving information output device installed in the car,
Storage means for storing notification control information in association with in-vehicle or out-of-vehicle situation information;
Acquisition means for acquiring status information;
An informing means capable of informing by a plurality of output forms;
Detecting means for detecting a driver state;
The notification control information stored in association with the storage unit is read based on the status information obtained by the obtaining unit, and the notification control information is output based on the read notification control information in an output form corresponding to a detection result by the detection unit. Control means for controlling the notification means;
A driving information output device comprising:
前記制御手段は、前記検知手段による検知結果及び前記取得手段により取得された状況情報に応じた出力形態で、読み出された報知制御情報に基づく前記報知手段の制御を行う報知制御手段を有することを特徴とする請求項1に記載の運転情報出力装置。The control unit includes a notification control unit that controls the notification unit based on the read notification control information in an output form according to a detection result of the detection unit and status information acquired by the acquisition unit. The driving information output device according to claim 1, wherein: 前記取得手段はカーナビゲーション装置と通信する通信手段を有し、この通信手段による通信により前記状況情報として進路情報を取得し、
前記報知手段は前記複数種の出力形態として音声出力手段および駆動手段とを有し、
前記制御手段により、前記音声出力手段からの音声出力または前記駆動手段の駆動制御が行われる、人形であることを特徴とする請求項1または2に記載の運転情報出力装置。
The acquisition means has communication means for communicating with a car navigation device, and acquires route information as the status information by communication by the communication means,
The notifying unit has an audio output unit and a driving unit as the plurality of types of output forms,
3. The driving information output device according to claim 1, wherein the driving information output device is a doll in which a voice output from the voice output unit or a drive control of the driving unit is performed by the control unit. 4.
前記取得手段はGPSと通信する通信手段を有し、この通信手段による通信により前記状況情報として進路情報を取得し、
前記報知手段は前記複数種の出力形態として画像出力手段および音声出力手段とを有し、
前記検知手段による検知結果に応じて前記画像出力手段または前記音声出力手段を切り換えることを特徴とする請求項1または2に記載の運転情報出力装置。
The acquisition means has communication means for communicating with GPS, and acquires route information as the status information by communication by the communication means,
The notification means has an image output means and a sound output means as the plurality of types of output forms,
The driving information output device according to claim 1, wherein the image output unit or the audio output unit is switched according to a detection result by the detection unit.
前記検知手段は、運転者の視線方向を検知する視線方向検知手段を有し、
前記制御手段が前記画像出力手段の制御中であって、前記視線方向検知手段により視線方向が所定方向であると検知された場合には、前記制御手段は、前記画像出力手段の制御を停止し、前記音声出力手段の制御を行うことを特徴とする請求項4に記載の運転情報出力装置。
The detection unit has a line-of-sight direction detection unit that detects the line-of-sight direction of the driver,
If the control unit is controlling the image output unit and the gaze direction detection unit detects that the line of sight is in a predetermined direction, the control unit stops controlling the image output unit. 5. The driving information output device according to claim 4, wherein the driving information output device is controlled.
前記検知手段は、運転者の視線方向を検知する視線方向検知手段を有し、
前記制御手段が前記駆動手段の制御中であって、前記視線方向検知手段により視線方向が所定方向であると検知された場合には、前記制御手段は、前記駆動手段の制御を停止し、前記音声出力手段の制御を行うことを特徴とする請求項3に記載の運転情報出力装置。
The detection unit has a line-of-sight direction detection unit that detects the line-of-sight direction of the driver,
When the control unit is controlling the driving unit, and when the line-of-sight direction detecting unit detects that the line-of-sight direction is a predetermined direction, the control unit stops controlling the driving unit, 4. The driving information output device according to claim 3, wherein the driving information output device controls the voice output means.
前記記憶手段は警告用報知制御情報を更に記憶し、
前記取得手段により取得された状況情報が所定条件を満たす場合には、前記制御手段が、前記警告用報知制御情報に基づく報知手段の制御を行うことを特徴とする請求項1〜6の何れか一項に記載の運転情報出力装置。
The storage means further stores warning notification control information,
7. The method according to claim 1, wherein when the status information acquired by the acquisition unit satisfies a predetermined condition, the control unit controls the notification unit based on the warning notification control information. The driving information output device according to claim 1.
前記記憶手段は警告用報知制御情報を更に記憶し、
前記検知手段により検知された運転者状態が所定条件を満たす場合には、前記制御手段が、前記警告用報知制御情報に基づく報知手段の制御を行うことを特徴とする請求項1〜6の何れか一項に記載の運転情報出力装置。
The storage means further stores warning notification control information,
7. The control device according to claim 1, wherein when the driver state detected by the detection device satisfies a predetermined condition, the control device controls the notification device based on the warning notification control information. 8. The driving information output device according to claim 1.
車に装備される、コンピュータを搭載した運転情報出力装置に対して、
車内又は車外の状況情報に対応づけて報知制御情報を記憶する記憶機能と、
状況情報を取得する取得機能と、
複数種の出力形態による報知が可能な報知機能と、
運転者状態を検知する検知機能と、
前記取得機能により取得された状況情報に基づき前記記憶機能に対応づけて記憶された報知制御情報を読み出し、前記検知機能による検知結果に応じた出力形態で、読み出された報知制御情報に基づく前記報知機能の制御を行う制御機能と、
を前記コンピュータにより実現させるためのプログラム。
For a driving information output device equipped with a computer, which is equipped on a car,
A storage function of storing notification control information in association with the in-vehicle or out-of-vehicle situation information;
An acquisition function for acquiring status information;
A notification function capable of notification in a plurality of output forms;
A detection function for detecting a driver state;
The notification control information stored in association with the storage function is read based on the status information acquired by the acquisition function, and the output form is based on the read notification control information in an output form corresponding to a detection result by the detection function. A control function for controlling the notification function;
For realizing the above by the computer.
JP2002254887A 2002-08-30 2002-08-30 Driving information output device and program Pending JP2004093354A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002254887A JP2004093354A (en) 2002-08-30 2002-08-30 Driving information output device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002254887A JP2004093354A (en) 2002-08-30 2002-08-30 Driving information output device and program

Publications (1)

Publication Number Publication Date
JP2004093354A true JP2004093354A (en) 2004-03-25

Family

ID=32060557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002254887A Pending JP2004093354A (en) 2002-08-30 2002-08-30 Driving information output device and program

Country Status (1)

Country Link
JP (1) JP2004093354A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010096773A (en) * 2010-01-22 2010-04-30 Ixs Research:Kk Robot navigation system
JP2010127779A (en) * 2008-11-27 2010-06-10 Denso It Laboratory Inc Information serving apparatus, information serving method and program
US8160772B2 (en) 2006-09-28 2012-04-17 Pioneer Corporation Drive control apparatus, drive control method, drive control program, and recording medium
JP2018032204A (en) * 2016-08-24 2018-03-01 トヨタ自動車株式会社 Driving support device
JP2018055590A (en) * 2016-09-30 2018-04-05 トヨタ自動車株式会社 Information providing system and information providing method
JP2018520408A (en) * 2015-05-05 2018-07-26 ビー.ジー.ネゲヴ テクノロジーズ アンド アプリケーションズ リミテッドB.G.Negev Technologies and Applications Ltd. Universal autonomous robot operation system
WO2020195462A1 (en) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 Information presentation system
JP2021099561A (en) * 2019-12-20 2021-07-01 株式会社東海理化電機製作所 Control device, input device, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8160772B2 (en) 2006-09-28 2012-04-17 Pioneer Corporation Drive control apparatus, drive control method, drive control program, and recording medium
JP2010127779A (en) * 2008-11-27 2010-06-10 Denso It Laboratory Inc Information serving apparatus, information serving method and program
JP2010096773A (en) * 2010-01-22 2010-04-30 Ixs Research:Kk Robot navigation system
JP2018520408A (en) * 2015-05-05 2018-07-26 ビー.ジー.ネゲヴ テクノロジーズ アンド アプリケーションズ リミテッドB.G.Negev Technologies and Applications Ltd. Universal autonomous robot operation system
JP7023116B2 (en) 2015-05-05 2022-02-21 ビー.ジー.ネゲヴ テクノロジーズ アンド アプリケーションズ リミテッド Universal autonomous robot driving system
JP2018032204A (en) * 2016-08-24 2018-03-01 トヨタ自動車株式会社 Driving support device
JP2018055590A (en) * 2016-09-30 2018-04-05 トヨタ自動車株式会社 Information providing system and information providing method
WO2020195462A1 (en) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 Information presentation system
JP2020160726A (en) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 Information presentation system
CN113613931A (en) * 2019-03-26 2021-11-05 株式会社东海理化电机制作所 Information prompting system
JP2021099561A (en) * 2019-12-20 2021-07-01 株式会社東海理化電機製作所 Control device, input device, and program

Similar Documents

Publication Publication Date Title
KR102552285B1 (en) Portable electronic device and method thereof
KR101901799B1 (en) Method and apparatus for controlling vehicular user interface
KR101570369B1 (en) Telematics terminal and method for controlling vehicle by using thereof
JP5251805B2 (en) In-vehicle electronic device and program
US9281965B2 (en) Communication system and mobile communication device
KR20140120618A (en) Terminal device and method for preventing accident
US20210179289A1 (en) Aerial vehicle, communication terminal and non-transitory computer-readable medium
JP2007249477A (en) Onboard information transmission device
CN109104689B (en) Safety warning method and terminal
CN109495641B (en) Reminding method and mobile terminal
CN107650796A (en) System, the method and apparatus of vehicle-mounted media content are presented based on vehicle sensor data
CN114555401A (en) Display system, display device, display method, and mobile device
CN109153352B (en) Intelligent reminding method and device for automobile
CN108362303B (en) Navigation method and mobile terminal
JP2004093354A (en) Driving information output device and program
KR20160114486A (en) Mobile terminal and method for controlling the same
KR101841501B1 (en) Mobile device for car sharing and method for car sharing system
JP2008213604A (en) Indication device
KR101578721B1 (en) Navigation device and method for guiding route thereof
KR101525840B1 (en) Navigation device and method for providing information using the same
KR101698102B1 (en) Apparatus for controlling vehicle and method for controlling the same
JP2012178127A (en) Attention calling system and attention calling device
KR101667699B1 (en) Navigation terminal and method for guiding movement thereof
JP5640284B2 (en) In-vehicle electronic device and program
WO2021253926A1 (en) Method and apparatus for giving alarm regarding child being left in vehicle, and wearable device