JP7358040B2 - 車両用報知装置 - Google Patents

車両用報知装置 Download PDF

Info

Publication number
JP7358040B2
JP7358040B2 JP2018185747A JP2018185747A JP7358040B2 JP 7358040 B2 JP7358040 B2 JP 7358040B2 JP 2018185747 A JP2018185747 A JP 2018185747A JP 2018185747 A JP2018185747 A JP 2018185747A JP 7358040 B2 JP7358040 B2 JP 7358040B2
Authority
JP
Japan
Prior art keywords
vehicle
situation
occupant
notification
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018185747A
Other languages
English (en)
Other versions
JP2020057079A (ja
Inventor
愛美 相川
勇 長澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2018185747A priority Critical patent/JP7358040B2/ja
Publication of JP2020057079A publication Critical patent/JP2020057079A/ja
Application granted granted Critical
Publication of JP7358040B2 publication Critical patent/JP7358040B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、擬人化されたキャラクタによる報知が可能な車両用報知装置に関する。
自動車などの車両においては、乗員(特にドライバー)の運転環境を整える(例えば、眠気防止を図る)ことで、より安全性を向上させることが継続的な課題であり、このような運転環境を整える手法として、様々な手法が提案されている。
例えば、乗員と、擬人化されたキャラクタ(いわゆるエージェント)とが、コミュニケーションを図ることが可能な車両用エージェント装置も上記手法の1つとして提案されており、このような車両用エージェント装置として、特許文献1では、擬人化されたエージェントを車両内に出現させ、当該エージェントが状況に合わせた行為をすることで、乗員とのコミュニケーションを図ることが提案されている。
特開平11-37766号公報
上記特許文献1によれば、乗員を飽きさせることなく運転させることができるといった利点は得られるものの、さらなる安全性の向上という観点では、まだまだ改善の余地があった。
本発明は、このような従来の問題を解決するためになされたもので、擬人化されたキャラクタと乗員とのコミュニケーションを用いて、さらなる安全性の向上を図ることを可能とする車両用報知装置を提供することを目的とする。
本発明に係る車両用報知装置は、視覚または聴覚的に擬人化されたキャラクタによる報知が可能な車両用報知装置であって、前記キャラクタによる報知を制御する制御手段と、車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、前記状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段と、を有し、前記制御手段は、前記識別手段により前記特定の状況に相当すると識別された場合には、前記擬人化されたキャラクタによって、前記特定の状況に至った過程の推移を時系列で乗員に報知することを特徴とする。
また、前記制御手段が前記乗員に報知するにあたり、報知条件を満たしているかを判断する判断手段をさらに備え、前記制御手段は、前記判断手段により前記報知条件を満たしていると判断された場合に、前記乗員に報知するようにしてもよい。
さらに、前記制御手段は、前記過程の推移に対する論評を加えて報知するようにしてもよい。
さらに、前記過程の推移における乗員の肯定要素を抽出する抽出手段をさらに備え、前記制御手段は、前記抽出手段により乗員の肯定要素が抽出された場合に、前記論評において乗員を肯定する報知を行うようにしてもよい。
さらに、前記制御手段は、前記過程の推移から事故に至っていたと仮定した際の仮定事故情報を加えて報知するようにしてもよい。
本発明によれば、擬人化されたキャラクタと乗員とのコミュニケーションを用いて、さらなる安全性の向上を図ることを可能とする車両用報知装置を提供することができる。
本発明の実施の一形態に係る車両の車室内を示す斜視図である。 第1表示用パネル及び第2表示用パネルを運転席側から視た状態を示す正面図である。 車両用報知装置を説明するためのブロック図である。 車両用報知装置の制御部によって行われるメインフローチャート図である。 車両用報知装置の制御部によって行われる肯定追認処理を示すフローチャート図である。 車両用報知装置の制御部によって行われる報知制御処理を示すフローチャート図である。 車両用報知装置の報知例を示すアニメーション図(1/2)である。 車両用報知装置の報知例を示すアニメーション図(2/2)である。 車両用報知装置の報知例を示すタイムチャート図である。
以下、本発明の実施の形態について、図面を参照して説明する。
以下、本発明の実施形態を、図1は本発明の実施の一形態に係る車両の車室内を示す斜視図、図2は第1表示用パネル30及び第2表示用パネル40を運転席側から視た状態を示す正面図、図3は車両用報知装置を説明するためのブロック図、図4は車両用報知装置の制御部によって行われるメインフローチャート図、図5は車両用報知装置の制御部によって行われる肯定追認処理を示すフローチャート図、図6は車両用報知装置の制御部によって行われる報知制御処理を示すフローチャート図、図7は車両用報知装置の報知例を示すアニメーション図(1/2)、図8は車両用報知装置の報知例を示すアニメーション図(2/2)、図9は車両用報知装置の報知例を示すタイムチャート図である。なお、図中FRは車両前方を、UPは車両上方をそれぞれ示している。また、以下の説明における左右方向は、車両に着座した乗員が車両前方を向いた状態での左右方向を意味する。
(車室内における各構成)
図1、図2に示すように、車両1は、運転席2の車両前方側に設けられるインストルメントパネル3と、運転席2とインストルメントパネル3との間に配置されるステアリングホイール4とを有している。ステアリングホイール4は、ステアリングシャフト(図示省略)を介してステアリングコラム(図示省略)に回転自在に取り付けられている。また、ステアリングホイール4の内部には、車両1が衝突等した際に、ドライバーHに向けて展開するエアバック8が格納されている。
図1に示すように、車両1の車室内には、第1表示用パネル30と、第2表示用パネル40と、第3表示用パネル50との3つの表示パネルが設けられている。これら第1表示用パネル30と、第2表示用パネル40とは、運転席2の前方側のインストルメントパネル3にそれぞれ離間して配置され、第3表示用パネル50は、運転席2の左前方側のインストルメントパネル3に配置されている。
(第1表示用パネル30)
図1、図2に示すように、第1表示用パネル30は、アナログ時計のように構成された指針式メータと、液晶パネルとバックライトとが一体的に設けられたいわゆる液晶ディスプレイ装置とを備えて構成されている。ドライバー(運転者)H(以下、ドライバーH)は、第1表示用パネル30の第1表示領域30aに表示される各種情報を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。
図2に示すように、第1表示用パネル30には、第1表示領域30aが設けられており、この第1表示領域30aの左右には、車両1の走行速度(スピードメータ)や、エンジンの単位時間当たりの回転数(タコメータ)などの情報を表示する2つの指針式メータと、2つの指針式メータの間であって第1表示用パネル30の中央部には、一般的な車両情報を示す画像を表示する小型の液晶ディスプレイ装置とが配置される。なお、第1表示用パネル30は、指針式メータを備えずに、全体を1つの液晶ディスプレイ装置で構成してもよい。
(第2表示用パネル40)
図1、図2に示すように、第2表示用パネル40は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されており、その下端部の左右方向の両端部には、それぞれ、相反する方向に突出する一対の回動軸41が取り付けられている。この回動軸41が支持部材(図示省略)によって軸支されることによって、上方に向けて起立する起立位置と、車両前方へ向けて倒伏する倒伏位置との間で可変自在に取り付けられている。ドライバーHは、第2表示用パネル40の第2表示領域40aに表示される各種画像を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。なお、第2表示用パネル40は、起立位置と倒伏位置との間で可変自在に構成したが、支持部材から起立したまま突出する突出位置と支持部材の内部に格納される格納位置との間で上下に可変自在に構成してもよいし、可変不能に固定されていてもよい。
図2に示すように、第2表示用パネル40には、第2表示領域40aが設けられており、この第2表示領域40aに、擬人化キャラクタ画像I1や、擬人化キャラクタ画像I1から発せられるセリフ画像I2(図7、図8参照)が表示される。第2表示領域40aは、上述のスピードメータと、タコメータとの間に位置するので、ドライバーHは、視線を大きく移動させることなく、スピードメータの確認、タコメータの確認、擬人化キャラクタ画像I1およびセリフ画像I2の確認ができるようになっている。なお、擬人化キャラクタ画像I1を用いた特徴部については図7、図8で後述する。
(第3表示用パネル50)
図1に示すように、第3表示用パネル50は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されている。なお、第3表示用パネル50には地図情報等が表示され、いわゆるカーナビゲーションシステムを担っている。
なお、第1表示用パネル30、第2表示用パネル40及び第3表示用パネル50において構成されている液晶ディスプレイ装置を、プラズマディスプレイや有機EL等の自発光型の表示デバイス、投影型のプロジェクタ等の表示装置で構成してもよい。
(操作ボタン60)
図2に示すように、操作ボタン60は、上下左右の4方向のキーが設けられた操作デバイスであって、本発明の車両用報知装置の制御部110(図3参照)に対して、操作信号を入力可能となっている。これにより、例えば、擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声の音量値の変更や、擬人化キャラクタ画像I1の表示位置の変更等ができるようになっている。
次に、本発明における車両用報知装置としての車両用エージェント装置100の構成について、図3のブロック図を参照して説明する。
図3に示すように、車両用エージェント装置100は、制御部110と、周辺環境認識部120と、乗員状態認識部130と、車両状態認識部140と、第2表示用パネル40と、操作ボタン60と、スピーカ150と、マイク160と、記憶部170と、送受信機180と、で構成されている。
なお、図3に示す車両用エージェント装置100は一例にすぎず、車両用エージェント装置100の構成要素は適宜変更ができる。例えば、周辺環境認識部120と、乗員状態認識部130と、車両状態認識部140と、は少なくともいずれか1つを備えていれば、本発明の車両用エージェント装置100を実現できるし、操作ボタン60と、記憶部170と、送受信機180と、は備えなくても、本発明の車両用エージェント装置100を実現できる。また、少なくともスピーカ150と、マイク160とを備えていれば、第2表示用パネル40は備えなくても、本発明の車両用エージェント装置100を実現できる。
また、本発明における車両用エージェント装置100は、例えば、マイク160を介してドライバーHから音声入力(例えば、問いかけ)が行われた場合に、それに対する返答をスピーカ150や第2表示用パネル40(擬人化キャラクタ画像I1)を介して行う、受動的なスタイルでの対話と、例えば、後述のマイク160を介してドライバーHから音声入力が行われていなくても、ドライバーHの趣味嗜好に併せた話題等をスピーカ150や第2表示用パネル40(擬人化キャラクタ画像I1)を介して車両用エージェント装置100側から行う、能動的なスタイルでの対話と、の両方が可能である。特に、能動的なスタイルでの対話を可能とすることで、積極的な語りかけにより、ドライバーHの眠気防止や運転ストレスの解消に寄与できる。
(制御部110)
制御部110は、図示しないCPU、ROM、RAM(例えば、リングバッファ)、入出力ポート等を備えており、例えば、入力ポートより情報入力が行われると、ROMから読み出した制御プログラムに基づいて、出力ポートを介して各種デバイス(第2表示用パネル40やスピーカ150)を制御するようになっている。
なお、制御部110のROMには、擬人化キャラクタ画像I1から発せられるセリフのデータテーブル(図示省略)が記憶されている。制御部110のCPUは、後述する各認識部から取得した情報や、マイク160から取得した情報に基づいて、擬人化キャラクタ画像I1から発するセリフをデータテーブルから決定する。例えば、BGMをかけて欲しいとの情報をマイク160から取得したら、データテーブルから「了解しました」といったセリフを決定する。
(周辺環境認識部120)
周辺環境認識部120は、車両1(自車両)の周辺環境を認識するために設けられている。また、周辺環境認識部120は、車外撮影用カメラ120aと、レーダ120bとを備えており、これらのデバイスによって車両1の周辺環境を認識することができるようになっている。
(車外撮影用カメラ120a)
車外撮影用カメラ120aは、例えば、図示しないルームミラーに取り付けられており、車両1の前方、および、車両1の後方を撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、車両1の前方、車両1の後方の状況をリアルタイムおよび事後的に認識することができる。
(レーダ120b)
レーダ120bは、例えば、電波を飛ばして障害物等を検知するミリ波レーダが用いられており、当該ミリ波レーダが車両1のフロントバンパやリアバンパに取り付けられ、車両1の前方監視、車両1の前側方監視、車両1の後側方監視ができるようになっている。そして、監視情報が制御部110に入力されて、制御部110がRAMに監視情報を記憶する。これにより、制御部110は、車両1の前方、車両1の前側方の状況、車両1の後側方の状況をリアルタイムおよび事後的に認識することができる。なお、本実施形態においてはミリ波レーダを用いているが、他のレーダを用いてもよい。例えば、赤外線レーダでもよい。
以上のようにして、制御部110は、車両1の周辺環境をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の周辺環境の認識に基づいて、第2表示用パネル40の擬人化キャラクタ画像I1と、スピーカ150とを制御して、車両1の周辺環境の情報をドライバーHに対して報知することができる。例えば、車両1の前方に落下物があれば、「前方に落下物があります」といった画像および音声による報知ができる。これにより、安全性を向上させることができる。
なお、本実施形態においては、周辺環境認識部120として、車外撮影用カメラ120aと、レーダ120bとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
(乗員状態認識部130)
乗員状態認識部130は、ドライバーHの状態を認識するために設けられている。また、乗員状態認識部130は、乗員撮影用カメラ130aと、バイタルセンサ130bとを備えており、これらのデバイスによってドライバーHの状態を認識することができるようになっている。
(乗員撮影用カメラ130a)
乗員撮影用カメラ130aは、例えば、インストルメントパネル3に取り付けられており、ドライバーHを撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。なお、ここでいう、ドライバーHの状態とは、具体的には、ドライバーHの目蓋の状態や、瞬きの回数、視線の方向、顔の向きなどが想定される。
(バイタルセンサ130b)
バイタルセンサ130bは、例えば、ステアリングホイール4のドライバーHにより把持される部位に取り付けられ、ドライバーHの心拍数や血圧等のバイタル情報を取得できるようになっている。そして、取得したバイタル情報が制御部110に入力されて、制御部110がRAMにバイタル情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。
以上のようにして、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、ドライバーHの状態の認識に基づいて、第2表示用パネル40の擬人化キャラクタ画像I1と、スピーカ150とを制御して、所定の情報をドライバーHに対して報知することができる。例えば、「目蓋が下がっておりますが、休憩しませんか?」といった画像および音声による報知や、「いつもより心拍数が速いですが、休憩しませんか?」といった画像および音声による報知ができる。これにより、安全性の向上に繋がる。
乗員状態認識部130は、乗員撮影用カメラ130aやバイタルセンサ130bから取得した情報や、マイク160から入力した情報に基づいて、ある程度の範囲でドライバーHの思考感情を認識することができる。例えば、乗員撮影用カメラ130aよりドライバーHの顔の表情を取得し、バイタルセンサ130bよりドライバーHの心拍数や血圧を取得し、マイク160より声量および入力内容を取得し、これらの取得した情報からドライバーHが通常の思考感情にあるか、通常とは異なる思考感情(例えば、驚いている、怒っているなど)にあるかを認識することができる。
なお、本実施形態においては、乗員状態認識部130として、乗員撮影用カメラ130aと、バイタルセンサ130bとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
(車両状態認識部140)
車両状態認識部140は、車両1の状態を認識するために設けられている。また、車両状態認識部140は、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eとを備えており、これらのデバイスによって車両1の状態を認識することができるようになっている。
(車速センサ140a)
車速センサ140aは、車両1の車速を検出するためのセンサであって、検出された車速が車速信号として制御部110に入力されて、制御部110がRAMに車速情報を記憶する。これにより、制御部110は、車両1の車速をリアルタイムおよび事後的に認識することができる。
(ハンドル角センサ140b)
ハンドル角センサ140bは、車両1のハンドル角(ステアリングホイール4の角度)を検出するためのセンサであって、検出されたハンドル角が角度信号として制御部110に入力されて、制御部110がRAMに角度情報を記憶する。これにより、制御部110は、車両1のハンドル角(ステアリングホイール4の角度)をリアルタイムおよび事後的に認識することができる。
(アクセルペダルセンサ140c)
アクセルペダルセンサ140cは、図示しないアクセルペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のアクセルペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(ブレーキペダルセンサ140d)
ブレーキペダルセンサ140dは、図示しないブレーキペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のブレーキペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(Gセンサ140e)
Gセンサ140eは、車両1の加速度、減速度及び傾斜を検出するためのセンサであって、加速度が検出された場合は加速度量が、減速度が検出された場合は減速度量が、傾斜が検出された場合は傾斜角度量が、それぞれ加速度量信号、減速度量信号、傾斜角度信号として制御部110に入力されて、制御部110がRAMに加速度情報、減速度情報及び傾斜情報を記憶する。これにより、制御部110は、車両1の加速度、減速度及び傾斜をリアルタイムおよび事後的に認識することができる。
以上のようにして、制御部110は、車両1の状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の状態の認識に基づいて、第2表示用パネル40の擬人化キャラクタ画像I1と、スピーカ150とを制御して、車両1の状態の情報をドライバーHに対して報知することができる。例えば、適切な速度で走行していれば、「適切な速度で走行されていますね」といった画像および音声による報知ができる。これにより、安全性の向上に繋がる。
なお、本実施形態においては、車両状態認識部140として、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
(スピーカ150)
スピーカ150は、例えば、インストルメントパネル3に取り付けられており、擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声が出力される。なお、スピーカ150を設けずに、車両1に内蔵されているオーディオスピーカを用いてもよい。
(マイク160)
マイク160は、例えば、インストルメントパネル3に取り付けられており、ドライバーH、その他乗員から発せられる音声が入力される。
(記憶部170)
記憶部170は、上述した各認識部から取得した情報や、ドライバーHと制御部110とで行われた対話等を記憶することが可能である。制御部110は、これらの情報を記憶部170に蓄積していくことで、ドライバーHの運転傾向(例えば、どのような運転を行うドライバーであるのか)や、ドライバーHの趣味嗜好(例えば、どのようなBGMが好みであるのか)等を認識することができる。また、これらを認識することで、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(擬人化キャラクタ画像I1)から能動的に行うこともできる。
(送受信機180)
送受信機180は、例えば、車載用の無線LANを用いた情報の取得や、衛星測位システムを用いた位置情報の取得などが可能である。制御部110は、これら取得した情報や、上述の記憶部170に蓄積した情報に基づいて、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(擬人化キャラクタ画像I1)から能動的に行うこともできる。
次に、上述した受動的なスタイルでの対話、および、能動的なスタイルでの対話や、後述する追認報知を実現するにあたり、制御部110によって行われる制御処理を図4~図6を用いて行う。なお、図4~図6で示す制御フローは制御部110のROMに記憶されており、制御部110のCPUがROMから読み出して各種処理を行う。
はじめに、図4は制御部110によって行われるメイン処理である。当該メイン処理は、制御部110によって所定の周期毎に定期的に行われる処理である。
(ステップS10)
ステップS10において、制御部110のCPUは、車両状態認識処理を行う。具体的には、車両状態認識部140から入力した情報に基づいて、車両1における状態を認識する。そして、車両状態認識処理を終えると、ステップS20に処理を移行する。
(ステップS20)
ステップS20において、制御部110のCPUは、周辺環境認識処理を行う。具体的には、周辺環境認識部120から入力した情報に基づいて、車両1における周辺環境を認識する。そして、周辺環境認識処理を終えると、ステップS30に処理を移行する。
(ステップS30)
ステップS30において、制御部110のCPUは、乗員状態認識処理を行う。具体的には、乗員状態認識部130から入力した情報に基づいて、ドライバーHの状態を認識する。そして、乗員状態認識処理を終えると、ステップS40に処理を移行する。
(ステップS40)
ステップS40において、制御部110のCPUは、危険因子抽出処理を行う。具体的には、ステップS10~ステップS30にて各種情報を認識した結果、危険因子が含まれているかを抽出する処理を行う。
ここで、本実施形態における「危険因子」とは、車両事故が起こり得る危険因子を意味し、自己の車両から他の車両・障害物までの接近した近接距離等、ドライバーHの運転内容(ハンドルのきりすぎ、急発進、急ブレーキ、逆走等)、ドライバーHの眠気推定値や運転ストレス値(目蓋の状態や、瞬きの回数、視線の方向、顔の向き、心拍数、血圧等)が挙げられる。
各認識部から取得する各情報には、所定の閾値を設けており、取得した各情報が所定の閾値を超えている場合に、危険因子が含まれていると判断する。周辺環境認識部120による認識であれば、例えば、60kmで走行している際の前方車との車間距離が40m未満となると、所定の閾値を超え、危険因子が含まれていると判断される。また、乗員状態認識部130による認識であれば、例えば、視線が所定方向から2秒以上逸れると、所定の閾値を超え、危険因子が含まれていると判断される。また、車両状態認識部140による認識であれば、例えば、減速度量が一定値を超えると、所定の閾値を超え、危険因子が含まれていると判断される。そして、危険因子抽出処理を終えると、ステップS50に処理を移行する。
なお、所定の閾値を超えて危険因子が含まれていると判断される状態とは、言い換えれば、事故には至らなかったが、事故に至る一歩手前の状態(いわゆる、ヒヤリ・ハット)ともいえる。本実施形態においては、後述する肯定追認処理(図5参照)や、報知制御処理(図6参照)において、体験したヒヤリ・ハットについて、どのような事象が生じた結果、ヒヤリ・ハットに至ったのか、といったことを時系列で報知することで、ヒヤリ・ハットを体験し、動揺しているドライバーHに落ち着きを取り戻させるようにしている。特に、時系列での報知とすることで、ドライバーHの頭の中を整理し易くすることができ、早期に落ち着きを取り戻させることができる。詳しくは、図5~図9を用いて後述する。なお、ステップS40で危険因子が抽出されることを、以下において単に「ヒヤリ・ハットの発生」などと称することがある。
(ステップS50)
ステップS50において、制御部110のCPUは、特定の状況であるか、を判定する。なお、特定の状況とは、各認識部から取得した情報が、所定の閾値を超え、危険因子が含まれている状況をいう。すなわち、ステップS40で危険因子抽出処理を行った結果、危険因子が含まれているかを判定する。そして、特定の状況であると判定した場合は、ステップS60に処理を移行し、特定の状況ではないと判定した場合は、ステップS100に処理を移行する。
(ステップS60)
ステップS60において、制御部110のCPUは、肯定追認処理を行う。なお、肯定追認処理は、後に図5を用いて詳述する。そして、肯定追認処理を終えると、ステップS100に処理を移行する。
(ステップS100)
ステップS100において、制御部110のCPUは、報知制御処理を行う。なお、報知制御処理は、後に図6を用いて詳述する。そして、報知制御処理を終えると、メイン処理を終了する。
次に、図5を用いて、制御部110のCPUにより行われる肯定追認処理について説明を行う。図5は、図4のステップS60のサブルーチンである。
(ステップS61)
ステップS61において、制御部110のCPUは、危険因子に対応した時系列データ作成処理を行う。具体的には、RAMに記憶している各認識部から取得した情報に基づいて、特定の状況に至るまでに、どのような事象が発生していたかの推移を時系列に沿って作成する。例えば、車両1を駐車場に駐車しようとして、車両1と障害物との距離が所定の閾値を超え、接触しそうになった場合は、周辺環境認識部120より取得した情報に基づいて、駐車場に駐車しようとしていた、といったデータを作成し、車両状態認識部140より取得した情報に基づいて、自車両が駐車スペースに向けて後進していた、といったデータを作成し、周辺環境認識部120より取得した情報に基づいて、障害物に接触しそうになった、といったデータを作成する。これにより、駐車しようとして後進したら、障害物に接触しそうになった、といった時系列データが作成される。そして、危険因子に対応した時系列データ作成処理を終えると、ステップS62に処理を移行する。
(ステップS62)
ステップS62において、制御部110のCPUは、危険因子に対応した肯定性データ抽出処理を行う。具体的には、RAMに記憶している各認識部から取得した情報に基づいて、特定の状況に至るまでに発生した事象において、ドライバーHの肯定性を抽出する。例えば、ステップS61で述べた事象であれば、乗員状態認識部130より取得した情報に基づいて、車両1を更新する際のドライバーHの顔の向きから、十分な後方確認が行われていたか、などを判定し、十分な後方確認が行われていたと判定した場合に、肯定性データとして抽出する。一方、十分な後方確認が行われていなかったと判定した場合は、肯定性データが抽出されない。そして、危険因子に対応した肯定性データ抽出処理を終えると、ステップS63に処理を移行する。
(ステップS63)
ステップS63において、制御部110のCPUは、危険因子に対応した事故訓練データ作成処理を行う。具体的には、RAMに記憶している各認識部から取得した情報に基づいて、特定の状況から事故に至ったと仮定した場合の事故訓練データを作成する。例えば、ステップS61で述べた事象であれば、車両1が障害物に接触していたら速やかに届出を行うことを勧告するデータや、契約している保険会社に関するデータ(連絡先等)や、車両1が障害物に接触していたらエアバック8が作動していたといった機能的なことを説明するデータを作成する。そして、危険因子に対応した事故訓練データ作成処理を終えると、ステップS64に処理を移行する。
(ステップS64)
ステップS64において、制御部110のCPUは、データ統合処理を行う。具体的には、ステップS61~ステップS63の処理結果に基づいて、各データを統合する処理を行う。例えば、ステップS61で述べた事象であって、肯定性データを抽出した場合は、駐車しようとして後進したら、障害物に接触しそうになった、といった時系列データと、十分な後方確認が行われていた、という肯定性データと、車両1が障害物に接触していたら速やかに届出を行うことを勧告するデータとを統合する。一方、肯定性データを抽出しなかった場合は、駐車しようとして後進したら、障害物に接触しそうになった、といった時系列データと、車両1が障害物に接触していたら速やかに届出を行うことを勧告するデータとを統合する。なお、統合したデータは、RAMのレジスタ等に格納しておく。そして、データ統合処理を終えると、ステップS65に処理を移行する。
(ステップS65)
ステップS65において、制御部110のCPUは、肯定追認準備処理を行う。具体的には、後の報知制御処理において、上述した時系列に沿った報知等(以下、追認報知という)を行わせるために、RAMにおいて追認準備フラグをONにする。そして、報知制御処理においては、RAMの追認準備フラグがONであるかを判定して、ONであれば、上述した時系列に沿った報知等が行われることになる。そして、肯定追認準備処理を終えると、ステップS66に処理を移行する。
(ステップS66)
ステップS66において、制御部110のCPUは、追認報知期間設定処理を行う。具体的には、RAMのタイマカウンタ等に、追認報知を開始する時刻である開始期間Tsと、追認報知を終了する時刻である終了期間Teとを設定する。なお、追認報知期間とは、ヒヤリ・ハットの発生から早すぎず遅すぎないタイミングで設けられることが好ましく、例えば、ヒヤリ・ハットの発生から3分後に開始期間Tsが設定され、ステップS64で統合したデータに対応する報知期間を確保したうえで、終了期間Teが設定される。すなわち、ヒヤリ・ハットの発生後、間髪いれずに追認報知が行われると、動揺が激しいドライバーHには伝わり難く、ヒヤリ・ハットの発生後、長時間経過後に追認報知が行われると、既に落着きを取り戻しているドライバーHに煩わしさを与えてしまう。そこで、ヒヤリ・ハットの発生から早すぎず遅すぎないタイミングで追認報知期間を設定することで、ドライバーHに効果的に落ち着きを取り戻させることができる。そして、追認報知期間設定処理を終えると、ステップS67に処理を移行する。
(ステップS67)
ステップS67において、制御部110のCPUは、注意喚起報知準備処理を行う。具体的には、後の報知制御処理において、例えば、障害物等に接近していることを報知するために、RAMにおいて注意喚起フラグをONにする。そして、報知制御処理においては、RAMの注意喚起フラグがONであるかを判定して、ONであれば、ステップS110、ステップS111において、例えば、「あぶない!ぶつかりますよ!!」といった画像および音声が出力される。そして、注意喚起報知準備処理を終えると、図4のステップS100に処理を移行する。
次に、図6を用いて、制御部110のCPUにより行われる報知制御処理について説明を行う。図6は、図4のステップS100のサブルーチンである。
(ステップS101)
ステップS101において、制御部110のCPUは、過去に危険因子があるか、を判定する。具体的には、RAMの追認準備フラグを参照して、追認準備フラグがONであるかを判定する。すなわち、上述した時系列に沿った報知等を行うかが判定される。そして、過去に危険因子があると判定した場合は、ステップS102に処理を移行し、過去に危険因子がないと判定した場合は、ステップS107に処理を移行する。
(ステップS102)
ステップS102において、制御部110のCPUは、追認報知期間であるかを判定する。具体的には、RAMのタイマカウンタ等を参照して、開始期間Ts~終了期間Teであるかを判定する。なお、過去に危険因子があって、追認報知期間でない場合とは、ヒヤリ・ハットの発生後間もないときや、終了期間Teの後などが想定される。そして、追認報知期間であると判定した場合は、ステップS103に処理を移行し、追認報知期間ではないと判定した場合は、ステップS106に処理を移行する。
(ステップS103)
ステップS103において、制御部110のCPUは、安全条件が成立したかを判定する。具体的には、周辺環境認識部120や、車両状態認識部140から情報を取得して、例えば、車両1が停車した状態にある場合や、車両1が長い直線道路を走行している状態にある場合等に、安全条件が成立した、と判定する。すなわち、ヒヤリ・ハットの発生から早すぎず遅すぎないタイミングであっても、車両1の安全状況が確保できていなければ、追認報知を行ってもドライバーHには伝わり難くなるおそれがある。例えば、追認報知期間は満たしたが、車両1が幅員の狭い道路を走行している場合などは、ドライバーHは気を配りながら運転をしている可能性が高いので、そのような場合は、安全条件が成立していないと判定する。このように、追認報知期間であって安全条件が成立した場合に追認報知を行うことで、ドライバーHに効果的に落ち着きを取り戻させることができる。そして、安全条件が成立したと判定した場合は、ステップS104に処理を移行し、安全条件が成立していないと判定した場合は、ステップS107に処理を移行する。
(ステップS104)
ステップS104において、制御部110のCPUは、追認実行処理を行う。具体的には、図5のステップS64で統合したデータに基づく報知を行う。例えば、「先程、駐車しようとして後進したら、障害物に接触しそうになりました」、「しかしながら、○○様(ドライバー名)は、十分な後方確認はなさっておりました」、「あのような気づき難い箇所に障害物があるなんて不可抗力ですよ」、「理不尽な部分はありますが、もし接触していたら、速やかに警察に届け出ましょうね!」、「以降も安全運転で行きましょう!」などといった報知が行われる。このように第3者の立場からヒヤリ・ハットに至った推移を時系列で報知したり、ヒヤリ・ハットに至った推移に対する論評を報知したり、ドライバーHの肯定的な部分を報知したり、事故に至っていたと仮定した際の仮定事故情報を報知したり、することで、動揺しているドライバーHに落ち着きを取り戻させることができる。なお、追認報知の報知例は、図7、図8等を詳述する。そして、追認実行処理を終えると、ステップS105に処理を移行する。
(ステップS105)
ステップS105において、制御部110のCPUは、追認初期化処理を行う。具体的には、RAMの追認準備フラグをOFFにして、タイマカウンタ等をリセットして、レジスタ等に格納していた統合データを削除する。なお、統合データは記憶部170に記憶するようにしてデータを蓄積していき、以降に活用するようにしてもよい。そして、追認初期化処理を終えると、ステップS107に処理を移行する。
(ステップS106)
ステップS106において、制御部110のCPUは、追認報知期間の終了かを判定する。具体的には、RAMのタイマカウンタ等を参照して、追認報知期間が終了したかを判定する。例えば、追認準備フラグがONであっても暫く安全条件が成立しなかった場合などは、追認報知期間が終了してしまうことが考えられる。そのような場合は、ステップS105に移行して追認初期化処理を行うことで、追認報知を行わないようにしている。これにより、既に落ち着きを取り戻しているドライバーHに煩わしさを与えてしまうことを防止できる。そして、追認報知期間の終了であると判定した場合は、ステップS105に処理を移行し、追認報知期間の終了ではないと判定した場合は、ステップS107に処理を移行する。
(ステップS107)
ステップS107において、制御部110のCPUは、自律型対話制御処理を行う。具体的には、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話を行うための処理を行う。例えば、ドライバーHが乗車して、直線道路を走行している状態になったときなどにおいて、擬人化キャラクタ画像I1から「昨日は、○○様が応援している△△チームが負けてしまいました・・・」などといったことが音声および画像で報知(語りかけ)される。なお、当該語りかけにドライバーHが応答すれば、話題は継続される(後述のステップS108~ステップS110)。例えば、ドライバーHがマイク160を介して、「今日は、□□選手が出るから勝つよ」などと応答すれば、擬人化キャラクタ画像I1が「そうですね!□□選手は頼もしいですからね!」などといった双方向での対話が可能である。一方、ドライバーHが応答しなければ、所定時間後に別の話題を持ち出して、再度擬人化キャラクタ画像I1から報知(語りかけ)が行われる。なお、複数回語りかけを行ったものの、ドライバーHからの応答がない場合は、ドライバーHが会話を行いたくない状態にあると認識して、語りかけの頻度を下げることもできる。そして、自律型対話制御処理を終えると、ステップS108に処理を移行する。
(ステップS108)
ステップS108において、制御部110のCPUは、乗員の会話入力があったかを判定する。具体的には、マイク160の入力ポートより音声入力が行われたかを判定する。なお、制御部110には、図示しない公知の音声認識部が設けられており、当該音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断するようになっている。また、ここでいう乗員とは、ドライバーHに限らず、他の乗員であってもよい。また、マイク160による音声入力に限らず、操作ボタン60による操作入力によって会話入力ができてもよい。ただし、安全性を鑑みて、ワンタッチ操作での会話入力ができることが好ましい。また、当該処理における乗員の会話入力は、上述した受動的なスタイルでの対話も含む。そして、乗員の会話入力があったと判定した場合は、ステップS109に処理を移行し、乗員の会話入力がなかったと判定した場合は、ステップS110に処理を移行する。
(ステップS109)
ステップS109において、制御部110のCPUは、対応する会話内容の応答制御処理を行う。具体的には、上述の音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断して、応答内容を決定し、セリフの表示データ、およびセリフの音声データを生成する。そして、対応する会話内容の応答制御処理を終えると、ステップS110に処理を移行する。
(ステップS110)
ステップS110において、制御部110のCPUは、画像表示処理を行う。具体的には、ステップS107の自律型対話制御処理において決定されたセリフの表示データや、ステップS109で生成したセリフの表示データを出力し、第2表示用パネル40に当該セリフを表示する処理を行う。また、上述した注意喚起フラグがONであれば、注意喚起の表示データをROMより読み出して出力し、第2表示用パネル40に注意喚起を表示する処理を行う。そして、画像表示処理を終えると、ステップS111に処理を移行する。
(ステップS111)
ステップS111において、制御部110のCPUは、音出力処理を行う。具体的には、ステップS107の自律型対話制御処理において決定されたセリフの音声データや、ステップS109で生成したセリフの音声データを出力し、スピーカ150より当該セリフを出力する処理を行う。また、上述した注意喚起フラグがONであれば、注意喚起の音声データをROMより読み出して出力し、スピーカ150より注意喚起の音声を出力し、RAMの注意喚起フラグをOFFにする。そして、音出力処理を終えると、メイン処理を終了する。以上のような処理によって、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話や、受動的なスタイルでの対話や、追認報知が実現される。
次に、図7、図8等を用いて、上述した制御処理によって行われる報知例を説明する。なお、図7、図8においては、第2表示用パネル40の表示画面を表しており、スピーカ150は図示を省略しているが、セリフに対応した音声はスピーカ150より出力されているものとして説明する。また、図7、図8は、上述したステップS61で述べた事象が発生した際の報知例を示している。
図7(a)は、上述したヒヤリ・ハットが発生した際の様子を示している。すなわち、上述した注意喚起の画像および音声が報知されている。なお、注意喚起の報知は、能動的なスタイルでの対話であり、仮にドライバーHとある話題について対話中であっても、当該対話を中断して、注意喚起の報知が行われる。
図7(b)は、上述したヒヤリ・ハットが発生した後で、上述した開始期間Tsに至る前の様子を示している。すなわち、追認報知を行う前であるので、例えば、発生したヒヤリ・ハットに関わる対話は行わずに、ヒヤリ・ハットの発生前に行っていた対話(例えば、天気の話題)の続きなどを行う。なお、図7(b)では、対話を行わないようにしてもよい。
図7(c)は、上述した開始期間Tsに至り、且つ、安全条件が成立したと判定され、上述した追認報知が開始された様子を示している。すなわち、「先程は、あぶなかったですね」といったように、過去に発生したヒヤリ・ハットに関わる報知を開始する。
図8(a)は、ヒヤリ・ハットの発生に至った推移を時系列で報知している様子を示している。すなわち、上述した駐車しようとして後進したら、障害物に接触しそうになった、といった画像および音声が出力されている。
図8(b)は、上述した肯定性データが抽出された場合に行われる報知の様子を示している。すなわち、後方確認は怠っていなかったことや、不可抗力な事由があったことについて、画像および音声が出力されている。
図8(c)は、事故訓練データに基づく報知(仮定事故情報の報知)の様子を示している。すなわち、速やかに警察に届出を行うことを勧告することや、契約の保険会社に関する情報(連絡先等)について、画像および音声が出力されている。
このように、画像および音声により、ヒヤリ・ハットの発生に至った推移を時系列で報知することで、ドライバーHの頭の中を整理し易くすることができ、早期に落ち着きを取り戻させることができる。また、肯定性データが抽出された場合には、ドライバーHを肯定する報知を行うことで、早期に落ち着きを取り戻させることができる。また、仮定事故情報の報知を行うことで、ドライバーHの以降の運転に注意を促すことができる。これにより、安全性の向上を図ることができる。
次に、上述したヒヤリ・ハットの発生から追認報知の開始および終了といった一連の流れを図9のタイムチャートを用いて説明する。
図9のタイミング(ア)は、例えば、ドライバーHが車両1に乗車して、走行を開始したタイミングである。このとき、第2表示用パネル40においては、通常画像が表示されており、例えば、天気の話題が表示されている。
図9のタイミング(イ)は、危険因子がON、すなわち、ヒヤリ・ハットの発生を示している。このとき、第2表示用パネル40においては、例えば、天気の話題を中断して、上述した注意喚起画像が表示されている。
図9のタイミング(ウ)は、ヒヤリ・ハットの発生から所定時間経過後(例えば、1分後)を示している。このとき、第2表示用パネル40においては、例えば、中断していた天気の話題を再開して、天気の話題が表示されている。
図9のタイミング(エ)は、上述した開始期間Tsに至ったタイミングを示している。図9の例では、このとき、安全状況が確保されていない(安全条件が成立していない)ため、開始期間Tsに至ったものの、追認報知は開始されていないことを示している。すなわち、第2表示用パネル40においては、引き続き、通常画像が表示されており、例えば、天気の話題が表示されている。
図9のタイミング(オ)は、安全状況が確保された(安全条件が成立した)と判定されたタイミングを示している。このとき、第2表示用パネル40においては、追認報知が開始され、時系列画像(図7(c)、図8(a))等が表示されている。
図9のタイミング(カ)は、時系列画像の表示が終了し、続いて、肯定性画像の表示が開始されたタイミングを示している。このとき、第2表示用パネル40においては、肯定性画像(図8(b))が表示されている。
図9のタイミング(キ)は、肯定性画像の表示が終了し、続いて、仮定事故情報の表示が開始されたタイミングを示している。このとき、第2表示用パネル40においては、仮定事故情報画像(図8(c))が表示されている。
図9のタイミング(ク)は、仮定事故情報画像の表示が終了し、一連の追認報知が終了したタイミングを示している。そして、一連の追認報知が終了すると、第2表示用パネル40においては、通常画面が表示されている。
図9のタイミング(ケ)は、上述した終了期間Teに至ったタイミングを示している。なお、図9の例では、追認報知期間が立ち上がったタイミング(エ)から立ち下がったタイミング(ケ)の間のタイミング(オ)において安全状況が確保されているので、追認報知が行われたが、タイミング(エ)からタイミング(ケ)の間に、安全状況が立ち上がらなければ、追認報知は行われず、当該行われなかった追認報知に係るデータは削除、または、記憶部170に記憶される。一方、タイミング(エ)からタイミング(ケ)の間に、安全状況が立ち上がれば、追認報知は行われるので、例えば、タイミング(ケ)の直前に初めて安全状況が立ち上がれば、そこから追認報知を開始する。このように、追認報知の開始タイミングや実行有無は、安全状況の確保タイミングによって左右されることになる。このように、安全状況を確保された上で追認報知を行うことで、安全性の向上を図ることができる。
なお、タイミング(オ)で安全状況が立ち上がったことで、追認報知を開始した後、例えば、タイミング(カ)で安全状況が立ち下がった場合(安全でなくなった場合)は、追認報知を中断、または、中止してもよい。すなわち、現在の車両1の走行状態(安全性)を最優先にして追認報知を制御するようにしてもよい。このように、追認報知が途中であるときに安全性が確保されなくなった場合は、追認報知を中断、または、中止することで、安全性の向上を図ることができる。
(変形例)
以下に、想定される変形例を追記する。
上記実施形態においては、第2表示用パネル40を第1表示用パネル30と別個に設けて、当該第2表示用パネル40に擬人化キャラクタ画像I1を表示したが、第2表示用パネル40は設けずに、第1表示用パネル30に擬人化キャラクタ画像I1を表示するようにしてもよい。
また、第2表示用パネル40は設けずに、第3表示用パネル(カーナビゲーションシステムを担う表示装置)に擬人化キャラクタ画像I1を表示するようにしてもよい。
また、第2表示用パネル40に代えて、例えば、フロントガラスに情報を投影するヘッドアップディスプレイを用いて、フロントガラスに擬人化キャラクタ画像I1を表示してもよい。
また、擬人化キャラクタ画像I1は表示せずに、スピーカ150と、マイク160とを用いて、音のみで対話を行うようにしてもよい。
また、追認報知期間であって安全状況が確保されたときに、乗員状態認識部130より情報を取得して、例えば、心拍数が標準値にある場合は、ドライバーHが落ち着いていると判断して、追認報知を行わないようにしてもよい。これにより、既に落ち着きを取り戻しているドライバーHに煩わしさを与えてしまうことを防止できる。
また、安全条件が成立したかを判定するにあっては、周辺環境認識部120や、車両状態認識部140から情報を取得して、例えば、車両1が停車した状態にある場合や、車両1が長い直線道路を走行している状態にある場合等に、安全条件が成立した、と判定したが、これに限られず、例えば、アクセルペダルセンサ140cより時間当たりのアクセルペダルの踏み込み量を取得して、時間当たりの踏み込み量が標準値にある場合に、安全条件が成立した、と判定してもよい。また、ハンドル角センサ140bより角度情報を取得して、時間当たりの角度が標準値にある場合に、安全条件が成立した、と判定してもよい。
また、乗員状態認識部130より情報を取得して、例えば、心拍数が標準値にある場合は、安全条件が成立した、と判定してもよい。
また、追認報知は、画像および音声にて行うようにしたが、実際に車外撮影用カメラ120a等で撮影した映像を表示してもよい。
また、周辺環境認識部120、乗員状態認識部130、車両状態認識部140を設けて、いずれもの認識部から情報を取得し、認識するようにしたが、いずれか1の認識部のみを設けても本発明を実現できるし、いずれか2の認識部を設けても本発明を実現できる。
例えば、周辺環境認識部120のみを設ける場合は、車外撮影用カメラ120aや、レーダ120bを用いて、他車両や障害物との距離を測定し、さらに測定した値が所定の閾値を超えたかどうかを判定し、超えた場合には追認報知を行うようにすればよい。
また、例えば、乗員状態認識部130のみを設ける場合は、乗員撮影用カメラ130aや、バイタルセンサ130bを用いて、乗員の身体状況を測定し、さらに測定した値が所定の閾値を超えたかどうかを判定し、超えた場合には追認報知を行うようにすればよい。
また、例えば、車両状態認識部140のみを設ける場合は、車速センサ140aや、ハンドル角センサ140bや、アクセルペダルセンサ140cや、ブレーキペダルセンサ140dや、Gセンサ140eを用いて、自車両の状態を測定し、さらに測定した値が所定の閾値を超えたかどうかを判定し、超えた場合には追認報知を行うようにすればよい。
なお、乗員の身体状況は、外的な要因によらずに変化することも有り得るので(例えば、ドライバーHの体調不良など)、周辺環境認識部120や車両状態認識部140に比べると、間接的な認識といえる。つまり、周辺環境認識部120や車両状態認識部140に比べると、ヒヤリ・ハットの検知の精度は下がる。よって、乗員状態認識部130は、他の認識部と組み合わせて用いた方が好ましい。
(対応関係について)
本実施形態において、擬人化キャラクタ画像I1は、本発明の、視覚または聴覚的に擬人化されたキャラクタを構成する。
また、本実施形態において、制御部110は、本発明の、キャラクタによる報知を制御する制御手段を構成する。
また、本実施形態において、周辺環境認識部120、乗員状態認識部130、車両状態認識部140は、本発明の、車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段を構成する。
また、本実施形態において、制御部110による危険因子抽出処理が行われた結果、危険因子が抽出された状況は、本発明の、特定の状況を構成する。
また、本実施形態において、制御部110は、本発明の、状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段を構成する。
また、本実施形態において、追認報知期間であって、安全状況が成立している状況は、本発明の、報知条件を満たしている状況を構成する。
また、本実施形態において、制御部110は、本発明の、報知条件を満たしているかを判断する判断手段を構成する。
また、本実施形態において、制御部110による追認実行処理は、本発明の、過程の推移に対する論評を加えた報知を構成する。
また、本実施形態において、制御部110は、本発明の、過程の推移における乗員の肯定要素を抽出する抽出手段を構成する。
また、本実施形態において、仮定事故情報画像は、本発明の、過程の推移から事故に至っていたと仮定した際の仮定事故情報を構成する。
1:車両、40:第2表示用パネル、110:制御部、120:周辺環境認識部、130:乗員状態認識部、140:車両状態認識部、150:スピーカ、160:マイク

Claims (5)

  1. 視覚または聴覚的に擬人化されたキャラクタによる報知が可能な車両用報知装置であって、
    前記キャラクタによる報知を制御する制御手段と、
    車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、
    前記状況取得手段により取得された状況が、所定の閾値を超えて危険因子が含まれる、前記乗員がヒヤリ・ハットを体験する特定の状況に相当するかを識別する識別手段と、
    前記制御手段が前記乗員に報知するにあたり、前記特定の状況から所定期間経過後の追認報知期間であって、運転中に安全条件が成立しているかを判断する判断手段と、を有し、
    前記制御手段は、
    前記識別手段により前記特定の状況に相当すると識別された場合、かつ、前記判断手段により前記安全条件が成立していると判断された場合には、前記擬人化されたキャラクタによって、前記特定の状況に至った過程の推移を時系列で前記乗員に報知する一方で、前記判断手段により前記安全条件が成立していないと判断された場合には、前記特定の状況に至った過程の推移を前記乗員に報知しない、
    ことを特徴とする車両用報知装置。
  2. 前記制御手段は、前記過程の推移に対する論評を加えて報知する、
    ことを特徴とする請求項1に記載の車両用報知装置。
  3. 前記過程の推移における乗員の肯定要素を抽出する抽出手段をさらに備え、
    前記制御手段は、前記抽出手段により乗員の肯定要素が抽出された場合に、前記論評において乗員を肯定する報知を行う、
    ことを特徴とする請求項に記載の車両用報知装置。
  4. 前記制御手段は、前記過程の推移から事故に至っていたと仮定した際の仮定事故情報を加えて報知する、
    ことを特徴とする請求項1乃至請求項のいずれか一項に記載の車両用報知装置。
  5. 前記仮定事故情報は、少なくとも、警察に届出を行うことの勧告、又は保険会社に関する情報を含む、
    ことを特徴とする請求項4に記載の車両用報知装置。
JP2018185747A 2018-09-28 2018-09-28 車両用報知装置 Active JP7358040B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018185747A JP7358040B2 (ja) 2018-09-28 2018-09-28 車両用報知装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018185747A JP7358040B2 (ja) 2018-09-28 2018-09-28 車両用報知装置

Publications (2)

Publication Number Publication Date
JP2020057079A JP2020057079A (ja) 2020-04-09
JP7358040B2 true JP7358040B2 (ja) 2023-10-10

Family

ID=70107312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018185747A Active JP7358040B2 (ja) 2018-09-28 2018-09-28 車両用報知装置

Country Status (1)

Country Link
JP (1) JP7358040B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7095591B2 (ja) * 2018-12-28 2022-07-05 トヨタ自動車株式会社 報知装置及び車両制御装置
JP7396967B2 (ja) 2020-07-30 2023-12-12 株式会社Subaru 車両用乗員報知装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5640511B2 (ja) * 2010-07-12 2014-12-17 マツダ株式会社 車両用運転技量育成装置
JP6480143B2 (ja) * 2014-10-09 2019-03-06 株式会社日立製作所 運転特性診断装置、運転特性診断システム、運転特性診断方法
JP2017085410A (ja) * 2015-10-29 2017-05-18 アイシン精機株式会社 走行支援装置

Also Published As

Publication number Publication date
JP2020057079A (ja) 2020-04-09

Similar Documents

Publication Publication Date Title
CN108205731B (zh) 情境评估车辆系统
EP3330148B1 (en) Automatic driving system for vehicles
JP7288911B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US10081317B2 (en) Safety control system for vehicles based on driver health
JP6323549B2 (ja) 車両用情報呈示装置
JP6213282B2 (ja) 運転支援装置
JP6342856B2 (ja) 車両制御装置
US20180174457A1 (en) Method and system using machine learning to determine an automotive driver's emotional state
US20070124027A1 (en) Information system for motor vehicles
WO2016027412A1 (ja) 車載制御装置
EP2682318B1 (en) Motor vehicle collision warning system
US10207640B2 (en) Method and system for a warning message in a vehicle
JP6555647B2 (ja) 車両運転支援システム及び車両運転支援方法
JP6696679B2 (ja) 運転支援装置
JP6593712B2 (ja) 車両運転支援システム
JP2007528815A (ja) 運転者の行動解釈に基づいて自動車のサブシステムを制御する方法および機構
JP6358197B2 (ja) 運転支援制御装置
JP7358040B2 (ja) 車両用報知装置
JP2019131096A (ja) 車両制御支援システムおよび車両制御支援装置
JP7181744B2 (ja) 車両用エージェント装置
JP7107157B2 (ja) 操作支援方法及び操作支援装置
JP2017084071A (ja) 車載機
JP7181743B2 (ja) 車両用エージェント装置
JP6428376B2 (ja) 情報表示装置
JP7095337B2 (ja) 表示制御装置および表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221104

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221111

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221115

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20221223

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20221227

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230927

R150 Certificate of patent or registration of utility model

Ref document number: 7358040

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150