JPWO2015152304A1 - 運転支援装置、及び運転支援システム - Google Patents

運転支援装置、及び運転支援システム Download PDF

Info

Publication number
JPWO2015152304A1
JPWO2015152304A1 JP2016511968A JP2016511968A JPWO2015152304A1 JP WO2015152304 A1 JPWO2015152304 A1 JP WO2015152304A1 JP 2016511968 A JP2016511968 A JP 2016511968A JP 2016511968 A JP2016511968 A JP 2016511968A JP WO2015152304 A1 JPWO2015152304 A1 JP WO2015152304A1
Authority
JP
Japan
Prior art keywords
image
vehicle
person
display
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016511968A
Other languages
English (en)
Other versions
JP6598255B2 (ja
Inventor
勉 足立
勉 足立
博司 前川
博司 前川
丈誠 横井
丈誠 横井
毅 川西
毅 川西
健純 近藤
健純 近藤
健司 水野
健司 水野
謙史 竹中
謙史 竹中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADC Technology Inc
Original Assignee
ADC Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ADC Technology Inc filed Critical ADC Technology Inc
Publication of JPWO2015152304A1 publication Critical patent/JPWO2015152304A1/ja
Priority to JP2019175422A priority Critical patent/JP6919914B2/ja
Application granted granted Critical
Publication of JP6598255B2 publication Critical patent/JP6598255B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Abstract

車両の周辺の状況を検知する検知手段と、前記検知手段の検知結果に基づき、車両の周辺の対象物を認識する認識手段と、前記認識手段により認識された前記対象物を解析する解析手段と、前記対象物について、前記解析手段の解析結果に基き、警戒すべき度合いを設定する設定手段と、前記対象物を車両の運手者に視認させるための画像を、前記設定手段により設定された度合いに基づき生成する生成手段と、前記生成手段により生成された画像を表示する表示手段と、を備える運転支援装置を提供する。

Description

関連出願の相互参照
本国際出願は、2014年3月31日に日本国特許庁に出願された日本国特許出願第2014−72419号に基づく優先権を主張するものであり、日本国特許出願第2014−72419号の全内容を参照により本国際出願に援用する。
本発明は、車両の周辺の状況に応じた危険性を車両の運転者に報知する運転支援装置、及び運転支援システムに関する。
従来、車両の窓に、外の状況や風景を映写することのできる表示装置が知られている(例えば、特許文献1参照)。
この特許文献1に記載の表示装置は、車両の状態(位置や速度等)を観測する観測装置と、外の風景の画像情報を予め蓄積しておく蓄積装置とを備えており、観測装置により観測された車両の位置を表す情報に基づき、その観測された位置において車両の外に見えるであろう風景の画像情報を蓄積装置より取得し、その画像情報が表す画像を車両の窓に表示させる。
特開2004−20223号公報
しかしながら、上述したような従来の画像表示装置によれば、蓄積装置に予め蓄積された風景画像が車両の窓に表示されるだけである。即ち、車両の周辺の状況をリアルタイムに検出して、その状況について車両の運転者に通知することはできない。このため、運転者は、運転中に発生する危険性(例えば、車両の周辺の物体との衝突の危険性等)を認識することができない。
車両の周辺の状況に応じた危険性を車両の運転者に分かりやすく報知できることが望ましい。
本発明の第1局面の運転支援装置は、車両の周辺の状況を検知する検知手段と、前記検知手段の検知結果に基づき、車両の周辺の対象物を認識する認識手段と、前記認識手段により認識された前記対象物を解析する解析手段と、前記対象物について、前記解析手段の解析結果に基き、警戒すべき度合いを設定する設定手段と、前記対象物を車両の運手者に視認させるための画像を、前記設定手段により設定された度合いに基づき生成する生成手段と、前記生成手段により生成された画像を表示する表示手段と、を備える。
なお、「解析」とは、対象物の種類及び状態等を、各種分析により判断、決定、又は推定などする趣旨である。
このような運転支援装置によれば、車両の周辺の対象物の種類及び状態等に応じて、対象物毎に警戒すべき度合い(以下、警戒レベルとも称する)が設定され、その警戒レベルに応じた画像が表示されるようになる。このため、車両の運転者は、対象物の種類及び状態等に応じて、どの程度警戒すべきか(警戒したら良いか)を把握することができるようになる。
これにより、車両を適切に運転できるようになる。例えば、対象物について、警戒レベルが高いことを示す画像が表示された場合には、危険回避のために減速したり、所定のハンドル操作を行ったりすることができるようになることが考えられる。なお、「危険」とは、衝突の危険性などを言う。
また、生成手段は、対象物を車両の運手者に視認させるための画像として、次のような画像を生成しても良い。
・対象物を囲む画像
・対象物を指し示す画像(例えば、矢印の画像)
・対象物を模式的に表す画像(対象物のイラストの画像など)
・対象物の存在を知らせるメッセージの画像
上記のような画像は、単独で又は組み合わされて、表示手段により表示されても良い。
これによれば、運転者は、対象物の存在を容易に認識し得るようになる。
また、組み合わされて表示される場合には、複数の画像が同時に表示されても良いし、時間差をもって表示されても良い。時間差をもって表示される場合、具体的には、ある画像が表示されてから所定時間後に、次の画像が表示されても良い。例えば、対象物を囲む画像が表示されてから所定時間後に、その対象物を指し示す矢印の画像が表示されても良い。
一例では、対象物が検出された段階で、まず、その対象物を囲む画像が表示され、その後、自車両からその対象物までの距離が所定の距離以下になった段階で、その対象物を指し示す矢印の画像が表示されても良い。このような態様によれば、運転者に対し、対象物を認識しやすくなるように継続してサポートすることができる。
また、運転支援装置は、前記認識手段により認識された対象物が人であるか否かを判定する判定手段と、前記人の状態を示す象徴記号の画像データを記憶する記憶手段と、を備え、前記解析手段は、前記対象物のうち、前記判定手段により人であると判定された対象物の状態を解析し、前記生成手段は、前記解析手段の解析結果に基き、その解析結果を示す記号であって前記人の状態を示す象徴記号に対応する画像データを前記記憶手段から読み出す読出手段を備え、前記表示手段は、前記読出手段により前記象徴記号の画像データが読み出されると、その画像データが表す象徴記号を表示する、ように構成されても良い。
これによれば、特に対象物が人である場合について画像が表示され得るようになり、運転の安全性を高めることに、より一層寄与できるようになる。また、人の状態に応じてその状態を示す象徴記号が表示されることで、運転者は、車両の周囲の人の状態を認識できるようになる。このため、運転者は、車両の周囲の人の状態を考慮した適切な運転を行うことができるようになる。
また、運転支援装置は、前記車両の運転者の視線を検出する視線検出手段と、前記表示手段が表示した画像のうち、前記運転者が認識した画像を、前記視線検出手段の検出結果である、前記運転者の視線の移動状態から識別する識別手段と、前記識別手段により前記運転者が認識したと識別された画像を消去する消去手段と、を備えても良い。
これによれば、運転者が対象物を認識すると、その対象物を視認させるための画像が消去されるようにすることができる。よって、運転者が画像を認識した(換言すれば、対象物の存在及び状態を認識した)にもかかわらず画像が表示され続けること(換言すれば、運転者への警告がなされ続けること)を回避することができる。
一方、運転者が認識していない画像は継続して表示され、その部分では警告は継続される。このため、運転の安全性を高めるという効果は失われない。これによれば、使い勝手と運転支援の効果とを高いレベルで両立させることができる。
また、一例では、運転支援装置は、検知手段として少なくとも1つの撮像装置を備えても良い。撮像装置により車両の周囲の画像を撮像するようにすれば、画像解析により、車両の周囲の対象物の種類及び状態等をより詳細に解析することができる。しかも、画像解析の手法は種々知られており、従来の手法を用いて比較的容易に解析を行うことができる。
検知手段が撮像装置を複数備える場合には、運転支援装置(又は検知手段)は、各撮像装置の撮像画像を比較して、比較結果に基き採用する撮像画像を選択するように構成されても良い。また、各撮像画像のデータから、精度が高い部分(ノイズ成分等が少ない部分)を抽出し、そのような部分同士を統合して1つのデータを生成するように構成されても良い。これによれば、画像解析の精度をより高めることができる。ひいては、車両の周囲の状況の検知及び把握を高いレベルで実現することができる。
また、検知手段は、複数(具体的には2台)の撮像装置を用いて視差(像の位置及び視方向の差異)を再現し、視差に基づき対象物の立体情報(具体的には奥行き情報)を取得しても良い。これによれば、運転支援装置は、対象物の立体情報に基づき、警戒レベルを設定することもできる。また、一例では、運転支援装置は、対象物の立体画像(3D画像)を表示するようにしても良い。この場合、表示手段が、検知手段の検知結果(立体情報)に基いて対象物の立体画像(3D画像)を表示するように構成されても良い。
また、運転支援装置(又は検知手段)は、撮像装置の視野において重複している複数の対象物を、各対象物の立体情報(奥行き情報)から識別するように構成されても良い。例えば、認識手段が、各対象物の立体情報(奥行き情報)から、重複している複数の対象物を別個の対象物として認識するように構成されても良い。
ここで、撮像装置から見て、同一方向に存在して一部が重なって見える複数の対象物については、2次元情報に基づく画像解析のみでは1個の同一の対象物と認識されてしまう。一方、立体情報(奥行き情報)に基づけばそのような複数の対象物を、別個の対象物として識別し得る。
この場合、生成手段は、一部が重複する複数の対象物のそれぞれについて、運手者に視認させるための画像を生成するように構成されても良い。この場合、画像の態様を変えることで、複数の対象物のそれぞれが認識されやすくなるようにしても良い。
上記の構成によれば、運転者に、車両の周囲の状況をより正確に報知できるようになる。また、運転者が車両の周囲の状況をより簡単に把握できるようになる。例えば、運転者にとって、対象物の陰に隠れている別個の対象物を認識することがより容易となり得る。
次に、解析手段は、対象物が、自車両(運転支援装置が搭載される車両)の走行ルート上に存在するか否かを解析するように構成されても良い。具体的には、検知手段及び認識手段により道路が認識されるものとし、解析手段は、対象物がその道路上に存在するか否かを解析しても良い。また、車両の運動状態等から車両の進路が推定される場合には、その進路上に対象物が存在するか否かを解析しても良い。
この場合、設定手段は、走行ルート上に存在する対象物については警戒レベルを相対的に高く設定しても良い。一方、走行ルート上に存在しない対象物については、警戒レベルを相対的に低く設定しても良い。
また、解析手段は、自車両から対象物までの距離を解析するように構成されても良い。
例えば、検知手段の検知結果等に基き解析することができる。一例では、検知手段としての撮像装置の撮像画像を画像解析することによって距離を算出することができる。また、検知手段が距離センサを含むものであれば、距離センサの出力結果(出力信号)に基づき対象物までの距離を算出することができる。
この場合、設定手段は、自車両から対象物までの距離が相対的に小さい対象物については、警戒レベルを相対的に高く設定しても良い。一方、自車両から対象物までの距離が相対的に大きい対象物については、警戒レベルを相対的に低く設定しても良い。
また、解析手段は、対象物が人である場合に、その人が携帯電話、スマートフォン、又はタブレット等の携帯端末を所持しているか否かを解析するように構成されても良い。具体的には、検知手段としての撮像装置の撮像画像を画像解析しても良い。例えば、携帯端末の動作中においてはディスプレイ部分の輝度が明るくなり、画像解析においてはそのディスプレイの境界がエッジとして検出され得る。このようなエッジ検出によりディスプレイを認識できることに基づき、携帯端末が動作中であるか否か(携帯端末が存在するか否か)を解析するように構成されても良い。
また、解析手段は、人が携帯端末を操作中であるか否かを解析するように構成されても良い。解析としては、携帯端末が動作中であるか否か、人の体の部位の位置(特に手及び顔の位置)と携帯端末の位置との関係、顔の向き、携帯端末に対する両目の位置関係などを解析することが含まれても良い。そして、それらの解析に基づき、人が携帯端末を操作中であるか否かが判定されても良い。また、解析手段は、人が携帯端末にて通話中であるか否かを解析するように構成されても良い。
この場合、設定手段は、携帯端末を操作中である対象物、及び通話中である対象物については、警戒レベルを相対的に高く設定しても良い。一方、携帯端末を操作中でない対象物、及び通話中でない対象物については、警戒レベルを相対的に低く設定しても良い。
また、解析手段は、人が携帯端末を操作中であるという場合に、その人が自車両の存在を認識しているか否かを解析(又は推定)するように構成されても良い。例えば、人の顔の部分を解析し、両目を抽出できたならば、人が自車両の方向を向いていると判断して、その人は自車両の存在を認識していると判定しても良い。一方、両目を抽出できない場合には、人が自車両の方向を向いていないと判断して、その人は自車両の存在を認識していないと判定しても良い。
この場合、設定手段は、自車両の存在を認識していない対象物については、警戒レベルを相対的に高く設定するようにしても良い。
一方、設定手段は、自車両の存在を認識している対象物については、警戒レベルを相対的に低く設定しても良い。また、警戒レベルを下げても良い。
また、解析手段は、運転支援装置が人に対して警報を発した後のその人の反応を解析して、人が自車両の存在を認識しているか否か(換言すれば、自車両の存在に気付いたか否か)を解析するように構成されても良い。例えば、前述のように両目を抽出することを行っても良い。また、顔の動きを解析しても良い。例えば、人の顔が自車両側を向いたことを検出できた場合、人が自車両の存在に気付いたと判定しても良い。
また、解析手段は、顔認識技術を用いて、人の性別、年齢を解析するように構成されても良い。
また、解析手段は、人がヘッドフォンを使用しているか否かを解析するように構成されても良い。また、解析手段は、人がヘッドフォンを使用しているという場合に、その人が自車両の存在を認識しているか否かを解析(又は推定)するように構成されても良い。
また、解析手段は、人が会話中であるか否かを解析するように構成されても良い。また、解析手段は、人が会話中であるという場合に、その人が自車両の存在を認識しているか否かを解析(又は推定)するように構成されても良い。
また、解析手段は、人の移動状態を解析するように構成されても良い。具体的には、人の移動方向を判定しても良い。また、人が自車両に近づいているか否か(換言すれば、遠ざかっているか否か)を解析するように構成されても良い。
この場合、生成手段は、移動方向を表す画像を生成するように構成されても良い。
さらに、解析手段は、人の移動速度を算出しても良い。
この場合、生成手段は、人の移動速度を表す画像を生成するように構成されても良い。
また、解析手段は、人の大きさ(具体的には、身長)に基づき、人が子供であるか大人であるかを判定しても良い。具体的には、中学生以下か否か、又は小学生以下か否か、を判定しても良く、この判定には、統計データとして公表されている、所定の年齢の平均身長を閾値として利用しても良い。
設定手段は、人が子供である場合には、警戒レベルを相対的に高く設定しても良い。
なお、他の局面では、本発明は、上述の運転支援装置を備えるシステム(運転支援システム)であっても良い。
また、他の局面では、本発明は、車両の周辺の状況を検知する検知手段と、前記検知手段の検知結果に基づき、車両の周辺の対象物を認識する認識手段と、前記認識手段により認識された前記対象物を解析する解析手段と、前記対象物について、前記解析手段の解析結果に基き、警戒すべき度合いを設定する設定手段と、前記対象物を車両の運手者に視認させるための画像を、前記設定手段により設定された度合いに基づき生成する生成手段と、前記生成手段により生成された画像を表示する表示手段と、を備える運転支援システムであっても良い。
そして、この運転支援システムは、上述の運転支援装置が備える構成と同様の構成を備えていても良い。
実施形態の運転支援装置の車両への適用例を示す図である。 第1実施形態の運転支援装置の構成を示すブロック図である。 制御ECUが実行する運手支援処理の流れを表すフローチャートである。 制御ECUが実行する抽出処理の流れを表すフローチャートである。 解析処理1の流れを表すフローチャートである。 解析処理2の流れを表すフローチャートである。 解析処理3の流れを表すフローチャートである。 解析処理4の流れを表すフローチャートである。 解析処理5の流れを表すフローチャートである。 解析処理6の流れを表すフローチャートである。 解析処理6のサブルーチンの流れを表すフローチャートである。 解析処理7の流れを表すフローチャートである。 車両認識判定処理の流れを表すフローチャートである。 表示データ生成処理の流れを表すフローチャートである。 強調画像生成処理の流れを表すフローチャートである。 表示処理の流れを表すフローチャートである。 表示例を示す図である。 表示例を示す図である。 表示例を示す図である。 表示例を示す図である。 第2実施形態の運転支援装置の構成を示すブロック図である。 認識処理(2)の流れを表すフローチャートである。 スクリーン判定処理の流れを表すフローチャートである。 解析処理8の流れを表すフローチャートである。 表示処理(2)の流れを表すフローチャートである。 第2実施形態の運転支援装置の作用を説明する図である。 第3実施形態の運転支援装置の構成を示すブロック図である。 視線検出を説明する図である。 運転支援処理(2)の流れを表すフローチャートである。 補正判定処理の流れを表すフローチャートである。 表示補正処理の流れを表すフローチャートである。 認識判定処理(2)の流れを表すフローチャートである。 解析処理9の流れを表すフローチャートである。 変形例1を示す図である。 変形例2を示す図である。 変形例3を示す図である。 解析処理10の流れを表すフローチャートである。 雨滴の検出を説明する図面である。 解析処理11の流れを表すフローチャートである。 解析処理12の流れを表すフローチャートである。 車両制御処理の流れを表すフローチャートである。 表示態様例を説明する図面である(1)。 表示態様例を説明する図面である(2)。 表示態様例を説明する図面である(3)。 表示態様例を説明する図面である(4)。
1,100,101・・・運転支援装置、2・・・赤外線レーダ、3・・・ミリ派レーダ、4・・・赤外線カメラ、5・・・可視光カメラ、6・・・運動量検出ユニット、7・・・ヘッドアップディスプレイ(HUD)、8・・・画像投影装置、9・・・スピーカユニット、10・・・視線検出ユニット、11・・・車車間通信ユニット、12・・・車両位置センサ、20・・・制御ECU。
以下、本発明が適用された実施形態について、図面を用いて説明する。
<第1実施形態>
1.全体構成
図1に示すように、本第1実施形態の運転支援装置1は、赤外線レーダ2と、ミリ波レーダ3と、赤外線カメラ4と、可視光カメラ5と、運動量検出ユニット6と、ヘッドアップディスプレイ7と、スピーカユニット8と、制御ECU20と、を備える。
なお、図1においては、他に、画像投影装置9、視線検出ユニット10、車車間通信ユニット11、及び車両位置センサ12が示されている。
以下、運転支援装置1が備える各構成について、図1及び図2に基づき説明する。
[赤外線レーダ]
赤外線レーダ2は、赤外線を用いて周辺の状況を探知する(換言すれば、対象物(以下、オブジェクト)の有無、及びそのオブジェクトまでの距離を検出する)レーダである。
図2に示すように、赤外線レーダ2は、赤外線送受光部2aと、信号処理部2bと、外部インタフェース2cとを備える。
赤外線レーダ2は、赤外線送受光部2aにて、赤外線を照射し、オブジェクトにて反射して返ってくる反射光を受光する。そして、信号処理部2bが、赤外線の照射時刻と反射光の受光時刻との時間差に基づき、オブジェクトまでの距離を算出する。算出された距離を表すデータは、外部インタフェース2cを介して制御ECU20に送信される。
赤外線レーダ2によって検出可能な距離は数十m(例えば20〜30m)程度までである。なお、赤外線レーダ2は、図1に示されるように、車両のフロント部の他、側部、及びリア部に設けられても良い。
[ミリ波レーダ]
ミリ波レーダ3は、ミリ波帯の電波を用いて周辺の状況を探知するレーダである。
図2に示すように、ミリ波レーダ3は、ミリ波送受信部3aと、信号処理部3bと、外部インタフェース3cとを備える。
ミリ派レーダ3は、ミリ波送受信部3aにて、ミリ波を照射し、オブジェクトにて反射して返ってくる反射波を受信する。そして、信号処理部3bが、ミリ波の照射時刻と反射波の受信時刻との時間差に基づき、オブジェクトまでの距離を算出する。算出された距離を表すデータは、外部インタフェース3cを介して制御ECU20に送信される。
ミリ波レーダ3によって検出可能な距離は150m程度まで(ないしそれ以上)である。分解能としては数十cm〜1m程度のものが知られている。
本第1実施形態では、前述の赤外線レーダ2にて近距離(数十mまで)のオブジェクトを検出し、ミリ波レーダ3にて遠距離(数十m〜150m程度(ないしそれ以上)まで)のオブジェクトを検出するように構成される。
[赤外線カメラ]
赤外線カメラ4は、物体から放出される赤外線を検出することで周辺の状況を探知するカメラである。
図2に示すように、赤外線カメラ4は、赤外線イメージセンサ4aと、画像処理部4bと、外部インタフェース4cとを備える。
赤外線カメラ4は、赤外線イメージセンサ4aにて、赤外領域の光(赤外線)を検出する。そして、画像処理部4bが、赤外線イメージセンサ4aにて検出された赤外線の波長及び強度等を電気信号に変換し、その電気信号に基づき画像を生成する。生成された画像を表すデータは、外部インタフェース4cを介して制御ECU20に送信される。
この赤外線カメラ4は、物体から放出される赤外線を検出することで画像を形成することから、環境光(太陽光など)又はヘッドライト光が無い状態でもオブジェクトを検出することができる。したがって、夜間等においてもオブジェクトを検出し得る。
本第1実施形態では、図1,2に示されるように、赤外線カメラ4としては、異なる位置に配置された2つの赤外線カメラ4A,4Bが設けられている。赤外線カメラ4Aと赤外線カメラ4Bとにより、視差(像の位置及び視方向の差異)が再現される。そして、視差が、オブジェクトまでの距離と相関関係にあることに基づき、視差に応じてオブジェクトまでの距離を算出することが可能となる。
なお、以下、赤外線カメラ4と言った場合には、特段の説明がない限り赤外線カメラ4A,4Bの両方を指すものとする。
[可視光カメラ]
可視光カメラ5は、環境光及びヘッドライト光の反射光を検出することで周辺の状況を探知するカメラである。
図2に示すように、可視光カメラ5は、撮像素子としてのCCDイメージセンサ5aと、画像処理部5bと、外部インタフェース5cとを備える。
可視光カメラ5は、CCDイメージセンサ5aにて、光を検出し、検出した光の明暗を電荷の量に光電変換する。その電荷量のデータは画像処理部5bに転送される。画像処理部5bは、画素毎の電荷量のデータに基づき、色及び明暗を再現してカラー画像を生成する。生成された画像の情報は、外部インタフェース5cを介して制御ECU20に送信される。
本第1実施形態では、可視光カメラ5としては、異なる位置に配置された2つの可視光カメラ5A,5Bが設けられている。可視光カメラ5Aと可視光カメラ5Bとにより、視差が再現され、これにより立体的な画像が生成され得る。また、前述の赤外線カメラ4の場合と同様に、オブジェクトまでの距離を算出することが可能となる。
なお、以下、可視光カメラ5と言った場合には、特段の説明がない限り可視光カメラ5A,5Bを指すものとする。
[運動量検出ユニット]
運動量検出ユニット6は、自車両の運動量を検出するためのユニットであり、車速センサ6a、ヨーレートセンサ6b及び操舵角センサ6cを備える。
具体的には、車速センサ6aにて自車両の走行速度を検出し、ヨーレートセンサ6bにて自車両に作用するヨーレートを検出し、操舵角センサ6cにてステアリングホイールの操舵角を検出する。検出信号は、制御ECU20に送信される。
制御ECU20は、車速センサ6a、ヨーレートセンサ6b及び操舵角センサ6cからの検出信号に基づき、自車両の運動量(進行方向及び変位量)を算出する。
[ヘッドアップディスプレイ]
ヘッドアップディスプレイ(HUD:Head Up Display)7は、車両の窓(一例では、フロントウィンドウ)に、画像を重畳して表示する装置である。
HUD7は、レーザプロジェクタ7aを有し、制御ECU20からの信号に基づきそのレーザプロジェクタ7aにて信号処理を行うとともに画像を生成し、ミラー及びレンズ等を含む光学ユニット7bを介してその画像を表示する。
画像は、フロントウィンドウを通して視認される車両外部の景色に重畳して、虚像面に結像される。虚像面は、フロントウィンドウよりも前方に形成され、これにより、車両の運転者にとっては、視認される景色の中に画像が表示されているように認識され得る。
[スピーカユニット]
スピーカユニット8は、制御ECU20による制御に基づき、車両の周辺に音(音声を含む)を発する装置である。
[制御ECU]
制御ECU20は、CPU20a、ROM20b、RAM20c、フラッシュメモリ20d、及び通信インタフェース20e等を備える電子制御装置であり、各種処理を実行する。
2.運転支援装置1において実行される処理
[運転支援処理]
以下、運転支援装置1の制御ECU20が実行する処理の概要について図3を用いて説明する。
制御ECU20は、車両の走行中に、図3の運転支援処理を所定の周期で繰り返し実行する。これにより、運転支援装置1は、車両の周辺の環境を探知してオブジェクト(人、車両など)を認識し、オブジェクトの存在を車両の運転者に通知する(換言すれば、警告を行う)。
運転支援処理では、まず、S100にて、運動量検出ユニット6から検出データを取得し、取得できた自車両の車速、ヨーレート及び操舵角に基づき、自車両の運動量を推定する。
次に、S110にて、赤外線レーダ2からの信号を取得する。
次に、S112に移行し、ミリ波レーダ3からの信号を取得する。
続くS114では、赤外線レーダ2からの信号及びミリ波レーダ3からの信号に基づき、探知範囲にオブジェクトが存在するか否かを判定する。
S114にてオブジェクトが存在しないと判定すると、S116に移行してオブジェクトが存在しない旨のログを記憶し、その後当該処理を終了する。このログは、フラッシュメモリ20dに記憶されても良い。
S114にてオブジェクトが存在すると判定すると、S118に移行する。S118では、赤外線レーダ2の信号及びミリ波レーダ3の信号から得られる、オブジェクトまでの距離のデータに基づき、オブジェクトまでの距離が予め設定された閾値α以下であるか否かを判定する。
S118にてオブジェクトまでの距離が閾値α以下であると判定すると、S120に移行する。なお、閾値αは、衝突の危険性が生じるような値に適宜設定される。閾値αとしては、固定値が設定されても良い。或いは、前述のS100において推定される自車両の運動量に基づき、その運動量にて走行する自車両との関係において衝突の危険性が生じると判断されるような値が、演算により算出されたうえで設定されても良い。
S120では、車両の運転者に対し警告する処理を実行する。具体的には、HUD7を制御して、例えば車両のフロントウィンドウに重畳して警告表示する。警告表示としては、衝突の危険性があることを示すメッセージ又はシンボル等を表示しても良い。
続くS122では、オブジェクトとの衝突を回避するための衝突回避指令を、車両の動作を制御するECU(図示省略)に送信する。具体的には、ブレーキ制御ECU、操舵制御ECU等に衝突回避指令を送信し、衝突を回避するためのブレーキ制御及び操舵制御を実行させる。その後、当該処理を終了する。
S118にてオブジェクトまでの距離が閾値α以下でないと判定すると、S124に移行する。
S124では、赤外線カメラ4から画像データを取得する。なお、この場合、赤外線カメラ4A,4Bの何れかの画像データを取得しても良いし、両方を取得しても良い。両方を取得する場合には、2つの画像データの平均値を算出して利用しても良い。また、2つの画像データのそれぞれから、精度の高い部分(ノイズ等が少ない部分)を抽出してそれらを組み合わせたデータを生成して利用しても良い。
また、続くS126にて、可視光カメラ5から画像データを取得する。なお、この場合、可視光カメラ5A,5Bの何れかの画像データを取得しても良いし、両方を取得しても良い。両方を取得する場合には、2つの画像データの平均値を算出して利用しても良い。また、2つの画像データのそれぞれから、精度の高い部分(ノイズ等が少ない部分)を抽出してそれらを組み合わせたデータを生成して利用しても良い。
続いて、S128にて、オブジェクトを認識及び解析する処理(以下、認識処理)を実行する。認識処理の詳細については後述する。
次に、S130にて、S128の認識処理の結果に基き車両の周辺のオブジェクトの情報を表示する表示処理を実行する。この処理は、換言すれば、オブジェクトの存在を、所定の画像の表示によって運転者に通知する処理である。表示処理の詳細については後述する。
[認識処理]
以下、S128の認識処理について、図4を用いて具体的に説明する。
制御ECU20は、S128の認識処理(図4の認識処理)を開始すると、まず、S140にて、赤外線カメラ4の画像データ及び可視光カメラ5の画像データから、それらのデータが表す画像の解析処理を行う。具体的には、画像を構成する画素毎に、その画素の輝度(明暗)を解析する処理を実行する。なお、赤外線カメラ4の画像データ及び可視光カメラ5の画像データについては、何れか一方が利用されても良いし、両方が利用されても良い。何れの画像データの場合も基本的には以下の処理フローが適用され得る。
S140の後はS142に移行し、画像中のエッジ(輝度(明暗)の変化量が所定の閾値より大きい箇所)を抽出する。これは、例えば人又は車両等と背景との境目では輝度の変化量が大きくなることを前提とした処理である。
続くS144では、S142で抽出したエッジの情報に基づき、同一のオブジェクトによって占有される領域の候補を設定する。例えば前述のように人又は車両等と背景との境目では輝度の変化量が大きいことが前提とされるものの、全ての境目において輝度の変化量が大きいとは限らず、エッジが途切れる場合もあり得る。本処理では、そのようなエッジの途切れを周辺のエッジのデータから認識しつつ、エッジによって確定される同一オブジェクトの範囲(領域)を設定(推定)する。
次に、S146に移行し、S144にて設定した領域について(より具体的には、推定したオブジェクトについて)、予め記憶するパターン及び過去の学習値(学習したパターン)とのパターンマッチングを行い、オブジェクトが何であるかを推定する。このパターンマッチングでは、人(自転車等に乗った人を含む)、車両、動物(ペット等)、及び設置物(ガードレール、標識、信号機、看板等)を認識することができる。
続くS148では、S146のパターンマッチングの結果に基き、抽出できたオブジェクトが人であるか否かを判定する。
S148にて、「その他」(ここでは、具体的には、人及び車両以外を指すものとする)であると判定すると、当該処理を終了する。これは、抽出されたオブジェクトのうち、「その他」に分類されるオブジェクトについては、さらなる解析を行わず、警告表示も行わないという趣旨である。なお、「その他」に分類されるオブジェクトについても運転者に通知する(表示する)ようにしても良い。
S148にて、車両であると判定すると、S150に移行する。S150では、抽出できた車両の情報を自車両の運転者に通知するか否か(警告するか否か)を判定する。
例えば、車両の情報を自車両の運転者に通知するか否かについては予め設定可能に構成されても良い。そして、S150では、その設定に基づき判定しても良い。また、車両と自車両との位置関係及び相対速度等を検出し、それらに基づき危険性を判断して、危険であると判断した場合に、警告すると判定するようにしても良い。
S150にて警告しないと判定すると、当該処理を終了する。
一方、S150にて警告すると判定すると、S156に移行し、車両について警告を行う旨を表すフラグ(車両警告フラグ)の設定を行う。その後、S154に移行する。
次に、S148にて、人であると判定すると、S152に移行する。
S152では、抽出された人の状況、状態等をさらに解析する解析処理を実行する。解析処理の詳細については後述する。
S152の後はS154に移行する。S154では、S152の解析処理の結果、及びS150の判定結果に基き、警告表示のデータを生成する。ここで生成されたデータは、S130における表示処理で用いられる。具体的には、S130では、S154で生成したデータをHUD7に送信し、HUD7に警告画像を表示させる。
[解析処理]
以下、S152の解析処理について、図5〜図13を用いて具体的に説明する。本第1実施形態では、図5〜図12(及び図13)の解析処理1〜7が、並行して又は所定の順で順次実行される。また、解析処理1〜7は、前述のS148で「人」であると認識されたオブジェクトのそれぞれについて実行される。
そして、解析処理1〜7では、解析結果に応じて、オブジェクト(人)に対する警戒レベルが設定される。警戒レベルとは、S154の処理において使用されるデータである。具体的には、車両の運転者に対してどのような態様で警告表示するかを決定するためのデータである。警戒レベルは数値で表され、数値が高くなるほど、車両の運転者がより認識しやすい態様で警告表示されるよう、表示データが生成されることとなる。
なお、S152の解析処理としては、図5〜図12(及び図13)の解析処理1〜7の少なくとも何れかが実行されれば良い。
[解析処理1]
図5の解析処理1は、オブジェクト(人)が存在する位置(箇所)を解析し、その位置に応じて警戒レベルを設定する処理である。
解析処理1では、まず、S160にて、前述のS148で人であると認識したオブジェクトについて、そのオブジェクト(人)が存在する位置を解析する処理を実行する。具体的には、赤外線カメラ4又は可視光カメラ5による撮像画像の画像解析により、自車両からの距離、及び他のオブジェクトとの相対位置等を解析する。自車両からの距離は、赤外線カメラ4A,4Bの視差、又は可視光カメラ5A,5Bの視差を用いて算出することができる。
ここで、前述のように、S110にて取得した赤外線レーダ2からの信号及びS112にて取得したミリ派レーダ3からの信号には、オブジェクトまでの距離の情報が含まれており、その情報を用いて、S160にて算出した距離を検算又は補正しても良い。
或いは、視差を用いることに代えて、S110,S112で取得した信号から距離を算出しても良い。
S160の後はS162に移行し、オブジェクト(人)が自車両の走行ルート上に存在するか否かを判定する。
なお、前述のS160の処理の段階において、画像解析により自車両が走行中である道路が認識されている。また、後述のS170の処理のため、歩道も加えて認識されていても良い。そしてS162では、加えて、S100にて取得される自車両の運動量のデータに基き自車両の運動方向(進行方向)を推定する。そしてこれらの処理に基づき、オブジェクト(人)がその認識された道路上に存在しかつ推定した自車両の進行方向上に存在するか否かを判断することにより、そのオブジェクト(人)が走行ルート上に存在するか否かを判定する。
S162にて、オブジェクト(人)が自車両の走行ルート上に存在すると判定すると、S164に移行する。
S164では、オブジェクト(人)に対する警戒レベルの数値を3ポイントインクリメントする。その後、当該処理を終了する。なお、本第1実施形態では、警戒レベルの数値は、1〜3の範囲でインクリメントされる。インクリメントしない場合には、フローチャートにおいては、「+0」と記載している。この値は一例であり、適宜、どのような値が設定されても良い。
警戒レベルの数値は、オブジェクト(人)と対応付けて、フラッシュメモリ20dに記憶される。
S162にてオブジェクト(人)が自車両の走行ルート上に存在しないと判定すると、S166に移行する。
S166では、オブジェクト(人)が、自車両が走行中である道路上に存在するか否かを判定する。
S166にて、オブジェクト(人)が道路上に存在すると判定すると、S168に移行する。
S168では、警戒レベルを2ポイントインクリメントする。その後、当該処理を終了する。
S166にて、オブジェクト(人)が道路上に存在しないと判定すると、S170に移行する。
S170では、オブジェクト(人)が歩道上に存在するか否かを判定する。
S170にてオブジェクト(人)が歩道上に存在すると判定すると、警戒レベルを1ポイントインクリメントする。
一方、S170にてオブジェクト(人)が歩道上に存在しないと判定すると、オブジェクト(人)は乗物内又は屋内等(換言すれば、比較的安全と言える場所)に存在すると判断し、S174に移行して警戒レベルをインクリメントすることなく、当該処理を終了する。
[解析処理2]
解析処理2について図6を用いて説明する。
図6の解析処理2は、自車両からオブジェクト(人)までの距離を算出し、その算出した距離に応じて警戒レベルを設定する処理である。
解析処理2では、まず、S180にて、自車両からオブジェクト(人)までの距離を算出する。算出の手法については前述のとおりである。
次に、S182に移行し、S180にて算出した距離が所定の閾値β以下であるか否かを判定する。βの値は適宜設定され得る。
S182にて距離が所定の閾値β以下であると判定すると、危険度がより高いと判断して、S184に移行する。
S184では、警戒レベルを1ポイントインクリメントする。その後、当該処理を終了する。
一方、S182にて距離が所定の閾値β以下でないと判定すると、危険度がより低いと判断して、S186に移行し、警戒レベルをインクリメントすることなく、当該処理を終了する。
[解析処理3]
解析処理3について図7を用いて説明する。
図7の解析処理3は、オブジェクト(人)が携帯端末を携帯及び操作しているか否か(及び自車両を認識しているか否か)を解析し、その結果に基き警戒レベルを設定する処理である。
解析処理3では、まず、S190において、オブジェクト(人)が携帯端末を携帯(把持)しているか否かを判定する。携帯端末の有無(存在)については、前述のS140〜S146の処理における画像解析(パターンマッチング)にて認識する。特に、携帯端末が動作中である場合には、表示画面の部分の輝度(明暗)が高くなり比較的高い精度でのエッジ抽出が可能となる。この場合、パターンマッチングによる認識が容易となる。また、携帯端末が動作中でない場合でも、人の手に把持されている場合には、人の手との輝度(明暗)の差異に基づきエッジ抽出が可能となる。よって、何れにしても、パターンマッチングによる認識は可能である。
S190にて、オブジェクト(人)が携帯端末を携帯(把持)していないと判定すると、危険性は高くないと判断してS192に移行し、警戒レベルをインクリメントすることなく、当該処理を終了する。
一方、S190にて、オブジェクト(人)が携帯端末を携帯(把持)していると判定すると、S194に移行する。
S194では、携帯端末が動作中であるか否かを判定する。ここでは、画像解析(S140〜S146の処理)の結果に基き、携帯端末であると認識された領域における輝度(明暗)から、携帯端末が動作中であるか否かを判定する。これは、携帯端末が動作中である場合にその携帯端末における表示画面の部分の輝度(明暗)が高くなることを前提として判定を行う趣旨である。
S194において、携帯端末が動作中でないと判定すると、S196に移行する。
S196では、携帯端末は動作中でないもののオブジェクト(人)が携帯端末を把持しているという判定のもと、警戒レベルを1ポイントインクリメントする。そしてその後、当該処理を終了する。
一方、S194において携帯端末が動作中であると判定すると、S198に移行する。なお、S194の処理は省略されても良い。具体的には、S190にてオブジェクト(人)が携帯端末を携帯(把持)していると判定すると、S194の処理の処理を実行することなく、S198の処理に移行しても良い。
S198では、オブジェクト(人)が携帯端末の操作中であるか否かを判定する。ここでは、画像解析の結果に基き、携帯端末の位置、オブジェクト(人)における各部(手、顔)の位置、及び顔の向き等を解析してそれらの情報から総合的に判定する。
S198にて操作中でないと判定すると、S196に移行する。
一方、S198にて操作中であると判定すると、S200に移行する。
S200では、オブジェクト(人)が自車両の存在を認識しているか否かを判定する処理(以下、認識判定処理)を実行する。
図13に、認識判定処理を示す。
S200の認識判定処理(図13の認識判定処理)では、まず、S400にて、オブジェクト(人)における顔の領域を抽出する。
次に、S402に移行し、抽出した顔について、解析を行う。より具体的には、エッジ検出及びパターンマッチング等により「目」を抽出する。
そして、S404にて、両目を検出できた否かを判定する。
S404にて両目を検出できたと判定した場合には、自車両はオブジェクト(人)の視界の範囲内に存在する可能性が高いと判断し、この判断に基づき、オブジェクト(人)は自車両の存在を認識していると簡易判定して、S406に移行する。
S406では、オブジェクト(人)が自車両の存在を認識していることを示す認識フラグを設定する。そしてその後、当該処理を終了する。
一方、S404にて両目を検出できないと判定した場合には、自車両はオブジェクト(人)の視界の範囲内に存在しない可能性があると判断し、この判断に基づき、オブジェクト(人)は自車両の存在を認識していないと簡易判定して、S408に移行する。
S408では、オブジェクト(人)が自車両の存在を認識していないことを示す不認識フラグを設定する。そしてその後、当該処理を終了する。
S200の認識判定処理(図13の認識判定処理)の次は図7のS202に移行する。
S202では、S406で設定された認識フラグ、又はS408で設定された不認識フラグに基づいた判定処理(具体的には、オブジェクト(人)が自車両の存在を認識しているか否かの判定処理)を行う。
S202にて、オブジェクト(人)が自車両の存在を認識している(認識フラグが設定されている)と判定すると、S204に移行する。
S204では、オブジェクト(人)が自車両の存在を認識している一方で携帯端末を操作中であるという判断のもと、警戒レベルを2ポイントインクリメントする。そしてその後、当該処理を終了する。
一方、S202にて、オブジェクト(人)が自車両の存在を認識していない(不認識フラグが設定されている)と判定すると、S206に移行する。
S206では、オブジェクト(人)が携帯端末を操作しており自車両の存在を認識していないという判断のもと、警戒レベルを3ポイントインクリメントする。
続いて、S208に移行し、次に説明する警戒設定処理を行う。警戒設定処理とは、オブジェクト(人)が自車両の存在を認識していないことを運転者に通知(警告)するための画像表示を行う旨のフラグ、及びオブジェクト(人)への警報処理を行う旨のフラグを設定する処理である。このフラグは、対象のオブジェクト(人)と関連付けて記憶される。
警戒設定処理が実行されると、図4のS154において、オブジェクト(人)が自車両の存在を認識していないことを運転者に通知(警告)するための警告画像が生成され、その画像が、図3のS130の処理にて車両のフロントウィンドウに重畳表示されることとなる。加えて、別途の処理により、スピーカユニット8(図1,2参照)を介して、オブジェクト(人)に対して警報が発せられる。
S208の後は、当該処理を終了する。
[解析処理4]
解析処理4について、図8を用いて説明する。
図8の解析処理4は、オブジェクト(人)がヘッドフォンを使用中であるか否か(及び自車両を認識しているか否か)を解析し、その結果に基き警戒レベルを設定する処理である。
解析処理4では、まず、S210にて、オブジェクト(人)がヘッドフォン又はイヤフォン(以下、単にヘッドフォン)を使用しているか否かを判定する。ここでは、画像解析(S140〜S146の処理)の結果に基き判定する。
S210にて、オブジェクト(人)がヘッドフォンを使用していないと判定すると、危険性は低いと判断して、S212に移行し、警戒レベルをインクリメントすることなく、当該処理を終了する。
一方、S210にて、オブジェクト(人)がヘッドフォンを使用していると判定すると、S200に移行し、その後S202に移行する。
S200及びS202の処理は、図7において説明したS200及びS202の処理と同一であり、ここでは説明を省略する。
S202にて、オブジェクト(人)が自車両の存在を認識している(認識フラグが設定されている)と判定すると、S218に移行する。
S218では、オブジェクト(人)が自車両の存在を認識している一方でヘッドフォンを使用しているという判断のもと、警戒レベルを1ポイントインクリメントする。そしてその後、当該処理を終了する。
一方、S202にて、オブジェクト(人)が自車両の存在を認識していない(不認識フラグが設定されている)と判定すると、S220に移行する。
S220では、オブジェクト(人)がヘッドフォンを使用しており自車両の存在を認識していないという判断のもと、警戒レベルを3ポイントインクリメントする。
次に、S208に移行する。このS208の処理は、図7のS208の処理と同一であり、ここでは説明を省略する。その後、当該処理を終了する。
[解析処理5]
解析処理5について、図9を用いて説明する。
図9の解析処理5は、オブジェクト(人)が会話中又は通話中であるか否か(及び自車両を認識しているか否か)を解析し、その結果に基き警戒レベルを設定する処理である。
解析処理5では、まず、S230にて、オブジェクト(人)が会話中又は通話中であるか否かを判定する。ここでは、画像解析(S140〜S146の処理)の結果に基き判定する。
S230にて、オブジェクト(人)が会話中又は通話中でないと判定すると、危険性は低いと判断して、S232に移行し、警戒レベルをインクリメントすることなく、当該処理を終了する。
一方、S230にて、オブジェクト(人)が会話中又は通話中であると判定すると、S200に移行し、その後S202に移行する。
S200及びS202の処理は、図7において説明したS200及びS202の処理と同一であり、ここでは説明を省略する。
S202にて、オブジェクト(人)が自車両の存在を認識している(認識フラグが設定されている)と判定すると、S238に移行する。
S238では、オブジェクト(人)が自車両の存在を認識している一方で会話中又は通話中であるという判断のもと、警戒レベルを1ポイントインクリメントする。そしてその後、当該処理を終了する。
一方、S202にて、オブジェクト(人)が自車両の存在を認識していない(不認識フラグが設定されている)と判定すると、S240に移行する。
S240では、オブジェクト(人)が会話中又は通話中であり自車両の存在を認識していないという判断のもと、警戒レベルを3ポイントインクリメントする。
次に、S208に移行する。このS208の処理は、図7のS208の処理と同一であり、ここでは説明を省略する。その後、当該処理を終了する。
[解析処理6]
解析処理6について、図10を用いて説明する。
図10の解析処理6は、オブジェクト(人)の移動を解析し、その結果に基き警戒レベルを設定する処理である。
解析処理6では、まず、S250において、赤外線カメラ4又は可視光カメラ5から、画像データを再取得する。
次に、S252に移行し、運動量検出ユニット6から、自車両の運動量のデータを再取得する。
S250及びS252の処理は、オブジェクト(人)の動きを時系列に追跡するために実行される。
次に、S254にて、オブジェクト(人)に対して、複数の画像間(フレーム間)の追跡処理を実行する。具体的には、現画像(現フレーム)と、1つ過去の画像(フレーム)とにおいて、オブジェクト(人)の類似度を計算し、類似度が高いオブジェクト(人)同士は同一オブジェクト(人)である可能性が高いと判断して、同一のラベルを付与する。類似度の指標としては、領域のサイズ(面積)、輝度(明暗)、移動量等が用いられる。また、ここでは、自車両の運動量を考慮し、オブジェクト(人)のサイズ(面積)、及び移動量等が補正される。同一のラベルが付与されたオブジェクト(人)については、時系列に解析され、移動の有無及び移動方向等が計算される。
次に、S256に移行し、オブジェクト(人)の移動を解析可能か否かを判定する。換言すれば、再取得した画像データ及び運動量データは、オブジェクト(人)の移動を認識又は推定するのに十分であるか否かを判定する。
S256にて、解析不可(換言すれば、データは十分でない)と判定すると、再びS250(及びS252)に戻り、画像データ(及び運動量データ)を再取得する。さらに、S254にて追跡処理を行う。
一方、S256にて、解析可能と判断すると、S258に移行する。
S258では、S254の追跡処理の結果に基き、オブジェクト(人)が移動しているか否かを判定する。
S258にて、オブジェクト(人)が移動していないと判定すると、S260に移行し、警戒レベルをインクリメントすることなく、当該処理を終了する。
一方、S258にて、オブジェクト(人)が移動していると判定すると、S280のサブルーチン処理に入る。
図11は、S280のサブルーチン処理の流れを表すフローチャートである。
S280のサブルーチン処理(図11のサブルーチン処理)を開始すると、まず、S282にて、オブジェクト(人)の移動方向が自車両の移動方向と同一であるか否かを判定する。
S282にて移動方向が同一であると判定すると、オブジェクト(人)は自車両に背を向けて移動している(ひいては、オブジェクト(人)は自車両の存在に気付いていない可能性が高い)という判断のもと、S284に移行する。
S284では、警戒レベルを2ポイントインクリメントする。そしてその後、当該処理を終了する。
一方、S282にて、移動方向が同一でないと判定すると、自車両はオブジェクト(人)の視界の範囲内に存在する可能性が高い(ひいては、オブジェクト(人)は自車両の存在に気付いている可能性が高い)という判断のもと、S286に移行し、警戒レベルをインクリメントすることなく、その後当該処理を終了する。
S280のサブルーチン処理(図11のサブルーチン処理)の次は、図10のS262に移行する。
S262では、オブジェクト(人)が蛇行しているか否かを判定する。蛇行者については、飲酒によるふらつき、自転車の二人乗りによるふらつき等が警戒される。
S262にてオブジェクト(人)が蛇行していないと判定すると、蛇行していないものの移動しているという判断のもと、S264に移行し、警戒レベルを1ポイントインクリメントする。そしてその後、当該処理を終了する。
一方、S262にて、オブジェクト(人)が蛇行していると判定すると、S266に移行する。
S266では、オブジェクト(人)が自車両の走行ルートに近づいているか否かを判定する。
S266にて、オブジェクト(人)が自車両の走行ルートに近づいていないと判定すると、近づいてはいないものの蛇行しているという判断のもと、S268に移行し、警戒レベルを2ポイントインクリメントする。そしてその後、当該処理を終了する。
一方、オブジェクト(人)が自車両の走行ルートに近づいていると判定すると、S270に移行し、警戒レベルを3ポイントインクリメントする。
次に、S272に移行し、オブジェクト(人)の移動方向を示す画像を表示する旨のフラグを設定する。このフラグが設定されると、オブジェクト(人)の移動方向を示す画像が図4のS154の処理にて生成され、その画像が、図3のS130の処理にて表示されることとなる。この一連の処理は、オブジェクト(人)の移動方向を示す画像を表示することで車両の運転者により注意を促すことを趣旨として実行される。
[解析処理7]
解析処理7について、図12を用いて説明する。
図12の解析処理7は、オブジェクト(人)が子供であるか否かを簡易判定し、その結果に基き警戒レベルを設定する処理である。
解析処理7では、まず、S290にて、オブジェクト(人)の高さ(身長)が、所定の閾値Ta以下であるか否かを判定する。閾値Taとしては、判別したい年齢の人(子供)の平均身長が割り当てられても良い。
S290にて、閾値Ta以下であると判定すると、オブジェクト(人)は子供であると判断して、S292に移行し、警戒レベルを2ポイントインクリメントする。そしてその後、当該処理を終了する。
一方、S290にて、閾値Ta以下でないと判定すると、オブジェクト(人)は子供ではないと判断して、S294に移行し、警戒レベルをインクリメントすることなく、当該処理を終了する。
[表示データ生成処理]
次に、図4のS154の表示データ生成処理について、図14を用いて説明する。
表示データ生成処理では、まず、S500にて、図3のS140〜S148にて認識したオブジェクト(人又は車両)を抽出する。
次に、S502に移行し、オブジェクトのそれぞれ(具体的には、「人」と認識されたオブジェクトのそれぞれ)について、図5〜13の処理で設定された警戒レベルを抽出する。
続くS504では、抽出した警戒レベルに応じて、オブジェクト(人)のそれぞれについて、そのオブジェクト(人)を強調するための画像を生成する処理(強調画像生成処理)を実行する。
強調画像生成処理について、図15を用いて具体的に説明する。
S504の強調画像生成処理(図15の強調画像生成処理)を開始すると、まず、S520にて、各オブジェクト(人)のそのオブジェクト領域に合わせて、その領域を囲む画像を生成する。オブジェクト領域を囲む画像としては、三角形、四角形、円、又は楕円など、適宜設定され得る。
オブジェクト領域に合わせた画像を生成することで、例えば立っているオブジェクト(人)については縦長の画像が生成され、例えば座っているオブジェクト(人)については縦横比がほぼ等しい画像が生成され得る。また、倒れているなどしているオブジェクト(人)については横長の画像が生成される。そのような画像が表示されることで、運転者は、オブジェクト(人)の状態(立っている状態、座っている状態、又は倒れている状態など)を、直感的に把握し得る。
次に、S522に移行し、前述のS502にて抽出した警戒レベルに応じて、S520にて生成した画像の表示態様の設定を行う。具体的には、枠の線の太さ、線の色などを設定する。また、点滅表示させるかどうかも設定される。
例えば、警戒レベルが高いほど、線の太さを太くしても良い。また、警戒レベルが高い場合、線の色を、運転者の注意をよりひきつける色(赤色、黄色、その他蛍光色など)に設定しても良い。また、警戒レベルが高い場合、画像が点滅表示されるように設定されても良い。
各オブジェクト(人)については、設定された警戒レベルのポイントに応じて、ポイントが高いグループ、中間のグループ、低いグループ、というように分類されても良い。そして、グループ毎に画像の表示態様が設定されても良い。
次に、S524にて、全てのオブジェクト(人)について画像を設定したか否かを判定する。
S524にて全てのオブジェクト(人)について画像を設定していない(未設定のオブジェクト(人)が存在する)と判定すると、S520(及びS522)の処理に戻る。
一方、S524にて全てのオブジェクト(人)について画像を設定したと判定すると、当該処理を終了する。
S504の強調画像生成処理(図15の強調画像生成処理)を終了すると、図14のS506に移行する。
S506では、車両について警告を行う旨のフラグ(以下、車両警告フラグ)が設定されているか否かを判定する。このフラグは、図4のS156の処理にて設定される。
S506にて、車両警告フラグが設定されていると判定すると、S508に移行し、対象のオブジェクト(車両)に対応付けて、そのオブジェクト(車両)を強調するための画像を生成する。具体的には、図4のS140〜S148の処理にて認識されたオブジェクト(車両)のそのオブジェクト領域を囲む画像を生成する。オブジェクト領域を囲む画像としては、三角形、四角形、円、又は楕円など、適宜設定され得る。S508の処理の後はS510に移行する。
また、S506にて車両警告フラグが設定されていないと判定した場合、S510に移行する。
S510では、オブジェクト(人)が自車両の存在を認識していないことを運転者に通知(警告)するための画像表示を行う旨のフラグ(以下、不認識通知フラグ)が設定されているか否かを判定する。このフラグは、図7〜9のS208の処理にて設定される。
S510にて、不認識通知フラグが設定されていると判定すると、S512に移行し、対象のオブジェクト(人)に対応付けて、運転者への警告画像を生成する。この警告画像は、オブジェクト(人)が自車両の存在を認識していないことを運転者に通知(警告)するための画像である。画像としては、シンボル等のマークに限られず、例えばメッセージであっても良い。或いは、オブジェクト(人)の顔の部分を囲む画像であっても良い。警告画像の色は、警告がより促されるような色(赤色、黄色、その他蛍光色等)であっても良い。S512の処理の後はS514に移行する。
また、S510にて不認識通知フラグが設定されていないと判定すると、S514に移行する。
S514では、オブジェクト(人)の移動方向を示す画像を表示する旨のフラグ(以下、移動表示フラグ)が設定されているか否かを判定する。このフラグは、図10のS272の処理にて設定される。
S514にて移動表示フラグが設定されていると判定すると、S516に移行し、対象のオブジェクト(人)に対応付けて、そのオブジェクト(人)の移動方向を示す画像(例えば矢印のマーク)を生成する。次に、S518に移行する。
また、S514にて、移動表示フラグが設定されていないと判定すると、S518に移行する。
S518では、他にオブジェクトがあるか否か(強調するための画像を生成すべきオブジェクトがあるか否か)を判定する。
S518にてオブジェクトがあると判定すると、S502の処理に戻る。
一方、S518にてオブジェクトがないと判定すると、当該処理を終了する。
[表示処理]
次に、図3におけるS130の表示処理について、図16を用いて説明する。
S130の表示処理(図16の表示処理)を開始すると、まず、S540にて、HUD7による表示位置及び結像位置を初期化して調整するためのアライメント調整信号を、HUD7に送信する。これにより、HUD7に、表示位置及び結像位置の調整(初期化)を実行させる。
次に、S542に移行し、S154の表示データ生成処理(図14、図15で示した表示データ生成処理)にて生成された画像を表す信号を、HUD7に送信する。これにより、その画像を、HUD7を介して車両のフロントウィンドウに重畳表示する。なお、画像を表す信号には、その画像が表示されるべき座標値(HUD7による表示領域を基準とした座標値)のデータが含まれている。
具体的には、制御ECU20は、赤外線カメラ4及び可視光カメラ5の撮像領域を基準とした座標軸(以下、カメラ座標軸)の情報、及びHUD7による表示領域を基準とした座標軸(以下、HUD座標軸)の情報の両方を有している。そして、赤外線カメラ4又は可視光カメラ5の画像解析により生成した画像が表示されるべき座標値(HUD7によって表示されるべき位置を示す座標値)を、カメラ座標軸上における座標値からHUD座標軸上における座標値に変換することによって算出する。
S542の後はS544に移行し、追加の表示画像があるか否かを判定する。具体的には、S154の表示データ生成処理によって新たに画像が生成されたか否かを判定する。
S544にて追加の画像があると判定すると、再びS542の処理を実行する。
一方、S544にて追加の画像が存在しないと判定すると、当該処理を終了する。
3.本実施形態の作用
次に、本第1実施形態の作用(表示の態様の一例)について、図17〜図20を用いて説明する。
まず図17の例について説明する。図17の例では、人であるオブジェクトH、及び車両であるオブジェクトV0,V1,V2が抽出されて認識されている。
この例は、人及び車両の両方について、強調のための画像を重畳表示する例である。
具体的には、オブジェクトHについて、そのオブジェクトHを囲む楕円形の枠の画像(以下、単に枠とも称する)Wが表示されている。
また、オブジェクトV0,V1,V2について、そのオブジェクトV0,V1,V2を囲む楕円形の枠X0,X1,X2が表示されている。
枠Wと枠X0,X1,X2とは、表示態様が異なっても良い。例えば、図17に示されるように、枠Wは実線にて表示され、枠X0,X1,X2は破線で表示される態様でも良い。
ここで、図17においては、オブジェクトV0とオブジェクトV2とは、一部重複して見えている(オブジェクトV2の一部はオブジェクトV0の陰になっている)。
このような状況において、赤外線カメラ4A,4Bの視差又は可視光カメラ5A,5Bの視差に基づき、オブジェクトV0とオブジェクトV2とについて、立体情報(奥行き情報)から位置関係が把握されても良い。具体的には、制御ECU20は、立体情報(奥行き情報)に基づき、オブジェクトV0とオブジェクトV2とを同一のオブジェクトと認識するのではなく、異なる別個のオブジェクトと認識するように構成されている。
この場合、図17に示すように、オブジェクトV0に対応する枠X0と、オブジェクトV2に対応する枠X2とが描画される。そして、枠X0と、枠X2とについても、立体情報(奥行き情報)が含まれていても良い。具体的には、図17に示されるように、枠X2の一部がオブジェクトV0の陰に隠れるように、枠X2が表示されるように構成されても良い。
図17において、図面右上にはモード表示領域Rが示されている。この領域は、強調のための画像を表示する対象(具体的には、対象のシンボルマーク)を表示する領域である。モード表示領域Rには、車両のシンボルMvと、人のシンボルMpとが示されている。これは、車両と人とについて、強調のための画像(図17では、枠W、及び枠X0,X1,X2)を表示するモードであることを示している。
このように、運転支援装置1によれば、自車両の周辺のオブジェクト(人、他車両)等を検出し、検出できたオブジェクトを運転者に視認させるための画像(枠W)が、オブジェクトに関連つけて重畳表示される。このため、運転者にとって、オブジェクトの認識のし易さが向上する。
次に図18A,18Bの例について説明する。図18A,18Bの例では、図18Aに示されるように、4人が視認される。
運転支援装置1は、4人それぞれについて、画像解析により各人の状態を解析し、解析した状態に応じた警告画像を表示する。
図18Bに示されるように、4人を、それぞれ、オブジェクトH1,H2,H3,H4として説明する。
まず、オブジェクトH1〜H4それぞれについて、強調のための枠W(W1,W2,W3,W4)が表示されている。枠Wは、オブジェクトH1〜H4の領域を囲むように生成されて表示されても良い。例えば、オブジェクトHが立っている人であるという場合には、枠Wは縦長に生成されて表示されるように構成されても良い。また、オブジェクトHが人であって何らかの理由で寝ている(倒れている)という場合には、枠Wは横長に生成されて表示されるように構成されても良い。また、オブジェクトHが座っている人であるという場合には、枠Wの縦横比はおおよそ等しくなるように生成されて表示されるように構成されても良い。
枠W1〜W4の表示態様は、警戒レベルに応じて異なっている。
オブジェクトH1,H2は、自車両の走行ルート内に存在している。
特に、オブジェクトH1について、自車両からの距離が所定の閾値β以下であるとする。これにより、オブジェクトH1について、警戒レベルが相対的に高く設定されると、枠W1は、より強調されるような表示態様で表示される。例えば、枠W1は、二重の枠にて構成されても良い。また、蛍光色等のより目立つ色で表示されても良い。
オブジェクトH2について、自車両からの距離が所定の閾値βより大きいとする。これにより、オブジェクトH2について、警戒レベルが相対的に(オブジェクトH1と比較して)低く設定されると、枠W2は、枠W1との比較では強調度合いが抑えられても良い。枠W2は、例えば点滅表示されても良い。
また、オブジェクトH1,H2が会話中である場合、その状態は運転支援装置1により検出される。
運転支援装置1は、オブジェクトH1,H2が会話中であると判定すると、オブジェクトH1,H2に対応付けて、会話中であることを示す会話シンボルM1,M2を枠W1,W2の近辺に重畳表示しても良い。会話シンボルM1,M2のデータは、フラッシュメモリ20dに記憶されている。なお、会話シンボルM1,M2のデータは、ROM20bに記憶されていても良い。後述の携帯端末シンボルM3、ヘッドフォンシンボルM4、不認識シンボルM1‘、及び認識シンボルM2‘についても同様である。
また、近辺とは、枠Wに対しての上下左右を問わず、枠Wに隣接する(又は接する)位置である。加えて、近辺といった場合には、枠Wの領域内であっても良い。例えば、会話シンボルM1,M2が枠W1,W2の領域内に重畳して表示されても良い。「近辺」の趣旨については、以下においても同様である。
また、オブジェクトH1が自車両の存在に気付いていないと判定すると、その旨を表す不認識シンボルM1‘を、オブジェクトH1に対応付けて枠W1の近辺に重畳表示しても良い。
一方、オブジェクトH2が自車両の存在を認識している(或いは自車両の存在に気付いた)と判定すると、その旨を表す認識シンボルM2‘を、オブジェクトH2に対応付けて枠W2の近辺に重畳表示しても良い。
さらに、オブジェクトH3が携帯端末h3(オブジェクトh3)を操作中であると判定すると、その旨を表す携帯端末シンボルM3を、オブジェクトH3に対応付けて枠W3の近辺に重畳表示しても良い。
また、オブジェクトH4がヘッドフォンh4(オブジェクトh4)を使用中であると判定すると、その旨を表すヘッドフォンシンボルM4を、オブジェクトH4に対応付けて枠W4の近辺に表示しても良い。
加えて、運転支援装置1は、補助的な情報を表示する補助表示領域P1を設定しても良い。図18Bに示されるように、例えば、補助表示領域P1には、抽出したオブジェクトの数(人数等)を表示しても良い。また、補助表示領域P1に表示される人数は、強調のための画像が表示されている人の数であっても良い。
この場合、強調のための画像を追加して表示した場合には、その追加に合わせて人数の数値をインクリメントして表示しても良い。一方、強調のための画像を消去した場合には、その消去に合わせて人数の数値をデクリメントして表示しても良い。また、人数は同一であるがオブジェクトが入れ替わったというような場合には、数値の点滅等によりその旨を通知しても良い。
シンボルM1〜M4,M1‘,M2’は、オブジェクトH1〜H4の状態の変化に応じて、消去又は変更されても良い。
このように、運転支援装置1によれば、オブジェクトが人である場合に、その人の状態を表す情報が表示されるため、運転者は、人の存在のみならず、その人の状態を認識できるようになる。このため、運転者にとって、車両の周囲の人の状態に応じた運転を実現することが可能となる。即ち、運転の安全性を向上させることに寄与することができる。
次に図19の例について説明する。図19の例では、4つのオブジェクトH5,H6,H7,H8が抽出されている。
オブジェクトH5,H6は横断歩道を歩行する歩行者であり、オブジェクトH7,H8は自転車の乗っている人である。
オブジェクトH5,H6,H7,H8は、それぞれ、強調のために枠W5,W6,W7,枠8にて囲まれている。
W5,W6,W7,枠8の表示態様は、例えば、自車両からオブジェクトH5,H6,H7,H8までの各距離に応じて異なっていても良い。例えば、線の太さが異なっても良い。
図19の例では、オブジェクトH5が自車両から最も近く、オブジェクトH5に対応する枠5が最も太い線で表示されている。一方、オブジェクトH8は自車両から最も遠く、オブジェクトH8に対応する枠8は最も細い線で表示されている。
加えて、図19の例では、オブジェクトの進行方向を示す矢印の画像(以下、単に矢印とも称する)Yが、各オブジェクトHに対応付けて表示されている。具体的には、矢印Y5,Y7は図面における右側に向かっており、オブジェクトH5,H7が右側に向かって進行していることを示す。また、矢印Y6は図面における左側に向かっており、オブジェクトH6が左側に向かって進行していることを示す。また、矢印Y8は自車両側に向かっており、オブジェクトH8が自車両に接近していることを示す。
また、矢印Yは、各オブジェクトHの移動速度を示すものであっても良い。
具体的には、矢印Yの長さによって、移動速度の大小を示しても良い。例えば、図19の例において、長さの比較が容易な矢印Y5,Y6,Y7を対象とする。図19では、矢印Y7の長さが最も長く、オブジェクトH7の移動速度が最も大きいことが認識され得る。一方、矢印Y6が最も短く、オブジェクトH6の移動速度が最も小さいことが認識され得る。矢印Y5の長さは、矢印Y7と矢印Y6との中間であり、オブジェクトH5の移動速度はオブジェクトH7の移動速度とオブジェクトH6の移動速度との間であることが認識され得る。
また、矢印Y5,Y6,Y7において示されるように、矢グラデーション部G5,G6,G7を描画し、そのグラデーション部の長さや密度等により移動速度の大小を示しても良い。
また、枠W(又はオブジェクトH)に対する矢印Yの位置によって、移動速度の大小を示しても良い。図19の例において、枠W(又はオブジェクトH)に対する高さ方向の位置を比較できる矢印Y5,Y6,Y7を対象とする。図19では、矢印Y7は、枠W7(及びオブジェクトH7)の、高さ方向の範囲においてより上方に示されている。矢印Y5は、枠W5(及びオブジェクトH5)の、高さ方向の範囲において、中間あたりに示されている。矢印Y6は、枠W6(及びオブジェクトH6)の、高さ方向の範囲において、より下方に示されている。
このような関係において、オブジェクトHとの関係でより上方に示されている矢印Y7の位置(上下方向の位置)をもって、オブジェクトH7の移動速度が最も大きいことが示されても良い。また、オブジェクトHとの関係でより下方に示されている矢印Y6の位置(上下方向の位置)をもって、オブジェクトH6の移動速度が最も小さいことが示されても良い。また、オブジェクトHとの関係で中間の位置に示されている矢印Y5の位置(上下方向の位置)をもって、オブジェクトH5の移動速度がオブジェクトH7とオブジェクトH6との中間であることが示されても良い。
このように、運転支援装置1によれば、車両の周囲の人が移動している方向やその移動速度を表す情報が表示されるため、運転者にとって、人の動きを予測し易くなる。このため、運転の安全性を向上させることに寄与することができる。
次に、図20の例について説明する。図20の例は、夜間における表示例である。
図20の例では、オブジェクトH9が抽出され認識されている。
そして、オブジェクトH9を強調するための枠W9が重畳表示されている。枠W9は、夜間において視認されやすいよう、ホワイト系の色、又は蛍光色にて描画されても良い。
枠W9の上部には、運転者の注意をひく効果をより高めるために、矢印シンボルM9が表示されている。矢印シンボルM9は、図19の例とは異なり、オブジェクトH9の移動方向ではなくオブジェトH9側を向いてそのオブジェクトH9の存在を強めている。
換言すれば、矢印の方向に視線を移動させると自然にオブジェクトH9が視認されるように(視界の中心に来るように)、矢印シンボルM9は配置されている。
運転支援装置1は、オブジェクトH9を検出した段階で枠W9と矢印シンボルM9とを同時に表示するように構成されても良い。また、例えば、枠W9を表示して、所定時間経過した後に矢印シンボルM9を追加的に表示するように構成されても良い。後者の構成によれば、強調の効果をより高めることができる。
枠W9の左側にはさらに、注意シンボルM9‘が表示されている。注意シンボルM9‘も、矢印シンボルM9と同様に運転者の注意をひく効果をより高めるために表示され得る。
なお、注意シンボルM9‘(及び矢印シンボルM9)の表示位置は、背景との関係で認識しやすい位置であれば、どのような位置でも良い。例えば、図20の例では、枠W9(及びオブジェクトH))に対して左下の領域Raに表示されても良い。或いは、枠W9(及びオブジェクトH))に対して真下の領域Rbに表示されても良い。好ましくは、背景において、輝度(明暗)にばらつきがない領域(換言すれば、輝度(明暗)が一定である領域)に表示されると良い。
また、図20の例において、補助表示領域P2〜P4が設定されても良い。
補助表示領域P2には、オブジェクトH9を表すシンボルマークh9が表示されている。このようなシンボルマークを追加的に表示することにより、運転者の注意をよりひくことが可能となる。
また、枠W9、矢印シンボルM9、又は注意シンボルM9‘を表示することに代えて、補助表示領域P2にシンボルマークh9を表示するようにしても良い。このような態様(モード)については、運転者により操作される入力装置等により運転者が設定できるようにしても良い。
補助表示領域P3には、距離が表示されている。この距離は、自車両からオブジェクトH9までの距離を表す。
補助表示領域P4には、注意シンボルM9‘と同じシンボルであるシンボルm9が表示されている。注意シンボルM9‘とシンボルm9とは、連動して表示されても良い。例えば、注意シンボルM9‘が表示されると自動的にシンボルm9が表示されるようにしても良い。また、注意シンボルM9‘が消去されるとシンボルm9も消去されるようにしても良い。
このように、運転支援装置1によれば、運転者にとって視認性が低下する夜間等において、運転者が周囲の状況を視認することを適切にサポートすることができる。このため、夜間においても、運転の安全性を向上させることに寄与することができる。
本第1実施形態において、赤外線レーダ2,ミリ派レーダ3,赤外線カメラ4,及び可視光カメラ5が検知手段の一例に相当し、S114,S128,S140〜S148の処理が認識手段の一例に相当し、S152の処理が解析手段の一例に相当し、S164,S168,S172,S174,S184,S186,S192,S196,S204,S206,S208,S212,S218,S220,S232,S238,S240,S260,S264,S268,S270,S284,S286,S292,S294,S660の処理が設定手段の一例に相当し、S154の処理が生成手段の一例に相当し、HUD7及びS130の処理が表示手段の一例に相当する。
また、S148の処理が判定手段の一例に相当し、ROM20b又はフラッシュメモリ20dが記憶手段の一例に相当する。
また、会話シンボルM1,M2、携帯端末シンボルM3、及びヘッドフォンシンボルM4は、象徴記号の一例に相当する。
<第2実施形態>
本発明の第2実施形態について、図21〜図25を用いて説明する。
第2実施形態の運転支援装置100(図21参照)は、第1実施形態の運転支援装置1(図2参照)と比較して、画像投影装置9を備えている点が異なっている。
また、運転支援装置100は、以下の点において、運転支援装置1と比較して異なっている。
まず、図4の認識処理に代えて、図22の認識処理(2)を実行する。
また、図24の解析処理8を実行する。
また、図3におけるS130の表示処理(図16の表示処理)に代えて、図25の表示処理(2)を実行する。
[画像投影装置]
画像投影装置9は、車両外部の環境における領域であって、スクリーンとして画像を投影し得る領域に画像を投影するための装置である。スクリーンとして画像を投影し得る領域は、赤外線カメラ4又は可視光カメラ5による撮像画像を解析することによって検出され得る。
画像投影装置9は、レーザプロジェクタ9aを有し、制御ECU20からの信号に基づきそのレーザプロジェクタ9aによって信号処理を行い(換言すれば、表示画像の信号を生成し)、ミラー及びレンズ等を含む光学ユニット9bを介して画像を投影する。
[認識処理(2)]
次に、運転支援装置100が実行する認識処理(2)について、図22を用いて説明する。
図22の認識処理(2)は、図4の認識処理と比較して、S550のスクリーン判定処理が実行される点が異なっている。S140〜S156の処理については、図4の認識処理と同一であるため、ここでは説明を省略する。
図22の認識処理(2)では、制御ECU20は、S148においてオブジェクトが「その他」であると判定すると、S550のスクリーン判定処理を実行する。
[スクリーン判定処理]
スクリーン判定処理の流れを図23に示す。
スクリーン判定処理は、「その他」であると判定したオブジェクトの領域に画像を投影可能か否かを判定する処理である。
制御ECU20は、S550のスクリーン判定処理(図23のスクリーン判定処理)を開始すると、まず、S560にて、オブジェクト領域の面積が所定の面積S以上であるか否かを判定する。この処理は、画像を投影するのに十分な領域(面積)を有するか否かを判定する趣旨の処理である。
S560にてオブジェクト領域の面積が所定の面積S以上でないと判定すると、投影不可と判断して、当該処理を終了する。
一方、S560にてオブジェクト領域の面積が所定の面積S以上であると判定すると、S562に移行する。
S562では、自車両からオブジェクトまでの距離が、画像を投影可能な距離か否かを判定する。
S562にて投影可能な距離でないと判定すると、当該処理を終了する。
一方、S562にて投影可能な距離であると判定すると、S564に移行する。
S564では、オブジェクト領域の面の平坦度を推定する処理(平坦度推定処理)を実行する。平坦度推定処理では、オブジェクト領域の画像解析を行い、そのオブジェクト領域の面の平坦度を推定する。
ここで、オブジェクト領域の面の凹凸度合いが大きいほど、画像の輝度(明暗)の差及びばらつきは大きくなる。一方、オブジェクト領域の面の凹凸度合いが小さいほど、画像の輝度(明暗)の差及びばらつきは小さくなる。このような特徴を前提に、平坦度の推定は、オブジェクト領域の画像の輝度(明暗)の差及びばらつきを解析することにより行う。
S564の次はS566に移行し、推定した平坦度が所定の閾値F以下であるか否かを判定する(なお、平坦度の値が小さいほどより平坦であるものとする)。
S566にて平坦度が所定の閾値F以下でないと判定すると、当該処理を終了する。
一方、S566にて平坦度が所定の閾値以下であると判定すると、S568に移行する。
S568では、オブジェクト領域の面の色を推定する処理(色推定処理)を実行する。色推定処理は、オブジェクト領域の面に画像を投影可能か否かを判断するために実行される。
ここでは、赤外線が照射される面の色によってその赤外線の吸収率が異なるという特徴を利用する。白い物体は赤外線の吸収率は相対的に低い(換言すれば、赤外線の反射率が相対的に高い。一方、黒い物体は赤外線の吸収率は相対的に高い(換言すれば、赤外線の反射率が相対的に低い)。
このような特徴を前提に、赤外線センサ2によって照射した赤外線の反射光の強度を、オブジェクトまでの距離を加味して解析することにより、オブジェクトにおける赤外線の吸収率を計算することができる。そして、その計算結果に基き、オブジェクトの色を推定することができる。
そこで、S568では、赤外線センサ2を用いて、前述の方法にてオブジェクト領域の面の色を推定する。
S568の次はS570に移行し、S568での推定結果に基き、オブジェクト領域の面の色が、画像を投影可能な色であるか否かを判定する。
S570にて投影可能でないと判定すると当該処理を終了する。
一方、S570にて投影可能であると判定すると、S572に移行する。
S572では、対象のオブジェクト領域について、スクリーンとして画像を投影可能であることを示すフラグ(投影可能フラグ)を設定する。
次にS574に移行し、その対象のオブジェクト領域の情報(座標、範囲、面積等の情報)を記憶する。その後、当該処理を終了する。
[解析処理8]
制御ECU20は、さらに、図22におけるS152の解析処理のひとつとして、解析処理8を実行する。
図24に解析処理8の流れを示す。
制御ECU20は、解析処理8を開始すると、まず、S580にて、抽出できた人及び車両の位置関係から、人が車両(他車両)の死角に存在するか否かを判定する。この判定では、他車両の進行方向、人及び他車両周辺のオブジェクト(障害物)等を抽出して、人が他車両の運転者の視界領域に存在するか否かを総合的に判断する。
S580にて、死角に存在しないと判定すると、当該処理を終了する。
一方、S580にて、死角に存在すると判定すると、S582に移行し、車両の外部環境に画像を投影する旨のフラグ(投影実行フラグ)を設定する。その後、当該処理を終了する。
[表示処理(2)]
次に、表示処理(2)について、図25を用いて説明する。
図25の表示処理(2)において、S540〜S544の処理は、図16におけるS540〜S544の処理と同一であるため、ここでは説明を省略する。
表示処理(2)では、S544にて追加の表示画像が無いと判定すると、S590に移行する。
S590では、投影可能フラグ及び投影実行フラグが設定されているか否かを判定する。投影可能フラグは、前述のS572の処理(図23参照)にて設定されるフラグである。投影実行フラグは、前述のS582の処理(図24参照)にて設定されるフラグである。
S590にて投影可能フラグ及び投影実行フラグが設定されていると判定すると、S592に移行する。
S592では、前述のS574にて記憶した、スクリーンとして画像を投影可能であるオブジェクト領域の情報(具体的には、座標値、範囲、面積等の情報)を、画像投影装置9に送信する。
次に、S594に移行し、画像投影装置9に投影させる画像データをその画像投影装置9送信する。この画像データは、赤外線カメラ4の撮像画像のデータの一部又は全部、或いは可視光カメラ5の撮像画像のデータの一部又は全部であっても良い。また、S154の処理(図22参照)で生成したデータが含まれていても良い。
このような図25の処理(より具体的にはS590〜S594の処理)により、車両の周辺の環境における所定の領域(画像を投影可能な領域)に、画像投影装置9によって画像が投影され得る。
本第2実施形態の作用について、図26を用いて説明する。
図26においては、車両(自車両)K1に、運転支援装置100が搭載されている。自車両K1の周辺には、他車両K2が存在する。また、オブジェクトH10,H11が存在する。
オブジェクトH10は塀であり、オブジェクトH11は人(ここでは、二人組)である。なお、図26では、一方の人の頭頂部のみが視認できる。
他車両K2の方向からみて、オブジェクトH11は、オブジェクトH10の陰に隠れている。即ち、他車両K2の運転者からはオブジェクトH10を視認できない位置関係が形成されている。
一方、自車両K1からは、オブジェクトH11の存在を視認可能であり、検出できるものとする。
自車両K1の運転支援装置100は、赤外線カメラ4の画像データの解析又は可視光カメラ5の画像データの解析により、オブジェクトH10,H11を検出する。また、他車両K2を検出する。
オブジェクトH10については、スクリーン判定処理を実行し、スクリーンとして画像を投影可能か否かを判定する。
また、オブジェクトH10,H11、及び他車両K2の位置関係を解析し、オブジェクトH11が、他車両K2の運転者の視界の範囲内か否かを判定する。
運転支援装置100は、オブジェクトH11の画像データを画像投影装置9に送信し、オブジェクトH10における所定の領域(スクリーンとして画像を投影可能な領域であるスクリーン領域)Sc1に、オブジェクトH11の画像を投影させる。
他車両K2の運転者からはオブジェクトH10の陰に存在するオブジェクトH11自体は視認できないものの、オブジェクトH10のスクリーン領域Sc1に表示された画像により、他車両K2の運転者はオブジェクトH11の存在(人の存在)を認識できるようになる。
以上、本第2実施形態によれば、自車両の周囲の人(例えば、他車両の運転者、或いは歩行者等)に対し、周囲の状況を報知することができる。
<第3実施形態>
本発明の第3実施形態について、図27〜図31を用いて説明する。
第3実施形態の運転支援装置101(図27参照)は、第1実施形態の運転支援装置1(図2参照)と比較して、視線検出ユニット10を備えている点が異なっている。
また、運転支援装置101は、図3の運転支援処理に代えて図29の運転支援処理(2)を実行する点が運転支援装置1と異なっている。
[視線検出ユニット]
視線検出ユニット10は、車両内に搭載され、画像認識により車両の運転者の眼球(瞳孔)の動きを追跡することで、視線を検出する装置である。
視線検出ユニット10は、CCDイメージセンサ10aと、LED光源10bと、画像処理部10cと備える。
LED光源10bは、目に見えない近赤外線を照射する。この近赤外線は、運転者の目に向けて照射される。この場合、近赤外線は目の角膜において反射し、反射の位置は、周辺と比較して明るい部分として検出され得る。また、反射の位置については、視線が変化しても(瞳孔の位置が変化しても)一定の位置を保つという特徴がある。
視線検出ユニット10は、CCDイメージセンサ10aにより目の画像を検出し、画像処理部10cにて、目の画像の解析を行う。
画像解析では、角膜における前述の反射位置(近赤外線の反射位置)と、瞳孔の位置とを検出する。
図28A,28Bに、画像解析例を示す。図28A,28Bは、何れも、運転者の目の撮像例を示す模式図である。ただし、視線の位置(瞳孔の位置)は異なっている。
瞳孔は目の中において他の部分よりも暗く、角膜反射は目の中において他の部分よりも明るい。この特徴を利用し、画像解析では、瞳孔及び角膜反射を検出するとともに、それらの位置関係を解析する。
そして、角膜反射は、角膜全体の最も盛り上がった部分に現れ、その位置はほぼ一定であるという特徴を利用し、角膜反射の位置に対する瞳孔の位置関係から、視線の方向を検出(推定)する。
視線の方向としては、図28A,28Bに図示されて示唆されるように、角膜反射の中心位置と瞳孔の中心位置とを結ぶ方向に基づき推定されても良い。或いは、角膜反射の位置と瞳孔の位置と視線の方向との関係についての研究データ及び過去の学習値等に基いて、視線の方向が推定されても良い。
[運転支援処理(2)]
次に、運転支援装置101が実行する運転支援処理(2)について、図29を用いて説明する。
図29の運転支援処理(2)は、図3の運転支援処理と比較して、S130の処理の後にS600の補正判定処理、及びS602の表示補正処理が実行される点が異なっている。S100〜S130の処理については、図3の運転支援処理と同一であるため、ここでは説明を省略する。
S600の補正判定処理は、制御ECU20が、視線検出ユニット10の検出結果に基き、運転者が警告画像を認識したか否かを間接的に判定し、その判定結果に基き警告画像を再構成(補正)する処理である。
S602の表示補正処理は、制御ECU20が、S600の補正判定処理の結果に基き、表示画像を補正する処理である。
補正判定処理について、図30を用いて具体的に説明する。
制御ECU20は、S600の補正判定処理(図30の補正判定処理)を開始すると、まず、S610にて、視線検出ユニット10と通信を行う。
次に、S612に移行し、視線検出ユニット10による解析データ(換言すれば、視線の移動を示すデータ)を取得する。
続くS614では、S612で取得した解析データに基き、視線が移動したとされる範囲にあるオブジェクトを抽出する。
次に、S616に移行し、S612及びS614の処理と同じ処理を所定回数反復して実行する。この処理は、運転者の視線の移動を所定期間監視する(追跡する)趣旨で実行される。
続くS618では、S614,S616にて抽出したオブジェクトのそれぞれについて、そのオブジェクトが存在する領域に、運転者の視線が所定回数以上移動してきたか否かを判定する。この処理は、運転者の視線の移動が1回のみの場合、移動先のオブジェクト(換言すれば、強調画像)を確実に認識したかどうか定かではなく、所定回数以上移動したことをもって認識がなされたと判定する趣旨で実行される。
S618において、所定回数以上移動していないと判定すると、当該処理を終了する。
一方、S618において、所定回数以上移動したと判定すると、その所定回数以上移動したと判定される領域のオブジェクト(人)に対応付けて、強調するための画像を消去する旨のフラグ(画像消去フラグ)を設定する。
次に、S504に移行して、強調画像生成処理を実行する。このS504の処理は、図14におけるS504の処理と同一である。
図30におけるS504の強調画像生成処理では、強調するための画像を消去するフラグが設定されたオブジェクト(人)を除いて、他のオブジェクト(人)について、改めて、S520〜S524の処理(図15参照)を実行する。
これにより、場合によっては、警戒レベルがより低いグループに属していたオブジェクト(人)が、警戒レベルがより高いグループに繰り上げられ、ひいては警戒レベルがより高い態様の画像が設定され得る。
図30に戻り、S504の後は当該処理を終了する。
次に、S602の表示補正処理について、図31を用いて説明する。
S602の表示補正処理(図31の表示補正処理)を開始すると、まず、S630にて、画像消去フラグが設定されているか否かを判定する。画像消去フラグは、前述のS620の処理にて、オブジェクト(人)に対応付けて設定される。
S630にて画像消去フラグが設定されていないと判定すると、S634に移行する。
一方、S630にて画像消去フラグが設定されていると判定すると、S632に移行する。
S632では、画像消去フラグに対応するオブジェクト(人)について、そのオブジェクト(人)を強調するための画像を消去する指令を生成し、HUD7に送信する。これにより、HUD7に、消去対象の画像の表示を中止させる(消去させる)。次に、S634に移行する。
S634では、画像の表示態様が再設定されたか否かを判定する。換言すれば、図30におけるS504の処理が実行されたか否かを判定する。
S634にて画像の表示態様が再設定された(S504の処理が再実行された)と判定すると、S636に移行する。
S636では、図30におけるS504の処理結果に基き、表示する画像を表す信号を、HUD7に送信する。これにより、その画像を、HUD7を介して車両のフロントウィンドウに重畳表示する。その後、当該処理を終了する。
以上のように、本第3実施形態の運転支援装置101は、車両の周辺のオブジェクトを強調する画像をフロントウィンドウに重畳表示する一方、車両の運転者がその画像を認識したか否かを、運転者の視線を検出することで判定する。そして、車両の運転者が認識したという判定結果が得られた画像については表示を中止する(換言すれば、消去する)。そして、表示態様を再設定する。これにより、他の画像(他のオブジェクト(人)を強調するための画像)を、さらに強調して表示する。また、画像が設定されていなかったオブジェクト(人)について、新たに画像を設定して強調することもできるようになる。
これによれば、運転者に対しより効果的又は効率的にオブジェクトの存在を認識させることができるようになる。
例えば、同一のオブジェクトについて、運転者が認識しているにもかかわらずそのオブジェクトを強調するための画像が表示され続けることを回避することができ、実用性がより向上する。
本第3実施形態において、視線検出ユニット10が視線検出手段の一例に相当し、S618の処理が識別手段の一例に相当し、S620及びS602の処理が消去手段の一例に相当する。
<第4実施形態>
本発明の第4実施形態について説明する。
本第4実施形態では、運転支援装置の構成は、第1実施形態の運転支援装置1の構成(図2参照)と同一である。
一方、本第4実施形態では、図13の認識判定処理に代えて、図32の認識判定処理(2)が実行される点が異なっている。
図32の認識判定処理(2)は、図13の認識判定処理と比較して、S650〜S658の処理が実行される点が異なっている。なお、S400〜S408の処理については、図13の認識判定処理と同一であるため、適宜説明を省略する。
図32の認識判定処理(2)では、制御ECU20は、S404の処理において両目を検出できないと判定すると、S650に移行する。
S650では、オブジェクト(人)に対して警報を発する警報処理を実行する。具体的には、スピーカユニット8から所定の音(音声を含む)を発する処理を実行する。警報は、オブジェクト(人)に対して自車両の存在を気付かせるために発せられる。また、オブジェクト(人)が自車両の存在に気付いたか否かを判定するために発せられる。なお、車両のヘッドランプを点灯又は点滅させることにより警報がなされるようにしても良い。
次に、S652に移行し、赤外線カメラ4又は可視光カメラ5の画像データを再取得する。
続くS654では、S652にて再取得した画像データに基き、同一のオブジェクト(人)における顔の領域を再抽出する。
次に、S656に移行し、抽出した顔について、解析を行う。より具体的には、エッジ検出及びパターンマッチング等により「目」を抽出する。
そして、S658にて、両目を検出できた否かを判定する。
S658にて両目を検出できたと判定した場合には、自車両はオブジェクト(人)の視界の範囲内に存在する可能性が高いと判断し、この判断に基づき、オブジェクト(人)は自車両の存在を認識していると簡易判定して、S406に移行する。
一方、S658にて両目を検出できないと判定した場合には、自車両はオブジェクト(人)の視界の範囲内に存在しない可能性があると判断し、この判断に基づき、オブジェクト(人)は自車両の存在を認識していないと簡易判定して、S408に移行する。
以上、本第4実施形態によれば、運転支援装置1は、オブジェクト(人)が自車両の存在を認識していないと判定したならば、自車両の存在を気付かせるために警報を発する。これにより、オブジェクト(人)に、自車両の存在を認識させることができる。さらに、警報を発した後のオブジェクト(人)の顔を再解析することにより、オブジェクト(人)が自車両の存在に気付いたか否かを判定する。これにより、危険性(警戒レベル)を、オブジェクト(人)の状態に即して適切に設定できるようになる。ひいては、より適切に、運転者への警告のための画像表示を行うことができるようになる。
<第5実施形態>
本発明の第5実施形態について説明する。
本第5実施形態では、運転支援装置の構成は、第1実施形態の運転支援装置1の構成(図2参照)と同一である。
一方、本第5実施形態では、図33の解析処理9がさらに実行される点において、第1実施形態の運転支援装置1と異なっている。
以下、解析処理9について具体的に説明する。
解析処理9におけるS400〜S404の処理は、図13におけるS400〜S404の処理(及び図32におけるS400〜S404の処理)と同一である。
また、解析処理9におけるS650〜S658の処理は、図32におけるS650〜S658の処理と同一である。これらの処理については説明を省略する。
制御ECU8は、図4のS152の解析処理として、図5〜図12(及び図13)に示される解析処理1〜7に加え、解析処理9を実行し、解析処理9において、S404又はS658において両目を検出できたと判定すると、S660に移行する。
S660では、両目を検出できたと判定した対象のオブジェクト(人)について、警戒レベルを2ポイントデクリメントする。なお、2ポイントという数値は一例であり、どのような値でも良い。
S660の処理の趣旨は、S404又はS658における肯定判定によりオブジェクト(人)が自車両の存在を認識している(又は存在に気付いた)と判断できることに基づき、そのオブジェクト(人)については警戒レベルを下げる、という趣旨である。
以上、第5実施形態によれば、自車両の存在を認識しているオブジェクト(人)については警戒レベルを下げ、これにより、その他のオブジェクト(人)(例えば、自車両の存在を認識していないオブジェクト(人))に対する警戒レベルが相対的に上がることとなる。これにより、より注意すべきオブジェクト(人)について、より強調された画像が表示され得るようになる。よって、運転者に対しより効果的又は効率的にオブジェクトの存在を認識させることができるようになる。
<変形例>
以下、表示態様の他の例について説明する。
[変形例1]
変形例1について図34を用いて説明する。図34の例では、オブジェクトH7,H8が抽出され認識されている。
図34の例は、図19の例と同様、オブジェクトの移動方向を検出して矢印にて表示するようになっている(矢印Y7,Y8)。
加えて、図34では、オブジェクトH7,H8の所定時間後の位置、及び進路が推定されて表示されている。
オブジェクトH7について、枠W7で囲まれる位置が現在の位置であり、これを、時刻tAにおける初期位置とする。
運転支援装置1は、赤外線カメラ4又は可視光カメラ5の画像データの取得及び解析を繰り返し、オブジェクトH7の動きを追跡する追跡処理を実行する。そして、その追跡処理に基づき、オブジェクトH7の移動速度及び移動方向を推定する。
そして、所定の時間tB後のオブジェクトH7の位置及び速度を推定し、その推定した位置に重畳するように、オブジェクトH7の画像を表示する。この画像は点滅表示される。
さらに、時刻tAを基準として、所定の時間tC(tB<tC)後のオブジェクトH7の位置及び速度を推定し、その推定した位置に重畳するように、オブジェクトH7の画像を表示する。この画像は、点滅表示される。
また、所定の時間tB後の画像及び所定の時間tC後の画像は、オブジェクトH7があたかも移動しているかのように、連続的に表示される。
加えて、時刻tAにおける初期位置から所定の時間tC後の位置までの軌跡を辿るように、移動推定矢印YF7が表示される。移動推定矢印YF7は、オブジェクトH7の移動進路であって、予測される(或いは移動する可能性が高いと判断される)移動進路を示す。
次に、オブジェクトH8についても同様である。オブジェクトH8について、枠W8で囲まれる位置が現在の位置であり、これを、時刻taにおける初期位置とする。
追跡処理により、所定の時間tb後のオブジェクトH8の位置及び速度を推定し、その推定した位置に重畳するように、オブジェクトH8の画像を表示する。この画像は点滅表示される。
さらに、時刻taを基準として、所定の時間tc(tb<tc)後のオブジェクトH8の位置及び速度を推定し、その推定した位置に重畳するように、オブジェクトH8の画像を表示する。この画像は、点滅表示される。
また、所定の時間tb後の画像及び所定の時間tc後の画像は、オブジェクトH8があたかも移動しているかのように、連続的に表示される。なお、オブジェクトH8は自車両に接近しており、オブジェクトH8の画像は次第に大きくなるように表示される。
加えて、時刻taにおける初期位置から所定の時間tc後の位置までの軌跡を辿るように、移動推定矢印YF8が表示される。移動推定矢印YF8は、オブジェクトH8の移動進路であって、予測される(或いは移動する可能性が高いと判断される)移動進路を示す。
[変形例2]
変形例2について図35を用いて説明する。
図35の例では、車両K3に運転支援装置1が搭載されている。車両K4は他車両である。なお、車両K3,K4は、同じ進行方向(図面において下から上(手前から奥))に走行している。
車両K3の前に、横断歩道を横断する歩行者(オブジェクト)H12,H13が存在する。
車両K4の運転者にとっては、オブジェクトH12,H13が車両K3の陰に入り視認し難くなっている。
車両K3の運転支援装置1は、オブジェクトH12,H13と車両K4との位置関係を解析し、車両K3からオブジェクトH12,H13を視認し難いと判定すると、自車両の例えばリアウィンドウにおける領域Sc2に、オブジェクトH12,H13の画像を表示するようにしても良い。また、この際、車両K4の運転者に注意を促す画像やメッセージ等を表示するようにしても良い。
これによれば、車両K4の運転者がオブジェクトH12,H13の存在を認識しやすくなり効果的である。
[変形例3]
変形例3について図36を用いて説明する。
ここで、図17において、人及び車両について、強調のための画像を表示する例について説明した。
図36の例は、人及び車両に加え、車両周辺のその他のオブジェクトについて、強調のための画像を表示する例を示している。加えて、そのオブジェクトの名称が表示されるようになっている。
具体的には、図36の例では、歩行者及び車両に加えて、信号機、道路標識、看板、及び路面表示を抽出して認識し、強調のための枠Wをそれぞれに対応付けて表示するようにしている。加えて、それぞれの枠Wに対応付けて、名称表示領域Nを設定し、その名称表示領域Nに、各オブジェクトの名称を表示している。このように、文字を表示することによっても、運転者の注意をひく効果が向上することが期待され得る。
<他の実施形態>
上記実施形態では、運転支援装置1が赤外線レーダ2、ミリ波レーダ3、赤外線カメラ4、可視光カメラ5を備える例について説明した。
一方、赤外線レーダ2の搭載を省略し、ミリ波レーダ3にて、近距離及び遠距離のオブジェクトを検出するように構成しても良い。
上記実施形態では、運転支援装置1が赤外線レーダ2、ミリ波レーダ3、赤外線カメラ4、可視光カメラ5を備える例について説明した。
一方、赤外線レーダ2、ミリ波レーダ3の搭載が省略されても良い。この場合、オブジェクトまでの距離については、赤外線カメラ及び可視光カメラのそれぞれによって検出される情報(オブジェクトまでの距離の情報)を用いれば良い。
上記実施形態では、運転支援装置1がミリ波レーダ3を備える例について説明した。
一方、運転支援装置1は、ミリ波レーダ3に代えて、レーザレーダを備えても良い。或いは、ミリ波レーダとレーザレーダとの両方を備えても良い。レーザレーダは、レーザ光を用いて周辺の状況を探知するレーダである。具体的には、レーザレーダは、パルス状のレーザ光をスキャン(2次元走査)し、オブジェクトにて反射して返ってくるレーザ光を受光する。そして、レーザレーダは、レーザ光の出射時刻と反射光の受光時刻との時間差、及び反射光の強度を計測して、それらに基づきオブジェクトを検出する。レーザレーダでは、立体物のほか、車線境界線(車両通行帯及び歩道等の境界をなす白線等)を検出することが可能である。
上記実施形態において、運転支援装置1,100,101は、赤外線レーダ2と、ミリ波レーダ3と、赤外線カメラ4と、可視光カメラ5と、運動量検出ユニット6と、ヘッドアップディスプレイ7と、スピーカユニット8と、画像投影装置9と、視線検出ユニット10と、の全てを搭載していても良い。
上記実施形態では、オブジェクトを強調するための画像(オブジェクトを囲む画像)を表示する例について説明したが、オブジェクトそのものの画像を生成して表示するようにしても良い。この場合、赤外線カメラ4A,4B又は可視光カメラ5A,5Bにより、オブジェクトを立体的に捉えて立体画像を生成し、その立体画像を表示するようにしても良い。
上記実施形態において、照度センサをさらに備え、照度センサの検出データに応じて、赤外線カメラ4と可視光カメラ5とを切り換えて使用しても良い。具体的には、照度が所定の閾値以上の場合(例えば、日中)、可視光カメラ5の画像データを用い、照度が所定の閾値未満の場合(例えば、夕方〜夜中、曇り、又は雨天等の際)、赤外線カメラ4のデータを用いるようにしても良い。
上記実施形態において、オブジェクト(人)が携帯端末を操作しているか否かは、携帯端末と通信することにより判定されるようにしても良い。
例えば、運転支援装置1,100,101において、Buletooth(登録商標)機器等を搭載し、車両の周辺の携帯端末とのペアリングを試みる。ペアリングが確立した場合には、携帯端末との間でデータ通信を行い、携帯端末が操作されているか否かを判断するためのデータを携帯端末より取得しても良い。また、携帯端末に、携帯端末の利用者が移動しながらその携帯端末を使用していることを検出するアプリケーションがインストールされている場合には、そのアプリケーションと連動して、携帯端末が操作されていることを検出しても良い。さらに、運転支援装置1,100,101から携帯端末に警告画像を送信してその画像を携帯端末に表示させ、携帯端末の利用者に車両の存在を認識させるようにしても良い。
上記実施形態では、解析処理1〜9について説明した。そして、その解析処理1〜9が、並列に又は所定の順序で順次実行される例について説明した。
一方、解析処理1〜9の何れか1つが実行された後、その解析処理の結果に基き表示データが生成され(図14の処理が実行され)、その後、次の解析処理が実行され、その解析処理の結果に基き改めて表示データが生成されても良い(換言すれば、表示データが、解析処理の実行毎に生成(補正)されても良い)。
上記実施形態において、車車間通信ユニットにて他車両と通信を行い、他車両の運転者に警告を行うようにしても良い。或いは、他車両から警告情報を受信するようにしても良い。
上記実施形態において、自車両の位置を車両位置センサ12を介して取得し、その取得した位置に基づき、オブジェクトとの位置関係を把握するようにしても良い。
また、上記実施形態において、S152の解析処理として、解析処理1〜9(図5〜図12(及び図13)、図24、図33)が実行される例について説明した。ここで、解析処理の他の例について説明する。
[解析処理10]
解析処理10について図37に基づき説明する。解析処理10は、天候を解析するための処理であり、より具体的には、雨天を検出する処理である。
解析処理10は、制御ECU20によって所定のタイミングで繰り返し実行され得る。
解析処理では、まず、S670において、可視光カメラ5により撮像された画像の画像データを取得する。可視光カメラ5は、車両内に配置されて車両内から車両の窓ガラスを介して車両の周囲を撮像するように設けられる(図1参照)。ここでは、可視光カメラ5により撮像された画像の画像データとして、車両の窓ガラスの領域の画像を含む画像データを取得する。
次に、S672に移行し、S670にて取得した画像データから、窓ガラスの領域における雨滴の候補(窓ガラスに付着した雨滴の候補)を検出する。図38Aに雨滴の画像の一例を示す。雨滴が車両の窓ガラスに付着すると、雨滴の部分はにじんだようになり、窓ガラスの部分の透明度とは異なる透明度を有して検出される。雨滴と窓ガラスとの境界においては、隣り合うピクセルの色度(濃度)の変化が急峻となる部分(エッジ)が現れる。このようなエッジに基づき、雨滴の領域を検出する。
図37に戻り、S672の後はS674に移行し、S672で検出した雨滴候補についてパターンマッチングにより雨滴か否かを決定する。
具体的には、雨滴の画像のモデルを予め記憶装置に記憶しておく。記憶装置としては、ROM20b,フラッシュメモリ20d等が考えられるが、他の記憶装置でも良い。
図38Bには、記憶装置に予め記憶される雨滴の画像のモデルの一例として、モデル1,2,3,・・・nが示されている。モデル1,2,3,・・・nとしては、雨滴を表す代表的なモデルが任意に選択されて記憶され得る。制御ECU20において、雨滴の画像のモデルを蓄積する機能(学習機能)が付与されても良い。
そして、S672で検出した雨滴候補と、記憶装置に記憶されたモデル1,2,3,・・・nとを比較照合し、雨滴の候補とモデルとの間で、面積(ピクセル数)、色度(濃淡)、形状等のパラメータについて類似度合いを演算する。ここでは、パラメータの少なくとも何れかを用いれば良い。そして、その少なくとも1つのパラメータにおいて所定割合だけ一致しているならば雨滴の候補を雨滴と決定するようにしても良い。
なお、S672及びS674の処理は、S670において取得された画像データ中にある雨滴の候補の全てについて実行され得る。或いは、画像データから所定の領域を抽出してその抽出した領域に限ってS672及びS674の処理が実行されても良い。
S674の後はS676に移行し、雨滴量(換言すれば、降雨量)を検出する。例えば、雨滴の数、及び/又は画像中において雨滴が占める面積の割合等から、雨滴量を検出することができる。
次にS678に移行し、雨滴量が所定量以上か否かを判定する。雨滴量が所定量以上でない(所定量未満である)と判定すると、そのまま当該処理を終了する。一方、雨滴量が所定量以上であると判定すると、S680に移行し、警戒レベルを1ポイントインクリメントする。
このような構成によれば、雨滴を精度良く検出することができ、ひいては雨天をより確実かつ正確に検出することができる。そして、雨天であることが検出された場合には、運転支援装置1,100,101において警戒レベルが上がり、より適切な方法(例えば、より目立ち得る方法)で、車両の周囲の対象物を表示し得るようになる。天候は運転者の視界の良否に大きく影響し、特に雨天の場合には車両の運転者にとっては車両の周囲を認識し難くなることが通常である。これに対し、本願発明によれば、雨天であることを検出してそのことに応じてより見やすい態様で表示を行うことができるので、運転の安全に資することができる。
[解析処理11]
ところで、天候は、解析処理10とは別の処理によって認識されても良い
具体的には、天候は、図39に示す解析処理11によって認識されても良い。
図39の解析処理11では、まず、S682にて、外部との通信により天候情報を取得する。具体的には、運転支援装置1,100,101に、通信回線網(例えばインターネット網)に接続するための通信装置を設ければ良い。なお、このような通信装置については周知であり、具体的な説明及び図示は省略する。そして、運転支援装置1,100,101は、その通信装置を介して例えばインターネット網に接続して天候情報を取得すれば良い。
次に、S684に移行し、車両が備える、照度(野外の照度)を検出するための照度センサ(図示省略)から照度データを取得する。
次に、S686に移行し、車両が備える、外部温度を検出するための温度センサ(図示省略)から温度データを取得する。
次に、S688に移行し、S682〜S686で取得したデータに基づいて、雨天であるか否かを総合的に判定する。
例えば、S682の処理のみでも天候を把握することは可能であるとも言えるが(例えば天気予報の情報を取得することで可能)、天気予報が100%正確であることは何ら保証されず、また、ピンポイントのエリアについての天気予報はなされないことも多い。
そこで、ここでは、一例として、照度センサ及び温度センサを用い、天気予報のデータに加えて野外の照度及び温度を検出して雨天か否かの判定に用いることで、より精度良く天候を検出することができる。この他、湿度を検出して用いるようにしても良い。
S688の後はS690に移行し、S682〜S688の処理に基づき天候が晴であるか否かを判定する。晴であると判定すると、S694に移行する。
S694では、警戒レベルを、現状の警戒レベルに維持する(換言すれば、警戒レベルを変更する処理を実行しない)。そしてその後、当該処理を終了する。
S690において、天候が晴でないと判定すると、S692に移行する。S692では、天候がくもりであるか否かを判定する。くもりであると判定すると、S696に移行する。S696では、警戒レベルを1ポイントインクリメントする。そしてその後、当該処理を終了する。
S692において、くもりでないと判定すると、雨、雪、等であると判定してS698に移行し、警戒レベルを2ポイントインクリメントする。
解析処理11によれば、前述のように天候をより精度良く検出(又は判定)することができ、ひいては、天候に応じたより適切な運転支援を実現し得る。具体的には、天候に応じて警戒レベルを適切に設定することができ、適切に設定された警戒レベルに応じて、車両の周囲の対象物を強調表示すること、及び/又は危険に応じて警告表示を行うことを適切に制御することができる。
[解析処理12]
次に、解析処理12について図40を用いて説明する。
本実施形態の運転支援装置1,100,101は、上記の解析処理1〜11に加えて、或いは上記の解析処理1〜11に代えて、解析処理12を実行しても良い。解析処理12は、スマートフォン、タブレット、携帯電話等の携帯通信端末側の機能と連動して、ユーザが移動しながら(例えば歩きながら)携帯通信端末を操作していることを検出する(より具体的には、そのような携帯通信端末を検出する)処理である。
ユーザが歩きながら携帯通信端末を操作するケースでは、ユーザの視線、関心、及び注意力等が携帯通信端末に向かってしまい、周囲の状況に注意力が向かわず、非常に危険であることが指摘されている。
かかる点に鑑み、携帯通信端末側において、ユーザが移動しながらその携帯通信端末を操作していることを検出する機能、アプリケーションが用意されている場合がある。具体的には、GPS機能等にて携帯通信端末の位置が変動しているか否か、ひいてはユーザが移動しているか否かが検出される。そして、携帯通信端末、又はユーザが移動中である際に携帯通信端末が操作されているか否かが検出される。
このような移動と操作とが重複していることが検出されると、その旨の警告が発せられる。
一例では、携帯通信端末の表示画面に警告を表示したり、音を発したり、或いは周囲の端末に警報(音声による警報、警告を表す信号)を発したりする。
解析処理12は、携帯通信端末が上記のような機能、アプリケーションを有していることが前提となる。
解析処理12では、まず、S700において、周囲に存在する携帯通信端末を探索する処理を実行する。この探索では、Bluetooth(登録商標)信号、又は携帯通信端末から発せられるその他無線信号を検出することで探索可能である。一例では、運転支援装置1,100,101から、Bluetooth(登録商標)にてペアリングを行うためのペアリング信号を送出し、そのペアリング信号に対する応答信号の有無を検出する。或いは、携帯通信端末から送出されるペアリング信号の有無を検出する。又は、他の例では、可視光カメラ5からの画像データを用いて画像処理により携帯通信端末を検出するようにしても良い。
次に、S702に移行し、S700の処理に基づき、運転支援装置1,100,101の周囲に携帯通信端末が存在するか否かを判定する。
携帯通信端末が存在しないと判定すると、そのまま当該処理を終了する。一方、携帯通信端末が存在すると判定すると、S704に移行する。
S704では、S700,702にて検出された携帯通信端末から、ユーザが移動しながら携帯通信端末を操作していることを警告する警告信号を受信したか否かを判定する。なお、この種の警告信号は、周囲の通信機器において無条件に検出できるように仕様が定められることが好ましい。例えば、Bluetooth(登録商標)の機能を用いてペアリングが確立させるまでもなく、前記の警告信号だけは互いに検知できることが好ましい。ただし、これは仕様であるとともに本願発明の本質ではないためここでは詳細には記載しない。
S704において、警告信号を受信していないと判定すると、そのまま当該処理を終了する。
一方、警告信号を受信したと判定すると、S706に移行し、HUD7にて警告表示を行う。さらに、S708に移行し、警戒レベルを1ポイントインクリメントする。そしてその後、当該処理を終了する。
このような解析処理12によれば、移動しながら携帯通信端末を操作している人を検出して警戒レベルを上げることができ、運転者に適切に注意喚起を行うことができる。
[車両制御処理]
本例の運転支援装置1,100,101は、警戒レベルに応じて車両の動作を制御しても良い。かかる例について、図41A,41Bを用いて説明する。
運転支援装置1,100,101は、図41Aの車両制御処理を所定のタイミングで繰り返し実行する。
この車両制御処理では、まず、S710において、警戒レベルが所定レベル以上であるか否かを判定する。警戒レベルが所定レベル以上でないと判定すると、そのまま当該処理を終了する。
一方、警戒レベルが所定レベル以上であると判定すると、S712に移行し、車両を制御するための制御指令を出力する。この制御指令は、具体的には車両の各部を制御する電子制御装置(ECU)に出力され得る。そして、制御指令を受信したECUが制御対象を制御する。S712の処理の後は当該処理を終了する。
この車両制御処理による車両制御としては、例えば、スロットルバルブの開度を制御するスロットル制御、制動装置(ブレーキ)を制御する制動制御、車両の走行経路又は走行方向を制御する操舵制御、等を挙げることができる。
スロットル制御としては、スロットル開度を抑える(換言すれば、加速を禁止する)制御であっても良い。制動制御としては、ブレーキを機能させて車両を減速させる制御であっても良い。操舵制御としては、例えば自車両の周囲の対象物であって衝突の可能性が考えられる対象物から自車両が離れるように、自車両の進行経路をコントロールするような制御であっても良い。また、その他、警報を行っても良い。例えば、ハンドルに振動機構を内蔵させ、警戒レベルに応じてその振動機構を振動させ、振動をもって運転者に警報を伝達しても良い(以下、この種の警報を警報制御とも称する)。
そして、運転支援装置1,100,101は、図41Bに示すような、警戒レベルと車両制御の内容とを対応付けたテーブル情報を有している。このテーブル情報は、記憶装置(ROM20b等)に予め記憶され得る。図41Bのテーブル情報によれば、次のように車両制御が実現される。
警戒レベルの値が−(マイナス)から0の場合、車両制御は実行しない。
警戒レベルの値が1から3の場合、警報制御及びスロットル制御を行う。
警戒レベルの値が4から6の場合、警報制御、スロットル制御、及び制動制御を行う。
警戒レベルの値が7以上の場合、警報制御、スロットル制御、制動制御、及び操舵制御を行う。
ここで、警戒レベルの区分けは一例であることは言うまでもない。警戒レベルの区分けはさらに多段的に細分化しても良いし、逆に粗くしても良い。また、実行される解析処理(本例では、解析処理1〜12を例示している)の種類によって警戒レベルのばらつきは変動し得るため、実行される解析処理の種類に応じてテーブル情報は最適化され得ることが当業者であれば理解できる。
このような構成によれば、警戒レベルに応じて、表示態様だけでなく、車両の動作が制御されるため、車両の安全な運転により資することができる。具体的には、警戒レベルに応じて表示態様が制御されることで車両の運転者への注意喚起がなされ、運転者自身に対する安全運転を促すことができる一方で、運転支援装置1,100,101の判断処理により運転者の判断が入り込むまでもなく安全運転を実現すべく車両制御が実行される。
これにより、運転者自身による運転に加えて、運転支援装置1,100,101の支援により、車両の安全な運行がより高いレベルで実現される。また、仮に運転者の運転技術が未熟で運転者自身による安全運転の期待値が低い場合でも、運転支援装置1,100,101の制御によって車両の安全な運行が実現され得る。
[表示制御処理、表示態様例]
本願発明による表示制御処理、及び表示態様例について、図面を用いてさらに説明する。
まず、図42A,42Bに基づき説明する。
図42A,42Bは、警戒レベルに応じて表示のコントラストを制御する一例を示す。ここでのコントラストとは、強調表示したい対象(人、障害物等)と、その対象以外の表示物との間のコントラストが意図されている。
図42A,42BにおけるテーブルD4に示されるとおり、警戒レベルと、表示の際のコントラストのレベルとが対応付けられていても良い。この情報は、テーブル情報として、記憶装置(ROM20b等)に記憶され得る。運転支援装置1,100,101は、HUD7によって画像を表示する際、テーブルD4の情報を記憶装置から読み出し、設定されている警戒レベルに対応するコントラスト情報を読み出す。コントラスト(コントラスト比)は、警戒レベルが−(マイナス)から0の場合は低、警戒レベルが1〜3の場合は中、警戒レベルが4〜6の場合は高、警戒レベルが7以上の場合は最高、というように設定されても良い。
図42Aはコントラストが低の場合の例を示す。図42Bはコントラストが最高である場合を示す。
図42Aの例では、強調表示の対象としての対象物D0と、その周囲(背景等)とのコントラストが低く、対象物D0とその周囲との明暗の差は小さくなっているが、警戒レベルが低い場合には、コントラストを小さくすることによるメリットを優先させても良い。コントラストを小さくすることによるメリットとしては、場合によっては目の疲れを抑制し得ること、自然さが優先され実際の景色に近くなる場合があること、などが考えられる。
図42Bの例では、対象物D0と、その周囲(背景等)とのコントラストが高く、対象物D0とその周囲との明暗の差は大きくなっている。このため、対象物D0がより強調され、よりはっきりと明確に視認できるようになっている。警戒レベルが高い場合には、このようにコントラストを高く設定することにより、対象物D0がより強調され得るようにしても良い。
コントラストの設定に関して、画像中の代表的な領域ごとに濃淡が設定されても良い。
この点について、テーブルD3,D3’を用いて説明する。
テーブルD3,D3’には、画像中の代表的な領域のそれぞれについて設定された濃淡の情報が含まれている。テーブルD3,D3’において、ブロックDa,Da’は、対象物D0の領域の濃淡を示し、ブロックDb,Db’は対象物D0の背景の植栽の領域の濃淡を示し、ブロックDc,Dc’は対象物D0の背景の地表面の濃淡を示し、ブロックDd,Dd’は道路の濃淡を示している。
テーブルD3,D3’では、プラスの値が大きいほど濃く(黒に近く)、プラスの値が小さい、ないしマイナスの値が大きいほど薄い(白に近い)態様となっている。
各ブロックの濃淡の相対関係は、コントラストのレベル(低、中、高、最高)に応じて、デフォルト値に応じて自動設定されても良い。
或いは、各ブロックの濃淡の相対関係は、ユーザ(運転者)が手動で設定できるようにしても良い。例えば、メニュー表示D2を設け、メニュー表示D2が選択されると各種設定画面に移行し、そのような設定画面において、コントラストを設定できるようにしても良い。
これによれば、ユーザ(運転者)にとって最も見やすくなるコントラストをユーザ(運転者)自らが設定できるため、利便性が向上する。また、個々のユーザ(運転者)毎に表示態様を最適化することができ、運転支援の効果を最大化することが可能となる。
表示態様については、ユーザ(運転者)の技量(優良運転者か否か)、年齢、性別、事故歴、違反歴、身体能力(主には視力)、又は運転時の体調等に応じて調整されても良い。
例えば、運転免許証を読み取る機構を設け、運転免許証を読み取ることで自動的に上記の情報のいくつかが取得されるように構成されても良い。視力、運転時の体調など、運転免許証から読み取ることができない情報は、手動入力され得るように構成されても良い。
図42A,42Bにおいて、表示D1は、表示制御が正常に機能していることを示すための表示である。表示の制御に何らかの異常が検知された場合には、表示D1の表示内容は、異常が生じている旨の内容に変更される。
本願の実施形態では、既に述べたように、対象物が強調表示されるが、強調表示の態様としては、枠で囲む、ハイライト表示する、表示色を変更する、点滅させる、シンボルを隣接表示する、など、様々な態様が用意されており、さらに、そのような強調表示が解除されることもあり得る。つまり、表示態様はリアルタイムで変わり得る。
この場合、表示の制御に何らかの異常が生じて誤った表示がなされていたとしても、ユーザ(運転者)がその異常を把握できない限り、ユーザ(運転者)は表示が誤っていることに気付かずに誤った表示に基づいた認識を行うことになってしまうであろう。つまり、本来意図された結果から外れた誤認が生じ得る可能性がある。
この点に鑑み、表示D1のように、表示制御が正常に機能していることを示すための表示を設けることで、表示中の画面が正常な画面であるという信頼をユーザ(運転者)に抱かせることができ、かつ、異常が生じた場合にはその旨をユーザ(運転者)が認識できるようになり、謝った表示に起因した誤認の発生を抑制することができる。
なお、異常の検出方法(検出処理)については通常知られている一般的な方法を適用することができ、ここでは詳細説明を省略する。
ただし、異常の検出方法(検出処理)が一般的であるとしても、その実行タイミングについては種々の工夫が考えられる。
一例では、以下のタイミングで実行することが考えられる。
(1)車両のイグニションスイッチがオンされたタイミング
(2)車両のイグニションスイッチがオンされた後、車両が実際に走行を開始するタイミング(例えば、タイヤの回転が検出されるタイミング)
(3)走行後、車両が一旦停止したタイミング(信号、交差店等で停止したタイミング)(4)車両の走行中における任意のタイミング(繰り返しの実行も含む)
上記(1),(2)のタイミングは、運転がまさに開始されるというタイミングであり、そのようなタイミングで異常の検出処理が実行されてひいては表示D1が表示されることで、ユーザ(運転者)にとってこれからの運転に対して安心感を抱かせることができる。
上記(3)のタイミングは、車両が停止しているため、危険度は小さくなっており、表示制御の処理負荷は小さくなっているか、或いは表示制御を敢えて省略して表示制御のための処理負荷を抑えるということを行っても良い。そして、そのようなタイミングで異常の検出処理を実行するようにしたならば、処理負荷が過度に大きくなることを抑制し得る。また、処理負荷の増大に起因して表示制御に例えば何らかの異常が生じるリスク(例えば処理の遅れ等が生じるリスク)を抑えることができる。このため、安全性、信頼性の高い運転支援に資することができる。
上記(4)のタイミングは、走行中のタイミングであり、処理負荷等の観点で表示制御に支障が出ない限り、異常の有無をリアルタイムでユーザ(運転者)に通知することができ、ユーザ(運転者)にとってはより安心である。
また、表示D1について、常時表示するようにしても良いし、任意のタイミングで表示するようにしても良い。
任意のタイミングで表示する場合、上記(1)〜(4)に例示したような、異常の検出処理の実行タイミングに合わせて表示タイミングが設定されても良い。具体的には、異常の検出処理が実行されたタイミング(処理が終了したタイミング)に同期して、表示D1が表示されても良い。
次に、別の表示態様例について図43に基づき説明する。
図43は、車両が走行する領域(道路等)における危険領域を強調表示する例である。この例は、土砂災害が発生して道路の一部が土砂で寸断されている場合の例である。
運転支援装置1,100,101は、前述のように可視光カメラ5を備えており、すでに説明したように可視光カメラ5による撮像画像を画像処理して画像に映りこんだ検出対象、又はその検出対象物が占める領域等を認識することができる。そこで、運転支援装置1,100,101は、土砂崩れの領域を検出し、強調表示D6をその土砂崩れの領域に重畳表示し得るように構成されても良い。
この場合、強調表示D6に加えて、その強調表示D6に隣接してテキスト表示D5が表示されても良い。これらのテキスト表示D5、及び強調表示D6は、点滅表示されても良い。また、表示色が変化するように表示されても良い。例えば、災害の規模に応じて表示態様を変更しても良い。
さらに、土砂崩れが発生した領域以外において、土砂崩れの恐れのある領域を追加で強調表示するようにしても良い。この場合、土砂崩れ対策がなされていない領域(例えば、コンクリート等で覆われていない領域)、水及び/又は僅かな土砂等が表面を流れているような領域等を画像処理により検出してその領域を強調表示しても良い。
土砂災害等に遭遇することは確率的には低いかもしれない。しかし、そうであるからこそ、実際に遭遇した場合には運転者において理解が追いつかず、換言すれば認識が遅れ、重大事故につながる可能性もある。そこで、そのような災害時の強調表示にも対応することで、運転支援の信頼性、安全性をより高めることができる。
次に、別の表示態様例について図44に基づき説明する。
図44は河川沿いの堤防を走行している場面を想定しており、そのような場面において、河川の水位の安全度又は危険度(換言すれば、河川の氾濫の危険性)を表示する例である。
例えば、河川の水位を検出し、危険度合いをインジケータ表示するようにしても良い。具体的には、インジケータ表示D10を設けても良い。インジケータ表示D10としては、グラデーション表示を採用しても良い。
インジケータ表示D10の近辺には、危険表示D12、及び安全表示D13を設けることができる。
そして、河川の水位に応じて、現在水位枠D14を、インジケータ表示D10において重畳表示する。現在水位枠D14の表示位置が危険表示D12に近いほど、河川の水位が高く危険であることを示し、現在水位枠D14の表示位置が安全表示D13に近いほど、安全であることを示す。
テキスト表示D11は、現在水位枠D14に隣接して設けられる。テキスト表示D11としては、危険度(又は安全度)がテキストにて表示されても良い。
河川が占める領域には、強調表示D15を重畳表示させることができる。強調表示D15の表示色及び模様等の表示態様は、現在水位枠D14にて囲まれる領域の表示色及び模様等の表示態様と一致させることが好ましい。
この場合、運転支援装置1,100,101の制御ECU20は、現在水位枠D14によって囲まれる領域における表示態様のデータを抽出したうえで、その表示態様を強調表示D15の表示態様に適用する、という処理を実行することとなる。
このような例によれば、ユーザ(運転者)は、図43で例示した場合のように災害の事実を認識するというよりも、災害発生の潜在的な可能性を認識することができる。また、危険度を示すインジケータ表示D10にて、ユーザ(運転者)は危険度を直感的に把握することができる。また、強調表示D15の表示態様がインジケータD10の表示態様(現在水位枠D14で囲まれる領域の表示態様)に一致することで、ユーザ(運転者)にとっての認識のし易さが格段に向上し得る。
次に、別の表示態様例について図45A−45Cに基づき説明する。
まず、図45Aについて、趣旨の1つは、対象物を立体表示することである。図45Aにおいて、構造物D20,D22は、自車両が走行する道路に沿って存在する建物である。この種の建物について、立体表示技術を用いて、立体的に表示しても良い。立体表示技術としては、異なる方向から投影する複数のプロジェクタ(一般的には左右一対のプロジェクタ)を用意し、左目用の画像、及び右目用の画像をそれぞれ表示することで立体視を実現する方法が知られている。
或いは、立体画像データを含む地図データを利用しても良い。即ち、その立体画像データが表す画像を表示するようにしても良い。
立体表示によれば、ユーザ(運転者)にとってより視認し易くなることが期待される。
そして、図45Aでは、構造物D20,D22のそれぞれについて、その属性に応じてシンボル表示D21,D23を描画する。
属性には、構造物の種類が含まれる。構造物の種類としては、店舗、官公庁、民家、といった種類が挙げられる。
また、属性には、構造物に付属する付属情報が含まれる。例えば、店舗であれば、付属情報としては、営業時間、店舗規模、平均来客数、立地情報といった情報が挙げられる。
このような属性の情報は、例えば、地図データに付随しており、運転支援装置1,100,101側ではその地図データから取得する、という構成が考えられる。
図45Aの例において、構造物D20がコンビニエンスストアであるとすると、一例では、店舗であること、24時間営業であること、朝夕に来客が多いこと、といった情報が構造物D20の属性に含まれ得る。
制御ECU20は、そのような属性に基づき、例えば、24時間営業で来客が多いこと、という情報に基づいて、駐車場からの車両の出入りがあることの注意を促すシンボル表示D21を、構造物D20に対応付けて表示する。構造物D20に対応付けて表示する、とは、例えば、構造物D20の近辺に表示する、構造物D20に隣接させて表示する、構造物D20に重畳表示する、ということであると理解されても良い。
また、構造物D22は、ちょうど道路がカーブしている地点にあり、「カーブ地点に立地している」という情報(立地情報)が属性に含まれているとする。制御ECU20は、例えば、そのような属性に基づき、カーブに沿った走行を促すシンボル表示D23を構造物D22に対応付けて表示する。
これによれば、ユーザ(運転者)は、走行中の道路に付随する潜在的なリスクも認識することができる。
図45Bは、対向車が中央車線をはみ出して走行している例を示す。
このような対向車が検出された場合、制御ECU20は、対向車が走行する可能性のある経路を演算により推定し、推定した領域に強調表示D25を重畳表示させる。ただし、このような表示制御は、対向車が車線内を走行している場合には行われなくても良い。例えば、対向車が車線をはみ出して走行しており衝突の危険性がある場合において、そのような表示制御が実行されても良い。
図45Cは、自車両が車線をはみ出して走行している例を示す。
このような場合、制御ECU20は、自車両が走行する可能性のある経路を演算により推定し、自車両のシンボルを表示するとともに、推定した領域に強調表示D27を重畳表示させる。
自車両のシンボルを表示させることで、ユーザ(運転者)は危険を客観的に認識することができるようになる。交通事故においては、「大丈夫、問題ないだろう」という思い込み、即ち主観的判断に問題があるケースがある。状況を客観的に把握できるようにすることで、主観的感情を排除できることにつながり、事故防止に資することができる。
ただし、このような表示制御は、自車両が車線内を走行している場合には行われなくても良い。例えば、自車両が車線をはみ出して走行しており衝突の危険性がある場合において、そのような表示制御が実行されても良い。
強調表示D25の表示態様と強調表示D27の表示態様とは、区別が付き易い形態で異なっていることが好ましい。この場合、対向車が車線をはみ出しており危険であるのか、自車両が車線をはみ出しており危険であるのか、が認識され易くなる。
以上、本発明の一実施形態について説明したが、当業者であれば、種々の態様が本願発明の範囲に属し得ることを理解できる。
例えば、表示画面をタッチパネルで構成しても良い。そして、タッチパネル上で対象物を選択することで、その対象物の強調表示を行わせたり、強調表示を解除させたりすることができるようにしても良い。
また、交通事故等が多発している箇所を走行する場合においては、警戒レベルを追加的に上げる(警戒レベルのポイント追加的にインクリメントする)ように構成しても良い。

Claims (3)

  1. 車両の周辺の状況を検知する検知手段と、
    前記検知手段の検知結果に基づき、車両の周辺の対象物を認識する認識手段と、
    前記認識手段により認識された前記対象物を解析する解析手段と、
    前記対象物について、前記解析手段の解析結果に基き、警戒すべき度合いを設定する設定手段と、
    前記対象物を車両の運手者に視認させるための画像を、前記設定手段により設定された度合いに基づき生成する生成手段と、
    前記生成手段により生成された画像を表示する表示手段と、
    を備えることを特徴とする運転支援装置。
  2. 前記認識手段により認識された対象物が人であるか否かを判定する判定手段と、
    前記人の状態を示す象徴記号の画像データを記憶する記憶手段と、を備え、
    前記解析手段は、前記対象物のうち、前記判定手段により人であると判定された対象物の状態を解析し、
    前記生成手段は、前記解析手段の解析結果に基き、その解析結果を示す記号であって前記人の状態を示す象徴記号に対応する画像データを前記記憶手段から読み出す読出手段を備え、
    前記表示手段は、前記読出手段により前記象徴記号の画像データが読み出されると、その画像データが表す象徴記号を表示する、
    ことを特徴とする請求項1に記載の運転支援装置。
  3. 前記車両の運転者の視線を検出する視線検出手段と、
    前記表示手段が表示した画像のうち、前記運転者が認識した画像を、前記視線検出手段の検出結果である、前記運転者の視線の移動状態から識別する識別手段と、
    前記識別手段により前記運転者が認識したと識別された画像を消去する消去手段と、
    を備えることを特徴とする請求項1又2に記載の運転支援装置。
JP2016511968A 2014-03-31 2015-03-31 運転支援装置、及び運転支援システム Active JP6598255B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019175422A JP6919914B2 (ja) 2014-03-31 2019-09-26 運転支援装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014072419 2014-03-31
JP2014072419 2014-03-31
PCT/JP2015/060272 WO2015152304A1 (ja) 2014-03-31 2015-03-31 運転支援装置、及び運転支援システム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2018241012A Division JP6860763B2 (ja) 2014-03-31 2018-12-25 運転支援装置、及び該運転支援装置を備える車両
JP2019175422A Division JP6919914B2 (ja) 2014-03-31 2019-09-26 運転支援装置

Publications (2)

Publication Number Publication Date
JPWO2015152304A1 true JPWO2015152304A1 (ja) 2017-04-13
JP6598255B2 JP6598255B2 (ja) 2019-10-30

Family

ID=54240622

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016511968A Active JP6598255B2 (ja) 2014-03-31 2015-03-31 運転支援装置、及び運転支援システム
JP2018241012A Active JP6860763B2 (ja) 2014-03-31 2018-12-25 運転支援装置、及び該運転支援装置を備える車両
JP2019175422A Active JP6919914B2 (ja) 2014-03-31 2019-09-26 運転支援装置

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2018241012A Active JP6860763B2 (ja) 2014-03-31 2018-12-25 運転支援装置、及び該運転支援装置を備える車両
JP2019175422A Active JP6919914B2 (ja) 2014-03-31 2019-09-26 運転支援装置

Country Status (2)

Country Link
JP (3) JP6598255B2 (ja)
WO (1) WO2015152304A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019120994A (ja) * 2017-12-28 2019-07-22 トヨタ自動車株式会社 表示制御装置および表示制御方法
US10453176B2 (en) * 2016-11-15 2019-10-22 Ricoh Company, Ltd. Display apparatus to control display form of virtual object
CN112703541A (zh) * 2018-09-17 2021-04-23 日产自动车株式会社 车辆行为预测方法以及车辆行为预测装置

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6520668B2 (ja) * 2015-02-09 2019-05-29 株式会社デンソー 車両用表示制御装置及び車両用表示ユニット
DE102015223175A1 (de) * 2015-11-24 2017-05-24 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem mit adaptiver Umgebungsbilddatenverarbeitung
WO2017209313A1 (ko) * 2016-05-30 2017-12-07 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
JP6956473B2 (ja) * 2016-06-14 2021-11-02 大学共同利用機関法人自然科学研究機構 わき見状態判定装置
JP7214329B2 (ja) * 2016-08-09 2023-01-30 日立Astemo株式会社 表示内容認識装置、および車両制御装置
JP6271674B1 (ja) 2016-10-20 2018-01-31 パナソニック株式会社 歩車間通信システム、車載端末装置、歩行者端末装置および安全運転支援方法
US11127297B2 (en) * 2017-07-17 2021-09-21 Veoneer Us, Inc. Traffic environment adaptive thresholds
KR102436962B1 (ko) * 2017-09-19 2022-08-29 삼성전자주식회사 운송 장치에 구비된 전자 장치 및 이의 제어 방법
JP6866280B2 (ja) * 2017-12-19 2021-04-28 ヤフー株式会社 推定装置、推定方法および推定プログラム
JP7048358B2 (ja) * 2018-03-07 2022-04-05 矢崎総業株式会社 車両用表示投影装置
JP6823003B2 (ja) 2018-03-29 2021-01-27 本田技研工業株式会社 出力装置
JP7092540B2 (ja) 2018-04-04 2022-06-28 パナソニックホールディングス株式会社 交通監視システムおよび交通監視方法
DE102018208278A1 (de) * 2018-05-25 2019-11-28 Robert Bosch Gmbh Betriebsassistenzverfahren, Steuereinheit, Betriebsassistenzsystem und Arbeitsvorrichtung
WO2020115981A1 (ja) * 2018-12-03 2020-06-11 株式会社Jvcケンウッド 認識処理装置、認識処理方法及びプログラム
JP2020112698A (ja) 2019-01-11 2020-07-27 株式会社リコー 表示制御装置、表示装置、表示システム、移動体、プログラム、画像生成方法
JP7240182B2 (ja) * 2019-01-16 2023-03-15 株式会社京三製作所 交差点警告システム
KR102237966B1 (ko) * 2019-05-08 2021-04-08 주식회사 퀀텀게이트 스몸비 교통사고 방지를 위한 볼라드를 구비하는 보행자 교통안전 시스템 및 이의 동작방법
JP6746013B1 (ja) * 2019-06-19 2020-08-26 三菱電機株式会社 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法
CN218198110U (zh) * 2019-10-23 2023-01-03 索尼公司 移动装置
JP2021086229A (ja) * 2019-11-25 2021-06-03 パイオニア株式会社 表示制御装置、表示制御方法及び表示制御用プログラム
JP7402083B2 (ja) 2020-02-28 2023-12-20 本田技研工業株式会社 表示方法、表示装置及び表示システム
JP7357784B2 (ja) * 2020-05-22 2023-10-06 三菱電機株式会社 警報制御装置及び警報制御方法
US20230274316A1 (en) * 2020-08-21 2023-08-31 Sony Group Corporation Information displaying apparatus, information displaying method, and program
EP4227895A4 (en) * 2020-10-07 2024-03-13 Jvckenwood Corp IMAGE RECOGNITION DEVICE, IMAGE RECOGNITION METHOD AND PROGRAM
JP2022161464A (ja) * 2021-04-09 2022-10-21 キヤノン株式会社 運転支援装置、移動装置、運転支援方法、コンピュータプログラム、及び記憶媒体
WO2023238344A1 (ja) * 2022-06-09 2023-12-14 日産自動車株式会社 駐車支援方法及び駐車支援装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304700A (ja) * 2001-04-06 2002-10-18 Honda Motor Co Ltd 移動体警報システム
US20060151223A1 (en) * 2002-11-16 2006-07-13 Peter Knoll Device and method for improving visibility in a motor vehicle
WO2008029802A1 (fr) * 2006-09-04 2008-03-13 Panasonic Corporation Dispositif fournissant des informations de voyage
JP2009251758A (ja) * 2008-04-02 2009-10-29 Toyota Motor Corp 歩車間通信装置、携帯端末
JP2010234851A (ja) * 2009-03-30 2010-10-21 Mazda Motor Corp 車両用表示装置
JP2011257984A (ja) * 2010-06-09 2011-12-22 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP2012247326A (ja) * 2011-05-30 2012-12-13 Sanyo Electric Co Ltd 歩行経路案内装置及びシステム
JP2013131143A (ja) * 2011-12-22 2013-07-04 Sanyo Electric Co Ltd 移動体通信装置及び通信制御方法
WO2014034065A1 (ja) * 2012-08-31 2014-03-06 株式会社デンソー 移動体警告装置、および移動体警告方法
JP2014055834A (ja) * 2012-09-12 2014-03-27 Sony Corp 情報処理装置と情報処理方法とプログラムおよび情報処理システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4578795B2 (ja) * 2003-03-26 2010-11-10 富士通テン株式会社 車両制御装置、車両制御方法および車両制御プログラム
JP2006151114A (ja) * 2004-11-26 2006-06-15 Fujitsu Ten Ltd 運転支援装置
JP2007148835A (ja) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd 物体判別装置、報知制御装置、物体判別方法および物体判別プログラム
JP2008310376A (ja) * 2007-06-12 2008-12-25 Mazda Motor Corp 歩行者検出装置
JP2009015547A (ja) * 2007-07-04 2009-01-22 Omron Corp 運転支援装置および方法、並びに、プログラム
JP2009040115A (ja) * 2007-08-06 2009-02-26 Mazda Motor Corp 車両用運転支援装置
JP5023872B2 (ja) * 2007-08-06 2012-09-12 株式会社デンソー 画像表示制御装置及び画像表示制御システム
JP2009226978A (ja) * 2008-03-19 2009-10-08 Mazda Motor Corp 車両用周囲監視装置
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
JP5407898B2 (ja) * 2010-01-25 2014-02-05 株式会社豊田中央研究所 対象物検出装置及びプログラム
EP2388756B1 (en) * 2010-05-17 2019-01-09 Volvo Car Corporation Forward collision risk reduction
KR101410040B1 (ko) * 2010-12-08 2014-06-27 주식회사 만도 어린이 보행자 보호 장치 및 그의 어린이 보행자 보호 방법
JP5617819B2 (ja) * 2011-10-28 2014-11-05 株式会社デンソー 歩行者認識装置
JP2013191050A (ja) * 2012-03-14 2013-09-26 Toyota Motor Corp 車両周辺監視装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304700A (ja) * 2001-04-06 2002-10-18 Honda Motor Co Ltd 移動体警報システム
US20060151223A1 (en) * 2002-11-16 2006-07-13 Peter Knoll Device and method for improving visibility in a motor vehicle
WO2008029802A1 (fr) * 2006-09-04 2008-03-13 Panasonic Corporation Dispositif fournissant des informations de voyage
JP2009251758A (ja) * 2008-04-02 2009-10-29 Toyota Motor Corp 歩車間通信装置、携帯端末
JP2010234851A (ja) * 2009-03-30 2010-10-21 Mazda Motor Corp 車両用表示装置
JP2011257984A (ja) * 2010-06-09 2011-12-22 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP2012247326A (ja) * 2011-05-30 2012-12-13 Sanyo Electric Co Ltd 歩行経路案内装置及びシステム
JP2013131143A (ja) * 2011-12-22 2013-07-04 Sanyo Electric Co Ltd 移動体通信装置及び通信制御方法
WO2014034065A1 (ja) * 2012-08-31 2014-03-06 株式会社デンソー 移動体警告装置、および移動体警告方法
JP2014055834A (ja) * 2012-09-12 2014-03-27 Sony Corp 情報処理装置と情報処理方法とプログラムおよび情報処理システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10453176B2 (en) * 2016-11-15 2019-10-22 Ricoh Company, Ltd. Display apparatus to control display form of virtual object
JP2019120994A (ja) * 2017-12-28 2019-07-22 トヨタ自動車株式会社 表示制御装置および表示制御方法
CN112703541A (zh) * 2018-09-17 2021-04-23 日产自动车株式会社 车辆行为预测方法以及车辆行为预测装置

Also Published As

Publication number Publication date
JP6919914B2 (ja) 2021-08-18
WO2015152304A1 (ja) 2015-10-08
JP6598255B2 (ja) 2019-10-30
JP6860763B2 (ja) 2021-04-21
JP2020095688A (ja) 2020-06-18
JP2019075150A (ja) 2019-05-16

Similar Documents

Publication Publication Date Title
JP6919914B2 (ja) 運転支援装置
JP7332726B2 (ja) ヒートマップを使用したドライバーの注目の検出
CN108082037B (zh) 制动灯检测
US11242068B2 (en) Vehicle display device and vehicle
JP7301138B2 (ja) ポットホール検出システム
KR101359660B1 (ko) 헤드업 디스플레이를 위한 증강현실 시스템
TWI302879B (en) Real-time nighttime vehicle detection and recognition system based on computer vision
US11338807B2 (en) Dynamic distance estimation output generation based on monocular video
JP4872245B2 (ja) 歩行者認識装置
US20160185219A1 (en) Vehicle-mounted display control device
Eum et al. Enhancing light blob detection for intelligent headlight control using lane detection
US20180211121A1 (en) Detecting Vehicles In Low Light Conditions
JP2005509984A (ja) 画像強調を用いて自動車の安全性を向上させる方法及びシステム
JP2007249841A (ja) 画像認識装置
JP2016020876A (ja) 車両用表示装置
JP2004030212A (ja) 車両用情報提供装置
JP7255608B2 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
KR20180129044A (ko) 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
JP2024019588A (ja) 地図データ生成装置
JP4701961B2 (ja) 歩行者検知装置
JP5871069B2 (ja) 立体物検出装置及び立体物検出方法
KR101935853B1 (ko) 라이다 및 레이더를 이용한 나이트 비전 시스템
JP5192009B2 (ja) 車両の周辺監視装置
KR20190071781A (ko) 열에너지 정보를 표시하는 나이트 비젼 시스템 및 그 제어방법
JP6337601B2 (ja) 立体物検出装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190926

R150 Certificate of patent or registration of utility model

Ref document number: 6598255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350