JP2007329793A - 車両用監視装置 - Google Patents

車両用監視装置 Download PDF

Info

Publication number
JP2007329793A
JP2007329793A JP2006160515A JP2006160515A JP2007329793A JP 2007329793 A JP2007329793 A JP 2007329793A JP 2006160515 A JP2006160515 A JP 2006160515A JP 2006160515 A JP2006160515 A JP 2006160515A JP 2007329793 A JP2007329793 A JP 2007329793A
Authority
JP
Japan
Prior art keywords
vehicle
attractiveness
map
monitoring device
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006160515A
Other languages
English (en)
Other versions
JP4775123B2 (ja
Inventor
Hiroyoshi Yanagi
柳  拓良
Tatsumi Yanai
達美 柳井
Masami Funekawa
政美 舟川
Soichiro Mori
壮一郎 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006160515A priority Critical patent/JP4775123B2/ja
Publication of JP2007329793A publication Critical patent/JP2007329793A/ja
Application granted granted Critical
Publication of JP4775123B2 publication Critical patent/JP4775123B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】表示された映像中の注意すべき対象の見落としを防止することができる車両用監視装置。
【解決手段】センサ5で車両周囲の一または複数の対象物に関する情報を収集し、その収集した情報に基づいて対象物に対する注意レベルを検出部8で算出する。映像処理部7では、車両周囲の映像の所定領域に対する誘目性を算出し、その誘目性と検出部8で算出された注意レベルとに基づいて映像を加工処理する。加工処理された映像は、モニタ2に表示される。その結果、注意すべき対象であるにもかかわらず運転者の注意が向いていない場合には、その対象の映像が強調表示され、運転者の見落としを防止することができる。
【選択図】図1

Description

本発明は、車両周囲の映像をモニタに表示する車両用監視装置に関する。
従来から、車両の後方や後側方を確認するために、カメラで撮影された周囲映像をモニタに表示する車両用監視装置が知られている(例えば、特許文献1参照)。
特開2005−267331号公報
しかしながら、運転中は車両の前方、左右やミラー等さまざまな方向に視線を向けて安全を確認する必要があるため、モニタ上の映像を見ることができる時間は短く、また、断続的に見て映像を確認するのが一般的である。そのため、様々な対象が映っている映像から注意すべき対象を瞬時に見つけるのは難しく、見落としてしまう可能性があった。
請求項1の発明は、撮像装置で撮像された車両周囲における対象物の映像を表示する表示装置を備え、車両周囲状況の監視に用いられる車両用監視装置に適用され、車両周囲の一または複数の対象物に関する情報を収集する収集手段と、収集手段で収集した情報に基づいて対象物に対する注意レベルを算出する第1の算出手段と、車両周囲の映像の所定領域に対する誘目性を算出する第2の算出手段と、注意レベルと誘目性とに基づいて映像を加工処理する処理手段とを備え、表示装置は、処理手段で加工処理された映像を表示することを特徴とする。
なお、処理手段で加工処理された映像の所定領域に対する誘目性を算出する第3の算出手段をさらに備え、第2の算出手段で算出された誘目性、第3の算出手段で算出された誘目性および注意レベルに基づいて、映像を加工処理するようにしても良い。
本発明によれば、注意レベルと誘目性とに基づいて映像を加工処理し、加工処理された映像を表示装置に表示するようにしたので、表示装置に表示された映像の視認性が向上し、注意すべき対象の見落としを防止することができる。
以下、図を参照して本発明を実施するための最良の形態について説明する。図1は本発明による車両用監視装置の一実施の形態を示すブロック図である。10は監視装置の制御装置であり、機能的には推測部6、映像処理部7、検出部8を有している。1は車両に搭載され、車両周囲を撮影するカメラである。本実施の形態では、カメラ1は車両の後方映像を撮影する。カメラ1により撮影された後方映像の映像情報は、推測部6,映像処理部7および検出部8に入力される。映像処理部7に入力された映像情報は、後述する所定の映像処理が施され表示データとしてモニタ2に送られる。モニタ2には、映像処理後の後方映像が監視画像として表示される。
車両には、カメラ1とは別に、車両周囲を撮影するカメラ3が設けられている。カメラ3はカメラ1の撮影範囲とは異なる範囲を撮影しており、ここでは車両前方を撮影している。カメラ3で撮影された前方映像の映像情報は、推測部6に入力される。4はドライバーの視線方向を検出するアイトラッカーであり、アイトラッカー4の視線検出情報は推測部6に入力される。さらに、推測部6には、車両走行状態に関する情報としての車速が車速センサ9から入力される。
センサ5は自車周囲の状況や車両等を検出するための装置であり、自車に搭載しているレーダーやソナー、さらには他車との車間通信手段などが含まれる。そのため、センサ5から検出部8に入力されるセンサ情報としては、レーダーやソナーによる自車周囲の車両等に関する位置情報や速度情報、車間通信手段による追い越し車両の情報などがある。レーダーを用いることにより比較的離れている車両の位置や速度が得られ、一方、ソナーを用いることにより近接車両(例えば、側方を通過する駐車車両や後続するバイクなど)の位置や相対速度が得られる。
推測部6では、カメラ1,3からの映像情報、アイトラッカー4の視線検出信号および車速センサ9からの車速に基づいて、注意力マップM1,視線マップM2,車両情報マップM3および誘目性マップM4を算出する。詳細は後述するが、注意力マップM1は、ドライバーがモニタ2に表示されている後方映像に対してどの程度注意が向いているかを、車両前方の状況から推定したものである。視線マップM2は、モニタ画面のどの領域にどの程度視線を向けているかを、視線検出情報から推定したものである。車両情報マップM3は、モニタ2に表示されている後方映像の各領域に対する注意力を、車速から推定したものである。
これらのマップM1〜M3は、ドライバーのモニタ2の表示映像への運転環境の影響の度合いを数値化して、2次元マップとしたものである。これらのマップM1〜M3を一つのマップに統合したものが、運転状況マップM5である。一方、カメラ1の後方映像情報により推定される誘目性マップM4は、モニタ2に後方映像を表示した場合に、映像の各領域の誘目性がどの程度であるかを推定したものであり、誘目性のレベルを2次元マップとして表したものである。
ここで、誘目性とは、モニタ2に表示された映像をドライバーが一目見たときに、ドライバーの注意を引きやすい対象であるか否かを表す指標であり、各部分領域の輝度、コントラスト、色彩、大きさ、位置などの同一フレームでの空間的変化や、連続するフレーム間での時間的変化に基づいて推定される注視の度合いを表している。
本実施の形態の車両用監視装置では、注意すべき対象(例えば、接近する車両や障害物)に対してドライバーの注意が不足している場合に、モニタ2に表示されている映像を通じて注意を促すことに特徴がある。例えば、自車両後側方からすり抜けようとしているバイクに対してドライバーの注意が不足している場合に、ドライバーに注意を促す。ドライバーの注意は、注目の度合いである誘目性の値で表される。
接近する車両や障害物に対してドライバーの注意が不足しているか否かは、推定部6によって算出される誘目性マップM6によって表される。この誘目性マップM6は、映像情報のみから算出した誘目性マップM4に運転状況マップM5の情報を加味して算出され、映像のどの領域にドライバーの注意がどの程度向いているかを推定したものである。
一方、注意すべき対象の推定は、検出部8において行われる。すなわち、検出部8は、センサ5から入力されたセンサ情報に基づいて自車の周りの車両や接近しつつある車両等を推定し、カメラ1からの後方映像を参考にして注意レベルマップM7を算出する。注意レベルマップM7は、推定された対象がセンサ5で取得された位置や速度からその予想進行方向を推定し、自車の進行方向と重なる可能性を注意レベルとして求め、それを2次元的マップとしたものである。算出された注意レベルマップM7のデータは、映像処理部7に入力される。
映像処理部7は、推測部6から入力された誘目性マップM6と検出部8から入力された注意レベルマップM7とに基づいて、映像処理に用いる処理マップM8を算出する。そして、この処理マップM8に基づいて映像情報に画像処理を施し、モニタ2に監視画像として表示される映像の表示データを生成する。この監視画像は、映像の各領域に対して後述するような誘目性処理を施したものである。誘目性処理を施すことにより、注意する必要のあるにもかかわらず注意が向いていない対象が強調される。その結果、ドライバーは、モニタ2の映像により車両周囲の状況を確認し易くなり、注意すべき対象の見落としが低減される。
《マップM1〜M8の説明》
次に、マップM1〜M8について詳細に説明する。
[注意力マップM1]
まず、カメラ3の映像情報に基づいて算出される注意力マップM1について説明する。ドライバーへの負荷であるワークロードは、モニタ2に表示される映像への運転者の注意力を減退させる要因となるものであり、例えば、前方映像情報から得られる車間距離や交通量、ハンズフリー携帯電話の使用・不使用、ラジオ使用時の音量などがある。また、ステアリングのふらつきをドライバーの眠気によるものと推定し、それをワークロードの一つとして採用するようにしても良い。さらに、これらを組み合わせてワークロードを算出するようにしても良い。
このような情報から求められるワークロードから、モニタ2に表示されている後方映像への注意力レベルを推定し、注意力マップM1を算出する。ドライバーのワークロードが大きい場合には、後方映像が表示されているモニタ2への注意力が減るので、注意力の値を小さく設定する。逆にワークロードが小さい場合には、注意力の値を大きく設定する。
図2の(a),(b)はワークロードの大小と注意力との相関関係を示したものである。図2(a)は、ワークロードとして車間距離や、交通量や、ラジオの音量を用いた場合を示す。この場合、車間距離、交通量、ラジオの音量の大小がワークロードの大小と対応しており、これらが大きくなるとワークロードが大きくなり、モニタ2の後方映像への注意力は反対に小さくなると推定できる。例えば、注意力の大きさを図2(a)に示すように1〜3の数値で表せば、ワークロード(例えば、車間距離)の大きさに応じて注意力は1〜3の間の数値となる。
図2(b)は、ハンズフリー携帯電話の使用・不使用に応じた注意力の設定例を示したものである。この場合、注意力は大・小の2レベルを取り、使用時(オン)にはワークロードが大きくて注意力が減少するのでの注意力は小に設定され、不使用時にはワークロードが小さくなるので注意力は大に設定される。
図2(c)は、注意力マップM1の表示例を示したものである。これらの注意力マップM1の範囲はモニタ2の表示範囲に対応しており、注意力が高いほど表示濃度を濃く表示している。注意力はドライバーがモニタ2に注意が向いているか否かの程度を表す指標であるので、注意力マップM1の全領域が一様な濃度(注意レベル)で表示されている。図2(c)に示す3種類の注意力マップM1は、左側から順にレベル3の場合、レベル2の場合、レベル1の場合を表している。
図2(b)に示すようなハンズフリー携帯電話の場合、レベル3とレベル1との2つの状態で注意力マップM1が表される。なお、図2(a)のような相関関係の場合であっても、図2(c)に示す3種類の注意力マップM1を予め用意しておき、ワークロードの大きさに応じて3種類の注意力マップM1のいずれかを選択するようにしても良い。
[視線マップM2]
図3は、アイトラッカー4の情報に基づく視線マップM2の一例を説明する図である。アイトラッカー4はドライバーの視線を検出する装置であり、運転中における視線の移動を検出することができる。図3(a)は基準時間(例えば、数秒間)の間に検出された視線移動を示す図であり、100は視線が移動した跡を示す視線軌跡である。視線軌跡100から、車両後方確認のために一時的にモニタ2を見ているのが分かる。推測部6は、アイトラッカー4から入力されるこのような視線情報に基づいて、モニタ2上における視線滞留時間から推定される視線マップを算出する。
図3(b),(c)は、視線軌跡100に基づく視線マップM2を示す図である。視線マップM2には領域M2a〜M2dの4つの領域が示されており、点100aは視線の停留点を示している。図3(b)に示す例では、停留点100aが5つ有り、停留点100aの密度が高いところを中心として、所定の大きさの矩形領域M2b〜M2dが形成されている。面積はM2d,M2c,M2bの順に大きくなる。なお、図3(b)に示す例では、矩形領域M2b〜M2dの中心が視線マップの中心から右斜め上方にずれているため、領域M2bに関してはその右側および上側の一部が欠けている。
停留点100aが3つ存在する領域M2dが最もモニタ2を見ている確率が高く、そこから遠ざかるにつれて確率が低くなると推定し、領域M2d,M2c,M2bの順にレベルを4,3,2と設定する。また、領域M2bの外側の領域である領域M2aについては、レベルを1とする。基準時間の間、モニタ2に全く視線が向かなかった場合には、視線マップM2は全体が領域M2aとなり、視線マップM2の全領域がレベル1に設定される。図3(c)は、基準時間内における停留点110aが1点の場合を示したものであるが、その場合、停留点100aを中心として矩形領域M2b〜M2dを設定する。
[車両情報マップM3]
図4は、車速に基づく車両情報マップM3の一例を説明する図である。ここでは、車速に応じて図4の(a)〜(c)に示す車両情報マップM3のいずれかが選択される。図4(a)は車両停止状態における車両情報マップM3を示したものであり、図4(b)は市街地を時速30kmで走行している場合の車両情報マップM3を示し、図4(c)は市街地を時速60kmで走行している場合の車両情報マップM3である。
車両情報マップM3は、誘目性に対する車速の影響を表すパラメータであって運転者の視認しやすさの指標であり、モニタ画面に対応する領域に2次元的に分布する数値によって表される。車両停止時には、モニタ2に表示されている後方映像における風景等は停止している。そのため、表示されている画像に対するドライバーの視認しやすさのレベルは高く、視認しやすさはモニタ全領域に対して均等となる。図4に示す例では、視認しやすさのレベルを1,2,3,4の4段階で表し、マップM3の全領域をレベル1,2,3,4の4つの領域M3a〜M3dに分割するようにした。ただし、車両停止状態では、視認しやすさはモニタ2内のどの位置でも同じなので、全領域が最高のレベル3に設定される。
一方、車両走行時には、風景は後方(消失点)へと流れるような動きを示し、モニタ2の周辺に近い映像ほど流れの動きが速い。すなわち、モニタ2の中心から遠ざかるにつれて視認性が低下する。そのため、変化の比較的小さなモニタ中心部分の映像にはドライバーの注意が行くが、周辺部に対する注意力は低下し、また、そのような傾向は車両速度が速くなればなるほど著しくなる。
図4(b)に示す、市街地を時速30kmで走行している車両情報マップM3の場合には、マップ中央部に停止状態と同じレベル4の矩形領域M3dが設定されている。矩形領域M3dの周囲にはレベル3の領域M3cが設定され、さらに、領域M3cの周囲にはレベル2の領域M3bが設定されている。いずれの領域も、視認性に応じて垂直方向の寸法が水平方向の寸法よりも小さく設定されている。また、領域M3bの周囲の残りの領域M3aは最も低いレベル1に設定される。
図4(c)に示す、市街地を時速60kmで走行している車両情報マップM3の場合には、映像の周辺領域の変化が速くなって視認性がさらに低下するため、時速30kmの場合と比較してレベル2〜4の領域M3b〜M3dの範囲がさらに狭くなる。ここでは、市街地走行を想定して車両情報マップM3を算出したが、高速道路を走行している場合のように単純な状況が続く状況においては、領域M3b〜M3dの設定範囲を市街地の場合と変えるようにしても良い。例えば、ナビゲーションを搭載している車両であれば、ナビゲーション情報から道路種別を認識することができる。
なお、上述した車両情報マップM3の場合、車速に応じて図4の(a)〜(c)のいずれかのマップを選択するようにしたが、図2(a)に示すワークロードの場合と同様に、車両情報マップM3を連続的に変化させるようにしても良い。図5はその一例を示す図であり、矩形領域M3b〜M3dの上下方向の幅寸法と車速との関係を示したものである。曲線L1が領域M3bの縦幅、曲線L2が領域M3cの縦幅、曲線L3が領域M3dの縦幅をそれぞれ表しており、マップM3の縦幅を1として示したものである。なお、矩形領域の横幅は縦幅に応じて変化させる。図4(b)、(c)のマップM3は、図5の車速30km/h,60km/hで示した所に対応している。
[誘目性マップM4]
図6は誘目性マップM4の作成手順を示す図である。図7は図6の各ステップの具体的処理の一例を示したものであり、図6の各処理に対応する具体例には同一の符号を付した。ステップS1では、図8(a)に示すような後方映像を、図7に示すように多数の小さな部分領域に分割する。ステップS2は部分領域毎の誘目性を算出するルーチンであり、ステップS21からステップS24までの処理が行われる。これらのステップS21からステップS24までの処理は、各部分領域毎に行われる。
ステップS21では、カラー映像をインテンシティの映像に変換する。このような変換を行うことで、視覚では視認しにくい色彩情報を低減することで、誘目性の精度を高めることができる。同様に、視認できていない周辺領域の特定周波数成分を低減させるようにしても良い。なお、図7に示す具体的処理においては、延滞画面の内の左上端の部分領域のインテンシティ映像と右下端のインテンシティの映像とを示した。
ステップS22では、部分領域の映像に関してヒストグラムを計算する。図7には各々の具体的映像に対するヒストグラムが表示されており、左側の映像のヒストグラムでは平均値が130.45、標準偏差60.35、中間値111となっている。一方、右側の映像のヒストグラムでは、平均値10.00、標準偏差17.68、中間値7となっている。
ステップS23では、ヒストグラムの標準偏差を誘目性の値Aとする。前述したように、誘目性とは、モニタ2に表示された映像をドライバーが一目見たときに、ドライバーの注意を引きやすい対象であるか否かを表す指標であり、前述したように、各部分領域の輝度、コントラスト、色彩などから推定される注視の度合いを表すものである。
さらに、ステップS24では、後方映像の各部分領域毎に得られた誘目性の値Aの最大値と最小値とに基づいて、各部分領域の誘目性の値の大きさが0〜1となるようにスケーリングを行い、スケーリング後の値を誘目性の値Bとする。図7に示す具体例では、左側の部分領域は誘目性の値Bが0.8となり、右側の部分領域の誘目性の値Bは0.2となっている。図7の誘目性の値Bの下側に表示した矩形表示は、誘目性の値Bの大きさに応じて矩形領域をグレーススケール表示したものである。
このようにして、ステップS2の処理により、各部分領域毎の誘目性の値Bが算出される。ステップS3では、各部分領域の誘目性の値Bの計算結果を、後方映像全体としてまとめる。図9(a)は、図7で得られたグレースケール表示の部分領域を全体映像に対して示したものである。全ての部分領域を画面全体にまとめると、図9(b)に示すような誘目性の値Bに関する誘目性マップM4が完成する。
図9(b)のように全体画面にまとめ上げると、誘目性マップM4内には誘目性の値Bの異なる複数の領域が存在することが分かる。なお、図9(b)に示す例では、誘目性マップM4内は10の領域C1〜C10に分類されており、誘目性の値Bの大きさに応じた濃淡色により表されている。領域C10はB=0.1、領域C3,C5,C9はB=0.3、領域C6はB=0.4、領域C7,C8はB=0.6、領域C1,C2,C4はB=0.8となっている。なお、図9(b)では各領域C1〜C10レベルを、括弧内の数字で示した。これらの領域C1〜C10を図8(a)の後方映像と対比すると、一つの領域が車両や建物に対応していたり、背景としての空や道路に対応している。また、同じような色調、コントラストを有する対象の場合には、一つの領域として表される場合もある。
なお、後方車両は、大まかには道路が示す領域に位置するので、表示画面上において道路と推定される領域と同一画面領域にある対象について、誘目性を大きく設定するようにしても良い。ところで、ここで得られた誘目性マップM4は後方映像のみから作成されたものであるので、前述したように注意力マップM1,視線マップM2および車両情報マップM3に基づいて算出された運転状況マップM5を用いて、運転状況を考慮した誘目性マップM6を作成する。
[運転状況マップM5]
運転状況マップM5の作成方法の一例としては、注意力マップM1,視線マップM2および車両情報マップM3の各レベルを、所定の重み付けで加算する方法がある。例えば、視線マップM2の場合、ドライバーがメガネを掛けているとアイトラッカーによる視線の誤認識が生じるので、そのような場合には加算時の重み付けを下げる。また、車速に基づく車両情報マップM3の場合、道路種別が高速道路か市街地かによって、同じ速度であってもドライバーの注意の行き方が異なり、単純な状況が続く高速道路の場合には市街地の場合に比べて重み付けを下げる。
[誘目性マップM6]
運転状況マップM5と誘目性マップM4とから誘目性マップM6を算出する場合には、運転状況マップM5のレベルと誘目性マップM4の誘目性の値Bとを乗算して得られた値を誘目性の値Cとする。この場合も、重み付けを行ってから乗算するようにしても良い。一般的には、運転状況マップM5よりも誘目性マップM4の方の重み付けを大きくする。また、誘目性マップM4の各領域が運転状況マップM5内のレベルの異なる複数の領域と重なっている場合には、例えば、複数の領域の各レベルの中間のレベルを乗算に用いる。
図10(a)は誘目性マップM6を示す図である。なお、図10(a)の誘目性マップM6では、乗算後の値の大きさを0〜1に書き直しており、濃淡色と値の大きさとの対応付けは図9(b)の誘目性マップM4と同じになっている。各領域の形状は図9(b)に示した誘目性マップM4と同一であるが、運転状況マップM5を考慮したことによって領域C5,C9のレベルが相対的に増加し、領域C7,C8のレベルが相対的に減少している。他の領域C1〜C4,C6,C10のレベルは、誘目性マップM4と同様の値となっている。このようにして算出された誘目性マップM6は、映像処理部7に入力される。
[注意レベルマップM7]
図10(b)は、注意レベルマップM7を示す図である。前述したように、注意レベルマップM7は自車の周りの車両や接近しつつある車両等に関するマップである。センサ情報としては、レーダーにより検出される比較的離れている車両の位置や速度、ソナーにより検出される近接車両(例えば、側方を通過する駐車車両や後続するバイクなど)の位置や相対速度などがあり、また、車間通信手段により受信される情報から、追い越し車両を検知することができる。
図10(b)において、濃淡色で示された部分領域D4〜D9は注意すべき対象として推定されたものである。また、領域D10は路面や空と認識された領域である。各領域には誘目性の値Cと同様の0〜1の値の注意レベルDが、自車との位置関係や相対速度などに基づいて付与される。領域の符号とともに示した括弧内の数値が注意レベルDを表している。例えば、追い越し車両の進行方向と自車の進行方向とから接触の危険度を推測することができ、その危険度が大きい対象ほど注意レベルDを大きく設定する。
注意レベルマップM7の領域D9は図8(a)の後方映像からも分かるように自車を追い越そうとしているバイクに対応する領域であり、注意レベルD=0.8が付与されている。同様に、領域D4は後方に接近しているバイクに対応する領域であり、領域D9と同様の注意レベルD=0.8が付与されている。
領域D5,D7はほぼ同一速度で走行している後続車両に対応しており、距離の近い領域D5は注意レベルD=0.6が付与され、距離のやや遠い領域D7は注意レベルD=0.4が付与されている。一方、領域D6は建物や停車している車両に対応しており、注意レベルD=0.2が付与されている。また、路面や空と認識されている領域D10は、最も低い注意レベルD=0.1が付与されている。
[処理マップM8]
推測部6で算出された誘目性マップM6、および、検出部8で算出された注意レベルマップM7はそれぞれ映像処理部7に入力され、映像処理部7では、それらのマップM6,M7に基づいて処理マップM8が算出される。処理マップM8は、カメラ1からの後方映像の各領域に対する誘目性処理を、2次元マップとして示したものである。誘目性処理としては種々の方法があるが、ここでは、画像に対して「ぼかし処理」と「強調処理」とを施すことにより、注意する必要のあるにもかかわらず注意が向いていない対象が強調されるようにした。
図10(c)は処理マップM8を示す図である。一般的には、誘目性の値Cと注意レベルDのそれぞれに対して基準値を各々設定し、誘目性の値Cが基準値より小さく注意レベルDが基準値よりも大きい場合には、その映像領域(対象)に対して誘目性を大きくするための「強調処理」を施す。逆に、誘目性の値Cが基準値より大きく注意レベルDが基準値よりも小さい場合には、その映像領域に対して誘目性を小さくする「ぼかし処理」を施す。
ここでは、誘目性の値Cと注意レベルDとの差分を算出し、その値に応じて「ぼかし処理」や「強調処理」を行うようにした。差分(D−C)がプラスの場合には、「強調処理」を施す。図10(c)の例では、領域E9が差分=0.2であって、強調処理が行われる領域を示す縦縞模様に表示されている。差分がプラスであるということは、注意すべきと推定された領域であるにもかかわらず、見ている確率を示す誘目性が比較的低い場合であるので、強調処理を施してドライバーの注意を引くような表示とする。
一方、差分がマイナスの場合には、注意の必要性に比べて誘目性が高いので、他の注意すべき領域の誘目性を損なわないように「ぼかし処理」を施す。図10(c)に示す例では、横縞が施された領域E1,E2,E6,E8に「ぼかし処理」が施され、差分の大きな領域E1(差分=−0.8),領域E2(差分=−0.6)は、差分の小さな領域E6,E8(差分=−0.1または−0.2)に比べてより強い「ぼかし処理」が施される。これらの領域は、図8(a)から分かるように建造物や停止している車両に対応している。
差分がゼロである領域E4,E5,E7,E10については、処理を施さずに撮像された映像をそのまま表示する。これらは、自車とほぼ同一速度で走行している車両に対応する領域である。ここでは、差分がゼロとなるものについて無処理としたが、差分にいくぶん幅を持たせるようにしても良い。また、ぼかし処理と強調処理とを分ける差分の値についても、必ずしも0である必要はない。
図10(c)の処理マップM8に基づいて図8(a)の映像を処理すると、処理後の映像は図8(b)に示すようなものとなる。強調処理としては、映像のコントラストを高くしたり、明るくしたりするなどの他に、領域E9に目に付く色の枠200を表示したりしても良い。ぼかし処理としては、周辺のピクセルを含めて平均化したり、前後のフレームのピクセルの値を平均化するようにしても良い。また、平均化に用いるピクセルの範囲の大小によってぼかしの強弱を付けることができる。
ここでは、強調処理とぼかし処理とを併用したが、一方だけを用いても構わない。ぼかし処理を行うことによって注意の行っていない対象の誘目性が相対的に向上するので、結果的には注意の行っていない対象に強調処理を施した場合と同様の効果を得ることができる。
図8(a)に示す処理前の映像では、建造物や風景なども同じような調子で表示されているため、それらの対象と上述した注意すべき対象とが混在していて区別し難く、一瞬の観察では注意すべき対象を見落とす可能性があった。一方、図8(b)に示す処理後の映像では、画面周辺部分の停車車両や建造物や風景にぼかし処理が施されているため、ぼかしが施されていない中央付近のバイクや2台の車両、強調処理を施された右側のバイクが、注意すべき対象として際だって観察される。特に、追い越しをしようとしている右側のバイクに関しては、枠200が表示されていることにより、要注意対象であることが一目で分かり、見落としの防止を図ることができる。
《変形例》
図11は、上述した実施の形態の変形例を示す図である。変形例では、映像処理された表示データは判定処理部7aと推測部6とに入力される。推測部6は、入力された表示データに基づいて誘目性マップM4’を算出する。そして、誘目性マップM4’と運転状況マップM5とに基づいて、誘目性マップM6と同様の誘目性マップM6’を算出する。誘目性マップM4’およびM6’の算出方法は、上述した誘目性マップM4およびM6’の算出方法と全く同じであるので、ここでは説明を省略する。
算出された誘目性マップM6’は、判定処理部7aに入力される。判定処理部7aでは、誘目性マップM6およびM6’の誘目性の傾向と、検出部8から入力された注意レベルマップM7の注意レベルの傾向とを比較する。ところで、映像処理された表示データは、注意レベルマップM7を考慮して算出されたものであるので、算出が適切に行われていれば誘目性マップM6’の方が注意レベルマップM7により近いものとなるはずである。一方、算出が不適切であった場合には、誘目性マップM6の傾向の方が注意レベルマップM7により近くなる場合が生じる。
そこで、誘目性マップM6’の傾向の方が注意レベルマップM7により近い場合には、映像処理された表示データをモニタ2へと出力する。逆に、誘目性マップM6の傾向の方が注意レベルマップM7により近い場合には、映像処理が不適切であって処理後の表示データをモニタ2に表示するのは好ましくない。そのため、このような場合には、映像処理されていないカメラ1の映像をモニタ2へと出力する。
また、判定処理部7aで、誘目性マップM6の傾向の方が注意レベルマップM7により近いと判定される頻度が高い場合には、判定処理部7aの結果に基づいて、運転状況マップM5を算出する際の重み付けや、処理マップM8を算出する際の運転状況マップM5および誘目性マップM6の重み付け等を変更するようにしても良い。
例えば、図10(a)の誘目性マップM6の周辺部の領域において誘目性の値Cが大きめに算出されて領域E9が強調処理されず、誘目性マップM6の傾向の方が注意レベルマップM7により近いと判定された場合を考える。このような場合、運転状況マップM5を算出する際の車両情報マップM3の重み付けを大きくすることにより、周辺部の注意レベルの低下が強調され、誘目性マップM6の周辺部の領域誘目性の値Cが小さくなる。その結果、領域E9における差分が大きくなり、強調の度合いも大きくなる。
上述したように、本実施の形態の車両用監視装置は、以下のような作用効果を奏することができる。
(a)撮像装置で撮像された車両周囲における対象物の映像を表示する表示装置を備え、車両周囲状況の監視に用いられる車両用監視装置に適用され、車両周囲の一または複数の対象物に関する情報を収集する収集手段と、収集手段で収集した情報に基づいて対象物に対する注意レベルを算出する第1の算出手段と、車両周囲の映像の所定領域に対する誘目性を算出する第2の算出手段と、注意レベルと誘目性とに基づいて映像を加工処理する処理手段とを備え、表示装置は、処理手段で加工処理された映像を表示するようにしたので、注意レベルが大きく誘目性の小さい対象、すなわち、注意する必要があるのに運転者の注意が向きにくい対象を、加工処理により注意の行きやすい表示にすることが可能となる。
(b)なお、処理手段で加工処理された映像の所定領域に対する誘目性を算出する第3の算出手段をさらに備え、第2の算出手段で算出された誘目性、第3の算出手段で算出された誘目性および注意レベルに基づいて、映像を加工処理するようにしても良い。その結果、第2の算出手段で算出される誘目性の精度を高めることができる。

(c)対象物の注意レベルが基準値より大きく、その対象物に対応する領域の誘目性が基準値より小さい場合には、加工処理後の映像における対象物に対応する領域の誘目性を大きくし、逆に、対象物の注意レベルが基準値より小さく、その対象物に対応する領域の誘目性が基準値より大きい場合には、加工処理後の映像における対象物に対応する領域の誘目性を小さくする。その結果、注意する必要があるのに運転者の注意が向きにくい対象の誘目性を相対的に大きくすることができる。
(d)映像の輝度、色、コントラスト、大きさおよび位置の少なくとも一つの時間的変化または空間的変化に基づいて、誘目性を算出することにより、誘目性の精度向上を図ることができる。
(e)運転者の視線方向を加味して誘目性を算出したり、車両速度を加味して誘目性を算出したり、運転者に加わるワークロード、例えば、車両周囲状況に依存するワークロード加味して誘目性を算出したりすることにより、表示映像に対する運転者の注意状況を誘目性に反映することができ、誘目性算出の精度を高めることができる。
(f)また、予め設定された複数の車速影響パラメータ(車両状マップM3)から車両速度に応じた車速影響パラメータを一つ選択し、選択された車速影響パラメータを加味して誘目性を算出することにより、演算負荷を低減することができる。
なお、上述した実施の形態では、モニタ2に表示される映像はカメラ1で撮像された後方映像としているが、後方映像に限らず後側方や側方の映像であっても本発明は適用できる。さらに、同一カメラで撮影した映像の一部をモニタ2に表示し、その他の映像の全てまたは一部から注意力マップM1を算出するようにしても良い。また、本発明の特徴を損なわない限り、本発明は上記実施の形態に何ら限定されるものではない。
以上説明した実施の形態と特許請求の範囲の要素との対応において、カメラ1は請求項1の撮像手段を、カメラ3は第2の撮像装置を、センサ5は収集手段を、検出部8は第1の算出手段を、推測部6は第2の算出手段および第3の算出手段を、モニタ2は表示装置を、アイトラッカー4は視線検出装置を、映像処理部7は処理手段をそれぞれ構成する。
本発明による車両用監視装置の一実施の形態を示すブロック図である。 (a)、(b)はワークロードと注意力との相関関係を示す図で、(c)は注意力マップM1の表示例を示す図である。 視線マップM2の一例を説明する図であり、(a)は視線移動の様子を示す図、(b)、(c)は視線軌跡に基づく視線マップM2を示す図である。 車両情報マップM3を示す図であり、(a)は車両停止状態の場合、(b)は低速の場合、(c)は高速の場合のマップM4をそれぞれ示す。 車両情報マップM3を、車速に応じて連続的に変化させる場合を説明する図である。 誘目性マップM4の作成手順を示す図である。 図6の各処理の具体例を示す図である。 映像例を示す図であり、(a)は処理前の映像、(b)は処理後の映像をそれぞれ示す。 誘目性の値Bを説明する図であり、(a)は全体画面に対する部分領域の誘目性を示し、(b)は映像全体の誘目性である誘目性マップM4を示す。 (a)誘目性マップM6示す図、(b)は注意レベルマップM7を示す図、(c)は処理マップM8を示す図である。 変形例のブロック図である。
符号の説明
1,3:カメラ、2:モニタ、4:アイトラッカー、5:センサ、6:推測部、7:映像処理部、7a:判定処理部、8:検出部、9:車速センサ、10:制御装置、M1:注意力マップ、M2:視線マップ、M3:車両情報マップ、M4,M6:誘目性マップ、M5:運転状況マップ、M7:注意レベルマップ、M8:処理マップ

Claims (12)

  1. 撮像装置で撮像された車両周囲における対象物の映像を表示する表示装置を備え、車両周囲状況の監視に用いられる車両用監視装置において、
    車両周囲の一または複数の対象物に関する情報を収集する収集手段と、
    前記収集手段で収集した情報に基づいて前記対象物に対する注意レベルを算出する第1の算出手段と、
    前記車両周囲の映像の所定領域に対する誘目性を算出する第2の算出手段と、
    前記注意レベルと前記誘目性とに基づいて前記映像を加工処理する処理手段とを備え、
    前記表示装置は、前記処理手段で加工処理された映像を表示することを特徴とする車両用監視装置。
  2. 請求項1に記載の車両用監視装置において、
    前記処理手段で加工処理された映像の所定領域に対する誘目性を算出する第3の算出手段をさらに備え、
    前記処理手段は、前記第2の算出手段で算出された誘目性、前記第3の算出手段で算出された誘目性および前記注意レベルに基づいて、前記映像を加工処理することを特徴とする車両用監視装置。
  3. 請求項1または2に記載の車両用監視装置において、
    前記対象物の注意レベルが基準値より大きく、その対象物に対応する領域の前記誘目性が基準値より小さい場合には、前記処理手段は、前記加工処理後の映像における前記対象物に対応する領域の誘目性を大きくすることを特徴とする車両用監視装置。
  4. 請求項1または2に記載の車両用監視装置において、
    前記対象物の注意レベルが基準値より小さく、その対象物に対応する領域の前記誘目性が基準値より大きい場合には、前記処理手段は、前記加工処理後の映像における前記対象物に対応する領域の誘目性を小さくすることを特徴とする車両用監視装置。
  5. 請求項1〜4のいずれか一項に記載の車両用監視装置において、
    前記第2の算出手段は、前記映像の輝度、色、コントラスト、大きさおよび位置の少なくとも一つの時間的変化または空間的変化に基づいて、前記誘目性を算出することを特徴とする車両用監視装置。
  6. 請求項1〜5のいずれか一項に記載の車両用監視装置において、
    前記表示装置に表示された映像に対する運転者の視線方向を検出する視線検出装置をさらに備え、
    前記第2の算出手段は、前記視線検出装置で検出された視線方向を加味して前記誘目性を算出することを特徴とする車両用監視装置。
  7. 請求項1〜6のいずれか一項に記載の車両用監視装置において、
    車両速度を検出する車速センサをさらに備え、
    前記第2の算出手段は、前記車両速度を加味して前記誘目性を算出することを特徴とする車両用監視装置。
  8. 請求項7に記載の車両用監視装置において、
    前記第2の算出手段は、誘目性に対して予め設定された複数の車速影響パラメータから前記車両速度に応じた車速影響パラメータを一つ選択し、選択された車速影響パラメータを加味して前記誘目性を算出することを特徴とする車両用監視装置。
  9. 請求項1〜8のいずれか一項に記載の車両用監視装置において、
    前記第2の算出手段は、運転者に加わるワークロードを加味して前記誘目性を算出することを特徴とする車両用監視装置。
  10. 請求項9に記載の車両用監視装置において、
    前記ワークロードは、車両周囲の映像に基づいて検出された車両周囲状況に応じて算出されることを特徴とする車両用監視装置。
  11. 請求項1〜10のいずれか一項に記載の車両用監視装置において、
    前記収集手段により収集される情報は、前記対象物の位置および相対速度であることを特徴とする車両用監視装置。
  12. 請求項1〜11のいずれか一項に記載の車両用監視装置において、
    前記収集手段により収集される情報は、他車両との通信により取得される他車両情報であることを特徴とする車両用監視装置。
JP2006160515A 2006-06-09 2006-06-09 車両用監視装置 Expired - Fee Related JP4775123B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006160515A JP4775123B2 (ja) 2006-06-09 2006-06-09 車両用監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006160515A JP4775123B2 (ja) 2006-06-09 2006-06-09 車両用監視装置

Publications (2)

Publication Number Publication Date
JP2007329793A true JP2007329793A (ja) 2007-12-20
JP4775123B2 JP4775123B2 (ja) 2011-09-21

Family

ID=38929953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006160515A Expired - Fee Related JP4775123B2 (ja) 2006-06-09 2006-06-09 車両用監視装置

Country Status (1)

Country Link
JP (1) JP4775123B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206939A (ja) * 2008-02-28 2009-09-10 Nissan Motor Co Ltd 車両用画像表示システム及び画像表示装置並びに画像の強調方法
JP2009206689A (ja) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd 車両用表示装置および車両用表示方法
JPWO2011074198A1 (ja) * 2009-12-14 2013-04-25 パナソニック株式会社 ユーザインタフェース装置および入力方法
JP2013183298A (ja) * 2012-03-02 2013-09-12 Nissan Motor Co Ltd 車両用後方視界支援装置及び車両用後方視界支援方法
JP2013254409A (ja) * 2012-06-08 2013-12-19 Toyota Central R&D Labs Inc 漫然運転検出装置及びプログラム
JP5920528B2 (ja) * 2013-03-28 2016-05-18 日産自動車株式会社 駐車支援装置
JPWO2014129026A1 (ja) * 2013-02-21 2017-02-02 本田技研工業株式会社 運転支援装置、および画像処理プログラム
JP2017199142A (ja) * 2016-04-26 2017-11-02 トヨタ自動車株式会社 ドライバー視覚情報提供装置、および、車両用運転支援システム
KR101816415B1 (ko) 2016-06-21 2018-02-21 현대자동차주식회사 시선 추적을 이용한 운전자 집중도 감시 장치 및 방법
JP2019125894A (ja) * 2018-01-16 2019-07-25 クラリオン株式会社 車載画像処理装置
RU2715876C1 (ru) * 2016-04-14 2020-03-03 Ниссан Мотор Ко., Лтд. Способ и оборудование отображения окрестностей мобильного тела

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206689A (ja) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd 車両用表示装置および車両用表示方法
JP2009206939A (ja) * 2008-02-28 2009-09-10 Nissan Motor Co Ltd 車両用画像表示システム及び画像表示装置並びに画像の強調方法
JPWO2011074198A1 (ja) * 2009-12-14 2013-04-25 パナソニック株式会社 ユーザインタフェース装置および入力方法
JP5602155B2 (ja) * 2009-12-14 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ユーザインタフェース装置および入力方法
JP2013183298A (ja) * 2012-03-02 2013-09-12 Nissan Motor Co Ltd 車両用後方視界支援装置及び車両用後方視界支援方法
JP2013254409A (ja) * 2012-06-08 2013-12-19 Toyota Central R&D Labs Inc 漫然運転検出装置及びプログラム
US9589194B2 (en) 2013-02-21 2017-03-07 Honda Motor Co., Ltd. Driving assistance device and image processing program
JPWO2014129026A1 (ja) * 2013-02-21 2017-02-02 本田技研工業株式会社 運転支援装置、および画像処理プログラム
JPWO2014155827A1 (ja) * 2013-03-28 2017-02-16 日産自動車株式会社 駐車支援装置
JP5920528B2 (ja) * 2013-03-28 2016-05-18 日産自動車株式会社 駐車支援装置
RU2715876C1 (ru) * 2016-04-14 2020-03-03 Ниссан Мотор Ко., Лтд. Способ и оборудование отображения окрестностей мобильного тела
US10864856B2 (en) 2016-04-14 2020-12-15 Nissan Motor Co., Ltd. Mobile body surroundings display method and mobile body surroundings display apparatus
JP2017199142A (ja) * 2016-04-26 2017-11-02 トヨタ自動車株式会社 ドライバー視覚情報提供装置、および、車両用運転支援システム
KR101816415B1 (ko) 2016-06-21 2018-02-21 현대자동차주식회사 시선 추적을 이용한 운전자 집중도 감시 장치 및 방법
US10002300B2 (en) 2016-06-21 2018-06-19 Hyundai Motor Company Apparatus and method for monitoring driver's concentrativeness using eye tracing
JP2019125894A (ja) * 2018-01-16 2019-07-25 クラリオン株式会社 車載画像処理装置

Also Published As

Publication number Publication date
JP4775123B2 (ja) 2011-09-21

Similar Documents

Publication Publication Date Title
JP4775123B2 (ja) 車両用監視装置
US8289391B2 (en) Apparatus for vehicle surroundings monitoring
JP4882571B2 (ja) 車両用監視装置
US7663476B2 (en) Surrounding image generating apparatus and method of adjusting metering for image pickup device
JP5421072B2 (ja) 接近物体検知システム
EP2950521B1 (en) Camera capable of reducing motion blur in a low luminance environment and vehicle including the same
EP2309746A1 (en) Target position identifying apparatus
US11562576B2 (en) Dynamic adjustment of augmented reality image
KR20200050959A (ko) 화상 처리 디바이스, 화상 처리 방법, 및 프로그램
JP2004343676A (ja) 自動車のカメラシステム及び2重露出映像取得方法
JP2017017635A (ja) 故障診断装置
JP2009234344A (ja) 撮像手段の調整装置および物体検出装置
JP2014015127A (ja) 情報表示装置、情報表示方法およびプログラム
JP2012222776A (ja) 画像処理装置、画像処理方法、及び運転支援システム
CN113276772B (zh) 一种汽车电子外后视镜系统及控制方法
JP2009126493A (ja) 障害物検出装置
TW201535323A (zh) 影像除霧系統及其方法、以及行車輔助系統及其方法
CN113170057B (zh) 摄像部控制装置
JPH09142210A (ja) 車両周辺監視装置
JP5311133B2 (ja) 表示画像修正装置
JP2008263325A (ja) 車外撮影カメラ画像表示装置
JP2007288328A (ja) 周辺画像表示装置
JP5310162B2 (ja) 車両灯火判定装置
JP2007172052A (ja) 移動体認識装置
JP5098982B2 (ja) 顔部位検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110613

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees