JP2013186872A - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
JP2013186872A
JP2013186872A JP2012054282A JP2012054282A JP2013186872A JP 2013186872 A JP2013186872 A JP 2013186872A JP 2012054282 A JP2012054282 A JP 2012054282A JP 2012054282 A JP2012054282 A JP 2012054282A JP 2013186872 A JP2013186872 A JP 2013186872A
Authority
JP
Japan
Prior art keywords
image
range
unit
horizontal
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012054282A
Other languages
English (en)
Other versions
JP2013186872A5 (ja
Inventor
Hideo Fujita
偉雄 藤田
Tsubasa ONDA
翼 恩田
Norihiro Matoba
成浩 的場
Satoru Inoue
井上  悟
Tatsuya Mitsugi
達也 三次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012054282A priority Critical patent/JP2013186872A/ja
Publication of JP2013186872A publication Critical patent/JP2013186872A/ja
Publication of JP2013186872A5 publication Critical patent/JP2013186872A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】距離センサ、画像センサの2つを用いて、悪天候時や夜間でも、状況の解析を素早く行い、画像認識を正確に行う。
【解決手段】画像センサ(2a)からの画像(D2)のうち、距離センサ(1a)で検知された対象物が占める範囲を含む領域部分を切り出し(44)、該領域部分に対し、環境情報(D3)に基づいて画像処理を行い(45)、画像処理された画像(D45)に基づいて、画像中の対象物が占める範囲を特定して対象物画像として切り出し(46)、対象物画像(D46)に対し、環境情報(D3)に基づいて更なる画像処理を行ない、更なる画像処理を受けた対象物画像に基づいて、当該対象物の特定、対象物による危険の有無を判定する(48)。
【選択図】図1

Description

本発明は、運転支援装置に関し、特に車載レーダなどの距離センサと車載カメラなどの画像センサを備え、これらにより得られる情報を組合せて利用することで、対象物についての情報を得て、運転支援のための情報を生成する運転支援装置に関する。
画像センサ(カメラ)や距離センサ(ミリ波レーダ、レーザレーダ、ソナーなど)を使った運転支援機能を搭載した車両が増えている。代表的なものとして、画像センサを用いたレーンキープやレーンチェンジのための白線検知や、距離センサを用いた、衝突回避のための車両周辺の対象物検知がある。
画像センサは距離センサに比べて高い空間分解能を有しており、またカラー画像を取得可能であるという利点がある。しかし、対環境性が低く、暗い夜道や悪天候時には画質が低下し、対象物特定が困難になるという問題がある。
この問題の解決方法として、利得の増大による感度増強や視認性改善のための画像処理を行うことが提案されている。しかし、これらの処理は、単位時間当たりのデータ処理量が多く、車載用の回路では実現が困難であるという問題がある。
また、画像処理は一般に画像全体に対して一様な処理をかけるため、例えば暗い夜道で対向車のヘッドライトが写った場合など、画像の部分によって画像の特性が変化する環境では、画像処理が一部の領域に対しては適切でも他の領域に対しては適切でない場合がある。そこで、画像内の領域ごとに画像特性を算出し、画像処理のためのパラメータ(フィルタ係数など)を変化させる方法があるが、画像の領域毎に画像特性を算出し、その領域用にパラメータを設定して画像処理を行なうため、データ処理量(計算量)が増大するという問題がある。
距離センサは対環境性が高く、走行の時間帯、悪天候などに左右されずに自車両と対象物との距離を検出することが可能である。しかし、距離センサは空間分解能が低く、取得されたデータに基づいて対象物を正確に特定することができず、例えば、前方の車両とガードレールを判別することができないという問題がある。
そこで、距離センサの高い対環境性と画像センサの高い空間分解能を組合せることで互いの欠点を補い、対象物検出精度を高くする方法が提案されている(特許文献1)。
また、距離センサが受信した対象物の複数の反射点からの反射波に基づく情報をクラスタリングすることで、対象物の横幅を算出し、算出した横幅をもとに画像内における前方車両の大きさを推定し、対象物を囲む矩形の候補領域を設定し、候補領域内の画像からエッジ画像を形成して対象物認識を行うことも提案されている(特許文献2)。
特開2010−249613号公報 特許第4074577号
しかしながら、特許文献1の方法では、画像センサで得た画像に対し画像処理を行ったとしても、悪天候や暗い夜道など、環境条件によっては、画像中の対象物の特定が正確に行えないという問題がある。
また、特許文献2の方法では、対象物が、例えば予め予想されている物(例えば4輪車)以外のものである場合、例えば対象物がオートバイ、自転車、歩行者などである場合、或いは、予め予想されている物であっても通常とは異なる高さを有する場合には、その高さを正確に求めることができないという問題がある。
本発明に係る運転支援装置は、
自車両を基準として垂直方向の所定の角度における水平方向の異なる角度の各々にある対象物までの距離を検出して距離情報を生成する距離情報取得部と、
前記自車両に搭載された画像センサで対象物を撮像し、対象物の画像情報を取得する画像情報取得部と、
前記自車両周辺の環境を検出して環境情報を取得する環境情報取得部と、
前記距離情報と、前記画像情報と、前記環境情報に基づいて、運転支援に利用される情報を生成する情報解析部とを備え、
前記情報解析部が、
前記距離情報取得部で距離が検出された対象物の水平方向角度範囲を検出する角度範囲検出部と、
前記画像情報で表される画像のうち、前記角度範囲検出部で検出された水平方向角度範囲に対応する水平方向位置範囲を算出する位置範囲算出部と、
前記位置範囲算出部により算出された前記水平方向位置範囲と、前記垂直方向の所定の角度を示す情報とに基づいて、前記距離情報取得部により対象物が検知された範囲を対象物検知範囲として特定し、前記対象物検知範囲の水平方向端部の近傍における画像中のエッジに基づいて、画像のうちの前記対象物が占めると推定される範囲を含む領域部分を切り出す領域切り出し部と、
前記領域部分に対し、前記環境情報に基づいて画像処理を行う領域画像補正部と、
前記領域画像補正部で画像処理された画像に基づいて、画像中の対象物が占める範囲を特定し、特定した範囲の画像を対象物画像として切り出す対象物切り出し部と、
前記対象物画像に対し、前記環境情報に基づいて更なる画像処理を行なう対象物画像補正部と、
前記対象物画像補正部で前記更なる画像処理を受けた対象物画像に基づいて、当該対象物の種類を特定する処理及び当該対象物による危険の有無を判定する処理の少なくとも一つを行って、該処理の結果を示す情報を出力する画像認識部と
を備えることを特徴とする。
本発明によれば、データ処理量を抑制しつつ、対象物の特定や対象物による危険性の把握を正確に行うことができる。
本発明の実施の形態の運転支援装置を示すブロック図である。 図1の環境情報取得部3の構成例を示すブロック図である。 図1の距離情報取得部1において得られる距離情報の一例を示す図である。 (a)及び(b)は、角度範囲検出部41で検出される角度範囲、及び位置範囲算出部42で算出される位置範囲の例を示す図である。 領域切り出し部44の構成例を示すブロック図である。 対象物の左右端及び上限端に対応するエッジの検出に用いられる検出範囲を示す図である。 (a)〜(c)は、対象物の上端に対応する水平エッジの探索における、水平ラインごとの判定結果の異なる例を示す図である。 (a)〜(d)は、領域切り出し部44による切り出し領域の異なる例を示す図である。 (a)及び(b)は、環境情報取得部3で取得される環境情報と画像処理方法の対応関係を示す表である。 図1の領域画像補正部45及び対象物画像補正部47をソフトウェアで構成する場合の構成例を示すブロック図である。 図10のプログラム記憶部7に記憶されている画像処理プログラムの例を示すブロック図である。
実施の形態1.
図1は本発明の実施の形態1における運転支援装置を示す。
図示の運転支援装置は、距離情報取得部1と、画像情報取得部2と、環境情報取得部3と、状況解析部4と、注意喚起部5と、車両制御部6とを備えている。
状況解析部4は、角度範囲検出部41と、位置範囲算出部42と、領域切り出し部44と、領域画像補正部45と、対象物切り出し部46と、対象物画像補正部47と、画像認識部48と、特徴量記憶部49とを備えている。
距離情報取得部1は、距離センサ1aを有し、該距離センサ1aから、水平方向の異なる角度に電磁波或いは超音波のビームを放射し、反射波を受けることで、ビームを反射させた対象物までの距離及び該対象物の自車両に対する相対速度を検出することができる。
距離センサ1aとしては、ミリ波レーダ、レーザレーダなどのレーダ、ソナーなどを用いることができる。
距離情報取得部1の距離センサ1aは、その基準方向が、例えば自車両の特定の方向、例えば、車両の前方方向或いは車両の進行方向に関係付けられている。即ち、距離センサ1aは、上記特定の方向を中心とする所定の角度範囲内でビームの放射方向を変化させる。このような方向の変化を走査という。
自車両の特定の方向を中心とする所定の角度範囲内において、放射方向を所定角度(例えば5度)ずつ変化させながら、ビームを放射し、それぞれの角度(方位)からの反射波を受信することで、各角度においてビームを反射させた対象物についての距離及び相対速度情報を得ることができる。
本実施の形態では、垂直方向角度を一定に保ち、水平方向角度を変化させる(水平方向の走査する)ことで、垂直方向の所定の角度における水平方向の異なる角度の各々における対象物までの距離を検出することとしている。
距離情報取得部1で取得された情報は距離情報D1として出力される。
画像情報取得部2は、撮像装置、即ち画像センサ2aを含み、対象物の画像情報D2を取得する。画像センサ2aはその基準軸方向が、自車両の特定の方向、例えば車両の前方方向或いは進行方向に関係付けられている。画像センサ2aは、上記特定の方向を中心とする所定の範囲(画角)内の画像を表す画像情報D2を取得する。
画像情報D2は、画像を構成する、水平方向(行方向)及び垂直方向(列方向)に整列した複数の画素の画素値を含む。画像内の画素の行をラインとも言う。
画像情報D2は、領域切り出し部44に供給される。
距離センサ1aについての上記の特定の方向と、画像センサ2aについての上記の特定の方向とは必ずしも一致しなくても良いが、画像センサ2aの基準軸は距離センサ1aの基準軸に関係付けられており、また、画像センサ2aの水平方向の画角と距離センサ1aの走査範囲とは関係付けられており、距離センサ1aで取得した反射波に基づく情報と、画像センサ2aで取得した画像情報とを対応付けることが可能となっている。例えば、距離センサ1aで距離情報が取得された水平方向角度及び垂直方向角度が、画像センサ2aで取得された画像のどの位置のものであるかが分かるようになっている。
上記の所定の垂直方向角度(距離情報取得部1により距離情報の取得が行われた垂直方向角度(図4(a)に符号Ashで示す))に対応する、画像内の垂直方向位置(図4(b)に符号Hshで示す)を表す情報Dshが、外部から領域切り出し部44に供給される。
環境情報取得部3は、自車両の周辺環境から、種々の環境条件を検出し、検出結果を示す環境情報(環境パラメータ)を出力する。
環境情報取得部3は、例えば図2に示すように、光量情報取得部31、雨・雪情報取得部32、沈み込み情報取得部33、及び傾き情報取得部34を備える。
光量情報取得部31は、自車両の周辺の光の強さを検出する。光量情報取得部31は光量センサを有し、該光量センサで取得した光量に基づいて周辺の明るさを判別する。判別結果は明るさを表す情報(明るさ情報)D31として出力される。
雨・雪情報取得部32は、雨や雪などが降っているかどうか(降水中であるかどうか)を示す情報(雨・雪情報)D32として出力される。なお、降水量(降雨量、降雪量など)の大小を検出する機能を有しても良い。
沈み込み情報取得部33は、車両の重量を検出し、検出結果に基づいて車両の沈み込み量を算出する。この沈み込みは、車両が傾かずに沈み込んだ場合を想定し、所定の基準位置に対する相対位置を表す値である。
沈み込み情報取得部33は、例えば、前後左右4個の車輪又は対角2個の車輪と車体とを連結し、主として車体の上下振動を緩和するために設けられているサスペンションのストローク(例えば、車輪直上のバネのストローク)を検出し、検出したストロークに基づいて車両の総重量(車体、搭乗員及び積み荷の重量の合計)を算出し、算出された重量と、サスペンションの弾性率などに基づいて、沈みこみ量を算出する。
算出された沈み込み量を表す情報は、沈み込み情報D33として出力される。
傾き情報取得部34は、車両の路面に対する傾きを検出する。この路面に対する傾きは、坂道などで路面が傾いている場合、あるいは、車両の搭乗員や積荷が均等でない場合に生じるものである。
傾きは、ジャイロセンサや傾きセンサを用いることで検出することができる。
なお、沈み込み情報取得部33で利用するサスペンションのストロークが前後左右4個の車輪に関し得られる場合には、これらのストロークから傾きを算出することも可能である。
算出された傾きを表す情報は傾き情報D34として出力される。
上記のそれぞれの情報取得部(31〜34)で得られた情報D31〜D34を総称して環境情報D3という。
環境情報D3は、領域画像補正部45及び対象物画像補正部47へ供給される。
角度範囲検出部41では、距離情報取得部1により得られた各角度についての距離情報(各角度に位置し、それぞれの反射波を生じさせた対象物から距離センサ1aまでの距離)に基づいて、対象物が占める水平方向角度範囲を検出する。
以下、角度範囲検出部41の動作を図3を参照して説明する。図3で、符号P(1a)は距離センサ1aの位置を示している。
上記のように、距離情報取得部1では水平方向の異なる角度にある1又は2以上の対象物までの距離を求めることができ、以下のように、該距離情報に基づくクラスタリングにより各対象物の水平方向角度範囲を求めることができる。
図3には、互いに異なる角度A(1)〜A(16)の反射波から得られた距離情報で表される距離の位置が符号P(1)〜P(16)で示されている。図では簡単のため、所定の角度毎にビームが放射され、16個の角度A(1)〜A(16)に関して距離情報が得られているものとしている。いくつかの角度、即ち、角度A(1)、A(2)、A(4)、A(10)、A(12)に関しては、距離が所定値Lthよりも大きいと判断されているものとする。距離が所定値Lthよりも大きいと判断されるのは、反射波が届くまでの時間が所定値よりも長い場合と、反射波が受信できない場合とがある。
次に、距離が所定値Lth以下である角度について、互いに隣り合う角度からの反射波から得られた距離情報が、互いに近い値(差が所定値以内)の距離を表すものである場合は、これらの反射波は、同じ対象物からの反射波である可能性が高い。例えば、図3の例では、角度A(5)、A(6)、A(7)、A(8)からの反射波から得られた距離情報が互いに近い値を有するので、同じ対象物からの反射波であると推定することができる。
上記の処理のための手順をより具体的に述べれば、角度A(4)、A(5)からの反射波から得られた距離情報が互いに近い値を有しないので、異なる対象物からの反射波であると推定した後、角度A(5)、A(6)からの反射波から得られた距離情報が互いに近い値を有するので、同じ対象物からの反射波であると推定し、同様に、角度A(6)、A(7)からの反射波から得られた距離情報が互いに近い値を有するので、同じ対象物からの反射波であると推定し、同様に、角度A(7)、A(8)からの反射波から得られた距離情報が互いに近い値を有するので、同じ対象物からの反射波であると推定し、角度A(8)、A(9)からの反射波から得られた距離情報が互いに近い値を有しないので、異なる対象物からの反射波であると推定する。
これらの推定結果を総合して、角度A(5)、A(6)、A(7)、A(8)からの反射波から得られた距離情報が互いに近い値を有するので、同じ対象物からの反射波であると推定する。
このように、互いに隣接する複数の角度において、互いに近い距離からの反射波が検出された場合、該反射は同じ対象物からの反射波であると判断し、該対象物についてさらなる処理を行う。
一般化して言えば、反射波が所定の角度毎に得られるものとし、ある角度A(i)からの反射波によって得られた距離情報L(i)を基準とし、隣接する角度A(i+1)からの反射波によって得られた距離情報L(i+1)との差分絶対値ΔL(=|L(i)−L(i+1))を求め、この差分絶対値が所定の閾値よりも小さければ、角度A(i)と角度A(i+1)では同じ対象物からの反射波が得られており、角度A(i)及びA(i+1)において反射波を生じさせたものは同じ対象物の異なる部分であると判断する。
次に角度A(i+1)と角度A(i+2)について同じ処理を行う。このような処理を繰り返すことで、同じ対象物がどの角度からどの角度までの範囲を占めているかを検知することができる。
図示の例では、角度A(5)及びA(8)が一つの対象物の角度範囲Baの一端(左端)及び他端(右端)を示す情報として出力される。
求められた対象物の角度範囲を示す情報D41は、位置範囲算出部42へ供給される。
次に図4(a)及び(b)を参照して位置範囲算出部42の動作を説明する。
図4(a)は、距離情報取得部1で得られた、図3の角度範囲Ba、及びその内部に含まれる角度A(5)〜A(8)を平面上に展開して示す。符号1sは、距離情報取得部1により距離情報の取得が行われた範囲を示す。
図4(b)は、画像情報取得部2で得られた画像を示す。
位置範囲算出部42は、角度範囲検出部41で求められた角度範囲を示す情報D41を受け、角度範囲検出部41で算出された対象物の角度範囲に対応する、画像情報D2で表される画像中の水平方向位置範囲Ra(図4(b))を算出する。具体的には、角度範囲Baの左端及び右端を示す情報から、画像中の水平方向位置範囲Raの左端及び右端の位置を示す情報(座標値)を算出する。
算出した情報は位置情報D42として領域切り出し部44へ送られる。
領域切り出し部44は、位置範囲算出部42により算出された水平方向位置範囲Raと、所定の垂直方向角度Ashに対応する画像内の垂直方向位置Hshを示す情報Dshとに基づいて、距離情報取得部1により対象物が検知された範囲(その一例が図6に符号100で示されている)を対象物検知範囲として特定し、該対象物検知範囲100の水平方向端部の近傍における画像中のエッジに基づいて、画像のうちの対象物が占めると推定される範囲を含む領域部分D44を切り出す。
対象物検知範囲100は、距離情報取得部1により距離情報の取得が行われた垂直方向角度Ash(図4(a))に対応する画像上の垂直方向位置Hsh(図4(b)及び図6)において、距離情報取得部1により対象物が検知された水平方向位置範囲Raの左端から右端まで延びた帯状の部分から成る。
領域切り出し部44は、例えば、上記対象物検知範囲100の水平方向端部の近傍において、対象物の水平方向端部に対応する画像中の垂直エッジ(垂直方向に延びたエッジ)の有無の判定を行い、該垂直エッジが検出されたときは、対象物の垂直方向端部に対応する水平エッジ(水平方向に延びたエッジ)を探索し、水平エッジが検出されたときは、検出された水平エッジの位置に基づいて切り出し領域(領域部分)の垂直方向端部を決める。
領域切り出し部44は、図5に示すように、検出範囲切り出し部441と、切り出し領域決定部442と、切り出しデータ出力部443とを有する。
検出範囲切り出し部441では、位置範囲算出部42から供給される位置情報D42、外部から入力される垂直方向位置情報Dshに基づき、対象物検知範囲100を特定し、画像情報取得部2から出力される画像情報D2で表される画像から、所定の規則に従い検出範囲の画像を切り出す。
例えば、図4(b)に示される対象物検知範囲100に対して、検出範囲切り出し部441は、図6に示される第1、第2、第3及び第4の範囲101、102、103、104の画像の切り出しを行う。
第1の範囲は対象物左端確認領域、第2の範囲102は対象物右端確認領域、第3の範囲103は対象物上端確認領域、第4の範囲104は対象物下端確認領域と呼ばれる。
範囲101は、対象物検知範囲100の左側端部100aを中心として、所定の幅(水平方向寸法)及び所定の高さ(垂直方向寸法)を有する矩形の領域である。
範囲102は、対象物検知範囲100の右側端部100bを中心として、所定の幅及び所定の高さを有する矩形の領域である。
図示の例では範囲101と範囲102とは同じ大きさであるが、異なっていても良い。
範囲103は、対象物検知範囲100の中点100cを幅方向の中心とし、所定の幅を有する矩形の領域である。範囲103の上端は、画像の上端に一致し、範囲103の下端は、垂直方向位置情報Dshで表される垂直方向位置(距離センサ1aによって走査した垂直方向角度Ashに対応する垂直方向位置)Hshに一致する。
範囲104は、対象物検知範囲100の中点100cを幅方向の中心とし、所定の幅を有する矩形の領域である。範囲104の上端は、垂直方向位置情報Dshで表される垂直方向位置Hshに一致し、範囲104の下端は、画像の下端に一致する。
範囲101〜104の各々は、各々水平方向に並んだ複数の画素から成る複数のラインで構成される。
切り出し領域決定部442は、画像情報取得部2から出力される画像情報D2で表される画像のうち、検出範囲切り出し部441により切り出された検出範囲101、102、103、104内の画像D441についてエッジの有無を判定し、この判定結果と、距離情報取得部1により得られた、画像内の水平方向位置範囲Raの左端及び右端の位置を示す情報D42とに基づいて、画像のうちの対象物が占めると推定される範囲を含む領域部分(図8(a)〜(d)に符号Caで示す部分)を決定する。
具体的には、まず、範囲101及び102において、それぞれ対象物の左端及び右端に対応する垂直エッジが画像中に存在するか否かの判断を行なう。
このために、範囲101内の各画素が垂直エッジ成分を構成するものか否かの判断を行ない、範囲101内において、垂直エッジ成分を構成すると判断された画素の数が所定数以上かどうかの判断を行ない、所定数以上であれば、範囲101内に垂直エッジが存在するとの判断を行なう。
個々の画素が垂直エッジ成分を構成するものか否かの判断は、水平方向に隣接する画素との画素値(例えば輝度値)の差分に基づいて行う。例えば、水平方向に右側(対象物検知範囲100の中点100cに近い側)に隣接する画素との差分の絶対値が所定値以上であれば垂直エッジ成分を構成すると判断する。
同様に、範囲102内の各画素が垂直エッジ成分を構成するものか否かの判断を行ない、範囲102内において、垂直エッジ成分を構成すると判断された画素の数が所定数以上かどうかの判断を行ない、所定数以上であれば、範囲102内に垂直エッジが存在するとの判断を行なう。
個々の画素が垂直エッジ成分を構成するものか否かの判断は、水平方向に隣接する画素との画素値(例えば輝度値)の差分に基づいて行う。例えば、水平方向の左側(対象物検知範囲100の中点100cに近い側)に隣接する画素との差分の絶対値が所定値以上であれば垂直エッジ成分を構成すると判断する。
範囲101及び102のいずれかにおいて、垂直エッジが存在しない(確認されない)ときは、画像情報取得部2により取得した画像ではエッジの検出ができない状態である(例えば、エッジが検出できる撮像条件ではない)と判定し、範囲103、104についての判定を行なうことなく、或いは範囲103、104についての判定結果にかかわらず、上下方向の限定を行わなず(画像の上端から下端までを切り出し領域に含め)、水平方向範囲のみを限定することとする。
即ち、切り出し領域決定部442は、第1及び第2の範囲101、102のいずれかにおいて、垂直エッジが検出されないときは、垂直方向範囲を限定せずに水平方向位置範囲Raに基づいて水平方向範囲を限定した切り出し領域を決定する。
範囲101及び102の双方において、対象物の端部に対応する垂直エッジが検出されたときは、範囲103及び104において、それぞれ対象物の上端及び下端に対応する水平エッジの探索を行う。
範囲103内における、対象物の上端に対応する水平エッジの探索は以下のように行われる。
まず、各画素が水平エッジ成分を構成するものであるか否かの判断を、上下方向に隣接する画素との画素値(例えば輝度値)の差が所定値以上か否かによって行う。例えば下側に隣接する画素との画素値の差が所定値以上であれば、水平エッジ成分を構成するものであると判断する。
次に、範囲103内の各ライン中に、水平エッジ成分を構成すると判断された画素が所定数以上あれば、当該ラインは、水平エッジ成分を構成するものであると判断し、そうでなければ当該ラインは水平エッジ成分を構成するものではないと判断する。
この判定の結果の異なる例を図7(a)〜(c)に示す。
図7(a)〜(c)において、それぞれの矩形L1、L2、…LN(Nは範囲103中のラインの数)はそれぞれのラインを示し、ハッチングを施した矩形は、水平エッジ成分を構成するものと判断されたラインを示し、ハッチングを施さない矩形は、水平エッジ成分を構成するものではないラインを示す。
切り出し領域決定部442では、範囲103内のそれぞれのラインを矢印PSで示すように下から順に調べ、
図7(a)に示すように、水平エッジ成分を構成すると判断されたラインが続いた後、水平エッジ成分を構成するものではないラインが検出されたら、その位置(三角印UEで示す)を対象物の上端と判断し、その位置に対して所定の余裕分だけ上方の位置を切り出し領域(領域部分)の上端と決定する。
図7(b)に示すように、水平エッジ成分を構成すると判断されたラインが画像の上端まで続いた場合には、画像の上端(三角印UEで示す)を切り出し領域の上端と決定する。
図7(c)に示すように、水平エッジ成分を構成するラインが画像の上端まで検出されない場合にも、画像の上端(三角印UEで示す)を切り出し領域の上端と決定する。
範囲104についても範囲103と同様の処理を行う。但し、上下方向は逆となる。即ち、各画素が水平エッジ成分を構成するものであるか否かの判断を、上下方向に隣接する画素との画素値(例えば輝度値)の差が所定値以上か否かによって行う。例えば上側に隣接する画素との画素値の差が所定値以上であれば、水平エッジ成分を構成するものであると判断する。
次に、範囲104内の各ライン中に、水平エッジ成分を構成すると判断された画素が所定数以上あれば、当該ラインは、水平エッジ成分を構成するものであると判断し、そうでなければ当該ラインは水平エッジ成分を構成するものではないと判断する。
切り出し領域決定部442では、範囲104内のそれぞれのラインを上から順に調べ、水平エッジ成分を構成すると判断されたラインが続いた後、水平エッジ成分を構成するものではないラインが検出されたら、その位置を対象物の下端と判断し、その位置に対して所定の余裕分だけ下方の位置を切り出し領域の下端と決定する。
水平エッジ成分を構成すると判断されたラインが画像の下端まで続いた場合には、画像の下端を切り出し領域の下端と決定する。
水平エッジ成分を構成するラインが画像の下端まで検出されない場合には、画像の上端を切り出し領域の下端と決定する。
切り出し領域決定部442は、上記のようにして決定した切り出し領域を示す情報D442を切り出しデータ出力部443に供給する。
切り出しデータ出力部443では、画像情報取得部2から出力された画像D2のうち、切り出し領域決定部442により決定された切り出し領域(領域部分)の画像を抽出して出力する。
切り出しデータ出力部443の出力は、領域切り出し部44の出力D44として領域画像補正部45に供給される。
領域切り出し部44により切り出される領域部分Caの例が図8(a)〜(d)に符号Caで示されている。
図8(a)に示される切り出しでは、垂直方向範囲は限定せず、水平方向範囲のみを限定した領域部分Caが切り出されている。即ち、画像を垂直方向に延びた分割線(点線で示す)で、該当部分とそれ以外の部分を分離し、該当部分の画像データのみが抽出される。
図8(b)に示される切り出しでは、水平方向範囲が限定されるとともに、垂直方向の上端及び下端の双方が限定された領域部分Caが切り出されている。
図8(c)に示される切り出しでは、水平方向範囲が限定されるとともに、垂直方向の下端が限定された領域部分Caが切り出されている。
図8(d)に示される切り出しでは、水平方向範囲が限定されるとともに、垂直方向の上端が限定された領域部分Caが切り出されている。
図8(a)〜(d)のいずれにおいても、切り出し領域Caの左端は、水平方向位置範囲Raの左端よりも所定の余裕分だけ左側にずれた位置にあり、切り出し領域Caの右端は、水平方向位置範囲Raの右端よりもよりも所定の余裕分だけ右側にずれた位置にある。
上記の余裕分は、例えば距離情報取得部1で距離情報が取得される異なる角度のうちの、隣接する角度間の間隔(例えば角度A(4)と角度A(5)の間隔)に略等しい距離とするのが望ましい。
このようにすることで、対象物から反射が確認された角度範囲Baに対応する水平方向位置範囲Raよりも広めに切り出し領域Caを設定することができる。
図8(b)、(d)に示すように切り出し領域Caの上端を限定して切り出しを行う場合、対象物の上端と推定された位置よりも所定の余裕分だけ上方に切り出し領域Caの上端を設定する。また、図8(b)、(c)に示すように切り出し領域Caの下端を限定して切り出しを行う場合、対象物の下端と推定された位置よりも所定の余裕分だけ下方に切り出し領域Caの上端を設定する。これは、水平方向の場合と同様に、対象物の画像が確実に切り出し領域内に含まれるようにするためである。
なお、第1の範囲101及び第2の範囲102は対象物検知範囲100の端部を中心とする所定の大きさの矩形の領域としたが、領域の形状は矩形に限らず、また対象物検知範囲100の端部を中心としなくても対象物検知範囲100の端部の近傍の領域であればよい。
また、第1の範囲101及び第2の範囲102の一方のみにおいて、垂直エッジの有無の判定を行っても良い。
また、第3の範囲103で対象物の上端に対応する水平エッジを探索し、第4の範囲104で対象物の下端に対応する水平エッジを探索したが、第3の範囲103における対象物の上端に対応する水平エッジの探索及び第4の範囲104における対象物の下端に対応する水平エッジの探索の一方のみを行っても良い。対象物の上端に対応する水平エッジの探索のみを行う場合には、切り出し部44による切り出し領域の下端は画像の下端となり、対象物の下端に対応する水平エッジの探索のみを行う場合には、切り出し部44による切り出し領域の上端は画像の上端となる。
また、第3の範囲103及び第4の範囲104は水平方向位置範囲Raの中心をその幅方向の中心としているが、この点に限定されず、その左端及び右端がともに水平方向位置範囲Ra内に位置するものであれば良い。
領域画像補正部45は、領域切り出し部44より得られた領域切り出し画像(切り出し領域Caの画像)に対し、環境情報取得部3により得られた環境情報D3に応じた画像処理を行い、画像処理後の画像を環境補正画像D45として出力する。この画像処理は、画像内の対象物が占める範囲をより正確に特定するために視認性を向上させることを主な目的とするものである。
実行可能な画像処理としては、座標変換、ノイズ低減、雨・雪補正、コントラスト補正、エッジ強調、エッジ抽出などの画質補正や、信号増幅、デジタルズームなどがあり、これらのうちの、環境情報D3に応じて選択されたものが実行される。なお、環境情報D3の内容によっては、いずれの画像処理も実行されない場合があり得る。
環境情報D3のうちの沈み込み情報D33及び傾き情報D34に基づく座標変換は以下のように行われる。
この座標変換においては、例えばまず、沈み込み情報D33で表される沈み込み量を補償するため画像を上下方向に移動させる。次に、傾き情報D34で表される傾きを補償するため、検出された傾きとは逆の方向に画像を回転させる。
環境情報D3のうちの明るさ情報D31及び雨・雪情報D32の値による画像処理方法の選択例を図9(a)及び(b)に示す。
例えば、図9(a)に示すように、明るさ情報D31が、周辺の明るさを256段階で数値化したものであるとする。その場合、明るさ情報D31の値に基づいて、信号増幅及びノイズ低減処理が必要か否かを選択する。例えば明るさを示す値が50(第1の所定値)以下であれば、周囲が暗いと判断し、画像情報に対して、信号増幅及びノイズ低減処理を行う。明るさを示す値が50〜200の間(第1の所定値より大きく、第2の所定値よりも小さい範囲内)であれば、信号増幅だけを行う。明るさを示す値が200(第2の所定値)以上であれば、信号増幅、ノイズ低減処理の何れも行わない。
また、雨・雪情報D32により、雨・雪補正処理が必要か否かを選択する。雨・雪情報D32が雨や雪などが降っていることを示す「1」であれば、画像情報に対して雨・雪補正処理を行う。雨・雪情報D32が雨や雪が降っていないことを示す「0」であれば、雨・雪補正処理をしない。
このように領域画像補正部45で、環境情報D3に対応した画像処理の内容を選択し画像処理することで、自車両が沈み込んでいたり、傾いていたりしても、また悪天候や照度などの外部環境によって、画像センサ2aで得られる画像の質が低下しても、画質を改善し、後段の対象物切り出し部46における画像切り出しのための対象物が占める範囲の特定をより正確に行えるようにすることができる。
領域画像補正部45で生成された補正画像D45は、対象物切り出し部46へ供給される。
対象物画像切り出し部46は、領域画像補正部45からの補正画像D45から対象物画像の切り出しを行う。この切り出しにおいては、補正画像D45中の対象物が占める範囲をより正確に特定し、特定した範囲を対象物画像として切り出す。図示の例では、水平方向範囲及び垂直方向範囲を特定し、該水平方向範囲及び垂直方向範囲の双方が限定された部分Taを対象物画像として切り出す。
領域切り出し部44でも切り出しを行っているが、領域切り出し部44での切り出しは、距離センサ1aの出力(領域画像補正部45による画質補正前の画像)に基づくおおまか切り出しであり、その場合には広めに切り出されるのに対し、対象物切り出し部46での切り出しは領域画像補正部45による画像処理後の画像において特定された対象物の範囲に基づく切り出しであるので、対象物を囲む範囲はより正確に検出されており、従って、対象物以外の部分をより少なくした範囲Taが切り出される。
切り出された画像D46は、対象物画像補正部47へ供給される。
対象物画像補正部47は、対象物画像切り出し部46から出力された切り出し画像D46に基づいて、認識用画像D47の生成を行う。
認識用画像D47の生成に当たり、対象物切り出し画像D46に対し、予め用意されている複数の画像処理のうちの適切なもの選択して実行する。
この画像処理は、後段の画像認識部48における画像認識を一層正確にするために行われるものであり、実行可能な画像処理としては、ノイズ低減、雨・雪補正、コントラスト補正、デジタルズーム、エッジ強調、エッジ抽出などの画質補正、信号増幅、デジタルズームがあり、これらのうちの、環境情報D3に応じて選択されたものが実行される。
上記のうち、画像認識をより正確に行うための処理としては、具体的には、更なるエッジ強調、ノイズ除去、コントラスト補正などの画質補正が重要であり、これらを実施することで、対象物の特徴(形状、模様、色)を強調することができる。
なお、環境情報D3の内容によっては、いずれの画像処理も実行されない場合があり得る。
このようにして得られた認識用画像D47は、画像認識部48へ送られる。
領域画像補正部45及び対象物画像補正部47における処理は、ソフトウェアで、即ちプログラムされたコンピュータで実現することが可能であるが、その場合には、図10に示すように、領域画像補正部45及び対象物画像補正部47をプロセッサで構成し、それぞれの画像処理を実施するためのプログラムをプログラム記憶部7に記憶させておき、領域画像補正部45及び対象物画像補正部47が、プログラム記憶部7に記憶されている画像処理プログラムの中から、環境情報D3に対応する画像処理プログラムを選択して、選択した画像処理プログラムによる処理を行う。
図11には、プログラム記憶部7に記憶されているプログラムを示す。これらのプログラムには、座標変換プログラム71、信号増幅プログラム72、ノイズ低減プログラム73、画像内の上から下へ大きく動く物体を検知し消去する雨・雪補正プログラム74、画像のコントラストを大きくし、霧などのぼやけた画像をはっきり見せるコントラスト補正プログラム75、遠くの物体を大きく画面に表示するデジタルズームプログラム76、対象物のエッジをより強調するエッジ強調プログラム77、及びエッジの部分だけを検出し画像化するエッジ抽出プログラム78が含まれる。
画像認識部48は、対象物画像補正部47から出力された認識用画像D47及び特徴量記憶部49に保存されている参照用の特徴量D8に基づいて、対象物の特定を行う。
特徴量記憶部49には、4輪車の特徴量、2輪車の特徴量、人の特徴量、電柱の特徴量、木の特徴量などが保存されている。特徴量は、対象物の輪郭情報、色情報、大きさ(各方向の寸法)によって定義されており、これらが参照用特徴量D8として提供される。
画像認識部48は、認識用画像D47を受けて、対象物の特徴量を算出し、参照用特徴量D8を参照し、参照用特徴量D8と比較して対象物の種類を特定する。この比較としては、参照用特徴量D8により定義される画像と、認識用画像D47とのパターンマッチングを行なっても良い。
例えば、参照用特徴量D8で定義される画像のパターン(参照用パターン)と、認識用画像のパターンとのパターンマッチングによって認識用画像で表されている対象物の特定を行う。
マッチングを行なう場合には、認識用画像の横幅(水平方向寸法)と、参照用特徴量D8で示される参照用パターンの横幅が同じになるように画像の拡大、縮小を行い、さらに傾いていると判断される場合には、回転させることで傾きを補償する。さらに、画像を上下に移動させながら、参照用パターンとの比較を行う。言い換えると、画像を上下方向に移動させながら、一致度が高くなる位置を探索する。
参照用パターンが複数個ある場合には、複数個の参照用パターンの各々との比較を行う。例えば参照用パターンを順に一つずつ選択し、選択したパターンとの比較を行う。
選択した参照用パターンとの一致度が高くない(所定値未満である)ときは、別の参照用パターンを選択して比較に用いる。
一致度が高い参照用パターンが見つかるまで以上の処理を繰り返す。このような処理を行うことで、画像の認識を行う。
画像認識部48では、比較の結果に基づいて、認識用画像D47で表されている対象物の種類を特定する。
この場合、画像情報取得部2で取得された対象物に対応する画像部分の大きさと、距離情報取得部1で取得された対象物までの距離を組合せることで対象物の大きさを推定することができる。
対象物の種類を特定した後は、特定された対象物の追跡を行う。即ち、それまでに特定された対象物と同じであれば、追跡を開始し、新たに検出された対象物であれば、追跡を開始する。
画像情報取得部2で得られる画像中の、対象物に対応する画像部分の大きさが変化した場合でも、当該画像部分の拡大、縮小により、大きさ、例えば横幅を一定に維持し、それまでと同じ大きさの参照用パターンとの比較で、類似度を確認しながら、対象物の追跡を続ける。
対象物に対応する画像部分の大きさ及び位置の変化は、対象物の移動を反映するものであり、このような大きさ及び位置の変化が距離情報取得部1で得られる対象物までの距離の変化及び角度(方位)の変化に対応するものかどうかの判断を行うことで、追跡が正確に行われているかどうかの確認を行うことができる。このような処理を行うために、画像認識部48は、距離情報取得部1から出力される情報D1をも入力とする。
このように追跡を行う結果、対象物の移動の向き、速度を推定することができる。
このようにして得られる、対象物の大きさ、位置、動きの向き及び速度に基づいて対象物との衝突の危険性についての判定を行う。
例えば、認識している対象物が次第に自車両に接近し、相対速度も大きく、距離も短い場合には、該対象物を、衝突危険物と判定する。距離、速度は単独で危険かどうか判定するのではなく、距離と速度の組合せにより危険かどうかの判定が行なわれる。
衝突危険物と判定した場合には、危険であることを運転者に知らせるか衝突回避のための運転制御を行うための情報を出力する。
また、対象物に対応する画像が次第に遠ざかったり、画像センサ2aの画角外に移動したり、距離センサ1aの走査範囲外に移動するなどの場合には、消失したとの判定を行う。
画像センサ2aの画角内に存在する画像でも、対象物が次第に遠ざかるなどの理由で対応する画像部分が次第に小さくなって所定値未満となったり、輝度が次第に低下して所定値未満となったりした場合にも、消失と判定する。
対象物が消失した場合には、それ以降新たな対象物の探索、発見した対象物の追跡を行う。
なお、複数の対象物に対し同時に追跡を行うことも可能である。
このようにして得られた対象物を特定の結果、及び衝突の危険についての判定の結果は、画像認識結果D48として注意喚起部5及び車両制御部6へと送られる。
注意喚起部5は、画像認識部48での認識結果D48に基づいて、対象物について運転者の注意を喚起するとともに、衝突の危険が有る場合(危険性が所定の閾値よりも高い場合)にはその点についても運転者の注意を喚起する。
注意喚起部5は表示部5aを含み、表示部5aで対象物を表示し、例えば目立つ枠で囲ったり、対象物のみをズームアップして表示したりして、対象物画像が視認しやすいようにするともに、衝突危険が有る場合には、音声で危険を知らせる。表示部5aは、他の目的で使用されている表示部を兼用しても良い。例えば、カーナビ用表示部を兼用しても良い。
車両制御部6は、画像認識部48での認識結果D48に基づいて、車両の運転を自動的に(運転者の運転操作を無効にして)制御する。
例えば認識結果D48が対象物との危険のおそれがあることを示す場合には、ブレーキをかける。
以上のように構成された運転支援装置においては、対環境性が高い距離情報取得部1の情報をもとに、画像情報取得部2で取得された画像内の、対象物が占めると推定される範囲を含む領域部分を切り出し、切り出した領域部分内の画像に対して画像処理を加え、さらに画像処理された画像から、対象物が占める範囲をより正確に特定し、特定した範囲の画像を対象物画像として切り出し、切り出された対象物画像に対して、更なる画像処理を行うことで、画像認識に適した画像を生成することとしているので、画像センサで得られる画像の画質が低下する悪天候時の場合でも、悪天候の影響を大きく受けずに画像認識が実現される。
さらに、画像のうちの一部、即ち、対象物が占めると推定される範囲を含む領域部分、或いは対象物に対応する部分だけに画像処理を行うため、データ処理量(計算量)を少なくすることができる。
さらにまた、画像認識を行う場合、対象物のパターンマッチングにおける探索は、垂直方向にのみ行えば良いので、データ処理量を少なくすることができる。
さらにまた、対象物の追跡を距離センサの情報と画像センサの情報の双方を用いて行なうため、対象物を見失う可能性が低く、対向車のヘッドライトなどの影響に左右されず安定した対象物の追跡を行うことができる。
1 距離情報取得部、 1a 距離センサ、 2 画像情報取得部、 2a 画像センサ、 3 環境情報取得部、 4 状況解析部、 5 注意喚起部、 6 車両制御部、 7 プログラム記憶部、 31 光量情報取得部、 32 雨・雪情報取得部、 33 沈み込み情報取得部、 34 傾き情報取得部、 41 角度範囲検出部、 42 位置範囲算出部、 44 領域切り出し部、 45 領域画像補正部、 46 対象物切り出し部、 47 対象物画像補正部、 48 画像認識部、 49 特徴量記憶部、 441 検出範囲切り出し部、 442 切り出し領域決定部、 443 切り出しデータ出力部。

Claims (13)

  1. 自車両を基準として垂直方向の所定の角度における水平方向の異なる角度の各々にある対象物までの距離を検出して距離情報を生成する距離情報取得部と、
    前記自車両に搭載された画像センサで対象物を撮像し、対象物の画像情報を取得する画像情報取得部と、
    前記自車両周辺の環境を検出して環境情報を取得する環境情報取得部と、
    前記距離情報と、前記画像情報と、前記環境情報に基づいて、運転支援に利用される情報を生成する情報解析部とを備え、
    前記情報解析部が、
    前記距離情報取得部で距離が検出された対象物の水平方向角度範囲を検出する角度範囲検出部と、
    前記画像情報で表される画像のうち、前記角度範囲検出部で検出された水平方向角度範囲に対応する水平方向位置範囲を算出する位置範囲算出部と、
    前記位置範囲算出部により算出された前記水平方向位置範囲と、前記垂直方向の所定の角度を示す情報とに基づいて、前記距離情報取得部により対象物が検知された範囲を対象物検知範囲として特定し、前記対象物検知範囲の水平方向端部の近傍における画像中のエッジに基づいて、画像のうちの前記対象物が占めると推定される範囲を含む領域部分を切り出す領域切り出し部と、
    前記領域部分に対し、前記環境情報に基づいて画像処理を行う領域画像補正部と、
    前記領域画像補正部で画像処理された画像に基づいて、画像中の対象物が占める範囲を特定し、特定した範囲の画像を対象物画像として切り出す対象物切り出し部と、
    前記対象物画像に対し、前記環境情報に基づいて更なる画像処理を行なう対象物画像補正部と、
    前記対象物画像補正部で前記更なる画像処理を受けた対象物画像に基づいて、当該対象物の種類を特定する処理及び当該対象物による危険の有無を判定する処理の少なくとも一つを行って、該処理の結果を示す情報を出力する画像認識部と
    を備える
    ことを特徴とする運転支援装置。
  2. 前記領域切り出し部は、
    前記対象物検知範囲の水平方向端部の近傍において、前記対象物の水平方向端部に対応する画像中の垂直エッジが検出されるか否かの判断を行い、
    該垂直エッジが検出されたときは、前記対象物の垂直方向端部に対応する水平エッジを探索し、該水平エッジが検出されたときは、検出された水平エッジの位置に基づいて前記領域部分の垂直方向端部を決める
    ことを特徴とする請求項1に記載の運転支援装置。
  3. 前記領域切り出し部は、
    前記対象物検知範囲の水平方向左側端部を中心とする所定の大きさの第1の範囲と、前記対象物検知範囲の水平方向右側端部を中心とする所定の大きさの第2の範囲の双方において、前記対象物の水平方向端部に対応する画像中の垂直エッジが検出されるか否かの判断を行ない、
    前記第1及び第2の範囲の双方において、前記垂直エッジが検出されたときは、前記水平エッジの探索を行う
    ことを特徴とする請求項2に記載の運転支援装置。
  4. 前記領域切り出し部は、所定の幅を有する矩形の第3の範囲内の画像中で前記水平エッジの探索を行い、
    前記第3の範囲の左端及び右端は、前記水平方向位置範囲内に位置し、
    前記第3の範囲の上端は、前記画像の上端に一致し、
    前記第3の範囲の下端は、前記距離情報取得部により距離情報の取得が行われた垂直方向角度に対応する画像上の垂直方向位置に一致する
    ことを特徴とする請求項2又は3に記載の運転支援装置。
  5. 前記領域切り出し部は、前記第3の範囲内の複数のラインの各々において、所定数以上の画素が水平エッジ成分を構成するものであるときに当該ラインは水平エッジ成分を構成するものであると判断し、前記第3の範囲内の複数のラインを下から順に調べたときに、最初に水平エッジ成分を構成すると判断されたラインが現れた後に、最初に水平エッジ成分を構成しないと判断されたラインが現れた位置を、前記対象物の上端に対応する水平エッジの位置であると判定することを特徴とする請求項4に記載の運転支援装置。
  6. 前記領域切り出し部は、所定の幅を有する矩形の第4の範囲内の画像中で前記水平エッジの探索を行い、
    前記第4の範囲の左端及び右端は、前記水平方向位置範囲内に位置し、
    前記第4の範囲の上端は、前記距離情報取得部により距離情報の取得が行われた垂直方向角度に対応する画像上の垂直方向位置に一致し、
    前記第4の範囲の下端は、前記画像の下端に一致する
    ことを特徴とする請求項2乃至5のいずれかに記載の運転支援装置。
  7. 前記領域切り出し部は、前記第4の範囲内の複数のラインの各々において、所定数以上の画素が水平エッジ成分を構成するものであるときに当該ラインは水平エッジ成分を構成するものであると判断し、前記第4の範囲内の複数のラインを上から順に調べたときに、最初に水平エッジ成分を構成すると判断されたラインが現れた後に、最初に水平エッジ成分を構成しないと判断されたラインが現れた位置を、前記対象物の下端に対応する水平エッジの位置であると判定することを特徴とする請求項6に記載の運転支援装置。
  8. 前記対象物切り出し部が、前記領域画像補正部で画像処理された画像に基づいて、画像中において対象物が占める水平方向範囲及び垂直方向範囲を特定し、特定された水平方向範囲及び垂直方向範囲の画像を前記対象物画像として切り出すことを特徴とする請求項1乃至7のいずれかに記載の運転支援装置。
  9. 前記環境情報取得部は、
    車両の沈み込み量を検出する沈み込み情報取得部と、
    車両の路面に対する傾きを算出する傾き情報取得部の少なくとも一つを含み、
    周辺の光の強さを算出する光量情報算出部と、
    雨又は雪を検出する雨・雪検出部の少なくとも一つを含み、
    これらにより得られる情報を前記環境情報として出力する
    ことを特徴とする請求項1乃至8のいずれかに記載の運転支援装置。
  10. 前記領域画像補正部は、前記沈み込み量及び前記傾きの少なくとも一つに基づく、前記領域部分の画像の座標変換、前記領域部分の画像のコントラスト補正、エッジ強調、及びエッジ抽出の少なくとも一つを行うことを特徴とする請求項1乃至9のいずれかに記載の運転支援装置。
  11. 前記対象物画像補正部は、前記対象物画像のコントラスト補正、エッジ強調、及びエッジ抽出の少なくとも一つを行うことを特徴とする請求項1乃至10のいずれかに記載の運転支援装置。
  12. 前記状況解析部から出力された前記処理の結果を示す情報が、前記対象物との衝突のおそれがあることを示す場合に、運転者に注意喚起のための情報を出力する注意喚起部をさらに備えることを特徴とする請求項1乃至11のいずれかに記載の運転支援装置。
  13. 前記状況解析部から出力された前記処理の結果を示す情報が、前記対象物との衝突のおそれがあることを示す場合に、車両を停止させるための制御を行う
    車両制御部をさらに備える
    ことを特徴とする請求項1乃至12のいずれかに記載の運転支援装置。
JP2012054282A 2012-03-12 2012-03-12 運転支援装置 Pending JP2013186872A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012054282A JP2013186872A (ja) 2012-03-12 2012-03-12 運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012054282A JP2013186872A (ja) 2012-03-12 2012-03-12 運転支援装置

Publications (2)

Publication Number Publication Date
JP2013186872A true JP2013186872A (ja) 2013-09-19
JP2013186872A5 JP2013186872A5 (ja) 2015-03-26

Family

ID=49388194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012054282A Pending JP2013186872A (ja) 2012-03-12 2012-03-12 運転支援装置

Country Status (1)

Country Link
JP (1) JP2013186872A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015174208A1 (ja) * 2014-05-12 2015-11-19 ボッシュ株式会社 画像認識装置及びその制御方法
JP2017212597A (ja) * 2016-05-25 2017-11-30 株式会社デンソー 画像処理装置
WO2020105527A1 (ja) * 2018-11-20 2020-05-28 コニカミノルタ株式会社 画像解析装置、画像解析システム、および制御プログラム
JP7273438B1 (ja) 2022-07-13 2023-05-15 株式会社岩崎 鮮明化装置、鮮明化プログラムおよび鮮明化方法
US11893797B2 (en) 2019-01-18 2024-02-06 Nec Corporation Information processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194985A (ja) * 1998-12-24 2000-07-14 Omron Corp 車両把握装置
JP2003302470A (ja) * 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置および歩行者検出方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194985A (ja) * 1998-12-24 2000-07-14 Omron Corp 車両把握装置
JP2003302470A (ja) * 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置および歩行者検出方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015174208A1 (ja) * 2014-05-12 2015-11-19 ボッシュ株式会社 画像認識装置及びその制御方法
CN106575352A (zh) * 2014-05-12 2017-04-19 罗伯特·博世有限公司 图像识别装置以及其控制方法
JPWO2015174208A1 (ja) * 2014-05-12 2017-04-20 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 画像認識装置及びその制御方法
US20170154224A1 (en) * 2014-05-12 2017-06-01 Robert Bosch Gmbh Image-recognition device and method for controlling same
US10430670B2 (en) 2014-05-12 2019-10-01 Robert Bosch Gmbh Image-recognition device and method for controlling same
JP2017212597A (ja) * 2016-05-25 2017-11-30 株式会社デンソー 画像処理装置
WO2017204304A1 (ja) * 2016-05-25 2017-11-30 株式会社デンソー 画像処理装置
WO2020105527A1 (ja) * 2018-11-20 2020-05-28 コニカミノルタ株式会社 画像解析装置、画像解析システム、および制御プログラム
US11893797B2 (en) 2019-01-18 2024-02-06 Nec Corporation Information processing device
JP7273438B1 (ja) 2022-07-13 2023-05-15 株式会社岩崎 鮮明化装置、鮮明化プログラムおよび鮮明化方法
JP2024010834A (ja) * 2022-07-13 2024-01-25 株式会社岩崎 鮮明化装置、鮮明化プログラムおよび鮮明化方法

Similar Documents

Publication Publication Date Title
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
US8199198B2 (en) Bright spot detection and classification method for a vehicular night-time video imaging system
JP4676373B2 (ja) 周辺認識装置、周辺認識方法、プログラム
JP5892876B2 (ja) 車載用環境認識装置
JP5012718B2 (ja) 画像処理装置
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
US20070221822A1 (en) Headlight, Taillight And Streetlight Detection
JP2014209387A (ja) 車両周辺監視装置
WO2016125377A1 (ja) 画像処理装置、および車両システム
JP2003296736A (ja) 障害物検知装置及びその方法
JP2004032460A (ja) 画像処理装置およびその方法
JP2006343322A (ja) 夜間の霧を検出するための方法、およびこの方法を実施するためのシステム
JP5065172B2 (ja) 車両灯火判定装置及びプログラム
JP5874831B2 (ja) 立体物検出装置
JP2013186872A (ja) 運転支援装置
JP6711395B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、移動体、画像処理方法、及びプログラム
JP7095640B2 (ja) 物体検出装置
JP2015148887A (ja) 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム
US8520952B2 (en) System and method for defining a search window
JP2007248146A (ja) レーダ装置
JP4969359B2 (ja) 移動物認識装置
JP2007240446A (ja) 車両用測距装置
JP2013161402A (ja) 運転支援装置
JP5056679B2 (ja) ナイトビューシステム
JP2018163530A (ja) 対象物検知装置、対象物検知方法、及び対象物検知プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160405