JP2007104171A - 前方監視装置 - Google Patents
前方監視装置 Download PDFInfo
- Publication number
- JP2007104171A JP2007104171A JP2005289719A JP2005289719A JP2007104171A JP 2007104171 A JP2007104171 A JP 2007104171A JP 2005289719 A JP2005289719 A JP 2005289719A JP 2005289719 A JP2005289719 A JP 2005289719A JP 2007104171 A JP2007104171 A JP 2007104171A
- Authority
- JP
- Japan
- Prior art keywords
- target
- image
- unit
- road
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Abstract
【課題】先行車両と道路敷設体とを区別し、道路敷設体によるデータを除去して先行車両の監視を行うことができる前方監視装置を提供する。
【解決手段】カメラ1により自車前方の画像を取得して逆投影画像を生成する(S101S102)。レーダ3により自車前方の物標を検知する(S103)。逆投影画像上に物標の測距点をマッピングする(S104)。各測距点に対して矩形領域を設定し(S105)、各矩形領域で輝度ヒストグラムを生成する(S106)。次に、輝度半値幅W1を算出し(S107)、該輝度半値幅W1が第1閾値Th1よりも大きければ、この部分の平均輝度Bavを算出する(S108→S109)。この平均輝度Bavが第2閾値Th2よりも大きければ、道路敷設体の測距点と判断し(S110→S111)、該当する測距点の相対位置データを使用しない。
【選択図】 図3
【解決手段】カメラ1により自車前方の画像を取得して逆投影画像を生成する(S101S102)。レーダ3により自車前方の物標を検知する(S103)。逆投影画像上に物標の測距点をマッピングする(S104)。各測距点に対して矩形領域を設定し(S105)、各矩形領域で輝度ヒストグラムを生成する(S106)。次に、輝度半値幅W1を算出し(S107)、該輝度半値幅W1が第1閾値Th1よりも大きければ、この部分の平均輝度Bavを算出する(S108→S109)。この平均輝度Bavが第2閾値Th2よりも大きければ、道路敷設体の測距点と判断し(S110→S111)、該当する測距点の相対位置データを使用しない。
【選択図】 図3
Description
この発明は、自動車の前方を監視する前方監視装置、特に、レーダ装置による探知結果とカメラ等の撮像装置による探知結果とを用いて前方監視を行う前方監視装置に関するものである。
従来、自動車の前方に存在する他車等の物標を監視する前方監視装置として、前方の所定領域に電波を送信して物標からの反射波を受信することで物標を探知するレーダ部と、カメラで撮影した前方領域の画像から所望物標を検出する物標画像検出部と、を搭載した装置が、例えば特許文献1〜4のように各種存在する。
特許文献1は、レーダで検知した物標の位置座標を、カメラにより撮像した画像に当てはめる。そして、特許文献1は、レーダで検知した物標の位置座標に対応した領域でのみ画像処理を行って、物標の検知を行う。
特許文献2は、カメラにより撮像した画像に対して所定の画像処理を行って道路上の白線を検出し、該白線の位置からレーダによるデリニエータの検知点を検出する。そして、特許文献2は、レーダによる検知点からデリニエータの検知点を除外し、残った検知点で物標の検知を行う。
特許文献3は、レーダにより自車の走行レーンの前方に存在する先行車両と隣接する走行レーンに存在する先行車両とを検出する。そして、特許文献3は、カメラにより撮像された画像に対して検出された先行車両に基づく部分的な領域を設定し、該領域内で道路上の白線を検出して、自車前方の走行環境を認識する。すなわち、特許文献3は、レーダにより検出される先行車両に基づき、先行車両を検出する領域と白線を検出する領域とを区分している。
特許文献4は、レーダにより自車の前方に存在する車両を検出し、該検出車両を含む所定領域で監視するとともに、検知車両により設定される所定の画像領域で白線を検出する。すなわち、特許文献4も、特許文献3と同様に、レーダにより検出される先行車両に基づき、先行車両を検出する領域と白線を検出する領域とを区分している。
特許3264060公報
特開2002−303671公報
特許3619628公報
特開平9−264954号公報
前述の各特許文献は、レーダにより得られる先行車両の検知結果に基づき、探知領域の全体画像から部分画像領域に絞って先行車両の監視を行うものである。
しかしながら、特許文献1〜4は、自車の前方の物標の検知結果に基づいて先行車両と白線やデリニエータとを区別し、先行車両に準じた部分画像領域を設定するものであるが、先行車両の直後の路面上に進行方向矢印や最高速度表示等の道路敷設体が存在する場合には、これらを先行車両と誤認識してしまう可能性がある。
したがって、本発明の目的は、自車の走行車線上で先行車両付近に道路敷設体が存在しても、先行車両と道路敷設体とを区別し、道路敷設体によるデータを除去して先行車両の監視を行うことができる前方監視装置を提供することにある。
この発明の前方監視装置は、自車の前方を視野方向として前方の道路状況を撮像する撮像部と、自車の前方の所定領域に探知波を放射して該探知波による前方の物標からの反射波を受信することで、自車に対する物標の相対位置を検出するレーダ部と、該レーダ部で検出された物標の相対位置を撮像部で取得した画像にマッピングする物標マッピング部と、相対位置を基準として画像の局部画像領域を指定し、該局部画像領域の輝度分布を解析することで物標の種類を識別して、レーダ部で得られる物標の相対位置データの内、所望物標以外の相対位置データを除去する物標識別部と、所望物標以外を除去する処理を行った後の相対位置データを時系列に連続して取得し、該連続で取得された相対位置データに基づいて所望物標の監視を継続的に行う監視部と、を備えたことを特徴としている。
この構成では、レーダ部は自車前方の物標を検知するとともに物標までの相対距離を算出し、撮像部は自車前方の道路状況を画像として撮像する。物標マッピング部は、検知した相対距離に基づいて、撮像された画像に対して検知した物標検知点をマッピングする。
物標識別部は、物標検知点がマッピングされた画像に対して、物標検知点を基準として所定形状の局部画像領域を指定し、該局部画像領域の輝度分布を解析する。ここで、輝度とは、撮像部(カメラ)により得られる各物標の反射強度を意味するものであり、物標の種類が異なれば、輝度分布が異なる。物標識別部はこれを利用して物標の種類を識別する。例えば、先行車と路面上の矢印等の敷設体とを識別する。物標識別部は、物標の種類を識別すると、所望物標以外の物標の相対位置データを除去して出力する。例えば、敷設体の相対位置データを除去して、先行車の相対位置データのみを出力する。
監視部は、前述の処理により得られた所望物標の相対位置データに基づき、所望物標の監視(検知、追尾)を行う。
また、この発明の前方監視装置の物標マッピング部は、撮像部で取得した画像を自車の前方路面を平面視した画像に変換し、該変換画像に対して物標の相対位置をマッピングすることを特徴としている。
この構成では、物標マッピング部は、取得した画像に物標をマッピングする際に、自車前方を正面視した画像から道路を平面視した画像に変換する。この平面視した画像では、画像上の道路長とレーダ部で得られた相対距離とのが略同等となる。したがって、画像上の物標に対するレーダによる相対位置のマッピングが確実になる。
また、この発明の前方監視装置の物標識別部は、局部画像領域を自車の進行方向を縦方向とし道路の幅方向を横方向とする矩形領域で設定し、横方向の各点に対して縦方向の各点の輝度を積算してなる輝度ヒストグラムを生成し、輝度積算値が予め設定した基準輝度値を超える横方向の幅を検出して、該検出幅が予め設定した第1閾値より大きく、且つ該第1閾値より大きい検出幅部分に対応する輝度積算値の平均が第2閾値より大きい場合に、当該局部画像領域に対応する物標を除去することを特徴としている。
この構成では、具体的に、輝度分布から物標を識別する方法として、物標識別部は、局部画像領域を矩形領域で設定して輝度ヒストグラムを生成する。物標識別部は、輝度ヒストグラムを構成する道路幅方向の各点での輝度積算値を第1閾値と比較し、この第1閾値を超えた輝度積算値の平均を算出して第2閾値と比較する。そして、平均輝度が第2閾値を超える局部画像領域が存在すれば、これに対応する物標の情報を除去する。
また、この発明の前方監視装置は、道路の延びる方向に沿って平行に敷設された複数の白線を検知する白線検知部を備え、物標識別部が、白線検知部の検知した複数の白線の線間距離に準じて局部画像領域の横方向の幅および第1閾値を設定することを特徴としている。
この構成では、物標識別部は、白線検知部が検知した白線に基づいて、物標の相対距離から算出される道路位置の道路幅を算出し、該道路幅から局部画像領域の横方向(道路幅に平行な方向)の幅と第1閾値とを算出する。このような構成とすることで、道路の勾配が変化する等により、画像上に現れる道路幅が急に変わっても、局部画像領域内の輝度分布を一定の状態範囲内に収めることができる。
また、この発明の前方監視装置は、道路の延びる方向に沿って平行に敷設された複数の白線を検知する白線検知部を備え、物標マッピング部が、白線検知部の検知した複数の白線の線間距離の変化に準じて道路の勾配変化を検出するとともに、該勾配変化に基づいて物標の道路の延びる方向に沿った相対位置を補正して、変換画像にマッピングすることを特徴としている。
この構成では、物標マッピング部は、白線検知部が検知した白線を用いて白線間距離を算出し、自車から前方への白線間距離の変化を検知する。ここで、勾配に変化があれば、画像上に表れる線間距離の変化が一定でなくなるので、物標マッピング部は、この変化量に応じて道路の勾配を検出し、この勾配に基づいて、変換画像へのマッピング時の相対位置補正を行う。これにより、画像上の道路長とレーダ部で得られた相対距離とのが略同等となる。したがって、画像上の物標に対するレーダによる相対位置のマッピングがより確実になる。
この発明によれば、レーダにより取得した物標の相対位置データを、輝度分布に基づく画像処理により選別することができる。特に、従来識別できなかった自車の前方で略同方向に存在する先行車と路面上の矢印等の敷設体とを識別して、敷設体の相対位置データのみを除去することができる。これにより、所望物標の相対位置データのみを出力して、この所望物標のみを監視することができる。この結果、所望物標の監視処理が簡素化され、確実に且つ高速に所望物標の監視を行うことができる。
本発明の第1の実施形態に係る前方監視装置について図1〜図7を参照して説明する。
図1は本実施形態の前方監視装置の主要部を示すブロック図である。
図2は本実施形態の前方監視装置の前方監視状況概念を示す図、および、カメラ1で撮像した自車前方の画像を示す図である。
図3は本実施形態の監視処理を示すフローチャートである。
図1は本実施形態の前方監視装置の主要部を示すブロック図である。
図2は本実施形態の前方監視装置の前方監視状況概念を示す図、および、カメラ1で撮像した自車前方の画像を示す図である。
図3は本実施形態の監視処理を示すフローチャートである。
図4(A)は、図2(B)に示した画像を逆投影した逆投影画像を示し、(B)はレーダ3で検知した測距点の分布を示し、(C)は(B)の測距点を(A)の逆投影画像にマッピングしたマッピング画像を示す図である。
図5は、図4(C)に示したマッピング画像の各測距点に対して矩形領域を設定した状態を示す図である。
図6は矩形領域311の拡大画像および輝度ヒストグラムを示した図であり、図7は矩形領域321の拡大画像および輝度ヒストグラムを示した図である。
図1に示すように、本実施形態の前方監視装置は、カメラ1、画像処理部2、レーダ3、レーダ信号処理部4、監視処理部5を備える。画像処理部2は画像変換部21、マッピング部22、物標識別部23を備える。
図2に示すように、カメラ1は、自車101のフロント側上部に設置されており、自車101の前方が視野範囲201となるように設定されている。これにより、カメラ1では、自車101の前方の道路状況が随時撮像される。レーダ3は、自車101のフロント下部(例えば、フロントバンパの直下)に設置されており、自車101の前方の所定方向が指向性の中心となる探知電波202を送信し、先行車102等の物標からの反射波を受信することで、自車101の前方を検知する。このようなレーダ3として、例えば、直進性、指向性の強いレーザレーダを用いる。そして、レーダ3は所定周期で方位角方向(水平方向)に探知電波を走査することで、水平方向の所定角範囲内の物標を探知する。この際、たとえ指向性が強いレーザレーダであっても探知電波に所定の広がりが存在するので、先行車102等の所望物標とともに、道路上に敷設された走行車線矢印等の道路敷設体103からの反射波を受信し、道路敷設体103をも検知する。
次に、図3のフローチャートに沿って図4〜図7を参照して、前方監視処理を具体的に説明する。
カメラ1は、自車101撮像した画像を順次画像処理部2の画像変換部21に出力する(S101)。画像変換部21は、入力された自車前方正面の画像を逆投影して、自車前方の道路を平面視した逆投影画像(図4(A)参照)を生成する(S102)。このような逆投影画像は、道路を平面視し、自車101とそれぞれの物標との距離に応じた長さで、各物標が表示される。すなわち、自車101から物標Aまでの実際の距離をRA、自車101から物標Bまでの実際の距離をRBとしてRA:RB=a:bであれば、逆投影画像上に現れる自車101から物標Aまでの距離RA’と逆投影画像上に現れる自車101から物標Bまでの距離RB’の比も、a:bとなる。
一方、レーダ3は前述のように探知電波を送信して、反射波を受信することで物標検知データを生成し、レーダ信号処理部4に与える。物標検知データは、探知電波の送信時刻と反射波の受信時刻との時間差データおよび方位角を含む。レーダ信号処理部4は物標検知データに基づき、物標検知点までの相対距離を算出して、この相対距離と方位とで設定される測距点データ(図4(B)参照)を生成して、マッピング部22に与える(S103)。
このように、マッピング部22には、カメラ1が撮像した画像に基づく逆投影画像と、レーダ探知結果に基づく、測距点データとが入力される。
マッピング部22は、測距点データの相対距離および方位に基づき、図4(C)に示すように測距点211〜216,221〜223を逆投影画像にマッピングする(S104)。この際、逆投影画像を用いることにより、画像上に表される距離が、測距点データの相対距離に一致するので、各測距点211〜216,221〜223は、逆投影画像上に表示された先行車102や道路敷設体103の位置に一致する。具体的には、各測距点211〜216が先行車102の後部下の陰部分に対応し、各測距点221〜223が道路上に白色ペイントされた矢印である道路敷設体103上に一致する。なお、ここで、各測距点が既に先行車102や道路敷設体103を表すように説明しているが、これは説明の便宜上のことであり、この時点では、それぞれが先行車102や道路敷設体103であることはまだ認識されていない。
物標識別部23は、逆投影画像上にマッピングされた各測距点211〜216,221〜223をそれぞれ中心にして、所定面積からなる矩形領域311〜316,321〜323を設定する(S105)。この際、物標識別部23は、矩形領域の短手方向を道路の延びる方向とし、長手方向を道路の幅方向とする。矩形領域の短手方向長さおよび長手方向長さは、後述する除去を行う物標、具体的には、道路敷設体103の形状により予め設定されている。例えば、図5の場合であれば、長手方向長さを道路敷設体103の幅の2〜3倍程度に設定し、短手方向長さを道路敷設体103の長さの1/3〜1/4程度に設定する。
物標識別部23は、各矩形領域311〜316,321〜323に対して輝度ヒストグラムを生成する(S106)。具体的には、各矩形領域311〜316,321〜323を、それぞれに長手方向にn列分割し、短手方向にm行分割して、n×mの2次元配列されたドットパターンに設定する。次に、長手方向の各列位置に対して、m行分割された短手方向のドット毎の輝度を算出して、これら算出した輝度を積算する。そして、各輝度積算値を長手方向の各列位置に対応させて輝度ヒストグラムを生成する。この際、全ての矩形領域311〜316,321〜323の各列の輝度積算値の内で最も高輝度の積算輝度値を100%とし、最も低輝度の輝度積算値を0%として、各列の輝度積算値を正規化する。このような処理を行うことで、図6(B)や図7(B)に示すような輝度ヒストグラムが生成される。
次に、物標識別部23は、輝度ヒストグラムに基づき、輝度積算値が50%以上となる列方向の幅W1(以下、この幅を「半値幅」と称す。)を、各矩形領域311〜316,321〜323で算出する(S107)。ここで、この半値幅W1に対しては予め第1閾値Th1が設定されており、物標識別部23は各矩形領域311〜316,321〜323に対して半値幅W1と第1閾値Th1とを比較する。そして、物標識別部23は、半値幅W1が第1閾値Th1よりも大きいことを検出すると、該当する矩形領域(第1回該当矩形領域)に対して半値幅W1に対応する各列の輝度積算値を合算して該当列数で除算することで、第1回該当矩形領域毎の平均輝度Bavを算出する(S108→S109)。一方、物標識別部23は、半値幅W1が第1閾値Th1以下であることを検出すると、該当する矩形領域に対応する物標を道路敷設体103以外のものであると判断する(S108→S112)。
物標識別部23は、第1回該当矩形領域毎の平均輝度Bavを算出すると、予め設定した第2閾値Th2と比較する。そして、物標識別部23は、平均輝度Bavが第2閾値Th2より大きいことを検出すると、該当する第1回該当矩形領域に対応する物標を道路敷設体103であると判断する(S110→S111)。一方、物標識別部23は、平均輝度Bavが第2閾値Th2以下であることを検出すると、該当する第1回該当矩形領域に対応する物標を道路敷設体103以外のものであると判断する(S110→S112)。
以上のような識別処理の第1閾値Th1には、先行車102の後方に設置された反射板等や道路敷設体103は光の反射率が高く、画像化した場合の輝度が高くなることを利用している。また、第2閾値Th2には、先行車102からの反射は輝度にムラが存在し、道路敷設体103からの反射は輝度にムラが殆ど存在しないことを利用している。
物標識別部23は、このような物標の識別処理を各矩形領域311〜316,321〜323で順に行い、それぞれの矩形領域に対応する物標を道路敷設体103かそれ以外に判別する。ここで、図4〜図7に示す例では、前記識別処理により、矩形領域311〜316に対応する物標が道路敷設体103以外のものに識別され、矩形領域321〜323に対応する物標が道路敷設体103に識別される。そして、この物標識別処理が全ての矩形領域311〜316,321〜323で終了すれば、各矩形領域311〜316,321〜323に対する物標識別結果を、レーダ信号処理部4に出力する(S113→S114)。
レーダ信号処理部4は、入力された物標識別結果に応じて、各測距点211〜216,221〜223を、測距点グループ210,220としてグループ化し、道路敷設体103に対応する各測距点のデータを除去し、それ以外を出力する。
例えば、図4〜図7の例では、レーダ信号処理部4は、各矩形領域311〜316に対応する各測距点211〜216を測距点グループ210としてグループ化するとともに、これらは道路敷設体103ではないので、レーダ検知結果(相対位置データ)等を出力する。一方、レーダ信号処理部4は、各矩形領域321〜323に対応する各測距点221〜223を測距点グループ220とし、これらが道路敷設体103であることに基づいて除去し、レーダ検知結果を出力しない。
出力されたレーダ検知結果は監視処理部5に入力され、監視処理部5は、道路敷設体103に対応するデータが除去されたレーダ検知結果に基づき、既知の方法でレーダ検知結果を時系列で順次処理し、物標の追尾や相対速度検出等の監視を行う。
このような構成とすることで、道路敷設体等の所望物標(先行車)とは異なる物標のデータが監視処理部に入力されないので、先行車の追尾等の自車前方監視処理を高速化することができる。
次に、第2の実施形態に係る前方監視装置について図8〜図13を参照して説明する。
図8は本実施形態の前方監視装置の主要部を示すブロック図である。
図9は本実施形態の監視処理を示すフローチャートである。
図10(A)はカメラ1で撮像した自車前方の画像を示し、(B)はレーダ3で検知した測距点の分布を示し、(C)は、勾配補正を行うことなく(B)の測距点を(A)の逆投影画像にマッピングしたマッピング画像を示す図である。
図11は勾配補正方法を説明するための説明図である。
図12は勾配補正を行った状態における(B)の測距点を(A)の逆投影画像にマッピングしたマッピング画像を示す図である。
図13は、矩形領域設定方法を説明するための説明図である。
図8は本実施形態の前方監視装置の主要部を示すブロック図である。
図9は本実施形態の監視処理を示すフローチャートである。
図10(A)はカメラ1で撮像した自車前方の画像を示し、(B)はレーダ3で検知した測距点の分布を示し、(C)は、勾配補正を行うことなく(B)の測距点を(A)の逆投影画像にマッピングしたマッピング画像を示す図である。
図11は勾配補正方法を説明するための説明図である。
図12は勾配補正を行った状態における(B)の測距点を(A)の逆投影画像にマッピングしたマッピング画像を示す図である。
図13は、矩形領域設定方法を説明するための説明図である。
本実施形態の前方監視装置は、図8に示すように画像処理部2に白線検知部24を備えるとともに、マッピング部22、物標識別部23での処理が異なるものであり、他の構成および処理方法は図1に示した第1の実施形態の前方監視装置と同じである。
白線検知部24は、カメラ1で撮像された画像に対して、既知の方法で白線を検知する。この白線検知方法としては、例えば、「峯田,鵜浦,池田,「レーンキープアシストシステムにおける白線認識システムの開発」,p101−p108,Vol12,No1,HONDA R&D Technical Review(2000)」等がある。白線検知部24は、検知した白線の画像上の位置情報を前述の逆投影した位置情報に変換してマッピング部22に与える。
マッピング部22は、この白線検知結果に基づいてレーダ信号処理部4から得られる測距点の相対距離を勾配補正し、画像変換部21から得られた逆投影画像上にマッピングする。物標識別部23は、白線検知結果に基づいて道路幅Lを算出し、該道路幅Lに基づいて矩形領域の長手方向の幅Sを設定する。また、物標識別部23は、この矩形領域の長手方向の幅Sに基づき、第1の実施形態に示した第1閾値Th1を設定する。そして、物標識別部23は、第1の実施形態に示したように、矩形領域毎に輝度ヒストグラムを算出して、第1閾値Th1と比較し、物標の識別を行う。
次に、本実施形態の構成による具体的な前方監視処理について、図9のフローチャートに沿って図10〜図13を参照して説明する。なお、第1の実施形態と同じ処理については、適宜説明を省略する。
カメラ1は、自車101撮像した画像(図10(A))を順次画像処理部2の画像変換部21および白線検知部24に出力する(S201)。白線検知部24は、前述のような方法を用いて白線を検知して、白線位置データをマッピング部22および物標識別部23に出力する。この際、白線位置データは、画像変換部21で行われる逆投影により与えられる座標に変換されて出力される。
画像変換部21は、入力された自車前方正面の画像を逆投影して、自車前方の道路を平面視した逆投影画像(図10(C)参照)を生成する(S203)。
マッピング部22は、白線検知部24で得られた白線位置データに基づき、逆投影画像における道路の延びる方向沿った各位置での道路幅Lを算出する(S204)。
一方、レーダ3は前述のように探知電波を送信して、反射波を受信することで物標検知データを生成し、レーダ信号処理部4に与える。物標検知データは、探知電波の送信時刻と反射波の受信時刻との時間差データおよび方位角を含む。レーダ信号処理部4は物標検知データに基づき、物標検知点までの相対距離を算出して、この相対距離と方位とで設定される測距点データ(図10(B)参照)を生成して、マッピング部22に与える(S205)。
マッピング部22は、測距点データの相対距離および方位に基づき、測距点211〜216,221〜223を逆投影画像にマッピングする(S208)。この際、相対距離の勾配補正を行わなければ、図10(C)に示すように、逆投影画像上の物標位置と、レーダによる各測距点の位置とがずれてしまう。したがって、マッピング部22は、各測距点211〜216,221〜223の相対位置と道路幅Lとを関連付けして(S206)、相対距離Dを勾配補正(相対距離D’)して(S207)、逆投影画像上にマッピングする。
具体的に、図11を参照して説明すると、測距点211の勾配補正前の相対距離をDとし、勾配補正後の逆投影画像上の相対距離をD’とし、自車101の位置の道路幅をL0とし、勾配補正前の測距点211の位置の道路幅をLとすると、勾配補正後の逆投影画像上の相対距離D’は、
D’=(L/L0)×D −(1)
で、算出することができる。なお、自車101位置の道路幅L0は、検知できる最も近い位置の道路幅を用いたり、図示しないナビゲーションシステム等を備えて該ナビゲーションシステムにより道路幅情報を抽出して用いても良い。
D’=(L/L0)×D −(1)
で、算出することができる。なお、自車101位置の道路幅L0は、検知できる最も近い位置の道路幅を用いたり、図示しないナビゲーションシステム等を備えて該ナビゲーションシステムにより道路幅情報を抽出して用いても良い。
このような処理を行うことで、図12に示すように、補正後の相対距離を用いた各測距点211c〜216c,221c〜223cは、逆投影画像上に表示された先行車102や道路敷設体103の位置に一致する。具体的には、各測距点211c〜216cが先行車102の後部下の陰部分に対応し、各測距点221c〜223cが道路上に白色ペイントされた矢印である道路敷設体103上に一致する。
物標識別部23は、逆投影画像上にマッピングされた各測距点211c〜216c,221c〜223cをそれぞれ中心にして、所定面積からなる矩形領域311〜316,321〜323を設定する(S211)。
この際、物標識別部23は、矩形領域の短手方向を道路の延びる方向とし、長手方向を道路の幅方向とする。物標識別部23は、矩形領域の短手方向長さを、後述する除去を行う物標、具体的には道路敷設体103の形状により予め設定するとともに、矩形領域の長手方向長さ(幅S)を、勾配補正後の測距点211c〜216c,221c〜223cの位置の道路幅Lにより設定する(S209)。例えば、図13の場合であれば、短手方向長さを道路敷設体103の長さの1/3〜1/4程度に設定し、長手方向幅Sを道路幅Lの1/3程度に設定する。この長手方向幅Sは、該当する矩形領域(測距点)の位置の道路幅Lに依存するので、図13の例に示すような矩形領域300と矩形領域400とを設定し、矩形領域300の長手方向長さS1、その位置の道路幅L1、矩形領域400の長手方向長さS2、その位置の道路幅L2とした場合、
(S1/L1)=(S2/L2)
となる。
(S1/L1)=(S2/L2)
となる。
また、物標識別部23は、第1の実施形態にも用いた後述する第1閾値Th1を、勾配補正後の測距点211c〜216c,221c〜223cの位置の道路幅Lに基づいて設定する(S210)。例えば、第1閾値Th1を矩形領域の長手方向幅Sの1/2程度に設定する。
物標識別部23は、第1の実施形態に示したように、各矩形領域311〜316,321〜323に対して輝度ヒストグラムを生成する(S212)。この際、全ての矩形領域311〜316,321〜323の各列の輝度積算値の内で最も高輝度の積算輝度値を100%とし、最も低輝度の輝度積算値を0%として、各列の輝度積算値を正規化する。
次に、物標識別部23は、輝度ヒストグラムに基づき、輝度積算値が50%以上となる列方向の幅W1(以下、この幅を「半値幅」と称す。)を、各矩形領域311〜316,321〜323で算出する(S213)。物標識別部23は各矩形領域311〜316,321〜323に対して半値幅W1と第1閾値Th1とを比較する。そして、物標識別部23は、半値幅W1が第1閾値Th1よりも大きいことを検出すると、該当する矩形領域(第1回該当矩形領域)に対して半値幅W1に対応する各列の輝度積算値を合算して該当列数で除算することで、第1回該当矩形領域毎の平均輝度Bavを算出する(S214→S215)。一方、物標識別部23は、半値幅W1が第1閾値Th1以下であることを検出すると、該当する矩形領域に対応する物標を道路敷設体103以外のものであると判断する(S214→S218)。
物標識別部23は、第1回該当矩形領域毎の平均輝度Bavを算出すると、予め設定した第2閾値Th2と比較する。そして、物標識別部23は、平均輝度Bavが第2閾値Th2より大きいことを検出すると、該当する第1回該当矩形領域に対応する物標を道路敷設体103であると判断する(S216→S217)。一方、物標識別部23は、平均輝度Bavが第2閾値Th2以下であることを検出すると、該当する第1回該当矩形領域に対応する物標を道路敷設体103以外のものであると判断する(S216→S218)。
物標識別部23は、このような物標の識別処理を各矩形領域311〜316,321〜323で順に行い、それぞれの矩形領域に対応する物標を道路敷設体103かそれ以外に判別する。そして、この物標識別処理が全ての矩形領域311〜316,321〜323で終了すれば、各矩形領域311〜316,321〜323、すなわち測距点211〜216,221〜223に対する物標識別結果を、レーダ信号処理部4に出力する(S219→S220)。
レーダ信号処理部4は、入力された物標識別結果に応じて、各測距点211〜216,221〜223を測距点グループ210,220としてグループ化し、道路敷設体103に対応する各測距点のデータを除去し、それ以外を出力する。
例えば、図10、図12の例では、レーダ信号処理部4は、各矩形領域311〜316に対応する各測距点211〜216を測距点グループ210としてグループ化するとともに、これらは道路敷設体103ではないので、レーダ検知結果(相対位置データ)等を出力する。一方、レーダ信号処理部4は、各矩形領域321〜323に対応する各測距点221〜223を測距点グループ220とし、これらが道路敷設体103であることに基づいて除去し、レーダ検知結果を出力しない。
出力されたレーダ検知結果は監視処理部5に入力され、監視処理部5は、道路敷設体103に対応するデータが除去されたレーダ検知結果に基づき、既知の方法でレーダ検知結果を時系列で順次処理し、物標の追尾や相対速度検出等の監視を行う。
このような構成とすることで、第1の実施形態に示したような監視処理の高速化とともに、自車と先行車との間に勾配の変化が存在しても相対距離の勾配補正を行うことで、レーダにより検知された測距点と画像上の物標の位置とが確実に合致して、誤検知の防止と物標検知の更なる高速化を実現することができる。
また、このような構成とすることで、矩形領域と物標識別の閾値となる幅に相当する第1閾値とが道路幅に応じて設定されるので、勾配の変化による道路敷設体の幅変化に影響されることなく、確実に道路敷設体を検知することができる。これにより、更なる誤検知の防止を実現することができる。
1−カメラ
2−画像処理部
21−画像変換部
22−マッピング部
23−物標識別部
24−白線検知部
3−レーダ
4−レーダ信号処理部
101−自車
102−先行車
103−道路敷設体
104A,104B−白線
211〜216,221〜223−測距点
221c〜216c,221c〜223c−勾配補正後の測距点
210,220−測距点群
311〜316,321〜323,300,400−矩形領域
2−画像処理部
21−画像変換部
22−マッピング部
23−物標識別部
24−白線検知部
3−レーダ
4−レーダ信号処理部
101−自車
102−先行車
103−道路敷設体
104A,104B−白線
211〜216,221〜223−測距点
221c〜216c,221c〜223c−勾配補正後の測距点
210,220−測距点群
311〜316,321〜323,300,400−矩形領域
Claims (5)
- 自車の前方を視野方向として前方の道路状況を撮像する撮像部と、
自車の前方の所定領域に探知波を放射して該探知波による前方の物標からの反射波を受信することで、自車に対する前記物標の相対位置を検出するレーダ部と、
該レーダ部で検出された物標の相対位置を前記撮像部で取得した画像にマッピングする物標マッピング部と、
前記相対位置を基準として前記画像の局部画像領域を指定し、該局部画像領域の輝度分布を解析することで、前記物標の種類を識別して、前記レーダ部で得られる物標の相対位置データの内、所望物標以外の相対位置データを除去する物標識別部と、
前記所望物標以外を除去する処理を行った後の相対位置データを時系列に連続して取得し、該連続で取得された相対位置データに基づいて所望物標の監視を継続的に行う監視部と、
を備えたことを特徴とする前方監視装置。 - 前記物標マッピング部は、
前記撮像部で取得した画像を、自車の前方路面を平面視した画像に変換し、該変換画像に対して前記物標の相対位置をマッピングする請求項1に記載の前方監視装置。 - 前記物標識別部は、
前記局部画像領域を、自車の進行方向を縦方向とし道路の幅方向を横方向とする矩形領域で設定し、
前記横方向の各点に対して前記縦方向の各点の輝度を積算してなる輝度ヒストグラムを生成し、
輝度積算値が予め設定した基準輝度値を超える前記横方向の幅を検出して、
該検出幅が予め設定した第1閾値より大きく、且つ該第1閾値より大きい検出幅部分に対応する輝度積算値の平均が第2閾値より大きい場合に、当該局部画像領域に対応する物標を除去する請求項1または請求項2に記載の前方監視装置。 - 道路の延びる方向に沿って平行に敷設された複数の白線を検知する白線検知部を備え、
前記物標識別部は、前記白線検知部が検知した複数の白線の線間距離に準じて前記局部画像領域の横方向の幅および前記第1閾値を設定する請求項3に記載の前方監視装置。 - 道路の延びる方向に沿って平行に敷設された複数の白線を検知する白線検知部を備え、
前記物標マッピング部は、前記白線検知部が検知した複数の白線の線間距離の変化に準じて前方道路の勾配変化を検出するとともに、該勾配変化に基づいて前記物標の前記道路の延びる方向に沿った相対位置を補正して、前記変換画像にマッピングする請求項2〜4のいずれかに記載の前方監視装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005289719A JP2007104171A (ja) | 2005-10-03 | 2005-10-03 | 前方監視装置 |
EP06020288A EP1770411A3 (en) | 2005-10-03 | 2006-09-27 | Forward direction monitoring device |
US11/542,587 US20070075892A1 (en) | 2005-10-03 | 2006-10-02 | Forward direction monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005289719A JP2007104171A (ja) | 2005-10-03 | 2005-10-03 | 前方監視装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007104171A true JP2007104171A (ja) | 2007-04-19 |
Family
ID=37667153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005289719A Withdrawn JP2007104171A (ja) | 2005-10-03 | 2005-10-03 | 前方監視装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20070075892A1 (ja) |
EP (1) | EP1770411A3 (ja) |
JP (1) | JP2007104171A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011529181A (ja) * | 2008-07-24 | 2011-12-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 距離測定 |
JP2015036885A (ja) * | 2013-08-13 | 2015-02-23 | Necソリューションイノベータ株式会社 | 検出装置、検出方法、及びプログラム |
JP2017219943A (ja) * | 2016-06-06 | 2017-12-14 | 株式会社Ihi | 識別装置 |
WO2018020588A1 (ja) * | 2016-07-26 | 2018-02-01 | 日産自動車株式会社 | 自己位置推定方法及び自己位置推定装置 |
JP2021144677A (ja) * | 2020-03-11 | 2021-09-24 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 障害物検出方法、装置、電子機器、記憶媒体及びコンピュータプログラム |
US11538260B2 (en) * | 2018-03-30 | 2022-12-27 | Nec Solution Innovators, Ltd. | Object identification apparatus, object identification method, and nontransitory computer readable medium storing control program |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8026842B2 (en) * | 2006-06-08 | 2011-09-27 | Vista Research, Inc. | Method for surveillance to detect a land target |
US8049658B1 (en) * | 2007-05-25 | 2011-11-01 | Lockheed Martin Corporation | Determination of the three-dimensional location of a target viewed by a camera |
JP2008309529A (ja) * | 2007-06-12 | 2008-12-25 | Panasonic Corp | ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム |
US9778351B1 (en) * | 2007-10-04 | 2017-10-03 | Hrl Laboratories, Llc | System for surveillance by integrating radar with a panoramic staring sensor |
WO2011117989A1 (ja) * | 2010-03-25 | 2011-09-29 | パイオニア株式会社 | 擬似音発生装置及び擬似音発生方法 |
JP5580233B2 (ja) * | 2011-03-22 | 2014-08-27 | 富士重工業株式会社 | 車外監視装置および車外監視方法 |
JP5863481B2 (ja) * | 2012-01-30 | 2016-02-16 | 日立マクセル株式会社 | 車両用衝突危険予測装置 |
EP2639781A1 (en) * | 2012-03-14 | 2013-09-18 | Honda Motor Co., Ltd. | Vehicle with improved traffic-object position detection |
US10609335B2 (en) * | 2012-03-23 | 2020-03-31 | Magna Electronics Inc. | Vehicle vision system with accelerated object confirmation |
JP5812064B2 (ja) * | 2012-11-22 | 2015-11-11 | 株式会社デンソー | 物標検出装置 |
US9052393B2 (en) * | 2013-01-18 | 2015-06-09 | Caterpillar Inc. | Object recognition system having radar and camera input |
US20140205139A1 (en) * | 2013-01-18 | 2014-07-24 | Caterpillar Inc. | Object recognition system implementing image data transformation |
US9349056B2 (en) * | 2013-02-15 | 2016-05-24 | Gordon Peckover | Method of measuring road markings |
KR101723401B1 (ko) | 2013-08-12 | 2017-04-18 | 주식회사 만도 | 야간 카메라 영상 저장 장치 및 그 영상 저장 방법 |
JP5812061B2 (ja) * | 2013-08-22 | 2015-11-11 | 株式会社デンソー | 物標検出装置およびプログラム |
US10254395B2 (en) * | 2013-12-04 | 2019-04-09 | Trimble Inc. | System and methods for scanning with integrated radar detection and image capture |
DE102013021326A1 (de) * | 2013-12-17 | 2015-06-18 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Detektieren einer auf einem Boden aufgebrachten Markierung, Fahrerassistenzeinrichtung und Kraftfahrzeug |
JP6087858B2 (ja) * | 2014-03-24 | 2017-03-01 | 株式会社日本自動車部品総合研究所 | 走行区画線認識装置及び走行区画線認識プログラム |
JP6130809B2 (ja) * | 2014-04-25 | 2017-05-17 | 本田技研工業株式会社 | 車線認識装置 |
US10082563B2 (en) * | 2014-12-17 | 2018-09-25 | Northrop Grumman Systems Corporation | Synthesized profile |
FR3031192B1 (fr) * | 2014-12-30 | 2017-02-10 | Thales Sa | Procede de suivi optique assiste par radar et systeme de mission pour la mise en oeuvre de procede |
DE102015210015A1 (de) * | 2015-06-01 | 2016-12-01 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Positionsbestimmung eines Fahrzeugs |
JP6468162B2 (ja) * | 2015-10-19 | 2019-02-13 | 株式会社デンソー | 障害物報知装置 |
JP6645254B2 (ja) * | 2016-02-23 | 2020-02-14 | 株式会社デンソー | 物体認識装置 |
WO2018105476A1 (ja) * | 2016-12-05 | 2018-06-14 | パナソニックIpマネジメント株式会社 | 撮像装置、及びそれに用いられる固体撮像素子 |
JP6946972B2 (ja) * | 2017-11-24 | 2021-10-13 | トヨタ自動車株式会社 | 車両制御装置 |
CN113408407B (zh) * | 2018-10-31 | 2023-06-23 | 百度在线网络技术(北京)有限公司 | 电子地图车道线修正方法、设备及计算机可读存储介质 |
CN112672047B (zh) * | 2020-12-20 | 2022-08-26 | 英特睿达(山东)电子科技有限公司 | 图像采集系统及图像处理方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09142236A (ja) * | 1995-11-17 | 1997-06-03 | Mitsubishi Electric Corp | 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置 |
JP3619628B2 (ja) * | 1996-12-19 | 2005-02-09 | 株式会社日立製作所 | 走行環境認識装置 |
GB0115433D0 (en) * | 2001-06-23 | 2001-08-15 | Lucas Industries Ltd | An object location system for a road vehicle |
JP4374211B2 (ja) * | 2002-08-27 | 2009-12-02 | クラリオン株式会社 | レーンマーカー位置検出方法及びレーンマーカー位置検出装置並びに車線逸脱警報装置 |
JP3934119B2 (ja) * | 2004-06-14 | 2007-06-20 | 本田技研工業株式会社 | 車両周辺監視装置 |
-
2005
- 2005-10-03 JP JP2005289719A patent/JP2007104171A/ja not_active Withdrawn
-
2006
- 2006-09-27 EP EP06020288A patent/EP1770411A3/en not_active Withdrawn
- 2006-10-02 US US11/542,587 patent/US20070075892A1/en not_active Abandoned
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011529181A (ja) * | 2008-07-24 | 2011-12-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 距離測定 |
JP2015036885A (ja) * | 2013-08-13 | 2015-02-23 | Necソリューションイノベータ株式会社 | 検出装置、検出方法、及びプログラム |
JP2017219943A (ja) * | 2016-06-06 | 2017-12-14 | 株式会社Ihi | 識別装置 |
WO2018020588A1 (ja) * | 2016-07-26 | 2018-02-01 | 日産自動車株式会社 | 自己位置推定方法及び自己位置推定装置 |
JPWO2018020588A1 (ja) * | 2016-07-26 | 2019-03-28 | 日産自動車株式会社 | 自己位置推定方法及び自己位置推定装置 |
RU2715500C1 (ru) * | 2016-07-26 | 2020-02-28 | Ниссан Мотор Ко.,Лтд. | Способ оценки собственного положения и устройство оценки собственного положения |
US10625746B2 (en) | 2016-07-26 | 2020-04-21 | Nissan Motor Co., Ltd. | Self-position estimation method and self-position estimation device |
US11538260B2 (en) * | 2018-03-30 | 2022-12-27 | Nec Solution Innovators, Ltd. | Object identification apparatus, object identification method, and nontransitory computer readable medium storing control program |
JP2021144677A (ja) * | 2020-03-11 | 2021-09-24 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 障害物検出方法、装置、電子機器、記憶媒体及びコンピュータプログラム |
JP7339934B2 (ja) | 2020-03-11 | 2023-09-06 | アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド | 障害物検出方法、装置、電子機器、記憶媒体及びコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20070075892A1 (en) | 2007-04-05 |
EP1770411A2 (en) | 2007-04-04 |
EP1770411A3 (en) | 2008-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007104171A (ja) | 前方監視装置 | |
US11854272B2 (en) | Hazard detection from a camera in a scene with moving shadows | |
US7957559B2 (en) | Apparatus and system for recognizing environment surrounding vehicle | |
US7859652B2 (en) | Sight-line end estimation device and driving assist device | |
JP2003296736A (ja) | 障害物検知装置及びその方法 | |
US8855367B2 (en) | Environment recognition device and environment recognition method | |
JP2007234019A (ja) | 車両画像領域特定装置およびその方法 | |
JP5065172B2 (ja) | 車両灯火判定装置及びプログラム | |
JP2004112144A (ja) | 前方車両追跡システムおよび前方車両追跡方法 | |
JP2007193445A (ja) | 車両の周辺監視装置 | |
JP2008170283A (ja) | 車載霧判定装置 | |
JPH09142236A (ja) | 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置 | |
JP2011220732A (ja) | 車両の周辺監視装置 | |
RU2635280C2 (ru) | Устройство обнаружения трехмерных объектов | |
EP2879115B1 (en) | Three-dimensional object detection device | |
JP2007304033A (ja) | 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム | |
JP2009194542A (ja) | 車両周辺監視装置、車両、車両周辺監視プログラム | |
US9824449B2 (en) | Object recognition and pedestrian alert apparatus for a vehicle | |
WO2011039977A1 (ja) | 横断歩道標示検出方法および横断歩道標示検出装置 | |
US11256929B2 (en) | Image-based road cone recognition method and apparatus, storage medium, and vehicle | |
US7885430B2 (en) | Automotive environment monitoring device, vehicle with the automotive environment monitoring device, and automotive environment monitoring program | |
JP2008056163A (ja) | 車両の障害物検知装置 | |
JP2008084138A (ja) | 車両の周辺監視装置および周辺監視用プログラム | |
JP4743797B2 (ja) | 車両周辺監視装置、車両、車両周辺監視プログラム | |
JP2009140289A (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080529 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20100122 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100122 |