JP2011221630A - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP2011221630A JP2011221630A JP2010087672A JP2010087672A JP2011221630A JP 2011221630 A JP2011221630 A JP 2011221630A JP 2010087672 A JP2010087672 A JP 2010087672A JP 2010087672 A JP2010087672 A JP 2010087672A JP 2011221630 A JP2011221630 A JP 2011221630A
- Authority
- JP
- Japan
- Prior art keywords
- image
- value
- vehicle
- velocity vector
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両の周辺を監視するための装置に関し、より具体的には、車両の周辺を監視するための装置において、車両周辺の移動物体の検出感度を向上させることに関する。 The present invention relates to an apparatus for monitoring the periphery of a vehicle, and more specifically to improving detection sensitivity of a moving object around the vehicle in an apparatus for monitoring the periphery of the vehicle.
特許文献1は、歩行者検出装置を開示する。この歩行者検出装置は、レーザレーダと赤外線カメラを併用し、レーザレーダから得られる歩行者候補の検出情報を基に赤外線画像中の歩行者を検出する。
特許文献2は、車載用レーダ装置を開示する。この装置では、センサの中心軸の向きを補正するために、撮影画像を複数の領域に分割し、領域毎に検出した線分から消失点および方向ベクトルを求めている。 Patent Document 2 discloses an in-vehicle radar device. In this apparatus, in order to correct the direction of the central axis of the sensor, the captured image is divided into a plurality of regions, and vanishing points and direction vectors are obtained from the line segments detected for each region.
赤外線カメラで撮像した場合、得られるグレースケール画像において、移動物体は静止物体よりも輝度が低く、すなわち暗くなる傾向がある。これは、赤外線カメラの撮像素子が熱時定数を持つため、物体の赤外線カメラに対する移動速度が大きいほど、赤外線カメラの検知信号(輝度信号)のレスポンス(立ち上がり)が静止物体よりも移動物体の方が遅くなるためである。 When an image is captured by an infrared camera, the moving object has a lower luminance than the stationary object, that is, tends to be darker in the obtained grayscale image. This is because the imaging device of the infrared camera has a thermal time constant, so the greater the moving speed of the object relative to the infrared camera, the more the response (rise) of the detection signal (luminance signal) of the infrared camera is to the moving object than the stationary object. This is because it becomes slow.
したがって、赤外線カメラ等で車両周辺の移動物体を検出する場合、この輝度の低下を考慮した上で検出処理をおこなうことが望まれる。 Therefore, when a moving object around the vehicle is detected by an infrared camera or the like, it is desired to perform the detection process in consideration of the decrease in luminance.
しかし、特許文献1、2に記載の発明においては、この輝度低下による影響を考慮して、歩行者等を検知することをおこなってはいない。
However, in the inventions described in
そこで、本発明は、赤外線カメラ等の撮像手段により取得された画像、例えばグレースケール画像における移動物体の輝度低下による影響を画像処理に反映させて、車両周辺の移動物体の検出精度を向上させることを目的とする。 Accordingly, the present invention improves the detection accuracy of moving objects around the vehicle by reflecting the influence of the luminance reduction of moving objects in an image acquired by an imaging means such as an infrared camera, for example, a gray scale image, in image processing. With the goal.
本発明は、車両の周辺監視装置を提供する。その周辺監視装置は、車両の周辺の物体の位置および速度ベクトルを検出する物体検出手段と、車両の周辺の画像を取得する撮像手段と、撮像手段により取得されたグレースケール画像を多値化する多値化手段と、物体位置検出手段が特定した物体の位置に対応する取得されたグレースケール画像に、当該物体の位置の各々に対応する所定サイズの領域を設定する領域設定手段と、領域毎に、対応する物体の速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定する多値化しきい値設定手段と、多値化手段により対応する多値化しきい値を用いて多値化された画像に基づいて、所定の対象物の有無を判定する判定手段と、を備える。 The present invention provides a vehicle periphery monitoring device. The periphery monitoring device multi-values an object detection unit that detects the position and velocity vector of an object around the vehicle, an imaging unit that acquires an image around the vehicle, and a grayscale image acquired by the imaging unit. Multi-value conversion means, area setting means for setting an area of a predetermined size corresponding to each position of the object on the acquired gray scale image corresponding to the position of the object specified by the object position detection means, and for each area In addition, multi-value threshold setting means for setting a threshold value when multi-value the corresponding gray scale image according to the magnitude of the velocity vector of the corresponding object, Determining means for determining the presence or absence of a predetermined object based on the multi-valued image using the threshold value.
本発明によれば、グレースケール画像に設定した領域毎に、物体検出手段により検出された対応する物体の速度ベクトルの大きさに応じて、多値化しきい値を設定するので、当該画像からの対象物、特に移動物体の抽出精度を向上させることができる。その結果、車両の周辺の対象物を確実に抽出して速やかに運転者に知らせることが可能となる。 According to the present invention, for each region set in the grayscale image, the multi-value threshold is set according to the magnitude of the velocity vector of the corresponding object detected by the object detection unit. The extraction accuracy of an object, particularly a moving object, can be improved. As a result, it is possible to reliably extract objects around the vehicle and promptly inform the driver.
本発明の一形態によると、車両の周辺監視装置が提供される。その周辺監視装置は、車両の周辺の画像を取得する撮像手段と、撮像手段により取得されたグレースケール画像を多値化する多値化手段と、取得されたグレースケール画像を複数の領域に区分して、車両の速度に応じて、領域毎の速度ベクトルを算出する手段と、領域毎の速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定する多値化しきい値設定手段と、多値化手段により対応する多値化しきい値を用いて多値化された画像に基づいて、所定の対象物の有無を判定する判定手段と、を備える。 According to an aspect of the present invention, a vehicle periphery monitoring device is provided. The periphery monitoring device includes an imaging unit that acquires an image around the vehicle, a multi-level unit that multi-values the gray scale image acquired by the imaging unit, and the acquired gray scale image is divided into a plurality of regions. Then, a means for calculating a speed vector for each area according to the speed of the vehicle, and a threshold value for multi-leveling the corresponding gray scale image according to the size of the speed vector for each area are set. Multi-value threshold value setting means, and determination means for determining the presence or absence of a predetermined object based on the multi-value image using the corresponding multi-value threshold value by the multi-value value means. .
本発明の一形態によれば、グレースケール画像の領域毎に算出した速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定するので、当該画像からの対象物、特に移動物体の抽出精度を向上させることができる。 According to one aspect of the present invention, the threshold value for multi-valued grayscale image is set according to the magnitude of the velocity vector calculated for each region of the grayscale image. The extraction accuracy of the target object, particularly the moving object, can be improved.
本発明の一形態によると、多値化しきい値設定手段は、速度ベクトルの大きさが大きくなるほど多値化しきい値を小さくする。 According to one aspect of the present invention, the multi-value threshold setting unit decreases the multi-value threshold as the speed vector increases.
本発明の一形態によれば、車両周辺の移動物体の移動速度が速くなっても確実に取得画像から移動物体を抽出することが可能となる。 According to an aspect of the present invention, it is possible to reliably extract a moving object from an acquired image even if the moving speed of the moving object around the vehicle increases.
本発明の一形態によると、所定時間内での車両の挙動によって生ずる取得画像の変化量を推定する手段をさらに備え、多値化しきい値設定手段は、その変化量に基づき速度ベクトルを調整する。 According to one aspect of the present invention, it further comprises means for estimating the amount of change in the acquired image caused by the behavior of the vehicle within a predetermined time, and the multi-value threshold setting means adjusts the speed vector based on the amount of change. .
本発明の一形態によれば、車両の挙動をも反映させて速度ベクトルの算出および多値化しきい値の設定をおこなうので、取得該画像からの対象物、特に移動物体の抽出精度をさらに向上させることが可能となる。 According to one aspect of the present invention, the speed vector is calculated and the multi-value threshold is set while reflecting the behavior of the vehicle, so that the accuracy of extracting an object, particularly a moving object, from the acquired image is further improved. It becomes possible to make it.
本発明の一形態によると、物体検出手段はレーダを含み、領域設定手段はレーダが検出した物体の速度ベクトルに応じて対応する領域の設定位置を移動させる。 According to one aspect of the present invention, the object detection means includes a radar, and the area setting means moves the set position of the corresponding area according to the velocity vector of the object detected by the radar.
本発明の一形態によると、物体検出手段はレーダを含み、領域設定手段は、当該レーダに対する撮像手段の検出信号の遅延量に応じて領域を設定する。 According to an aspect of the present invention, the object detection unit includes a radar, and the region setting unit sets the region according to the delay amount of the detection signal of the imaging unit with respect to the radar.
本発明の一形態によれば、レーダに対して赤外線カメラの移動物体検出時の検出信号(輝度信号)のレスポンス(立ち上がり)が遅れることを反映させてグレースケール画像上の領域の位置を設定することができるので、取得該画像から対象物、特に移動物体の抽出をより確実におこなうことが可能となる。 According to one aspect of the present invention, the position of a region on a grayscale image is set by reflecting that a response (rise) of a detection signal (luminance signal) when detecting a moving object of an infrared camera is delayed with respect to a radar. Therefore, it is possible to more reliably extract a target object, particularly a moving object, from the acquired image.
図面を参照しながら本発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。周辺監視装置は、車両に搭載され、レーザレーダ10と、赤外線カメラ12と、赤外線カメラ12によって撮像された画像データに基づいて車両周辺の物体を検出するための画像処理ユニット14と、その検出結果に基づいて音または音声で警報を発生するスピーカ16と、赤外線カメラ12の撮像を介して得られた画像を表示すると共に、運転者に車両周辺の対象物を認識させるための表示を行う表示装置18とを備える。なお、ナビゲーション装置を備える車両においては、スピーカ16および表示装置18として、ナビゲーション装置が備える該当機能を利用してもよい。
Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. The periphery monitoring device is mounted on a vehicle, and includes a
図1の画像処理ユニット14は、その構成(機能)としてブロック141〜148で示される機能を有する。すなわち、画像処理ユニット14は、レーザレーダ10からの信号を受けて車両の周辺の物体の位置および速度ベクトルを検出する物体検出手段141と、赤外線カメラ12が撮影した車両の周辺の画像をグレースケール画像として取得する画像取得手段142と、取得されたグレースケール画像を多値化する多値化手段143と、物体検出手段141が検出した物体の位置に対応するグレースケール画像に、該物体の位置の各々に対応する所定サイズの領域を設定する領域設定手段144と、領域毎に、対応する物体の速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定する多値化しきい値設定手段145と、取得されたグレースケール画像を複数の領域に区分して、車両の速度に応じて、領域毎の速度ベクトルを算出する手段146と、所定時間内での車両の挙動(車速、ヨーレート等)によって生ずる取得画像の変化量を推定する手段147と、多値化手段により対応する多値化しきい値を用いて多値化された画像に基づき所定の対象物の有無を判定する判定手段148として機能する。
The
なお、本明細書において使用する「物体の速度ベクトル」は、特記しない限り物体の速度ベクトルを画像平面に射影して得られる画像上の物体の速度ベクトルを意味し、全編にわたってこの意味において使用している。 The “object velocity vector” used in this specification means an object velocity vector on an image obtained by projecting an object velocity vector onto an image plane unless otherwise specified, and is used in this sense throughout the entire story. ing.
各ブロックの機能は、画像処理ユニット14が有するコンピュータ(CPU)によって実現される。なお、画像処理ユニット14の構成は、ナビゲーション装置の中に組み込んでもよい。
The function of each block is realized by a computer (CPU) included in the
画像処理ユニット14は、ハードウエア構成として、例えば、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ16に対する駆動信号および表示装置18に対する表示信号などを出力する出力回路を備えている。レーザレーダ10と赤外線カメラ12の出力信号は、デジタル信号に変換されてCPUに入力されるよう構成される。
The
図2は、画像処理ユニット14によって実行される処理フローである。この処理フローは、画像処理ユニット14のCPUがメモリに格納している処理プログラムを呼び出して、所定の時間間隔で実行される。なお、以下の説明では、取得したグレースケール画像を多値化の例として、2値化して白黒画像を得る場合を例にとり説明している。3値以上の多値化をする場合は、設定するしきい値の数は増えるが、基本的に2値化の場合と同様な処理をすることにより多値化画像を得ることができる。また、図2のフローでは、検知対象として歩行者を検知する場合について説明しているが、歩行者に限られず、他の動物、車両等の移動物体を検知する場合にも適用できることは言うまでもない。
FIG. 2 is a processing flow executed by the
ステップS10において、レーザレーダ10からの信号を受けて車両の周辺の物体の位置、大きさ(領域)、および速度ベクトルを検出(特定)する。その検出には従来からの任意の方法を用いることができるが、例えば、以下のようにおこなう。
In step S10, a signal from the
レーザレーダ10としてスキャン式レーザレーダを使用して、その検出点群の幅から物体、例えば歩行者候補の位置および大きさ(領域)を特定する。具体的には、スキャン式レーザレーダでは、各方向にスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体までの距離を測定する。レーザレーダの位置を原点としてY軸をレーダの正面方向とする2次元座標系にこれらの検出点の位置をプロットして検出点の集合を得る。これらの検出点の集合から、各検出点の相互の間隔が所定値以下のものを検出点群としてグループ化し、グループ化した検出点群のうち、広がり幅が所定値以下のものを歩行者候補とみなしてその位置と大きさ(領域)を特定する。
Using a scanning laser radar as the
特定された大きさ(領域)において、基準点を定めその基準点を始点とするベクトルとして、特定された歩行者候補の動き(単位時間当たりの移動量)を表すことにより、その領域における、すなわち対応する歩行者候補についての速度ベクトル得ることができる。なお、基準点は領域の重心、消失点など任意の規則により決めることができる。 In the specified size (area), by defining a reference point and expressing the movement (movement amount per unit time) of the specified pedestrian candidate as a vector starting from the reference point, in that area, that is, The velocity vector for the corresponding pedestrian candidate can be obtained. The reference point can be determined by an arbitrary rule such as the center of gravity of the region, the vanishing point.
ステップS11において、赤外線カメラ12の出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール(白黒の濃淡)画像である。対象の温度が高い部分ほど高輝度となる赤外線カメラでは、高輝度部分の明暗値が高い画像データとなり、その温度が低く(低輝度に)なるにつれて明暗値が低い画像データとなる。
In step S11, an output signal (that is, captured image data) of the
ステップS12において、取得されたグレースケール画像に領域設定をする。具体的には、ステップS10で得られた各領域(位置、大きさ)に対応する領域をグレースケール画像上に設定する。 In step S12, an area is set for the acquired grayscale image. Specifically, the area corresponding to each area (position, size) obtained in step S10 is set on the grayscale image.
ステップS13において、グレースケール画像の設定した領域毎に2値化するためのしきい値を設定する処理フロー(ルーチン)を実行する。 In step S13, a processing flow (routine) for setting a threshold value for binarization for each set region of the grayscale image is executed.
図3は、2値化しきい値設定の処理フロー(ルーチン)を示す図である。最初にステップS131またはステップS132を選択する。この2つのステップは任意に選択できる。ステップS131(A)では、移動体毎に対応するグレースケール画像の領域上にレーザレーダ10で検出した速度ベクトルを投影する。
FIG. 3 is a diagram showing a processing flow (routine) for binarization threshold value setting. First, step S131 or step S132 is selected. These two steps can be selected arbitrarily. In step S131 (A), the velocity vector detected by the
図5は、この投影を説明するための図である。符号20で示されるレーザレーダ10のスキャン領域において、図のように4つの移動体が検出されたとする。各移動体は大きさ(領域)と速度ベクトルを有している。この4つの移動体について、速度ベクトルをグレースケール画像23上に投影すると、各領域について画像上の速度ベクトルが得られる。例えば、矢印Aで示されるように、移動体(領域)21の速度ベクトル22は、画像上の領域24の速度ベクトル25として投影される。他の移動体についても同様である。このように、レーザレーダで検出された速度ベクトルをそのまま利用せずに画像上に投影させた速度ベクトルを利用するのは、画像上での移動量が残像に影響するので、画像上に投影した後のベクトル(移動量)を利用する方がよりその残像の影響を反映させることができて効果的であるからである。
FIG. 5 is a diagram for explaining this projection. Assume that four moving bodies are detected in the scan region of the
図3に戻って、ステップS132(B)が選択された場合は、ステップS131(A)の投影に代わって、画像上の領域毎に速度ベクトル(図5の画像23内の速度ベクトル25に相当するもの)を、オプティカルフロー、テンプレートマッチング、あるいは位相限定相関法などの従来からの方法により求める。その際、領域毎に一つの速度ベクトル(移動量)をテンプレートマッチング等により求めても良く、あるいは画素毎のオプティカルフローを算出して移動体(領域)毎に代表値(平均値等)を算出してもよい。なお、このステップS132(B)は、既に画像上の領域毎に物体(移動体)候補が対応付けられている場合に実行されるステップであり、何らその対応が付いていない場合は、ステップS131(A)が実行される。
Returning to FIG. 3, when step S132 (B) is selected, a velocity vector (corresponding to the
次に、ステップS133において、図2のステップS10において検出した物体が移動体であるか否かを判定する。この判定は、ステップS131またはS132において得られた画像の領域毎の速度(移動)ベクトル(大きさ、変化等)に基づきおこなう。この判定がNoの場合、ステップS136に進み、静止物に対応して予め決められた所定のしきい値Thsを選択する。所定のしきい値Thsは、予め画像処理ユニット14のメモリに格納されている。なお、各領域の背景画像の輝度に応じてしきい値を変えられるように、輝度の大きさに対応した複数のしきい値を設けておき、その中から選択できるようにしてもよい。
Next, in step S133, it is determined whether or not the object detected in step S10 in FIG. 2 is a moving body. This determination is made based on the velocity (movement) vector (size, change, etc.) for each area of the image obtained in step S131 or S132. When this determination is No, the process proceeds to step S136, and a predetermined threshold value Ths determined in advance corresponding to the stationary object is selected. The predetermined threshold Ths is stored in advance in the memory of the
ステップS133で移動体である(Yes)と判定された場合、次のステップS134において、領域毎の速度ベクトルの大きさL、すなわち各移動体の移動量Lを算出する。ステップS135において、速度ベクトルの大きさ(移動量)Lに対応した2値化しきい値を算出する。2値化しきい値Thの算出は例えば以下のようにおこなう。 If it is determined in step S133 that the object is a moving body (Yes), in the next step S134, the size L of the velocity vector for each region, that is, the moving amount L of each moving object is calculated. In step S135, a binarization threshold value corresponding to the velocity vector magnitude (movement amount) L is calculated. For example, the binarization threshold Th is calculated as follows.
速度ベクトルの大きさ(移動量)Lに応じて2値化しきい値の変化量ΔThを予め決めておき、下記の式(1)で示すように、静止物に対する2値化しきい値Thsからその変化量ΔThを減算して、2値化しきい値Thmを求める。式(1)で減算するのは、移動体の速度が大きくなるほど輝度が低下するので、2値化しきい値を小さくして、その移動体の2値化後の画像上での検出(特定)精度を上げるためである。
Thm = Ths−ΔTh (1)
A change amount ΔTh of the binarization threshold value is determined in advance according to the magnitude (movement amount) L of the velocity vector, and the binarization threshold value Ths for the stationary object is determined as shown in the following equation (1). The binarization threshold Thm is obtained by subtracting the change amount ΔTh. The subtraction in the equation (1) is that the luminance decreases as the speed of the moving body increases. Therefore, the binarization threshold value is reduced, and detection (specification) of the moving body on the image after binarization is performed. This is to increase the accuracy.
Thm = Ths−ΔTh (1)
あるいは、下記の式(2)で示すように、速度ベクトルの大きさ(移動量)Lに応じて小さくなる係数α(<1)を予め決めておき、静止物に対する2値化しきい値Thsにその係数α(<1)を乗算して、2値化しきい値Thmを求めてもよい。
Thm = α×Ths (2)
Alternatively, as shown in the following equation (2), a coefficient α (<1) that decreases according to the magnitude (movement amount) L of the velocity vector is determined in advance, and the binarization threshold Ths for a stationary object is set. The binarization threshold Thm may be obtained by multiplying the coefficient α (<1).
Thm = α × Ths (2)
領域毎に対応する2値化しきい値(Ths、Thm)を取得した後、図2のステップS14において、そのしきい値を用いてそれぞれ対応するグレースケール画像を2値化する。具体的には、しきい値より明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。この2値化処理により、たとえば歩行者のような、所定の温度より高い対象物が、白領域として抽出される。 After obtaining the binarized threshold values (Ths, Thm) corresponding to each region, in step S14 in FIG. 2, the corresponding grayscale images are binarized using the threshold values. Specifically, a process is performed in which an area brighter than the threshold is set to “1” (white) and a dark area is set to “0” (black). By this binarization processing, an object higher than a predetermined temperature, such as a pedestrian, is extracted as a white region.
ステップS15において、2値化後の白黒画像から対象物を照合する。最初に、予めメモリに保管している除外対象物の特徴を有するか否かを調べる。除外対象物とは、例えば発熱体ではあるが明らかに形状等が異なる物体(4足動物、ボイラー、車両等)を意味する。除外対象物に該当しない場合、歩行者の特徴に該当するか否かを調べる。歩行者の特徴には、例えば歩行者の頭部の特徴として丸みを帯びた白部が存在し、その下に胴体、脚部の部分に相当する細長い白部が繋がっていること等が含まれる。また、周知のパターンマッチングを利用し、予め保管してある歩行者を表す所定のパターンとの類似度を算出し、その類似度を歩行者であるか否かの判断材料としてもよい。さらに、歩行者の歩行速度はほぼ一定であることから、レーザレーダ10から得られる物体の移動速度(速度ベクトル)の情報を判断材料の1つとして用いてもよい。
In step S15, the object is collated from the binarized black and white image. First, it is checked whether or not it has the characteristics of the object to be excluded that is stored in the memory in advance. The excluded object means, for example, an object (a quadruped animal, a boiler, a vehicle, or the like) that is a heating element but has a clearly different shape or the like. When it does not correspond to an exclusion object, it investigates whether it corresponds to the feature of a pedestrian. The features of the pedestrian include, for example, a rounded white portion as a feature of the pedestrian's head, and an elongated white portion corresponding to the body and leg portions connected below the white portion. . Further, the similarity with a predetermined pattern representing a pedestrian stored in advance may be calculated using known pattern matching, and the similarity may be used as a material for determining whether or not the user is a pedestrian. Furthermore, since the walking speed of the pedestrian is substantially constant, information on the moving speed (speed vector) of the object obtained from the
ステップS16において、判定された対象物が歩行者か否かを判定する。その判定は、例えば、上述した歩行者の特徴に該当するか否か、パターンマッチングの類似度が高いか、移動速度が所定範囲内か等によりおこなう。歩行者に該当しない場合は処理を終了する。 In step S16, it is determined whether or not the determined object is a pedestrian. The determination is made based on, for example, whether or not the above-described pedestrian feature is satisfied, whether the similarity of pattern matching is high, or whether the moving speed is within a predetermined range. If it does not correspond to a pedestrian, the process ends.
歩行者であると判定された場合、ステップS17において、運転者の注意を喚起するために警報を発する。その際、歩行者が存在する方向に応じて警報の種類を変えると効果的である。例えば、スピーカ16から音声で「左前方歩行者注意」等の警報を発生することにより、運転者の注意を適切な方向に喚起することができる。画像として警告する場合は、グレースケール画像を表示装置18上に表示し、画像中の認識された歩行者に対して個別の強調表示(高輝度化、点滅、色表示等)を行うことにより、運転者の注意を促す。
If it is determined that the person is a pedestrian, an alarm is issued in order to call the driver's attention in step S17. At that time, it is effective to change the type of alarm according to the direction in which the pedestrian is present. For example, by issuing an alarm such as “Left pedestrian attention” from the
図4は、2値化しきい値設定の処理フロー(ルーチン)の他の例を示す図である。図4では、図3のフローと違って、最初のステップS130において、図2のステップS10において検出した物体が移動体であるか否かを判定する。すなわち、図3のステップS133では、図2のステップS11で取得されたカメラ画像(グレースケール画像)上の速度(移動)ベクトルに基づき移動体の有無を判定しているが、図4のステップS130では、図2のステップS10で取得されたレーザレーダ情報(移動体候補の動き、速度ベクトル)に基づき移動体の有無を判定する。このステップS130では、例えば物体候補毎に得られた速度ベクトルの大きさが所定値以上であるときに移動体であると判定し、所定値よりも小さいときは移動体でないと判定する。 FIG. 4 is a diagram illustrating another example of the processing flow (routine) for setting the binarized threshold value. In FIG. 4, unlike the flow of FIG. 3, in the first step S130, it is determined whether or not the object detected in step S10 of FIG. 2 is a moving object. That is, in step S133 in FIG. 3, the presence / absence of a moving object is determined based on the speed (movement) vector on the camera image (grayscale image) acquired in step S11 in FIG. 2, but step S130 in FIG. Then, the presence / absence of a moving body is determined based on the laser radar information (movement and velocity vector of the moving body candidate) acquired in step S10 of FIG. In step S130, for example, when the magnitude of the velocity vector obtained for each object candidate is greater than or equal to a predetermined value, it is determined that the object is a moving object, and when it is smaller than the predetermined value, it is determined that the object is not a moving object.
この判定がNoの場合、ステップS136に進み、静止物に対応して予め決められた所定のしきい値Thsを選択する。判定がYes(移動体である)と判定された場合、次のステップS131(A)またはステップS132(B)のいずれかのステップに進む。これらのステップを含めて以降のフローは上述した図3の対応するステップと同様であるので、ここではその説明を省略する。 When this determination is No, the process proceeds to step S136, and a predetermined threshold value Ths determined in advance corresponding to the stationary object is selected. If it is determined Yes (is a moving body), the process proceeds to either step S131 (A) or step S132 (B). Since the subsequent flow including these steps is the same as the corresponding steps in FIG. 3 described above, description thereof is omitted here.
図6は、画像処理ユニット14によって実行される他の処理フローの例である。この処理フローは、図2の処理フロー同様、画像処理ユニット14のCPUがメモリに格納している処理プログラムを呼び出して、所定の時間間隔で実行される。また、3値以上の多値化に適用できることも、図2の処理フローと同様である。
FIG. 6 is an example of another processing flow executed by the
図6の処理フローでは、図2の処理フローと異なり、レーザレーダ10による物体検出を前提とせずに歩行者の検知をおこなう例である。ステップS20において、赤外線カメラ12の出力信号からグレースケール画像を取得する。ステップS21において、取得したグレースケール画像に領域を設定する。この領域設定は、検出物体の位置とは無関係におこなわれ、例えば図7に例示するように均等に分割された9個の領域が設定される。領域の数と大きさは、車両の速度、走行場所(周辺状態)等に応じて任意に設定される。
The processing flow of FIG. 6 is an example of detecting a pedestrian without assuming object detection by the
ステップS22において、自車両の車速を検出する。次に設定した画像上の領域毎の速度(移動)ベクトルを求めるために、次のステップS23(A)またはステップS24(B)のいずれかのステップに進む。この2つのステップは任意に選択できる。ステップS23(A)においては、画像上の領域毎に速度ベクトルを、車速に応じて変わる画像の経時変化からオプティカルフローを算出することにより得る。図7は領域毎に得られた速度ベクトルの模式図である。領域24毎に速度ベクトル25を得る。
In step S22, the vehicle speed of the host vehicle is detected. Next, in order to obtain a velocity (movement) vector for each set area on the image, the process proceeds to either step S23 (A) or step S24 (B). These two steps can be selected arbitrarily. In step S23 (A), the velocity vector is obtained for each region on the image by calculating the optical flow from the temporal change of the image that changes according to the vehicle speed. FIG. 7 is a schematic diagram of velocity vectors obtained for each region. A
ステップS24(B)が選択された場合は、最初にステップS24において、画像上の消失点を算出する。消失点の算出方法には従来の任意の方法を用いることができる。次に、ステップS25において、車速およびさらに取得したヨーレートから、画像上の消失点を基準(起点)とする移動ベクトルを作成する。この移動ベクトルは、自車両の挙動に応じて予測される移動量に相当する。この場合も、図7でイメージされるような領域毎の移動ベクトルを得ることができる。 When step S24 (B) is selected, first, in step S24, a vanishing point on the image is calculated. Any conventional method can be used as the vanishing point calculation method. Next, in step S25, a movement vector with the vanishing point on the image as a reference (starting point) is created from the vehicle speed and the acquired yaw rate. This movement vector corresponds to the amount of movement predicted according to the behavior of the host vehicle. Also in this case, a movement vector for each region as imaged in FIG. 7 can be obtained.
次に、ステップS26において、2値化しきい値を新たに設定(算出)するか否かを判定する。この判定がNoの場合、ステップS27において、画像の領域毎に対応する速度(移動)ベクトルの大きさ(移動量)に応じて、領域内の背景部分の輝度を大きくする。具体的には背景の輝度のゲインを上げる。これは、自車両が移動している場合には、自車両との相対速度差が大きいほど輝度が落ち、また高輝度の物体ほどその輝度の低下が大きいので、全体特に背景の輝度(ゲイン)を移動量に応じて引き上げて、すなわちグレースケール画像上での明暗比(コントラスト)を確保して、2値化しきい値を変更(小さく)することなく2値化後の検出精度を上げるためにおこなう。 Next, in step S26, it is determined whether or not a new binarization threshold value is set (calculated). When this determination is No, in step S27, the luminance of the background portion in the area is increased according to the size (movement amount) of the velocity (movement) vector corresponding to each area of the image. Specifically, the background luminance gain is increased. This is because when the host vehicle is moving, the brightness decreases as the relative speed difference from the host vehicle increases, and the brightness decreases as the brightness of the object increases. In order to increase the detection accuracy after binarization without changing (decreasing) the binarization threshold by securing the light / dark ratio (contrast) on the grayscale image. Do it.
ステップS26において、2値化しきい値を新たに設定(算出)する場合は、ステップS28において、例えば図3(図4)を参照しながら説明した方法(ステップS132(B)の選択)により、画像の領域毎に2値化しきい値を設定する。なお、ステップS27の輝度調整をおこなった場合は、2値化しきい値は所定値、例えば、図3(図4)のステップS136で選択されるしきい値Thsを設定する。その後、ステップS29〜S32において、既に説明した図2のステップS14〜S17の場合と同様な方法により、2値化画像に基づき歩行者の有無を判定する。 When a new binarization threshold value is set (calculated) in step S26, the image is obtained in step S28 by the method described with reference to FIG. 3 (FIG. 4) (selection of step S132 (B)), for example. A binarization threshold is set for each area. When the luminance adjustment in step S27 is performed, the binarization threshold value is set to a predetermined value, for example, the threshold value Ths selected in step S136 in FIG. 3 (FIG. 4). Thereafter, in steps S29 to S32, the presence or absence of a pedestrian is determined based on the binarized image by the same method as in steps S14 to S17 of FIG.
最後に、図8を参照しながら赤外線カメラで取得された画像での位置ずれ補正について説明する。図8は、2値化後の画像において位置ずれ補正を説明するための図である。赤外線カメラでは、既に述べたように、移動体ではその輝度信号の立ち上がりが遅いので、実像よりも遅れて画像が取得される。具体的には、レーザでは実像の位置を捉えるので、図8の(a)に示すように、物体(歩行者)の静止時は、レーザで特定される領域(物標)35と対象カメラ画像36とは一致する。 Finally, with reference to FIG. 8, correction of misalignment in an image acquired by an infrared camera will be described. FIG. 8 is a diagram for explaining misalignment correction in a binarized image. As described above, in the infrared camera, since the rise of the luminance signal is slow in the moving body, the image is acquired later than the real image. Specifically, since the position of the real image is captured by the laser, as shown in FIG. 8A, when the object (pedestrian) is stationary, the region (target) 35 specified by the laser and the target camera image are displayed. 36 matches.
しかし、物体(歩行者)の移動時には、図8(b)に示すように、レーザで特定される領域(物標)37に対して対象カメラ画像39が遅れてしまう。このため、レーザで特定される領域(物標)に対応するカメラ画像上の領域を検出領域とするシステムにおいて、領域のズレにより対象物を検出できない恐れがある。そこで、レーザで特定される領域(物標)から対象物のカメラ画像上での移動速度(ベクトル)を求めて、検出領域の設定位置を実像位置から遅れた分補正した位置に設定する(ずらす)。図8の例では、検出領域をPの位置(37)からP´の位置(38)までずらした設定(補正)をおこなう。
However, when the object (pedestrian) moves, the
この補正を含む領域設定のやり方を、例えば図2、図6のフローにおける領域の設定において適用すること、すなわち設定した領域を後から速度(移動)ベクトルの大きさに応じて補正する(位置をずらす)、あるいは前回得た速度ベクトル(移動ベクトル)の大きさに基づき最初から所定の補正量だけ位置をずらして領域を設定することにより、対象物の検出(特定)精度をより向上させることが可能となる。 For example, the region setting method including the correction is applied to the region setting in the flow of FIGS. 2 and 6, that is, the set region is corrected later according to the magnitude of the velocity (movement) vector (the position is changed). Shift), or by setting the region by shifting the position by a predetermined correction amount from the beginning based on the magnitude of the velocity vector (movement vector) obtained last time, the detection (specification) accuracy of the object can be further improved. It becomes possible.
以上、本発明の実施の形態について説明したが、本発明はこのような実施形態に限定されることはなく、本発明の趣旨を逸脱しない範囲において改変して用いることができる。例えば、レーザレーダ10は、他の種類のレーダ(例えばミリ波レーダ等)であってもよく、また、赤外線カメラ12も赤外線以外の他の波長帯の光(例えば可視光)を利用するカメラ(CCDカメラ等)であってもよい。したがって、上述した説明では、赤外線カメラ12が撮影したグレースケール画像を対象としているが、これに限定されるものではない。
The embodiment of the present invention has been described above, but the present invention is not limited to such an embodiment, and can be modified and used without departing from the spirit of the present invention. For example, the
10 レーザレーダ、
12 赤外線カメラ、
14 画像処理ユニット、
16 スピーカ、
18 表示装置、
20 レーザスキャン範囲
21 移動体、
23 グレースケール画像
10 Laser radar,
12 Infrared camera,
14 image processing unit,
16 speakers,
18 display device,
20
23 Grayscale image
Claims (6)
車両に搭載され、該車両の周辺の画像を取得する撮像手段と、
前記撮像手段により取得されたグレースケール画像を多値化する多値化手段と、
物体位置検出手段が特定した物体の位置に対応する前記取得されたグレースケール画像に、当該物体の位置の各々に対応する所定サイズの領域を設定する領域設定手段と、
前記領域毎に、対応する物体の速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定する多値化しきい値設定手段と、
前記多値化手段により対応する前記多値化しきい値を用いて多値化された画像に基づいて、所定の対象物の有無を判定する判定手段と、
を備える、車両の周辺監視装置。 Object detection means mounted on a vehicle for detecting the position and velocity vector of an object around the vehicle;
An imaging means mounted on a vehicle for acquiring an image around the vehicle;
Multi-value quantization means for multi-value gray scale image acquired by the imaging means;
Area setting means for setting an area of a predetermined size corresponding to each position of the object in the acquired grayscale image corresponding to the position of the object specified by the object position detection means;
Multi-value threshold setting means for setting a threshold when multi-value the corresponding grayscale image according to the size of the velocity vector of the corresponding object for each region;
Determination means for determining the presence or absence of a predetermined object based on an image multi-valued using the multi-value quantization threshold corresponding to the multi-value conversion means;
A vehicle periphery monitoring device comprising:
前記撮像手段により取得されたグレースケール画像を多値化する多値化手段と、
前記取得されたグレースケール画像を複数の領域に区分して、前記車両の速度に応じて、当該領域毎の速度ベクトルを算出する手段と、
前記領域毎の速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定する多値化しきい値設定手段と、
前記多値化手段により対応する前記多値化しきい値を用いて多値化された画像に基づいて、所定の対象物の有無を判定する判定手段と、
を備える、車両の周辺監視装置。 An imaging means mounted on a vehicle for acquiring an image around the vehicle;
Multi-value quantization means for multi-value gray scale image acquired by the imaging means;
Means for dividing the acquired grayscale image into a plurality of areas and calculating a speed vector for each of the areas according to the speed of the vehicle;
Multi-value threshold setting means for setting a threshold value when multi-value the corresponding grayscale image according to the size of the velocity vector for each region;
Determination means for determining the presence or absence of a predetermined object based on an image multi-valued using the multi-value quantization threshold corresponding to the multi-value conversion means;
A vehicle periphery monitoring device comprising:
前記多値化しきい値設定手段は、前記変化量に基づき前記速度ベクトルを調整する、請求項1〜3にいずれかに記載の周辺監視装置。 Means for estimating the amount of change in the acquired image caused by the behavior of the vehicle within a predetermined time;
The periphery monitoring device according to claim 1, wherein the multi-value threshold setting unit adjusts the velocity vector based on the change amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010087672A JP5172887B2 (en) | 2010-04-06 | 2010-04-06 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010087672A JP5172887B2 (en) | 2010-04-06 | 2010-04-06 | Vehicle periphery monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011221630A true JP2011221630A (en) | 2011-11-04 |
JP5172887B2 JP5172887B2 (en) | 2013-03-27 |
Family
ID=45038576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010087672A Expired - Fee Related JP5172887B2 (en) | 2010-04-06 | 2010-04-06 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5172887B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014033957A1 (en) * | 2012-09-03 | 2014-03-06 | トヨタ自動車株式会社 | Collision determination device and collision determination method |
WO2015151457A1 (en) * | 2014-03-31 | 2015-10-08 | 株式会社デンソー | Information display system |
JP2020201674A (en) * | 2019-06-07 | 2020-12-17 | キヤノン株式会社 | Video analyzer and control method therefor and program |
CN113870616A (en) * | 2020-06-30 | 2021-12-31 | 丰田自动车株式会社 | Determination device, determination method, and recording medium having program recorded thereon |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0575987A (en) * | 1991-09-17 | 1993-03-26 | Matsushita Electric Ind Co Ltd | Method for detecting action area of dynamic image signal and high efficiency coder |
JPH0686264A (en) * | 1992-08-31 | 1994-03-25 | Hitachi Ltd | Variable speed picture encoding system |
JPH06223188A (en) * | 1993-01-22 | 1994-08-12 | Matsushita Electric Ind Co Ltd | Method for determining binarization threshold value of moving body detection |
JPH09233478A (en) * | 1996-02-21 | 1997-09-05 | Matsushita Electric Ind Co Ltd | Image encoder |
JP2000341675A (en) * | 1999-05-28 | 2000-12-08 | Secom Co Ltd | Composite monitoring device |
JP2002098509A (en) * | 2000-09-22 | 2002-04-05 | Mazda Motor Corp | Vehicle detecting device |
JP2005189109A (en) * | 2003-12-25 | 2005-07-14 | Victor Co Of Japan Ltd | Three-dimensional image processing system |
JP2007241898A (en) * | 2006-03-10 | 2007-09-20 | Honda Motor Co Ltd | Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device |
JP2008135856A (en) * | 2006-11-27 | 2008-06-12 | Toyota Motor Corp | Body recognizing device |
-
2010
- 2010-04-06 JP JP2010087672A patent/JP5172887B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0575987A (en) * | 1991-09-17 | 1993-03-26 | Matsushita Electric Ind Co Ltd | Method for detecting action area of dynamic image signal and high efficiency coder |
JPH0686264A (en) * | 1992-08-31 | 1994-03-25 | Hitachi Ltd | Variable speed picture encoding system |
JPH06223188A (en) * | 1993-01-22 | 1994-08-12 | Matsushita Electric Ind Co Ltd | Method for determining binarization threshold value of moving body detection |
JPH09233478A (en) * | 1996-02-21 | 1997-09-05 | Matsushita Electric Ind Co Ltd | Image encoder |
JP2000341675A (en) * | 1999-05-28 | 2000-12-08 | Secom Co Ltd | Composite monitoring device |
JP2002098509A (en) * | 2000-09-22 | 2002-04-05 | Mazda Motor Corp | Vehicle detecting device |
JP2005189109A (en) * | 2003-12-25 | 2005-07-14 | Victor Co Of Japan Ltd | Three-dimensional image processing system |
JP2007241898A (en) * | 2006-03-10 | 2007-09-20 | Honda Motor Co Ltd | Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device |
JP2008135856A (en) * | 2006-11-27 | 2008-06-12 | Toyota Motor Corp | Body recognizing device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014033957A1 (en) * | 2012-09-03 | 2014-03-06 | トヨタ自動車株式会社 | Collision determination device and collision determination method |
JP5862785B2 (en) * | 2012-09-03 | 2016-02-16 | トヨタ自動車株式会社 | Collision determination device and collision determination method |
WO2015151457A1 (en) * | 2014-03-31 | 2015-10-08 | 株式会社デンソー | Information display system |
US10040353B2 (en) | 2014-03-31 | 2018-08-07 | Denso Corporation | Information display system |
JP2020201674A (en) * | 2019-06-07 | 2020-12-17 | キヤノン株式会社 | Video analyzer and control method therefor and program |
CN113870616A (en) * | 2020-06-30 | 2021-12-31 | 丰田自动车株式会社 | Determination device, determination method, and recording medium having program recorded thereon |
Also Published As
Publication number | Publication date |
---|---|
JP5172887B2 (en) | 2013-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4203512B2 (en) | Vehicle periphery monitoring device | |
JP4173901B2 (en) | Vehicle periphery monitoring device | |
JP5577398B2 (en) | Vehicle periphery monitoring device | |
JP4359710B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP4482599B2 (en) | Vehicle periphery monitoring device | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP5809751B2 (en) | Object recognition device | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
JP5416026B2 (en) | Vehicle periphery monitoring device | |
JP5760090B2 (en) | Biological recognition device | |
JP2010198166A (en) | Periphery monitoring device for vehicle | |
JP5172887B2 (en) | Vehicle periphery monitoring device | |
JP5259647B2 (en) | Vehicle periphery monitoring device | |
JP2010026601A (en) | Vehicle periphery monitoring device | |
JP2008077154A (en) | Vehicle periphery supervision unit | |
JP5484118B2 (en) | Vehicle periphery monitoring device | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP5642785B2 (en) | Vehicle periphery monitoring device | |
JP6405765B2 (en) | Imaging apparatus and determination method | |
JP2008040724A (en) | Image processing device and image processing method | |
JP2008236029A (en) | Vehicle-surroundings monitoring system, method and program | |
JP6405141B2 (en) | Imaging apparatus and determination method | |
JP5455772B2 (en) | Vehicle periphery monitoring device | |
JP5149918B2 (en) | Vehicle periphery monitoring device | |
KR101440293B1 (en) | Apparatus and method for detecting crosswalk |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120605 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120802 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121226 |
|
LAPS | Cancellation because of no payment of annual fees |