JP2007234019A - Vehicle image area specifying device and method for it - Google Patents
Vehicle image area specifying device and method for it Download PDFInfo
- Publication number
- JP2007234019A JP2007234019A JP2007043720A JP2007043720A JP2007234019A JP 2007234019 A JP2007234019 A JP 2007234019A JP 2007043720 A JP2007043720 A JP 2007043720A JP 2007043720 A JP2007043720 A JP 2007043720A JP 2007234019 A JP2007234019 A JP 2007234019A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- area
- specifying
- gradient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両画像を含む画像領域を特定する車両画像領域特定装置およびその方法にかかわり、特に、輝度勾配に基づいて車下陰を検出し、該車下陰に基づいて車両画像を含む画像領域を特定する車両画像領域特定装置およびその方法に関する。 The present invention relates to a vehicle image region specifying device and method for specifying an image region including a vehicle image, and in particular, an image including a vehicle image based on the vehicle shadow based on the detection of a vehicle shadow based on a luminance gradient. The present invention relates to a vehicle image area specifying apparatus and method for specifying an area.
高度道路交通システム(Intelligent Transport System, ITS)の各分野において、マシンビジョンによって車両画像を識別する場合、まず、撮影画像より車両が存在する領域の画像を切り取る必要がある。通常、識別しようとする車両の特徴又は特徴の相似性に基づいて、撮影画像より車両が存在可能な領域を特定し、該領域より画像を切り出す。かかる車両が存在可能な画像領域を関心領域ROI(関心領域:Region of Interest)と略称する。図1は車両画像CIMを含む関心領域ROIの例であり、CSHは車の下陰(車下陰)である。 In the field of Intelligent Transport System (ITS), when a vehicle image is identified by machine vision, it is first necessary to cut out an image of a region where the vehicle exists from the captured image. Usually, based on the characteristics of the vehicle to be identified or the similarity of the characteristics, an area where the vehicle can exist is identified from the captured image, and the image is cut out from the area. An image region in which such a vehicle can exist is abbreviated as a region of interest ROI (Region of Interest). FIG. 1 shows an example of a region of interest ROI including a vehicle image CIM.
陽光又は他の光源による照射で車下に陰が存在することは、形状の異なる車両の共通の特徴であるので、車下陰は、マシンビジョンによる車両画像抽出(Vehicle Candidate Generation)技術において車両画像を取り出す際に根拠とする主な特徴である。従来技術は、以下のような車下陰特徴による車両画領域特定方法を開示している。車下陰による第1の車両画像領域特定方法は、車下陰領域の輝度が路面より暗い特徴に基づいて、画像から車両画像領域を特定する。この方法は、図2に示すように、ステップS1において、撮像機で撮像した路面状況の画像(前方風景)を入力し、ステップS2において、ステップS1で入力した路面状況の画像について路面の輝度平均値を算出して、この平均値を基準値と設定し、ステップS3において、画像中の各画素の輝度値を前記基準値と比較して、輝度値が基準値より低いすべての領域を、可能な車下陰領域、即ち車下陰の候補領域として特定し、次に、自車と候補領域との距離、この候補領域の大きさ及び角度の条件によって、前記候補領域を振るい分け、最後に、ステップS4において、ステップS3で振るい分けた後の結果、即ち車両画像を含む画像領域ROIを出力する。 The presence of shadows under the vehicle due to irradiation with sunlight or other light sources is a common feature of vehicles with different shapes, so the vehicle shadow is a vehicle image in vehicle image generation (Machine Vision) technology. This is the main feature that is used as the basis for taking out. The prior art discloses a vehicle image area specifying method based on the vehicle shadow feature as described below. The first vehicle image region specifying method based on the underside of the vehicle specifies the vehicle image region from the image based on the feature that the luminance of the underside of the vehicle is darker than the road surface. As shown in FIG. 2, in this method, in step S1, an image of the road surface condition (frontal landscape) captured by the imaging device is input, and in step S2, the road surface luminance average is calculated for the road surface condition image input in step S1. The value is calculated and this average value is set as a reference value. In step S3, the brightness value of each pixel in the image is compared with the reference value, and all areas whose brightness values are lower than the reference value are possible. The candidate area is identified as a candidate shadow area, that is, the candidate area of the vehicle shadow, and then the candidate area is divided according to the distance between the vehicle and the candidate area, the size and angle of the candidate area, and finally In step S4, the result after the allocation in step S3, that is, the image region ROI including the vehicle image is output.
しかし、図3及び図4に示すように、車両自体が他の立体物体(例えば図示した建物BL)の投射陰内にある時、投射陰も路面より暗いので、この時に、前記方法に従って路面の平均輝度値を判断基準として車両画像の領域特定を行うと、建物BLの投射陰も車下陰とするという間違い判断になる。図3に示すように、撮像機で撮像した画像領域CMAは車両領域より非常に大きいので、この車両領域をROIとして正確に特定することができない。また、図4に示すように、画像領域ROI1,ROI2を特定すれば、該画像領域ROI1,ROI2に全体の車両画像を含まないため車両識別ができなくなる。
陰の形成原理によって、車下陰の領域が輝度重ね合せにより常にその周囲の領域よりも暗いことが分かる。即ち、投射陰の中、又は異なる照光でも、車下陰の領域は、常にその周囲の領域よりも輝度が暗いという特徴を有する。前記の平均輝度値によって車下陰の領域を特定する従来の方法は、車下陰のこの特徴を考慮しなかったので、車両が他の物体の投射陰にあるか、又は不均一な照光にある場合、車両領域を正確に特定さできない問題があった。
However, as shown in FIGS. 3 and 4, when the vehicle itself is within the projection shade of another three-dimensional object (for example, the building BL shown in the figure), the projection shade is also darker than the road surface. If the area of the vehicle image is specified using the average luminance value as a criterion for judgment, it becomes an erroneous judgment that the projection shade of the building BL is also the shade under the vehicle. As shown in FIG. 3, the image area CMA captured by the imaging device is much larger than the vehicle area, and therefore this vehicle area cannot be accurately specified as the ROI. In addition, as shown in FIG. 4, if the image areas ROI1 and ROI2 are specified, the entire vehicle image is not included in the image areas ROI1 and ROI2, so that the vehicle cannot be identified.
By the shade formation principle, it can be seen that the shadow area under the vehicle is always darker than the surrounding area due to the luminance superposition. That is, the area under the vehicle shadow is always darker than the surrounding area even in the shadow of the projection or in different illumination. The conventional method of identifying the area under the vehicle shade according to the average brightness value does not consider this feature of the vehicle shade, so that the vehicle is in the shadow of another object or uneven illumination. In some cases, there was a problem that the vehicle area could not be specified accurately.
車下陰の領域が常にその周囲の領域よりも暗い特徴を有することを考慮し、且つ、車両が他の物体の投射陰にある時に車両領域を正確に特定できない問題を解決するための従来技術がある(特許文献1参照)。この従来技術の車両画像領域特定技術を図5に示す。まず、ステップS21において、撮像機で撮像した路面状況の画像(図6参照)を入力する。ステップS22において、自車の走行車線の車線識別線(白線)31を検出する。ステップS23において、検出した車線識別線によって、自車の走行車線32の路面における輝度値分布を算出して、輝度値分布から輝度値分布関数Dを得る。輝度値分布とは、図6に示すように、走行車線の最低位置をY=0として、走行車線の前方をY軸とするとき、任意のY座標値における走行車線32上の路面輝度の平均値であり、影を含まない場合である。換言すれば、同じY座標を有する走行車線32上の画素の輝度値の平均値を求めることにより、Y座標毎の走行車線32の輝度分布を求める。走行車線32に影や先行車両等が含まれない場合には、前方画像内上方(道路遠方、Y座標値が大きい)ほど明るい輝度値を示すことが知られており、輝度値はY座標値に略比例する。このため、例えば前方画像の最下点(Y=0)から所定値(Y=Y0)までの輝度値分布のみを求め、最小二乗法等の手法により、Y座標に対する輝度分布線形近似式(輝度値分布関数)を得ることで輝度値分布を得ることができる。輝度値分布関数Dは、D=αY+β で表現され、Y座標値が0〜Y0の領域の輝度値分布より、α,βを同定する。
Prior art for solving the problem that the vehicle area cannot be accurately identified in consideration of the fact that the shadow area under the vehicle always has a darker characteristic than the surrounding area, and when the vehicle is in the shadow of another object (See Patent Document 1). This prior art vehicle image area specifying technique is shown in FIG. First, in step S21, an image of the road surface condition (see FIG. 6) captured by the imaging device is input. In step S22, a lane identification line (white line) 31 of the traveling lane of the host vehicle is detected. In step S23, a luminance value distribution on the road surface of the
ステップS24において、自車の走行車線内のすべての画素の輝度値と、前記輝度値分布関数から得られた設定値とを比較して、輝度値がこの設定値よりも低いすべての領域を、車下陰の候補領域として設定する。ステップS25において、他の物体の投射陰にある車両の車下陰が他の物体の投射陰よりも暗い特徴に基づいて、車下陰の候補領域内の輝度値分布によってこの候補領域内のより暗い領域を検出し、これら領域を車下陰の領域として特定し、最後に、ステップS26において、ステップS25で特定された車下陰の領域に基づいて車両画像を含む所定の画像領域ROIを出力する。
しかし、前記従来技術の方法では、まず自車の走行車線の車線識別線(白線)31を検出し、この車線識別線に基づいて走行車線の路面における輝度値分布を求めなければならない。このため、路面に車線識別線がないか、又は撮像した画像において車線識別線が撮像されない場合には、輝度値分布を求めるための走行車線路面を確定できなくなり、さらに、後のステップを行うことができなくなり、車両画像を含む画像領域ROIの特定処理を完成することができない。
また、図7に示すように、自然条件で、路面の輝度は、照光、他の建物の投影及び路面色の変化により影響され、路面の輝度分布は複雑でかつ不規則である。前記従来技術方法では、自車の走行車線内の路面における輝度値分布を算出するので、この輝度値分布は、二車線、三車線などの多車線の路面の複雑でかつ不規則な輝度分布状態を代表できず、多車線の場合に用いることができない。
また従来技術の方法は、路面の輝度値分布を計算する領域は、画像の最低部(Y=0)からその上部までの領域(Y=0〜Y0)であるので、画像の最低部に暗い領域がある場合(図8参照)、路面の輝度値分布によって得られた輝度値分布関数Dより算出した閾値が小さすぎる可能性がある。このため、閾値より小さい輝度の画素を車下陰の候補領域の画素として設定する場合に、必然的に車両画像を含む画像領域ROIを正確に特定できなくなる。
以上より本発明は、車両が他の物体の投射陰にあっても、不均一な照光があっても、又は車線がないなどの場合にも、画像に含まれるすべての車両を含むように画像領域ROIを正確に特定できる車両画像領域特定装置およびその方法を提供することを目的とする。
また、本発明は多車道の路面状況にも普及して使用できる車両画像領域特定装置およびその方法を提供することを目的とする。
However, in the conventional method, first, the lane identification line (white line) 31 of the traveling lane of the own vehicle must be detected, and the luminance value distribution on the road surface of the traveling lane must be obtained based on the lane identification line. For this reason, when there is no lane identification line on the road surface, or when the lane identification line is not imaged in the captured image, the traveling lane surface for obtaining the luminance value distribution cannot be determined, and further steps are performed. This makes it impossible to complete the processing for specifying the image area ROI including the vehicle image.
Also, as shown in FIG. 7, under natural conditions, the road surface brightness is affected by illumination, projections of other buildings, and changes in road surface color, and the road surface brightness distribution is complex and irregular. In the prior art method, since the luminance value distribution on the road surface in the traveling lane of the own vehicle is calculated, this luminance value distribution is a complicated and irregular luminance distribution state of a multi-lane road surface such as a two-lane or three-lane road. Cannot be represented and cannot be used in the case of multiple lanes.
In the prior art method, the region for calculating the luminance value distribution on the road surface is the region from the lowest part (Y = 0) to the upper part (Y = 0 to Y 0 ) of the image. When there is a dark region (see FIG. 8), the threshold value calculated from the luminance value distribution function D obtained from the luminance value distribution on the road surface may be too small. For this reason, when a pixel having a luminance smaller than the threshold value is set as a pixel in the shadow area under the vehicle, the image area ROI including the vehicle image cannot be accurately specified.
As described above, the present invention includes an image including all vehicles included in the image even when the vehicle is in the shadow of another object, even when there is uneven illumination, or when there is no lane. It is an object of the present invention to provide a vehicle image area specifying device and method for accurately specifying an area ROI.
It is another object of the present invention to provide a vehicle image area specifying apparatus and method that can be widely used even on road surfaces on multiple roads.
・車両画像領域特定方法
本発明の第1の態様は、車両画像を含む画像領域を特定する車両画像領域特定方法であり、道路上の車両の走行状況を撮像した画像を入力する画像入力ステップと、前記画像入力ステップで入力した画像に対して勾配分布を算出する勾配分布検出ステップと、前記画像の勾配情報に基づいて車下陰の候補領域を特定する車下陰の候補領域特定ステップと、前記車下陰の候補領域に基づいて車両画像を含む画像領域ROIを特定するステップを有している。
本発明の車両画像領域特定方法は、前記車下陰の候補領域特定ステップにおいて、車下陰の領域がその周りの領域より暗い特徴を有することに基づいて、前記車下陰の候補領域を特定することを特徴とする。
本発明の車両画像領域特定方法は、前記車下陰の候補領域特定ステップにおいて、画像の勾配分布検出ステップで検出した前記画像の勾配分布情報に基づいて、前記画像から垂直方向の差分値が負値であるすべての画素点を抽出するステップを含むことを特徴とする。
本発明の車両画像領域特定方法の前記車下陰の候補領域特定ステップは、前記抽出された画素点が以下のような二つの条件、即ち(a):着目画素点の勾配値が、勾配方向で該着目点に隣接する二つの画素点の勾配値よりも大きいこと、(b):前記(a)に記載の隣接する二つの点は、垂直方向に隣接する画素点であることを満たすかを判断し、この二つの条件を満たす画素点を車下陰の候補領域のエッジ点として特定するステップを含むことを特徴とする。
-Vehicle image area specifying method A first aspect of the present invention is a vehicle image area specifying method for specifying an image area including a vehicle image, and an image input step for inputting an image obtained by imaging a running situation of a vehicle on a road; A gradient distribution detection step for calculating a gradient distribution for the image input in the image input step, and a vehicle under-shadow candidate region specifying step for specifying a vehicle under-shadow candidate region based on the gradient information of the image, A step of identifying an image region ROI including a vehicle image based on the candidate area under the vehicle shadow.
In the vehicle image area specifying method of the present invention, the candidate area for the vehicle shadow is specified based on the fact that the area under the vehicle shadow is darker than the surrounding area in the candidate area specification for the vehicle shadow. It is characterized by doing.
According to the vehicle image region specifying method of the present invention, the difference value in the vertical direction from the image is negative based on the gradient distribution information of the image detected in the gradient distribution detecting step of the image in the candidate region specifying step under the vehicle shadow. The method includes a step of extracting all pixel points that are values.
The vehicle shadow region candidate region specifying step of the vehicle image region specifying method of the present invention includes the following two conditions for the extracted pixel point: (a): the gradient value of the pixel point of interest is the gradient direction (B): Does the two adjacent points described in (a) satisfy that they are pixel points adjacent in the vertical direction? And determining a pixel point satisfying these two conditions as an edge point of a candidate area under the vehicle.
・車両画像領域特定装置
本発明の第2の態様は、車両画像を含む画像領域を特定する車両画像領域特定装置であり、道路上の車両の走行状況を撮像した画像を入力する画像入力手段と、前記画像入力手段で入力した画像に対して勾配分布を算出する勾配分布検出手段と、前記画像の勾配情報に基づいて車下陰の候補領域を特定する車下陰の候補領域特定手段と、前記車下陰の候補領域に基づいて車両画像を含む画像領域ROIを特定する手段を有している。
また、本発明の車両画像領域特定装置は上記の車両画像領域特定方法の各ステップを実現して車両画像を含む画像領域ROIを特定する。
-Vehicle image area specifying device A second aspect of the present invention is a vehicle image area specifying device for specifying an image area including a vehicle image, and an image input means for inputting an image obtained by imaging a running situation of a vehicle on a road. A gradient distribution detection means for calculating a gradient distribution for the image input by the image input means; a vehicle shadow candidate area specifying means for specifying a vehicle shadow area based on the gradient information of the image; Means for specifying an image area ROI including a vehicle image based on the candidate area under the vehicle shadow.
Further, the vehicle image area specifying device of the present invention realizes each step of the above-described vehicle image area specifying method and specifies the image area ROI including the vehicle image.
本発明によれば、車両が他の物体の投射陰にあっても、不均一な照光がなされても、又は車線がない場合にも、車両画像を含む領域を正確に特定できる。
また、本発明によれば、多車線の路面状況にも普及して使用することができる。
According to the present invention, it is possible to accurately specify a region including a vehicle image even when the vehicle is in the shadow of another object, unevenly illuminated, or when there is no lane.
Moreover, according to this invention, it can be spread and used also for the road surface condition of a multilane.
図9は本発明の1実施形態である車両画像領域特定装置の構造図である。図9に示すように、本実施形態の車両画像領域特定装置は、テレビジョンカメラ、監視撮像機などの画像入力手段11と、勾配分布検出手段12と、車下陰の候補領域特定手段13と、車両画像を含む画像領域特定手段(ROI特定手段)14を有している。勾配分布検出手段12と、車下陰の候補領域特定手段13と、画像領域特定手段(ROI特定手段)14は画像処理部を構成する。図示しないが画像処理部には液晶などの表示部が接続されて画像入力手段11から入力された画像や所定の画像が表示されるようになっている。
FIG. 9 is a structural diagram of a vehicle image area specifying device according to an embodiment of the present invention. As shown in FIG. 9, the vehicle image area specifying device of the present embodiment includes an image input means 11 such as a television camera and a surveillance image pickup device, a gradient distribution detecting means 12, and a candidate area specifying means 13 under the vehicle. The image area specifying means (ROI specifying means) 14 including the vehicle image is included. The gradient
以下、図10と図11の処理フローを参照して、本実施形態の車両画像領域特定装置の画像領域特定処理方法を説明する。
車両に搭載された画像入力手段11は、テレビジョンカメラ、監視撮像機などの撮像装置で撮像した画像(道路前方の車両走行状況を示す画像)を勾配分布検出手段12に入力する(ステップS11)。
勾配分布検出手段12は、前記画像入力手段11で入力した画像の全画素位置(x,y)における輝度の勾配分布を(1)式を用いて算出する(ステップS12)。図12は画像IMGのX-Y座標系(スクリーン座標系)を示すもので、左下隅を原点としている。
Hereinafter, the image region specifying processing method of the vehicle image region specifying device of the present embodiment will be described with reference to the processing flows of FIGS. 10 and 11.
The image input means 11 mounted on the vehicle inputs an image (an image showing a vehicle traveling situation ahead of the road) captured by an imaging device such as a television camera or a surveillance imaging device to the gradient distribution detection means 12 (step S11). .
The gradient
(1)式において、f(x,y)は位置(x,y)の画素P(x,y)の輝度を示す輝度関数であり、輝度勾配G(x,y)は輝度関数f(x,y)の各軸方向の一次微分係数で示され、方向及び振幅(大きさ)を有するベクトルである。
輝度勾配の方向は、画素位置(x,y)における最大の変化率の方向であり、(2)式で示される。
勾配の振幅(大きさ)は、画素位置(x,y)における勾配の各軸方向の変化強度であり、次式で示される。
In equation (1), f (x, y) is a luminance function indicating the luminance of the pixel P (x, y) at the position (x, y), and the luminance gradient G (x, y) is the luminance function f (x , Y) is a vector having a direction and an amplitude (magnitude) indicated by a first-order differential coefficient in each axial direction.
The direction of the luminance gradient is the direction of the maximum rate of change at the pixel position (x, y), and is expressed by equation (2).
The amplitude (magnitude) of the gradient is a change intensity in each axial direction of the gradient at the pixel position (x, y), and is represented by the following equation.
実際は(1)式の計算を簡単に行うために、差分値Gx,Gyを(4)式により近似計算する。
ステップS12において、(4)式により画像の所定画素の水平方向及び垂直方向での輝度の差分を算出した後、(2)〜(3)式を用いて画素の勾配を算出する。そして全画素について上記計算を行って画像全体の勾配分布を算出する。
Actually, in order to easily calculate the equation (1), the difference values Gx and Gy are approximated by the equation (4).
In step S12, after calculating the luminance difference in the horizontal direction and the vertical direction of the predetermined pixel of the image by the equation (4), the gradient of the pixel is calculated by using the equations (2) to (3). Then, the above calculation is performed for all pixels to calculate the gradient distribution of the entire image.
ステップ12の計算によって取得した勾配分布は、画像の全画素における輝度の相対変化情報を含んでいる。即ち、画像が複数の車線の画像を含むか否かに関わらず、又は画像に複数の異なる照光での路面状況を含むか否かに関わらず、又は該画像が路傍の建物の投影及び路面の各種の色を含むか否かに関わらず、該勾配分布は、いずれも現在の画像におけるすべての車両の車下陰の情報を含む。
勾配分布検出手段12は、画像の勾配分布を検出した後、その結果を車下陰の候補領域特定手段13へ入力する。
The gradient distribution obtained by the calculation in
After detecting the gradient distribution of the image, the gradient distribution detection means 12 inputs the result to the candidate area specifying means 13 under the vehicle shadow.
車下陰の候補領域特定手段13は、勾配分布検出手段12から入力された勾配情報に基づいて、画像から車下陰の候補領域を抽出する(ステップS13)。車下陰の候補領域の抽出は、車下陰領域の画像の輝度がその周囲の領域の輝度よりも低い特徴を利用する。具体的には、暗い車下陰領域のエッジ画素における垂直方向(Y方向)の差分値Gyは負値であることを利用する。したがって、車下陰の候補領域特定手段13は、この特徴に基づいて、図11に示すステップS131において、垂直方向の勾配値Gyが負値であるすべての画素点をマークする。
The vehicle shadow candidate
ついで、ステップS132において、車下陰の候補領域特定手段13は、マークされた画素点が以下の二つの所定条件(a),(b)を満たすか否かを判定し、満たす全ての画素点を車下陰のエッジ候補点として特定する。この二つの条件は、
(a):現在の画素点の勾配値が、勾配方向上でこの点に隣接する二つの画素点の勾配値より大きいこと、
(b):前記(a)に記載の隣接する二つの点は、垂直方向に隣接する画素点であること、
である。車両の陰を認識するために、前述のように“車両下の陰が周辺の領域よりも暗い”という特徴を利用する。具体的にいうと、画素勾配が垂直方向でマイナスになり、かつ、勾配の局部変化最大の点を、車下陰を構成する可能性がある点としてマークし、該マーク点が集中する領域を、車下陰の可能性がある領域とする。図で説明すると、図13(A)中の[i,j]は着目点、a0〜a7は該
着目点周辺の8個の画素である。(B)は着目点と8個の画素点a0〜a7で構成される勾配の方向を示す。本発明では90度と270度の2つの方向(垂直方向)の2つの隣接点a1,a5を勾配方向上に着目点[i,j]に隣接する点として設定する。そして、2つの点a1,a5と着目点のそれぞれ
の勾配の大きさを比較し、着目点の勾配が最大のとき該着目点を、車下陰を構成する可能性がある点としてマークする。上記の条件(a),(b)は着目点があらかじめ設定されている方向(垂直方向)での局部勾配が最大の点であれば車下陰を構成する可能性がある点であると定義するものである。
その後、ステップS133において、車下陰の候補領域特定手段13は、ステップS132で特定された車下陰のエッジ点の座標をROI特定手段14へ出力する。
Next, in step S132, the vehicle shadow candidate
(a): the gradient value of the current pixel point is greater than the gradient values of two pixel points adjacent to this point in the gradient direction;
(b): The two adjacent points described in (a) are pixel points adjacent in the vertical direction;
It is. In order to recognize the shade of the vehicle, the feature that “the shade under the vehicle is darker than the surrounding area” is used as described above. Specifically, the point where the pixel gradient is negative in the vertical direction and the gradient has the maximum local change is marked as a point that may constitute a shade under the vehicle, and the area where the mark points are concentrated , And the area where there is a possibility of shade under the car. With reference to FIG, [i, j] of FIG. 13 (A) in the point interest, a 0 ~a 7 is eight pixels surrounding remarked points. (B) shows the direction of the gradient formed by the point of interest and the eight pixel points a 0 to a 7 . In the present invention, two adjacent points a 1 and a 5 in two directions (vertical direction) of 90 degrees and 270 degrees are set as points adjacent to the point of interest [i, j] in the gradient direction. Then, the magnitudes of the gradients of the two points a 1 and a 5 and the point of interest are compared, and when the gradient of the point of interest is the maximum, the point of interest is marked as a point that may constitute a shadow of the vehicle To do. The above conditions (a) and (b) are defined as points that may constitute the shadow of the vehicle if the point of interest is the point where the local gradient in the preset direction (vertical direction) is the maximum. To do.
Thereafter, in step S133, the candidate area specifying means 13 under the vehicle shadow outputs the coordinates of the edge point under the vehicle shadow specified in step S132 to the
ステップS14において、ROI特定手段14は、自車と前記車下陰の候補領域との距離、大きさ及び角度に基づいて、車両画像を含む画像領域ROIを特定し、この特定された画像領域ROIを出力する。即ち、前記処理によって得られた車下陰の各候補領域について、候補領域(車下陰)の幅と車両の幅と高さ比(アスペクト比)とから高さを計算し、該幅、高さを有する画像領域ROIを特定する。なお、画像領域ROIの幅は候補領域の幅Wより広めにし、たとえば、1.2×Wとし、画像領域ROIに車両画像が確実に含まれるようにする。
しかるのち、撮像機で検定する方法によって、すべての候補ROIのワールド座標系における深さ及び幅を計算し、該深さ及び幅に基づいて車下陰の判定をする。すなわち、幅が大きすぎるか、又は小さすぎるROIを排除し、ノイズの干渉による誤特定を排除して、最終的に正確なROIを取得して出力する。
すなわち、車下陰の候補領域が見つかったあと、カメラキャリブレーション(Calibration)の方法を利用し、該候補領域のワールド座標系における深さ(奥行き)と幅を計算する。もし、その候補領域のワールド座標系における深さ(奥行き)と幅の両方が認識対象車両の要求を満足できれば、該候補領域は車下陰であるとみなすことができる。たとえば、図14において、車下陰により生成される画像領域ROI1と道端の建物の投射影により生成される画像領域ROI2のカメラ座標系(スクリーン座標系)におけるサイズは同じである。しかし、カメラキャリブレーション(Calibration)の計算により、画像領域ROI1がワールド座標系において幅が2メートルであり、画像領域ROI2がワールド座標系において幅が8メートルであると計算されれば、明らかに、画像領域ROI1は車下陰であり、また画像領域ROI2は正常な車両幅を超えており車下陰でないと判定できる。また、ワールド座標系において幅が正常な車両幅より相当小さい候補領域はノイズと判定して認識対象から除外する。また、認識対象車両までの距離が50m以内としているときに、候補領域のワールド座標系における深さ(奥行き)が50mを超えている場合には該候補領域を認識対象から除外する。
最後に、ステップS15において、得られたROIを出力する。
In step S14, the
After that, the depth and width in the world coordinate system of all candidate ROIs are calculated by a method of verification with an imager, and the shade of the vehicle is determined based on the depth and width. That is, an ROI having a width that is too large or too small is excluded, misidentification due to noise interference is eliminated, and an accurate ROI is finally obtained and output.
That is, after a candidate area under the vehicle shadow is found, a camera calibration method is used to calculate the depth (depth) and width of the candidate area in the world coordinate system. If both the depth (depth) and the width of the candidate area in the world coordinate system satisfy the requirements of the recognition target vehicle, the candidate area can be regarded as being behind the vehicle. For example, in FIG. 14, the size in the camera coordinate system (screen coordinate system) of the image region ROI1 generated by the shadow under the vehicle and the image region ROI2 generated by the projection shadow of the roadside building is the same. However, if the calculation of the camera calibration (Calibration) calculates that the image area ROI1 is 2 meters wide in the world coordinate system and the image area ROI2 is 8 meters wide in the world coordinate system, obviously, The image area ROI1 is behind the vehicle, and the image area ROI2 exceeds the normal vehicle width and can be determined not to be under the vehicle. In addition, a candidate area whose width is considerably smaller than a normal vehicle width in the world coordinate system is determined as noise and excluded from recognition targets. Further, when the distance to the recognition target vehicle is within 50 m and the depth (depth) of the candidate area in the world coordinate system exceeds 50 m, the candidate area is excluded from the recognition target.
Finally, in step S15, the obtained ROI is output.
以上、本発明の1つの実施形態について説明したが、前記実施形態に対して各種の変形を行ってもよい。例えば、勾配分布検出手段12は、画像の各画素の輝度に対して、(4)式で一次差分を求めずに勾配分布を近似算出してもよい。Sobel演算子、prewitt演算子、canny演算子などの水平エッジ演算子を用いて、画像中の画素の輝度を処理してGx、Gy値を得た後に、(1)〜(3)式でその勾配値を算出する。このように、sobel演算子、prewitt演算子のノイズを抑制する機能によって、エッジを抽出する精度を向上させることができる。
以上本発明によれば、車下陰領域の画像の輝度が常にその周囲の領域の輝度よりも低い特徴を利用して、検出した画像の勾配分布情報に基づいて車下陰の候補領域を特定したので、従来技術に比べて、車下陰領域をより正確に特定して車両を含む画像領域RIOを出力することができる。
かつ、本発明の実施形態において、検出した画像の勾配分布情報に基づいて車下陰の候補領域を特定したので、車線数により制限されることなく、多車線の場合にも適用できる。また、本発明によれば、車両前方の画像を含む路面状況画像から車両画像を含むROIを特定するだけでなく、車両後方の画像を含む路面状況画像から車両画像を含むROIを特定することもできる。
Although one embodiment of the present invention has been described above, various modifications may be made to the embodiment. For example, the gradient
As described above, according to the present invention, the candidate area of the vehicle shadow is specified based on the gradient distribution information of the detected image using the feature that the brightness of the image of the vehicle shadow area is always lower than the brightness of the surrounding area. Therefore, it is possible to output the image area RIO including the vehicle by specifying the vehicle shadow area more accurately than in the prior art.
Moreover, in the embodiment of the present invention, the candidate area under the vehicle shadow is specified based on the detected gradient distribution information of the image. Therefore, the present invention is not limited by the number of lanes and can be applied to the case of multiple lanes. Further, according to the present invention, not only the ROI including the vehicle image from the road surface situation image including the image ahead of the vehicle but also the ROI including the vehicle image from the road surface image including the image behind the vehicle can be specified. it can.
11 画像入力手段
12 勾配分布検出手段
13 車下陰の候補領域特定手段
14 車両画像を含む画像領域特定手段(ROI特定手段)
DESCRIPTION OF
Claims (12)
道路上の車両の走行状況を撮像した画像を入力する画像入力ステップと、
前記画像入力ステップで入力した画像に対して輝度の勾配分布を算出する勾配分布検出ステップと、
前記画像の勾配情報に基づいて車下陰の候補領域を特定する車下陰の候補領域特定ステップと、
前記車下陰の候補領域に基づいて車両画像を含む画像領域ROIを特定するステップ、
を含むことを特徴とする車両画像領域特定方法。 In a vehicle image region specifying method for specifying an image region including a vehicle image,
An image input step for inputting an image obtained by imaging the running state of the vehicle on the road;
A gradient distribution detection step of calculating a gradient distribution of luminance for the image input in the image input step;
A vehicle shadow area candidate step for identifying a vehicle shadow area based on the gradient information of the image;
Identifying an image area ROI including a vehicle image based on the candidate area under the vehicle shadow;
A vehicle image region specifying method comprising:
ことを特徴とする請求項1記載の車両画像領域特定方法。 In the vehicle shadow area candidate region specifying step, based on the fact that the vehicle shadow area has a darker characteristic than the surrounding area, the vehicle shadow area is specified.
The vehicle image area specifying method according to claim 1.
ことを特徴とする請求項1記載の車両画像領域特定方法。 In the vehicle shadow area candidate region specifying step, all pixel points whose difference values in the vertical direction are negative values are extracted from the image based on the gradient distribution information of the image detected in the gradient distribution detection step of the image. Including steps,
The vehicle image area specifying method according to claim 1.
(a):着目画素点の勾配値が、勾配方向で該着目点に隣接する二つの画素点の勾配値よりも大きいこと、
(b):前記(a)に記載の隣接する二つの点は、垂直方向に隣接する画素点であること、
を満たすかを判断し、この二つの条件を満たす着目画素点を車下陰の候補領域のエッジ点として特定するステップを含む、
ことを特徴とする請求項3記載の車両画像領域特定方法。 The candidate area specifying step of the vehicle shadow is the following two conditions for the extracted pixel point of interest:
(a): the gradient value of the pixel point of interest is larger than the gradient values of two pixel points adjacent to the point of interest in the gradient direction;
(b): the two adjacent points described in (a) are pixel points adjacent in the vertical direction;
Including determining a target pixel point that satisfies these two conditions as an edge point of a candidate area under the vehicle,
The vehicle image area specifying method according to claim 3.
ことを特徴とする請求項1記載の車両画像領域特定方法。 In the gradient distribution detection step, a luminance difference in the horizontal and vertical directions of each pixel in the image is calculated, and a gradient of each pixel is calculated based on the difference value.
The vehicle image area specifying method according to claim 1.
ことを特徴とする請求項1記載の車両画像領域特定方法。 The image input in the image input step is an image obtained by capturing a multilane road, and includes an image behind the vehicle or an image ahead of the vehicle.
The vehicle image area specifying method according to claim 1.
道路上の車両の走行状況を撮像した画像を入力する画像入力手段と、
前記画像入力手段で入力した画像に対して輝度の勾配分布を算出する勾配分布検出手段と、
前記画像の勾配情報に基づいて車下陰の候補領域を特定する車下陰の候補領域特定手段と、
前記車下陰の候補領域に基づいて車両画像を含む画像領域ROIを特定する画像領域特定手段、
を含むことを特徴とする車両画像領域特定装置。 In a vehicle image area specifying device for specifying an image area including a vehicle image,
Image input means for inputting an image obtained by imaging the driving situation of the vehicle on the road;
Gradient distribution detecting means for calculating a gradient distribution of luminance for the image input by the image input means;
A vehicle shadow area candidate means for specifying a vehicle shadow area based on the gradient information of the image;
Image area specifying means for specifying an image area ROI including a vehicle image based on the candidate area under the vehicle;
A vehicle image area specifying device comprising:
ことを特徴とする請求項7記載の車両画像領域特定装置。 The vehicle under-shadow candidate area specifying means specifies the under-vehicle shadow candidate area based on the fact that the under-vehicle shadow area has a darker characteristic than the surrounding area.
The vehicle image area specifying device according to claim 7.
ことを特徴とする請求項7記載の車両画像領域特定装置。 The vehicle shadow area candidate region specifying unit extracts all pixel points having a negative difference value in the vertical direction from the image based on the gradient distribution information of the image detected by the gradient distribution detection unit of the image. ,
The vehicle image area specifying device according to claim 7.
(a):着目画素点の勾配値が、勾配方向でこの着目点に隣接する二つの画素点の勾配値よりも大きいこと、
(b):前記(a)に記載の隣接する二つの点は、垂直方向に隣接する画素点であること、
を満たすかを判断し、この二つの条件を満たす画素点を車下陰の候補領域のエッジ点として特定する、
ことを特徴とする請求項9記載の車両画像領域特定装置。 The candidate area specifying means for the shade under the vehicle has the following two conditions for the extracted pixel point of interest:
(a): the gradient value of the pixel point of interest is greater than the gradient values of two pixel points adjacent to the point of interest in the gradient direction;
(b): The two adjacent points described in (a) are pixel points adjacent in the vertical direction;
The pixel points that satisfy these two conditions are identified as the edge points of the candidate area under the vehicle,
The vehicle image area specifying device according to claim 9.
ことを特徴とする請求項7記載の車両画像領域特定装置。 The gradient distribution detecting means calculates a luminance difference in the horizontal and vertical directions of each pixel in the image, and calculates a gradient of each pixel based on the difference value.
The vehicle image area specifying device according to claim 7.
ことを特徴とする請求項7記載の車両画像領域特定装置。 The image input by the image input means is an image of a multi-lane road, and includes an image behind the vehicle or an image ahead of the vehicle.
The vehicle image area specifying device according to claim 7.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200610009379A CN101030256B (en) | 2006-02-28 | 2006-02-28 | Method and apparatus for cutting vehicle image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007234019A true JP2007234019A (en) | 2007-09-13 |
Family
ID=38554493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007043720A Pending JP2007234019A (en) | 2006-02-28 | 2007-02-23 | Vehicle image area specifying device and method for it |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2007234019A (en) |
CN (1) | CN101030256B (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008130087A (en) * | 2006-11-17 | 2008-06-05 | Alpine Electronics Inc | Target area division method and target area division device |
CN103577828A (en) * | 2013-11-22 | 2014-02-12 | 中国科学院自动化研究所 | Road detection method based on edge feature |
KR101748497B1 (en) * | 2015-11-11 | 2017-06-19 | 한동대학교 산학협력단 | Method for detecting right lane area and left lane area of rear of vehicle using sound data and vehicle system using the same |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101211408B (en) | 2006-12-29 | 2011-05-25 | 东软集团股份有限公司 | Vehicle side image recognition method and apparatus, car lamp error identification detection and driving safety prediction method |
CN101414355B (en) * | 2007-10-19 | 2013-03-13 | 东软集团股份有限公司 | Method and apparatus for dividing vehicle interesting region from image |
CN101458814B (en) * | 2007-12-13 | 2012-02-01 | 东软集团股份有限公司 | Method and apparatus for separating objects interesting region from image |
CN101470806B (en) * | 2007-12-27 | 2012-06-27 | 东软集团股份有限公司 | Vehicle lamp detection method and apparatus, interested region splitting method and apparatus |
CN101408978B (en) * | 2008-11-27 | 2010-12-01 | 东软集团股份有限公司 | Method and apparatus for detecting barrier based on monocular vision |
RU2431196C1 (en) * | 2010-03-31 | 2011-10-10 | Закрытое Акционерное Общество "Импульс" | Method of determining brightness level in area of interest on digital medical x-ray picture |
JP5597049B2 (en) * | 2010-07-07 | 2014-10-01 | オリンパス株式会社 | Image processing apparatus, image processing method, and image processing program |
CN103049738B (en) * | 2012-12-07 | 2016-01-20 | 北京中邮致鼎科技有限公司 | Many Method of Vehicle Segmentations that in video, shade connects |
CN103065145A (en) * | 2012-12-07 | 2013-04-24 | 北京中邮致鼎科技有限公司 | Vehicle movement shadow eliminating method |
CN103077517B (en) * | 2012-12-31 | 2015-04-15 | 华中科技大学 | Method for partitioning space target under non-uniform lighting condition |
CN103345745B (en) * | 2013-06-21 | 2016-08-10 | 宁波成电泰克电子信息技术发展有限公司 | A kind of quick secondary image dividing method of alkaline battery tail end defects detection |
JP6307873B2 (en) * | 2013-12-24 | 2018-04-11 | 富士通株式会社 | Object line detection apparatus, method, and program |
KR102371587B1 (en) * | 2015-05-22 | 2022-03-07 | 현대자동차주식회사 | Apparatus and method for providing guidance information using crosswalk recognition result |
JP2017117315A (en) * | 2015-12-25 | 2017-06-29 | 株式会社デンソー | Display control device |
JP6776213B2 (en) * | 2017-11-01 | 2020-10-28 | 株式会社東芝 | Orbit identification device |
CN109727363B (en) * | 2018-11-16 | 2022-03-29 | 恒银金融科技股份有限公司 | Method for recognizing capital money in bill |
CN110599510A (en) * | 2019-08-02 | 2019-12-20 | 中山市奥珀金属制品有限公司 | Picture feature extraction method |
JP7310527B2 (en) * | 2019-10-14 | 2023-07-19 | 株式会社デンソー | Obstacle identification device and obstacle identification program |
CN110852252B (en) * | 2019-11-07 | 2022-12-02 | 厦门市美亚柏科信息股份有限公司 | Vehicle weight-removing method and device based on minimum distance and maximum length-width ratio |
CN113436164B (en) * | 2021-06-23 | 2024-03-15 | 三一专用汽车有限责任公司 | Method and device for detecting road conditions at bottom of vehicle and vehicle |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08147447A (en) * | 1994-11-18 | 1996-06-07 | Nissan Motor Co Ltd | Vehicle recognition device |
JP2003077099A (en) * | 2001-08-31 | 2003-03-14 | Nissan Motor Co Ltd | Preceding vehicle recognition system |
-
2006
- 2006-02-28 CN CN200610009379A patent/CN101030256B/en not_active Expired - Fee Related
-
2007
- 2007-02-23 JP JP2007043720A patent/JP2007234019A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08147447A (en) * | 1994-11-18 | 1996-06-07 | Nissan Motor Co Ltd | Vehicle recognition device |
JP2003077099A (en) * | 2001-08-31 | 2003-03-14 | Nissan Motor Co Ltd | Preceding vehicle recognition system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008130087A (en) * | 2006-11-17 | 2008-06-05 | Alpine Electronics Inc | Target area division method and target area division device |
CN103577828A (en) * | 2013-11-22 | 2014-02-12 | 中国科学院自动化研究所 | Road detection method based on edge feature |
CN103577828B (en) * | 2013-11-22 | 2018-02-13 | 极限元(北京)智能科技股份有限公司 | A kind of Approach for road detection based on edge feature |
KR101748497B1 (en) * | 2015-11-11 | 2017-06-19 | 한동대학교 산학협력단 | Method for detecting right lane area and left lane area of rear of vehicle using sound data and vehicle system using the same |
Also Published As
Publication number | Publication date |
---|---|
CN101030256A (en) | 2007-09-05 |
CN101030256B (en) | 2010-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007234019A (en) | Vehicle image area specifying device and method for it | |
US11854272B2 (en) | Hazard detection from a camera in a scene with moving shadows | |
US9591274B2 (en) | Three-dimensional object detection device, and three-dimensional object detection method | |
EP2919197B1 (en) | Object detection device and object detection method | |
JP4930046B2 (en) | Road surface discrimination method and road surface discrimination device | |
JP3822515B2 (en) | Obstacle detection device and method | |
EP2927060B1 (en) | On-vehicle image processing device | |
JP6126094B2 (en) | In-vehicle image recognition device | |
RU2636120C2 (en) | Three-dimensional object detecting device | |
KR101364727B1 (en) | Method and apparatus for detecting fog using the processing of pictured image | |
US20070211919A1 (en) | Vehicle surroundings monitoring apparatus | |
JP5827508B2 (en) | Obstacle detection device for vehicle and vehicle using the same | |
JP2007235950A (en) | Method and device for detecting vehicle position | |
CN105303157B (en) | Extend the algorithm of the detection range for the detection of AVM stop line | |
JP2006338556A (en) | Vehicle and road surface marking recognition device | |
JP5874831B2 (en) | Three-dimensional object detection device | |
JP7230507B2 (en) | Deposit detection device | |
CN108021849B (en) | Pedestrian early warning method and device | |
WO2011039977A1 (en) | Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device | |
JP2005217883A (en) | Method for detecting flat road area and obstacle by using stereo image | |
JP4936045B2 (en) | Vehicle color discrimination device, method and program | |
JP2010136207A (en) | System for detecting and displaying pedestrian | |
JP5276032B2 (en) | Device for calculating the position of an object | |
CN105291982B (en) | Stopping thread detector rapidly and reliably | |
JP2008230358A (en) | Display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110711 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110809 |