JP2007234019A - Vehicle image area specifying device and method for it - Google Patents

Vehicle image area specifying device and method for it Download PDF

Info

Publication number
JP2007234019A
JP2007234019A JP2007043720A JP2007043720A JP2007234019A JP 2007234019 A JP2007234019 A JP 2007234019A JP 2007043720 A JP2007043720 A JP 2007043720A JP 2007043720 A JP2007043720 A JP 2007043720A JP 2007234019 A JP2007234019 A JP 2007234019A
Authority
JP
Japan
Prior art keywords
vehicle
image
area
specifying
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007043720A
Other languages
Japanese (ja)
Inventor
Bo Zuoo
ボ ズォー
Ponyu Fu
ポンユ フ
Fuyon Ri
フヨン リ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Publication of JP2007234019A publication Critical patent/JP2007234019A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle image area specifying device and a method for it specifying an image area to include a vehicle included in an image even if the vehicle is behind a projection shadow of another object, if uneven illumination light is radiated, or if there is no lane. <P>SOLUTION: This vehicle image area specifying device based on a vehicle shadow is provided with an image input means inputting an image photographing a traveling condition of the vehicle on a road, a grade distribution detection means calculating a grade distribution on the image inputted by the image input means, a vehicle shadow candidate area specification means specifying a candidate area for the vehicle shadow based on grade information of the image, and an image area specification means specifying an image area ROI including the vehicle image based on the vehicle shadow candidate area. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車両画像を含む画像領域を特定する車両画像領域特定装置およびその方法にかかわり、特に、輝度勾配に基づいて車下陰を検出し、該車下陰に基づいて車両画像を含む画像領域を特定する車両画像領域特定装置およびその方法に関する。   The present invention relates to a vehicle image region specifying device and method for specifying an image region including a vehicle image, and in particular, an image including a vehicle image based on the vehicle shadow based on the detection of a vehicle shadow based on a luminance gradient. The present invention relates to a vehicle image area specifying apparatus and method for specifying an area.

高度道路交通システム(Intelligent Transport System, ITS)の各分野において、マシンビジョンによって車両画像を識別する場合、まず、撮影画像より車両が存在する領域の画像を切り取る必要がある。通常、識別しようとする車両の特徴又は特徴の相似性に基づいて、撮影画像より車両が存在可能な領域を特定し、該領域より画像を切り出す。かかる車両が存在可能な画像領域を関心領域ROI(関心領域:Region of Interest)と略称する。図1は車両画像CIMを含む関心領域ROIの例であり、CSHは車の下陰(車下陰)である。   In the field of Intelligent Transport System (ITS), when a vehicle image is identified by machine vision, it is first necessary to cut out an image of a region where the vehicle exists from the captured image. Usually, based on the characteristics of the vehicle to be identified or the similarity of the characteristics, an area where the vehicle can exist is identified from the captured image, and the image is cut out from the area. An image region in which such a vehicle can exist is abbreviated as a region of interest ROI (Region of Interest). FIG. 1 shows an example of a region of interest ROI including a vehicle image CIM.

陽光又は他の光源による照射で車下に陰が存在することは、形状の異なる車両の共通の特徴であるので、車下陰は、マシンビジョンによる車両画像抽出(Vehicle Candidate Generation)技術において車両画像を取り出す際に根拠とする主な特徴である。従来技術は、以下のような車下陰特徴による車両画領域特定方法を開示している。車下陰による第1の車両画像領域特定方法は、車下陰領域の輝度が路面より暗い特徴に基づいて、画像から車両画像領域を特定する。この方法は、図2に示すように、ステップS1において、撮像機で撮像した路面状況の画像(前方風景)を入力し、ステップS2において、ステップS1で入力した路面状況の画像について路面の輝度平均値を算出して、この平均値を基準値と設定し、ステップS3において、画像中の各画素の輝度値を前記基準値と比較して、輝度値が基準値より低いすべての領域を、可能な車下陰領域、即ち車下陰の候補領域として特定し、次に、自車と候補領域との距離、この候補領域の大きさ及び角度の条件によって、前記候補領域を振るい分け、最後に、ステップS4において、ステップS3で振るい分けた後の結果、即ち車両画像を含む画像領域ROIを出力する。   The presence of shadows under the vehicle due to irradiation with sunlight or other light sources is a common feature of vehicles with different shapes, so the vehicle shadow is a vehicle image in vehicle image generation (Machine Vision) technology. This is the main feature that is used as the basis for taking out. The prior art discloses a vehicle image area specifying method based on the vehicle shadow feature as described below. The first vehicle image region specifying method based on the underside of the vehicle specifies the vehicle image region from the image based on the feature that the luminance of the underside of the vehicle is darker than the road surface. As shown in FIG. 2, in this method, in step S1, an image of the road surface condition (frontal landscape) captured by the imaging device is input, and in step S2, the road surface luminance average is calculated for the road surface condition image input in step S1. The value is calculated and this average value is set as a reference value. In step S3, the brightness value of each pixel in the image is compared with the reference value, and all areas whose brightness values are lower than the reference value are possible. The candidate area is identified as a candidate shadow area, that is, the candidate area of the vehicle shadow, and then the candidate area is divided according to the distance between the vehicle and the candidate area, the size and angle of the candidate area, and finally In step S4, the result after the allocation in step S3, that is, the image region ROI including the vehicle image is output.

しかし、図3及び図4に示すように、車両自体が他の立体物体(例えば図示した建物BL)の投射陰内にある時、投射陰も路面より暗いので、この時に、前記方法に従って路面の平均輝度値を判断基準として車両画像の領域特定を行うと、建物BLの投射陰も車下陰とするという間違い判断になる。図3に示すように、撮像機で撮像した画像領域CMAは車両領域より非常に大きいので、この車両領域をROIとして正確に特定することができない。また、図4に示すように、画像領域ROI1,ROI2を特定すれば、該画像領域ROI1,ROI2に全体の車両画像を含まないため車両識別ができなくなる。
陰の形成原理によって、車下陰の領域が輝度重ね合せにより常にその周囲の領域よりも暗いことが分かる。即ち、投射陰の中、又は異なる照光でも、車下陰の領域は、常にその周囲の領域よりも輝度が暗いという特徴を有する。前記の平均輝度値によって車下陰の領域を特定する従来の方法は、車下陰のこの特徴を考慮しなかったので、車両が他の物体の投射陰にあるか、又は不均一な照光にある場合、車両領域を正確に特定さできない問題があった。
However, as shown in FIGS. 3 and 4, when the vehicle itself is within the projection shade of another three-dimensional object (for example, the building BL shown in the figure), the projection shade is also darker than the road surface. If the area of the vehicle image is specified using the average luminance value as a criterion for judgment, it becomes an erroneous judgment that the projection shade of the building BL is also the shade under the vehicle. As shown in FIG. 3, the image area CMA captured by the imaging device is much larger than the vehicle area, and therefore this vehicle area cannot be accurately specified as the ROI. In addition, as shown in FIG. 4, if the image areas ROI1 and ROI2 are specified, the entire vehicle image is not included in the image areas ROI1 and ROI2, so that the vehicle cannot be identified.
By the shade formation principle, it can be seen that the shadow area under the vehicle is always darker than the surrounding area due to the luminance superposition. That is, the area under the vehicle shadow is always darker than the surrounding area even in the shadow of the projection or in different illumination. The conventional method of identifying the area under the vehicle shade according to the average brightness value does not consider this feature of the vehicle shade, so that the vehicle is in the shadow of another object or uneven illumination. In some cases, there was a problem that the vehicle area could not be specified accurately.

車下陰の領域が常にその周囲の領域よりも暗い特徴を有することを考慮し、且つ、車両が他の物体の投射陰にある時に車両領域を正確に特定できない問題を解決するための従来技術がある(特許文献1参照)。この従来技術の車両画像領域特定技術を図5に示す。まず、ステップS21において、撮像機で撮像した路面状況の画像(図6参照)を入力する。ステップS22において、自車の走行車線の車線識別線(白線)31を検出する。ステップS23において、検出した車線識別線によって、自車の走行車線32の路面における輝度値分布を算出して、輝度値分布から輝度値分布関数Dを得る。輝度値分布とは、図6に示すように、走行車線の最低位置をY=0として、走行車線の前方をY軸とするとき、任意のY座標値における走行車線32上の路面輝度の平均値であり、影を含まない場合である。換言すれば、同じY座標を有する走行車線32上の画素の輝度値の平均値を求めることにより、Y座標毎の走行車線32の輝度分布を求める。走行車線32に影や先行車両等が含まれない場合には、前方画像内上方(道路遠方、Y座標値が大きい)ほど明るい輝度値を示すことが知られており、輝度値はY座標値に略比例する。このため、例えば前方画像の最下点(Y=0)から所定値(Y=Y0)までの輝度値分布のみを求め、最小二乗法等の手法により、Y座標に対する輝度分布線形近似式(輝度値分布関数)を得ることで輝度値分布を得ることができる。輝度値分布関数Dは、D=αY+β で表現され、Y座標値が0〜Y0の領域の輝度値分布より、α,βを同定する。 Prior art for solving the problem that the vehicle area cannot be accurately identified in consideration of the fact that the shadow area under the vehicle always has a darker characteristic than the surrounding area, and when the vehicle is in the shadow of another object (See Patent Document 1). This prior art vehicle image area specifying technique is shown in FIG. First, in step S21, an image of the road surface condition (see FIG. 6) captured by the imaging device is input. In step S22, a lane identification line (white line) 31 of the traveling lane of the host vehicle is detected. In step S23, a luminance value distribution on the road surface of the traveling lane 32 of the host vehicle is calculated from the detected lane identification line, and a luminance value distribution function D is obtained from the luminance value distribution. As shown in FIG. 6, the luminance value distribution is the average of the road surface luminance on the traveling lane 32 at an arbitrary Y coordinate value when the lowest position of the traveling lane is Y = 0 and the front of the traveling lane is the Y axis. This is a value and does not include a shadow. In other words, the luminance distribution of the traveling lane 32 for each Y coordinate is obtained by obtaining the average value of the luminance values of the pixels on the traveling lane 32 having the same Y coordinate. When the driving lane 32 does not include shadows or preceding vehicles, it is known that the upper brightness in the front image (distant from the road, Y coordinate value is larger) indicates a brighter luminance value, and the luminance value is the Y coordinate value. Is approximately proportional to For this reason, for example, only the luminance value distribution from the lowest point (Y = 0) to the predetermined value (Y = Y 0 ) of the front image is obtained, and the luminance distribution linear approximation formula (Y The luminance value distribution can be obtained by obtaining the luminance value distribution function. The luminance value distribution function D is expressed by D = αY + β, and α and β are identified from the luminance value distribution in the region where the Y coordinate value is 0 to Y0.

ステップS24において、自車の走行車線内のすべての画素の輝度値と、前記輝度値分布関数から得られた設定値とを比較して、輝度値がこの設定値よりも低いすべての領域を、車下陰の候補領域として設定する。ステップS25において、他の物体の投射陰にある車両の車下陰が他の物体の投射陰よりも暗い特徴に基づいて、車下陰の候補領域内の輝度値分布によってこの候補領域内のより暗い領域を検出し、これら領域を車下陰の領域として特定し、最後に、ステップS26において、ステップS25で特定された車下陰の領域に基づいて車両画像を含む所定の画像領域ROIを出力する。
特開2003−76987号公報
In step S24, the luminance values of all the pixels in the traveling lane of the host vehicle are compared with the setting values obtained from the luminance value distribution function, and all areas where the luminance values are lower than the setting values are determined. Set as a candidate area under the vehicle shadow. In step S25, based on the feature that the vehicle shade behind the other object's projection shade is darker than the projection shadow of the other object, the brightness value distribution in the candidate shade of the vehicle shade causes the Detect dark areas, identify these areas as shadow areas under the vehicle, and finally, in step S26, output a predetermined image area ROI including a vehicle image based on the shadow area under the vehicle identified in step S25. To do.
JP 2003-76987 A

しかし、前記従来技術の方法では、まず自車の走行車線の車線識別線(白線)31を検出し、この車線識別線に基づいて走行車線の路面における輝度値分布を求めなければならない。このため、路面に車線識別線がないか、又は撮像した画像において車線識別線が撮像されない場合には、輝度値分布を求めるための走行車線路面を確定できなくなり、さらに、後のステップを行うことができなくなり、車両画像を含む画像領域ROIの特定処理を完成することができない。
また、図7に示すように、自然条件で、路面の輝度は、照光、他の建物の投影及び路面色の変化により影響され、路面の輝度分布は複雑でかつ不規則である。前記従来技術方法では、自車の走行車線内の路面における輝度値分布を算出するので、この輝度値分布は、二車線、三車線などの多車線の路面の複雑でかつ不規則な輝度分布状態を代表できず、多車線の場合に用いることができない。
また従来技術の方法は、路面の輝度値分布を計算する領域は、画像の最低部(Y=0)からその上部までの領域(Y=0〜Y0)であるので、画像の最低部に暗い領域がある場合(図8参照)、路面の輝度値分布によって得られた輝度値分布関数Dより算出した閾値が小さすぎる可能性がある。このため、閾値より小さい輝度の画素を車下陰の候補領域の画素として設定する場合に、必然的に車両画像を含む画像領域ROIを正確に特定できなくなる。
以上より本発明は、車両が他の物体の投射陰にあっても、不均一な照光があっても、又は車線がないなどの場合にも、画像に含まれるすべての車両を含むように画像領域ROIを正確に特定できる車両画像領域特定装置およびその方法を提供することを目的とする。
また、本発明は多車道の路面状況にも普及して使用できる車両画像領域特定装置およびその方法を提供することを目的とする。
However, in the conventional method, first, the lane identification line (white line) 31 of the traveling lane of the own vehicle must be detected, and the luminance value distribution on the road surface of the traveling lane must be obtained based on the lane identification line. For this reason, when there is no lane identification line on the road surface, or when the lane identification line is not imaged in the captured image, the traveling lane surface for obtaining the luminance value distribution cannot be determined, and further steps are performed. This makes it impossible to complete the processing for specifying the image area ROI including the vehicle image.
Also, as shown in FIG. 7, under natural conditions, the road surface brightness is affected by illumination, projections of other buildings, and changes in road surface color, and the road surface brightness distribution is complex and irregular. In the prior art method, since the luminance value distribution on the road surface in the traveling lane of the own vehicle is calculated, this luminance value distribution is a complicated and irregular luminance distribution state of a multi-lane road surface such as a two-lane or three-lane road. Cannot be represented and cannot be used in the case of multiple lanes.
In the prior art method, the region for calculating the luminance value distribution on the road surface is the region from the lowest part (Y = 0) to the upper part (Y = 0 to Y 0 ) of the image. When there is a dark region (see FIG. 8), the threshold value calculated from the luminance value distribution function D obtained from the luminance value distribution on the road surface may be too small. For this reason, when a pixel having a luminance smaller than the threshold value is set as a pixel in the shadow area under the vehicle, the image area ROI including the vehicle image cannot be accurately specified.
As described above, the present invention includes an image including all vehicles included in the image even when the vehicle is in the shadow of another object, even when there is uneven illumination, or when there is no lane. It is an object of the present invention to provide a vehicle image area specifying device and method for accurately specifying an area ROI.
It is another object of the present invention to provide a vehicle image area specifying apparatus and method that can be widely used even on road surfaces on multiple roads.

・車両画像領域特定方法
本発明の第1の態様は、車両画像を含む画像領域を特定する車両画像領域特定方法であり、道路上の車両の走行状況を撮像した画像を入力する画像入力ステップと、前記画像入力ステップで入力した画像に対して勾配分布を算出する勾配分布検出ステップと、前記画像の勾配情報に基づいて車下陰の候補領域を特定する車下陰の候補領域特定ステップと、前記車下陰の候補領域に基づいて車両画像を含む画像領域ROIを特定するステップを有している。
本発明の車両画像領域特定方法は、前記車下陰の候補領域特定ステップにおいて、車下陰の領域がその周りの領域より暗い特徴を有することに基づいて、前記車下陰の候補領域を特定することを特徴とする。
本発明の車両画像領域特定方法は、前記車下陰の候補領域特定ステップにおいて、画像の勾配分布検出ステップで検出した前記画像の勾配分布情報に基づいて、前記画像から垂直方向の差分値が負値であるすべての画素点を抽出するステップを含むことを特徴とする。
本発明の車両画像領域特定方法の前記車下陰の候補領域特定ステップは、前記抽出された画素点が以下のような二つの条件、即ち(a):着目画素点の勾配値が、勾配方向で該着目点に隣接する二つの画素点の勾配値よりも大きいこと、(b):前記(a)に記載の隣接する二つの点は、垂直方向に隣接する画素点であることを満たすかを判断し、この二つの条件を満たす画素点を車下陰の候補領域のエッジ点として特定するステップを含むことを特徴とする。
-Vehicle image area specifying method A first aspect of the present invention is a vehicle image area specifying method for specifying an image area including a vehicle image, and an image input step for inputting an image obtained by imaging a running situation of a vehicle on a road; A gradient distribution detection step for calculating a gradient distribution for the image input in the image input step, and a vehicle under-shadow candidate region specifying step for specifying a vehicle under-shadow candidate region based on the gradient information of the image, A step of identifying an image region ROI including a vehicle image based on the candidate area under the vehicle shadow.
In the vehicle image area specifying method of the present invention, the candidate area for the vehicle shadow is specified based on the fact that the area under the vehicle shadow is darker than the surrounding area in the candidate area specification for the vehicle shadow. It is characterized by doing.
According to the vehicle image region specifying method of the present invention, the difference value in the vertical direction from the image is negative based on the gradient distribution information of the image detected in the gradient distribution detecting step of the image in the candidate region specifying step under the vehicle shadow. The method includes a step of extracting all pixel points that are values.
The vehicle shadow region candidate region specifying step of the vehicle image region specifying method of the present invention includes the following two conditions for the extracted pixel point: (a): the gradient value of the pixel point of interest is the gradient direction (B): Does the two adjacent points described in (a) satisfy that they are pixel points adjacent in the vertical direction? And determining a pixel point satisfying these two conditions as an edge point of a candidate area under the vehicle.

・車両画像領域特定装置
本発明の第2の態様は、車両画像を含む画像領域を特定する車両画像領域特定装置であり、道路上の車両の走行状況を撮像した画像を入力する画像入力手段と、前記画像入力手段で入力した画像に対して勾配分布を算出する勾配分布検出手段と、前記画像の勾配情報に基づいて車下陰の候補領域を特定する車下陰の候補領域特定手段と、前記車下陰の候補領域に基づいて車両画像を含む画像領域ROIを特定する手段を有している。
また、本発明の車両画像領域特定装置は上記の車両画像領域特定方法の各ステップを実現して車両画像を含む画像領域ROIを特定する。
-Vehicle image area specifying device A second aspect of the present invention is a vehicle image area specifying device for specifying an image area including a vehicle image, and an image input means for inputting an image obtained by imaging a running situation of a vehicle on a road. A gradient distribution detection means for calculating a gradient distribution for the image input by the image input means; a vehicle shadow candidate area specifying means for specifying a vehicle shadow area based on the gradient information of the image; Means for specifying an image area ROI including a vehicle image based on the candidate area under the vehicle shadow.
Further, the vehicle image area specifying device of the present invention realizes each step of the above-described vehicle image area specifying method and specifies the image area ROI including the vehicle image.

本発明によれば、車両が他の物体の投射陰にあっても、不均一な照光がなされても、又は車線がない場合にも、車両画像を含む領域を正確に特定できる。
また、本発明によれば、多車線の路面状況にも普及して使用することができる。
According to the present invention, it is possible to accurately specify a region including a vehicle image even when the vehicle is in the shadow of another object, unevenly illuminated, or when there is no lane.
Moreover, according to this invention, it can be spread and used also for the road surface condition of a multilane.

図9は本発明の1実施形態である車両画像領域特定装置の構造図である。図9に示すように、本実施形態の車両画像領域特定装置は、テレビジョンカメラ、監視撮像機などの画像入力手段11と、勾配分布検出手段12と、車下陰の候補領域特定手段13と、車両画像を含む画像領域特定手段(ROI特定手段)14を有している。勾配分布検出手段12と、車下陰の候補領域特定手段13と、画像領域特定手段(ROI特定手段)14は画像処理部を構成する。図示しないが画像処理部には液晶などの表示部が接続されて画像入力手段11から入力された画像や所定の画像が表示されるようになっている。   FIG. 9 is a structural diagram of a vehicle image area specifying device according to an embodiment of the present invention. As shown in FIG. 9, the vehicle image area specifying device of the present embodiment includes an image input means 11 such as a television camera and a surveillance image pickup device, a gradient distribution detecting means 12, and a candidate area specifying means 13 under the vehicle. The image area specifying means (ROI specifying means) 14 including the vehicle image is included. The gradient distribution detecting means 12, the vehicle shadow area candidate specifying means 13, and the image area specifying means (ROI specifying means) 14 constitute an image processing unit. Although not shown, a display unit such as a liquid crystal is connected to the image processing unit so that an image input from the image input unit 11 or a predetermined image is displayed.

以下、図10と図11の処理フローを参照して、本実施形態の車両画像領域特定装置の画像領域特定処理方法を説明する。
車両に搭載された画像入力手段11は、テレビジョンカメラ、監視撮像機などの撮像装置で撮像した画像(道路前方の車両走行状況を示す画像)を勾配分布検出手段12に入力する(ステップS11)。
勾配分布検出手段12は、前記画像入力手段11で入力した画像の全画素位置(x,y)における輝度の勾配分布を(1)式を用いて算出する(ステップS12)。図12は画像IMGのX-Y座標系(スクリーン座標系)を示すもので、左下隅を原点としている。
Hereinafter, the image region specifying processing method of the vehicle image region specifying device of the present embodiment will be described with reference to the processing flows of FIGS. 10 and 11.
The image input means 11 mounted on the vehicle inputs an image (an image showing a vehicle traveling situation ahead of the road) captured by an imaging device such as a television camera or a surveillance imaging device to the gradient distribution detection means 12 (step S11). .
The gradient distribution detecting means 12 calculates the luminance gradient distribution at all pixel positions (x, y) of the image input by the image input means 11 using equation (1) (step S12). FIG. 12 shows the XY coordinate system (screen coordinate system) of the image IMG, with the lower left corner as the origin.

Figure 2007234019

(1)式において、f(x,y)は位置(x,y)の画素P(x,y)の輝度を示す輝度関数であり、輝度勾配G(x,y)は輝度関数f(x,y)の各軸方向の一次微分係数で示され、方向及び振幅(大きさ)を有するベクトルである。
輝度勾配の方向は、画素位置(x,y)における最大の変化率の方向であり、(2)式で示される。
Figure 2007234019

勾配の振幅(大きさ)は、画素位置(x,y)における勾配の各軸方向の変化強度であり、次式で示される。
Figure 2007234019

In equation (1), f (x, y) is a luminance function indicating the luminance of the pixel P (x, y) at the position (x, y), and the luminance gradient G (x, y) is the luminance function f (x , Y) is a vector having a direction and an amplitude (magnitude) indicated by a first-order differential coefficient in each axial direction.
The direction of the luminance gradient is the direction of the maximum rate of change at the pixel position (x, y), and is expressed by equation (2).
Figure 2007234019

The amplitude (magnitude) of the gradient is a change intensity in each axial direction of the gradient at the pixel position (x, y), and is represented by the following equation.

Figure 2007234019

実際は(1)式の計算を簡単に行うために、差分値Gx,Gyを(4)式により近似計算する。
Figure 2007234019

ステップS12において、(4)式により画像の所定画素の水平方向及び垂直方向での輝度の差分を算出した後、(2)〜(3)式を用いて画素の勾配を算出する。そして全画素について上記計算を行って画像全体の勾配分布を算出する。
Figure 2007234019

Actually, in order to easily calculate the equation (1), the difference values Gx and Gy are approximated by the equation (4).
Figure 2007234019

In step S12, after calculating the luminance difference in the horizontal direction and the vertical direction of the predetermined pixel of the image by the equation (4), the gradient of the pixel is calculated by using the equations (2) to (3). Then, the above calculation is performed for all pixels to calculate the gradient distribution of the entire image.

ステップ12の計算によって取得した勾配分布は、画像の全画素における輝度の相対変化情報を含んでいる。即ち、画像が複数の車線の画像を含むか否かに関わらず、又は画像に複数の異なる照光での路面状況を含むか否かに関わらず、又は該画像が路傍の建物の投影及び路面の各種の色を含むか否かに関わらず、該勾配分布は、いずれも現在の画像におけるすべての車両の車下陰の情報を含む。
勾配分布検出手段12は、画像の勾配分布を検出した後、その結果を車下陰の候補領域特定手段13へ入力する。
The gradient distribution obtained by the calculation in step 12 includes information on relative change in luminance at all pixels of the image. That is, regardless of whether the image includes images of multiple lanes, or whether the image includes road surface conditions with multiple different illuminations, or whether the image is a projection of roadside buildings and road surfaces. Regardless of whether or not various colors are included, the gradient distribution includes information on the shade of all vehicles in the current image.
After detecting the gradient distribution of the image, the gradient distribution detection means 12 inputs the result to the candidate area specifying means 13 under the vehicle shadow.

車下陰の候補領域特定手段13は、勾配分布検出手段12から入力された勾配情報に基づいて、画像から車下陰の候補領域を抽出する(ステップS13)。車下陰の候補領域の抽出は、車下陰領域の画像の輝度がその周囲の領域の輝度よりも低い特徴を利用する。具体的には、暗い車下陰領域のエッジ画素における垂直方向(Y方向)の差分値Gyは負値であることを利用する。したがって、車下陰の候補領域特定手段13は、この特徴に基づいて、図11に示すステップS131において、垂直方向の勾配値Gyが負値であるすべての画素点をマークする。   The vehicle shadow candidate area specifying unit 13 extracts a vehicle shadow candidate area from the image based on the gradient information input from the gradient distribution detection unit 12 (step S13). The extraction of the candidate area under the vehicle shadow uses a feature in which the luminance of the image in the vehicle shadow area is lower than the luminance of the surrounding area. Specifically, the fact that the difference value Gy in the vertical direction (Y direction) at the edge pixels in the dark shadow area under the vehicle is a negative value is used. Therefore, based on this feature, the vehicle shadow area candidate area specifying unit 13 marks all pixel points having a negative gradient value Gy in the vertical direction in step S131 shown in FIG.

ついで、ステップS132において、車下陰の候補領域特定手段13は、マークされた画素点が以下の二つの所定条件(a),(b)を満たすか否かを判定し、満たす全ての画素点を車下陰のエッジ候補点として特定する。この二つの条件は、
(a):現在の画素点の勾配値が、勾配方向上でこの点に隣接する二つの画素点の勾配値より大きいこと、
(b):前記(a)に記載の隣接する二つの点は、垂直方向に隣接する画素点であること、
である。車両の陰を認識するために、前述のように“車両下の陰が周辺の領域よりも暗い”という特徴を利用する。具体的にいうと、画素勾配が垂直方向でマイナスになり、かつ、勾配の局部変化最大の点を、車下陰を構成する可能性がある点としてマークし、該マーク点が集中する領域を、車下陰の可能性がある領域とする。図で説明すると、図13(A)中の[i,j]は着目点、a0〜a7は該
着目点周辺の8個の画素である。(B)は着目点と8個の画素点a0〜a7で構成される勾配の方向を示す。本発明では90度と270度の2つの方向(垂直方向)の2つの隣接点a1,a5を勾配方向上に着目点[i,j]に隣接する点として設定する。そして、2つの点a1,a5と着目点のそれぞれ
の勾配の大きさを比較し、着目点の勾配が最大のとき該着目点を、車下陰を構成する可能性がある点としてマークする。上記の条件(a),(b)は着目点があらかじめ設定されている方向(垂直方向)での局部勾配が最大の点であれば車下陰を構成する可能性がある点であると定義するものである。
その後、ステップS133において、車下陰の候補領域特定手段13は、ステップS132で特定された車下陰のエッジ点の座標をROI特定手段14へ出力する。
Next, in step S132, the vehicle shadow candidate area specifying unit 13 determines whether or not the marked pixel points satisfy the following two predetermined conditions (a) and (b), and all the pixel points that satisfy the conditions are satisfied. Is identified as an edge candidate point under the vehicle shadow. These two conditions are
(a): the gradient value of the current pixel point is greater than the gradient values of two pixel points adjacent to this point in the gradient direction;
(b): The two adjacent points described in (a) are pixel points adjacent in the vertical direction;
It is. In order to recognize the shade of the vehicle, the feature that “the shade under the vehicle is darker than the surrounding area” is used as described above. Specifically, the point where the pixel gradient is negative in the vertical direction and the gradient has the maximum local change is marked as a point that may constitute a shade under the vehicle, and the area where the mark points are concentrated , And the area where there is a possibility of shade under the car. With reference to FIG, [i, j] of FIG. 13 (A) in the point interest, a 0 ~a 7 is eight pixels surrounding remarked points. (B) shows the direction of the gradient formed by the point of interest and the eight pixel points a 0 to a 7 . In the present invention, two adjacent points a 1 and a 5 in two directions (vertical direction) of 90 degrees and 270 degrees are set as points adjacent to the point of interest [i, j] in the gradient direction. Then, the magnitudes of the gradients of the two points a 1 and a 5 and the point of interest are compared, and when the gradient of the point of interest is the maximum, the point of interest is marked as a point that may constitute a shadow of the vehicle To do. The above conditions (a) and (b) are defined as points that may constitute the shadow of the vehicle if the point of interest is the point where the local gradient in the preset direction (vertical direction) is the maximum. To do.
Thereafter, in step S133, the candidate area specifying means 13 under the vehicle shadow outputs the coordinates of the edge point under the vehicle shadow specified in step S132 to the ROI specifying means 14.

ステップS14において、ROI特定手段14は、自車と前記車下陰の候補領域との距離、大きさ及び角度に基づいて、車両画像を含む画像領域ROIを特定し、この特定された画像領域ROIを出力する。即ち、前記処理によって得られた車下陰の各候補領域について、候補領域(車下陰)の幅と車両の幅と高さ比(アスペクト比)とから高さを計算し、該幅、高さを有する画像領域ROIを特定する。なお、画像領域ROIの幅は候補領域の幅Wより広めにし、たとえば、1.2×Wとし、画像領域ROIに車両画像が確実に含まれるようにする。
しかるのち、撮像機で検定する方法によって、すべての候補ROIのワールド座標系における深さ及び幅を計算し、該深さ及び幅に基づいて車下陰の判定をする。すなわち、幅が大きすぎるか、又は小さすぎるROIを排除し、ノイズの干渉による誤特定を排除して、最終的に正確なROIを取得して出力する。
すなわち、車下陰の候補領域が見つかったあと、カメラキャリブレーション(Calibration)の方法を利用し、該候補領域のワールド座標系における深さ(奥行き)と幅を計算する。もし、その候補領域のワールド座標系における深さ(奥行き)と幅の両方が認識対象車両の要求を満足できれば、該候補領域は車下陰であるとみなすことができる。たとえば、図14において、車下陰により生成される画像領域ROI1と道端の建物の投射影により生成される画像領域ROI2のカメラ座標系(スクリーン座標系)におけるサイズは同じである。しかし、カメラキャリブレーション(Calibration)の計算により、画像領域ROI1がワールド座標系において幅が2メートルであり、画像領域ROI2がワールド座標系において幅が8メートルであると計算されれば、明らかに、画像領域ROI1は車下陰であり、また画像領域ROI2は正常な車両幅を超えており車下陰でないと判定できる。また、ワールド座標系において幅が正常な車両幅より相当小さい候補領域はノイズと判定して認識対象から除外する。また、認識対象車両までの距離が50m以内としているときに、候補領域のワールド座標系における深さ(奥行き)が50mを超えている場合には該候補領域を認識対象から除外する。
最後に、ステップS15において、得られたROIを出力する。
In step S14, the ROI specifying unit 14 specifies an image region ROI including a vehicle image based on the distance, size, and angle between the own vehicle and the candidate area under the vehicle, and the specified image region ROI. Is output. That is, for each candidate area under the vehicle shadow obtained by the above processing, the height is calculated from the width of the candidate area (vehicle underside) and the vehicle width and height ratio (aspect ratio), and the width, height An image region ROI having a length is specified. Note that the width of the image region ROI is wider than the width W of the candidate region, for example, 1.2 × W, so that the vehicle image is surely included in the image region ROI.
After that, the depth and width in the world coordinate system of all candidate ROIs are calculated by a method of verification with an imager, and the shade of the vehicle is determined based on the depth and width. That is, an ROI having a width that is too large or too small is excluded, misidentification due to noise interference is eliminated, and an accurate ROI is finally obtained and output.
That is, after a candidate area under the vehicle shadow is found, a camera calibration method is used to calculate the depth (depth) and width of the candidate area in the world coordinate system. If both the depth (depth) and the width of the candidate area in the world coordinate system satisfy the requirements of the recognition target vehicle, the candidate area can be regarded as being behind the vehicle. For example, in FIG. 14, the size in the camera coordinate system (screen coordinate system) of the image region ROI1 generated by the shadow under the vehicle and the image region ROI2 generated by the projection shadow of the roadside building is the same. However, if the calculation of the camera calibration (Calibration) calculates that the image area ROI1 is 2 meters wide in the world coordinate system and the image area ROI2 is 8 meters wide in the world coordinate system, obviously, The image area ROI1 is behind the vehicle, and the image area ROI2 exceeds the normal vehicle width and can be determined not to be under the vehicle. In addition, a candidate area whose width is considerably smaller than a normal vehicle width in the world coordinate system is determined as noise and excluded from recognition targets. Further, when the distance to the recognition target vehicle is within 50 m and the depth (depth) of the candidate area in the world coordinate system exceeds 50 m, the candidate area is excluded from the recognition target.
Finally, in step S15, the obtained ROI is output.

以上、本発明の1つの実施形態について説明したが、前記実施形態に対して各種の変形を行ってもよい。例えば、勾配分布検出手段12は、画像の各画素の輝度に対して、(4)式で一次差分を求めずに勾配分布を近似算出してもよい。Sobel演算子、prewitt演算子、canny演算子などの水平エッジ演算子を用いて、画像中の画素の輝度を処理してGx、Gy値を得た後に、(1)〜(3)式でその勾配値を算出する。このように、sobel演算子、prewitt演算子のノイズを抑制する機能によって、エッジを抽出する精度を向上させることができる。
以上本発明によれば、車下陰領域の画像の輝度が常にその周囲の領域の輝度よりも低い特徴を利用して、検出した画像の勾配分布情報に基づいて車下陰の候補領域を特定したので、従来技術に比べて、車下陰領域をより正確に特定して車両を含む画像領域RIOを出力することができる。
かつ、本発明の実施形態において、検出した画像の勾配分布情報に基づいて車下陰の候補領域を特定したので、車線数により制限されることなく、多車線の場合にも適用できる。また、本発明によれば、車両前方の画像を含む路面状況画像から車両画像を含むROIを特定するだけでなく、車両後方の画像を含む路面状況画像から車両画像を含むROIを特定することもできる。
Although one embodiment of the present invention has been described above, various modifications may be made to the embodiment. For example, the gradient distribution detection unit 12 may approximately calculate the gradient distribution without obtaining the primary difference with the equation (4) with respect to the luminance of each pixel of the image. Using the horizontal edge operators such as Sobel operator, prewitt operator, canny operator, etc., to obtain the Gx and Gy values by processing the luminance of the pixels in the image, the equation (1) to (3) Calculate the slope value. Thus, the accuracy of extracting the edge can be improved by the function of suppressing the noise of the sobel operator and the prewitt operator.
As described above, according to the present invention, the candidate area of the vehicle shadow is specified based on the gradient distribution information of the detected image using the feature that the brightness of the image of the vehicle shadow area is always lower than the brightness of the surrounding area. Therefore, it is possible to output the image area RIO including the vehicle by specifying the vehicle shadow area more accurately than in the prior art.
Moreover, in the embodiment of the present invention, the candidate area under the vehicle shadow is specified based on the detected gradient distribution information of the image. Therefore, the present invention is not limited by the number of lanes and can be applied to the case of multiple lanes. Further, according to the present invention, not only the ROI including the vehicle image from the road surface situation image including the image ahead of the vehicle but also the ROI including the vehicle image from the road surface image including the image behind the vehicle can be specified. it can.

ROI領域及び車下陰の領域を示す概略図である。It is the schematic which shows a ROI area | region and the area | region of a vehicle lower shadow. 従来技術の車両画像領域特定方法の一例のフローチャートである。It is a flowchart of an example of the vehicle image area | region identification method of a prior art. 車両が建物の陰の下にある場合について従来技術により車両画像領域を特定する一例である。It is an example which specifies a vehicle image area | region by a prior art about the case where a vehicle is under the shadow of a building. 車両が建物の陰の下にある場合について従来技術により車両画像領域を特定する他の一例である。It is another example which specifies a vehicle image area | region by a prior art about the case where a vehicle is under the shadow of a building. 従来技術の車両画像領域特定方法の他の一例のフローチャートである。It is a flowchart of another example of the vehicle image area | region identification method of a prior art. 従来技術の車両画像領域特定方法の説明図である。It is explanatory drawing of the vehicle image area | region identification method of a prior art. 通常の場合の路面の輝度分布である。It is a luminance distribution on the road surface in a normal case. 画像の最低部が暗い場合である。This is when the lowest part of the image is dark. 本発明の実施形態の画像領域特定装置の構造図である。1 is a structural diagram of an image area specifying device according to an embodiment of the present invention. 発明の実施の形態の画像領域特定方法のフローチャートである。It is a flowchart of the image area | region identification method of embodiment of invention. 本発明の実施形態の画素勾配に基づいて一部が相対的に暗い領域を検出するフローチャートである。It is a flowchart which detects the area | region where one part is relatively dark based on the pixel gradient of embodiment of this invention. 画像座標系説明図である。It is image coordinate system explanatory drawing. 車下陰候補点の決定方法説明図である。It is explanatory drawing of the determination method of a vehicle lower shade candidate point. 車下陰に基づいた画像領域ROIの判定方法の説明図である。It is explanatory drawing of the determination method of the image area ROI based on a vehicle shade.

符号の説明Explanation of symbols

11 画像入力手段
12 勾配分布検出手段
13 車下陰の候補領域特定手段
14 車両画像を含む画像領域特定手段(ROI特定手段)
DESCRIPTION OF SYMBOLS 11 Image input means 12 Gradient distribution detection means 13 Candidate area | region specification means 14 of a vehicle shadow 14 Image area specification means (ROI specification means) containing a vehicle image

Claims (12)

車両画像を含む画像領域を特定する車両画像領域特定方法において、
道路上の車両の走行状況を撮像した画像を入力する画像入力ステップと、
前記画像入力ステップで入力した画像に対して輝度の勾配分布を算出する勾配分布検出ステップと、
前記画像の勾配情報に基づいて車下陰の候補領域を特定する車下陰の候補領域特定ステップと、
前記車下陰の候補領域に基づいて車両画像を含む画像領域ROIを特定するステップ、
を含むことを特徴とする車両画像領域特定方法。
In a vehicle image region specifying method for specifying an image region including a vehicle image,
An image input step for inputting an image obtained by imaging the running state of the vehicle on the road;
A gradient distribution detection step of calculating a gradient distribution of luminance for the image input in the image input step;
A vehicle shadow area candidate step for identifying a vehicle shadow area based on the gradient information of the image;
Identifying an image area ROI including a vehicle image based on the candidate area under the vehicle shadow;
A vehicle image region specifying method comprising:
前記車下陰の候補領域特定ステップにおいて、車下陰の領域がその周りの領域より暗い特徴を有することに基づいて、前記車下陰の候補領域を特定する、
ことを特徴とする請求項1記載の車両画像領域特定方法。
In the vehicle shadow area candidate region specifying step, based on the fact that the vehicle shadow area has a darker characteristic than the surrounding area, the vehicle shadow area is specified.
The vehicle image area specifying method according to claim 1.
前記車下陰の候補領域特定ステップは、画像の勾配分布検出ステップで検出した前記画像の勾配分布情報に基づいて、前記画像から垂直方向の差分値が負値であるすべての画素点を抽出するステップを含む、
ことを特徴とする請求項1記載の車両画像領域特定方法。
In the vehicle shadow area candidate region specifying step, all pixel points whose difference values in the vertical direction are negative values are extracted from the image based on the gradient distribution information of the image detected in the gradient distribution detection step of the image. Including steps,
The vehicle image area specifying method according to claim 1.
前記車下陰の候補領域特定ステップは、前記抽出された着目画素点が以下の二つの条件、
(a):着目画素点の勾配値が、勾配方向で該着目点に隣接する二つの画素点の勾配値よりも大きいこと、
(b):前記(a)に記載の隣接する二つの点は、垂直方向に隣接する画素点であること、
を満たすかを判断し、この二つの条件を満たす着目画素点を車下陰の候補領域のエッジ点として特定するステップを含む、
ことを特徴とする請求項3記載の車両画像領域特定方法。
The candidate area specifying step of the vehicle shadow is the following two conditions for the extracted pixel point of interest:
(a): the gradient value of the pixel point of interest is larger than the gradient values of two pixel points adjacent to the point of interest in the gradient direction;
(b): the two adjacent points described in (a) are pixel points adjacent in the vertical direction;
Including determining a target pixel point that satisfies these two conditions as an edge point of a candidate area under the vehicle,
The vehicle image area specifying method according to claim 3.
前記勾配分布検出ステップにおいて、画像中の各画素の水平と垂直方向の輝度差分を算出して、この差分値に基づいて各画素の勾配を算出する、
ことを特徴とする請求項1記載の車両画像領域特定方法。
In the gradient distribution detection step, a luminance difference in the horizontal and vertical directions of each pixel in the image is calculated, and a gradient of each pixel is calculated based on the difference value.
The vehicle image area specifying method according to claim 1.
画像入力ステップで入力した画像は、多車線道路を撮像した画像であり、車両後方の画像又は車両前方の画像を含む、
ことを特徴とする請求項1記載の車両画像領域特定方法。
The image input in the image input step is an image obtained by capturing a multilane road, and includes an image behind the vehicle or an image ahead of the vehicle.
The vehicle image area specifying method according to claim 1.
車両画像を含む画像領域を特定する車両画像領域特定装置において、
道路上の車両の走行状況を撮像した画像を入力する画像入力手段と、
前記画像入力手段で入力した画像に対して輝度の勾配分布を算出する勾配分布検出手段と、
前記画像の勾配情報に基づいて車下陰の候補領域を特定する車下陰の候補領域特定手段と、
前記車下陰の候補領域に基づいて車両画像を含む画像領域ROIを特定する画像領域特定手段、
を含むことを特徴とする車両画像領域特定装置。
In a vehicle image area specifying device for specifying an image area including a vehicle image,
Image input means for inputting an image obtained by imaging the driving situation of the vehicle on the road;
Gradient distribution detecting means for calculating a gradient distribution of luminance for the image input by the image input means;
A vehicle shadow area candidate means for specifying a vehicle shadow area based on the gradient information of the image;
Image area specifying means for specifying an image area ROI including a vehicle image based on the candidate area under the vehicle;
A vehicle image area specifying device comprising:
前記車下陰の候補領域特定手段は、車下陰の領域がその周りの領域より暗い特徴を有することに基づいて、前記車下陰の候補領域を特定する、
ことを特徴とする請求項7記載の車両画像領域特定装置。
The vehicle under-shadow candidate area specifying means specifies the under-vehicle shadow candidate area based on the fact that the under-vehicle shadow area has a darker characteristic than the surrounding area.
The vehicle image area specifying device according to claim 7.
前記車下陰の候補領域特定手段は、画像の勾配分布検出手段で検出した前記画像の勾配分布情報に基づいて、前記画像から垂直方向の差分値が負値であるすべての画素点を抽出する、
ことを特徴とする請求項7記載の車両画像領域特定装置。
The vehicle shadow area candidate region specifying unit extracts all pixel points having a negative difference value in the vertical direction from the image based on the gradient distribution information of the image detected by the gradient distribution detection unit of the image. ,
The vehicle image area specifying device according to claim 7.
前記車下陰の候補領域特定手段は、前記抽出された着目画素点が以下の二つの条件、
(a):着目画素点の勾配値が、勾配方向でこの着目点に隣接する二つの画素点の勾配値よりも大きいこと、
(b):前記(a)に記載の隣接する二つの点は、垂直方向に隣接する画素点であること、
を満たすかを判断し、この二つの条件を満たす画素点を車下陰の候補領域のエッジ点として特定する、
ことを特徴とする請求項9記載の車両画像領域特定装置。
The candidate area specifying means for the shade under the vehicle has the following two conditions for the extracted pixel point of interest:
(a): the gradient value of the pixel point of interest is greater than the gradient values of two pixel points adjacent to the point of interest in the gradient direction;
(b): The two adjacent points described in (a) are pixel points adjacent in the vertical direction;
The pixel points that satisfy these two conditions are identified as the edge points of the candidate area under the vehicle,
The vehicle image area specifying device according to claim 9.
前記勾配分布検出手段は、画像中の各画素の水平と垂直方向の輝度差分を算出して、この差分値に基づいて各画素の勾配を算出する、
ことを特徴とする請求項7記載の車両画像領域特定装置。
The gradient distribution detecting means calculates a luminance difference in the horizontal and vertical directions of each pixel in the image, and calculates a gradient of each pixel based on the difference value.
The vehicle image area specifying device according to claim 7.
画像入力手段で入力した画像は、多車線道路を撮像した画像であり、車両後方の画像又は車両前方の画像を含む、
ことを特徴とする請求項7記載の車両画像領域特定装置。
The image input by the image input means is an image of a multi-lane road, and includes an image behind the vehicle or an image ahead of the vehicle.
The vehicle image area specifying device according to claim 7.
JP2007043720A 2006-02-28 2007-02-23 Vehicle image area specifying device and method for it Pending JP2007234019A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200610009379A CN101030256B (en) 2006-02-28 2006-02-28 Method and apparatus for cutting vehicle image

Publications (1)

Publication Number Publication Date
JP2007234019A true JP2007234019A (en) 2007-09-13

Family

ID=38554493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007043720A Pending JP2007234019A (en) 2006-02-28 2007-02-23 Vehicle image area specifying device and method for it

Country Status (2)

Country Link
JP (1) JP2007234019A (en)
CN (1) CN101030256B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008130087A (en) * 2006-11-17 2008-06-05 Alpine Electronics Inc Target area division method and target area division device
CN103577828A (en) * 2013-11-22 2014-02-12 中国科学院自动化研究所 Road detection method based on edge feature
KR101748497B1 (en) * 2015-11-11 2017-06-19 한동대학교 산학협력단 Method for detecting right lane area and left lane area of rear of vehicle using sound data and vehicle system using the same

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101211408B (en) 2006-12-29 2011-05-25 东软集团股份有限公司 Vehicle side image recognition method and apparatus, car lamp error identification detection and driving safety prediction method
CN101414355B (en) * 2007-10-19 2013-03-13 东软集团股份有限公司 Method and apparatus for dividing vehicle interesting region from image
CN101458814B (en) * 2007-12-13 2012-02-01 东软集团股份有限公司 Method and apparatus for separating objects interesting region from image
CN101470806B (en) * 2007-12-27 2012-06-27 东软集团股份有限公司 Vehicle lamp detection method and apparatus, interested region splitting method and apparatus
CN101408978B (en) * 2008-11-27 2010-12-01 东软集团股份有限公司 Method and apparatus for detecting barrier based on monocular vision
RU2431196C1 (en) * 2010-03-31 2011-10-10 Закрытое Акционерное Общество "Импульс" Method of determining brightness level in area of interest on digital medical x-ray picture
JP5597049B2 (en) * 2010-07-07 2014-10-01 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
CN103049738B (en) * 2012-12-07 2016-01-20 北京中邮致鼎科技有限公司 Many Method of Vehicle Segmentations that in video, shade connects
CN103065145A (en) * 2012-12-07 2013-04-24 北京中邮致鼎科技有限公司 Vehicle movement shadow eliminating method
CN103077517B (en) * 2012-12-31 2015-04-15 华中科技大学 Method for partitioning space target under non-uniform lighting condition
CN103345745B (en) * 2013-06-21 2016-08-10 宁波成电泰克电子信息技术发展有限公司 A kind of quick secondary image dividing method of alkaline battery tail end defects detection
JP6307873B2 (en) * 2013-12-24 2018-04-11 富士通株式会社 Object line detection apparatus, method, and program
KR102371587B1 (en) * 2015-05-22 2022-03-07 현대자동차주식회사 Apparatus and method for providing guidance information using crosswalk recognition result
JP2017117315A (en) * 2015-12-25 2017-06-29 株式会社デンソー Display control device
JP6776213B2 (en) * 2017-11-01 2020-10-28 株式会社東芝 Orbit identification device
CN109727363B (en) * 2018-11-16 2022-03-29 恒银金融科技股份有限公司 Method for recognizing capital money in bill
CN110599510A (en) * 2019-08-02 2019-12-20 中山市奥珀金属制品有限公司 Picture feature extraction method
JP7310527B2 (en) * 2019-10-14 2023-07-19 株式会社デンソー Obstacle identification device and obstacle identification program
CN110852252B (en) * 2019-11-07 2022-12-02 厦门市美亚柏科信息股份有限公司 Vehicle weight-removing method and device based on minimum distance and maximum length-width ratio
CN113436164B (en) * 2021-06-23 2024-03-15 三一专用汽车有限责任公司 Method and device for detecting road conditions at bottom of vehicle and vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147447A (en) * 1994-11-18 1996-06-07 Nissan Motor Co Ltd Vehicle recognition device
JP2003077099A (en) * 2001-08-31 2003-03-14 Nissan Motor Co Ltd Preceding vehicle recognition system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147447A (en) * 1994-11-18 1996-06-07 Nissan Motor Co Ltd Vehicle recognition device
JP2003077099A (en) * 2001-08-31 2003-03-14 Nissan Motor Co Ltd Preceding vehicle recognition system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008130087A (en) * 2006-11-17 2008-06-05 Alpine Electronics Inc Target area division method and target area division device
CN103577828A (en) * 2013-11-22 2014-02-12 中国科学院自动化研究所 Road detection method based on edge feature
CN103577828B (en) * 2013-11-22 2018-02-13 极限元(北京)智能科技股份有限公司 A kind of Approach for road detection based on edge feature
KR101748497B1 (en) * 2015-11-11 2017-06-19 한동대학교 산학협력단 Method for detecting right lane area and left lane area of rear of vehicle using sound data and vehicle system using the same

Also Published As

Publication number Publication date
CN101030256A (en) 2007-09-05
CN101030256B (en) 2010-05-12

Similar Documents

Publication Publication Date Title
JP2007234019A (en) Vehicle image area specifying device and method for it
US11854272B2 (en) Hazard detection from a camera in a scene with moving shadows
US9591274B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
EP2919197B1 (en) Object detection device and object detection method
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP3822515B2 (en) Obstacle detection device and method
EP2927060B1 (en) On-vehicle image processing device
JP6126094B2 (en) In-vehicle image recognition device
RU2636120C2 (en) Three-dimensional object detecting device
KR101364727B1 (en) Method and apparatus for detecting fog using the processing of pictured image
US20070211919A1 (en) Vehicle surroundings monitoring apparatus
JP5827508B2 (en) Obstacle detection device for vehicle and vehicle using the same
JP2007235950A (en) Method and device for detecting vehicle position
CN105303157B (en) Extend the algorithm of the detection range for the detection of AVM stop line
JP2006338556A (en) Vehicle and road surface marking recognition device
JP5874831B2 (en) Three-dimensional object detection device
JP7230507B2 (en) Deposit detection device
CN108021849B (en) Pedestrian early warning method and device
WO2011039977A1 (en) Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
JP4936045B2 (en) Vehicle color discrimination device, method and program
JP2010136207A (en) System for detecting and displaying pedestrian
JP5276032B2 (en) Device for calculating the position of an object
CN105291982B (en) Stopping thread detector rapidly and reliably
JP2008230358A (en) Display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110809