JP4069916B2 - Object detection apparatus and method - Google Patents

Object detection apparatus and method Download PDF

Info

Publication number
JP4069916B2
JP4069916B2 JP2004266968A JP2004266968A JP4069916B2 JP 4069916 B2 JP4069916 B2 JP 4069916B2 JP 2004266968 A JP2004266968 A JP 2004266968A JP 2004266968 A JP2004266968 A JP 2004266968A JP 4069916 B2 JP4069916 B2 JP 4069916B2
Authority
JP
Japan
Prior art keywords
image
area
areas
background
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004266968A
Other languages
Japanese (ja)
Other versions
JP2006084218A (en
Inventor
泰仁 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004266968A priority Critical patent/JP4069916B2/en
Publication of JP2006084218A publication Critical patent/JP2006084218A/en
Application granted granted Critical
Publication of JP4069916B2 publication Critical patent/JP4069916B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両前方に存在する移動物体を検出する物体検出装置、および方法に関する。   The present invention relates to an object detection apparatus and method for detecting a moving object existing in front of a vehicle.

次のような周辺監視装置が特許文献1によって知られている。時間的に連続して撮像した自車両前方の画像1、および画像2の撮像時間間隔と、自車両の速度とに基づいて、画像1を撮像してから画像2を撮像するまでに自車両が移動した距離を算出する。そして、算出した移動距離に基づいて画像1の路面画像を水平移動により射影変換して得た推定画像と、画像2とを比較して、路面上のペイントや汚れなどの検出不要な物体を削除して、これらを他車両等と誤検出しないようにした。   The following peripheral monitoring device is known from Patent Document 1. Based on the imaging time interval between the image 1 and the image 2 ahead of the host vehicle and the speed of the host vehicle, the host vehicle captures the image 1 until the image 2 is captured. Calculate the distance traveled. Then, the estimated image obtained by projective transformation of the road surface image of image 1 by horizontal movement based on the calculated moving distance is compared with image 2, and objects that do not require detection such as paint and dirt on the road surface are deleted. Thus, these are not erroneously detected as other vehicles.

特開2000−74645号公報JP 2000-74645 A

しかしながら、従来の装置においては、画像の撮像時間間隔と自車両の速度のみを考慮して検出不要物体の削除を行っているため、画像撮像時に車両に上下方向の振動が発生した場合には、検出不要な物体を正しく削除できず、これらを他車両等と誤検出してしまう可能性があるという問題点が生じていた。   However, in the conventional apparatus, the detection unnecessary object is deleted in consideration of only the image capturing time interval and the speed of the host vehicle. There has been a problem that objects that do not need to be detected cannot be correctly deleted and these may be erroneously detected as other vehicles.

本発明は、撮像された自車両前方の画像を画像処理して、画像内に存在する物体の横方向の速度情報を算出し、算出した画像内に存在する物体の横方向の速度情報に基づいて、画像上の背景とは異なる速度方向を持つ物体を含む領域を設定し、設定された領域の中から画像上の斜線に対して設定された領域を誤検出領域として抽出し、設定された領域の中から抽出された誤検出領域を削除して、残りの領域に含まれる物体を自車両前方に存在する移動物体であると判定することを特徴とする。   The present invention performs image processing on a captured image in front of the host vehicle, calculates lateral speed information of an object present in the image, and based on the lateral speed information of the object present in the calculated image. Set an area containing an object with a speed direction different from the background on the image, and extracted the area set for the diagonal line on the image from the set area as a false detection area. An erroneous detection area extracted from the area is deleted, and an object included in the remaining area is determined to be a moving object existing ahead of the host vehicle.

本発明によれば、画像撮像時に車両に上下方向の振動が発生した場合には、画像上に存在する静止物体の斜線から横方向の移動速度が検出されることを考慮して、画像上の斜線に対して設定された領域を誤検出領域として抽出して削除することとした。これによって、画像撮像時に車両に上下方向の振動が発生した場合の誤検出を正確に判定して、検出不要な物体を削除することができる。   According to the present invention, when vertical vibration is generated in the vehicle at the time of image capture, the lateral movement speed is detected from the oblique line of the stationary object present on the image, The region set for the diagonal line is extracted as a false detection region and deleted. This makes it possible to accurately determine erroneous detection when vertical vibrations occur in the vehicle during image capture, and to delete objects that do not require detection.

図1は、本実施の形態における物体検出装置の一実施の形態の構成例を示すブロック図である。物体検出装置100は、車両に搭載され、車両前方を撮像するカメラ101と、カメラ101で撮像した画像を格納する画像メモリ102と、カメラ101で撮像された画像を画像処理して、画像内に存在する物体を検出する制御装置103と、後述する画素カウンタのカウント値を記憶するカウンタメモリ104とを備えている。   FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an object detection device according to the present embodiment. The object detection device 100 is mounted on a vehicle and performs image processing on a camera 101 that captures an image in front of the vehicle, an image memory 102 that stores an image captured by the camera 101, and an image captured by the camera 101. A control device 103 that detects an existing object and a counter memory 104 that stores a count value of a pixel counter to be described later are provided.

カメラ101は、例えばCCDやCMOSなどの撮像素子を有し、車両の車室内上部前方に、その光軸が車両前方正面方向に向くように設置される。そして、一定時間Δt間隔で連続的に車両前方を撮影し、撮像画像を画像メモリ102へ出力して記憶する。制御装置103は、図2により後述する処理を実行して、画像メモリ102に記憶された自車両前方の撮像画像を画像処理して、自車両前方に存在する移動物体の検出を行う。   The camera 101 has an image sensor such as a CCD or a CMOS, for example, and is installed in front of the upper part of the interior of the vehicle so that its optical axis faces the front front direction of the vehicle. Then, the vehicle front is continuously photographed at regular time intervals Δt, and the captured image is output to the image memory 102 and stored. The control device 103 performs processing described later with reference to FIG. 2, performs image processing on the captured image in front of the host vehicle stored in the image memory 102, and detects a moving object existing in front of the host vehicle.

図2は、本実施の形態の物体検出装置100の動作を示すフローチャートである。図2に示す処理は、不図示のイグニションスイッチがオンされると起動するプログラムとして制御装置103により実行される。ステップS1において、カメラ101によって一定時間Δt間隔で撮像され、画像メモリ102に記憶された撮像画像の読み込みを開始する。すなわち、一定時間Δt間隔で撮像された画像を処理終了までの間、逐一画像メモリ102から取得する。   FIG. 2 is a flowchart showing the operation of the object detection apparatus 100 of the present embodiment. The processing shown in FIG. 2 is executed by the control device 103 as a program that starts when an ignition switch (not shown) is turned on. In step S <b> 1, reading of a captured image captured by the camera 101 at a fixed time Δt interval and stored in the image memory 102 is started. That is, images taken at regular time intervals Δt are acquired from the image memory 102 one by one until the end of processing.

その後、ステップS2へ進み、図3により後述する横方向の速度検出処理を実行して、撮像画像における各画素の横方向の速度を検出し、ステップS3へ進む。ステップS3では、図4、および図5により後述するように、「背景と異なる画面領域」の検出を行って、自車両前方に存在する自車両に向かって飛び出してくる物体を含む領域を設定する。その後、ステップS4へ進む。ステップS4では、図6、および図7により後述するように、検出した「背景と異なる画面領域」のうち、実際には静止しているにも関わらず、自車両の上下方向の振動(ピッチング)によって横方向の速度が検出されてしまった物体を含む領域を誤検出領域として検出し、当該誤検出領域を削除する。   Thereafter, the process proceeds to step S2, the lateral speed detection process described later with reference to FIG. 3 is executed to detect the lateral speed of each pixel in the captured image, and the process proceeds to step S3. In step S3, as will be described later with reference to FIGS. 4 and 5, "a screen area different from the background" is detected, and an area including an object popping toward the own vehicle ahead of the own vehicle is set. . Then, it progresses to step S4. In step S4, as will be described later with reference to FIG. 6 and FIG. 7, the vibration (pitching) of the host vehicle in the vertical direction is detected among the detected “screen area different from the background”, although it is actually stationary. The area including the object whose lateral velocity has been detected by is detected as an erroneous detection area, and the erroneous detection area is deleted.

その後、ステップS5へ進み、誤検出領域を削除した結果残った「背景と異なる画面領域」を、自車両前方に存在する移動物体を含む領域であると判定する。その後、ステップS6へ進む。ステップS6では、イグニションスイッチがオフされたか否かを判断し、イグニションスイッチがオフされていないと判断した場合には、ステップS2へ戻り、上述した処理を繰り返す。一方、イグニションスイッチがオフされたと判断した場合には、処理を終了する。   Thereafter, the process proceeds to step S5, and it is determined that the “screen area different from the background” remaining as a result of deleting the erroneous detection area is an area including a moving object existing ahead of the host vehicle. Thereafter, the process proceeds to step S6. In step S6, it is determined whether or not the ignition switch is turned off. If it is determined that the ignition switch is not turned off, the process returns to step S2 to repeat the above-described processing. On the other hand, if it is determined that the ignition switch is turned off, the process is terminated.

図3は、上述したステップS20における横方向の速度検出処理の流れを示すフローチャートである。ステップS11において、画像メモリ102から取得した画像に基づいて横方向の微分画像を得る。その後、ステップS12へ進み、横方向の微分画像に対して所定の閾値を用いて2値化することによって、横方向のエッジを抽出したエッジ画像を得る。その後、ステップS13へ進み、横方向のエッジを抽出したエッジ画像に対して、細線化処理を行ってエッジの中心を正確に求めることでエッジの動きを正確に把握する。その後、ステップS14へ進み、細線化されたエッジを膨張させる。これにより均一な幅を持ったエッジ画像を得ることができる。その後、ステップS15へ進む。   FIG. 3 is a flowchart showing the flow of the speed detection process in the lateral direction in step S20 described above. In step S <b> 11, a lateral differential image is obtained based on the image acquired from the image memory 102. Thereafter, the process proceeds to step S12, and the edge image obtained by extracting the edge in the horizontal direction is obtained by binarizing the horizontal differential image using a predetermined threshold. After that, the process proceeds to step S13, where the edge image from which the edge in the horizontal direction is extracted is thinned to accurately determine the center of the edge, thereby accurately grasping the movement of the edge. Then, it progresses to step S14 and the thinned edge is expanded. Thereby, an edge image having a uniform width can be obtained. Thereafter, the process proceeds to step S15.

ステップS15では、カウンタメモリ104に記憶されている画素カウンタを更新する。画素カウンタとは、エッジ画像の各画素に対応したカウンタであり、毎フレームごとにエッジが存在した画素に対応する画素カウンタのカウント値に1を加算し、エッジが存在しなかった画素に対応する画素カウンタのカウント値は0で初期化する。これによりエッジ存在時間が長い画素はカウント値が大きく、エッジ存在時間が短い画素はカウント値が小さくなる。ステップS15で画素カウンタを更新した後は、ステップS16へ進む。   In step S15, the pixel counter stored in the counter memory 104 is updated. The pixel counter is a counter corresponding to each pixel of the edge image, and 1 is added to the count value of the pixel counter corresponding to the pixel where the edge exists for each frame, and the pixel counter corresponds to the pixel where the edge does not exist. The count value of the pixel counter is initialized with zero. Accordingly, a pixel having a long edge existence time has a large count value, and a pixel having a short edge existence time has a small count value. After updating the pixel counter in step S15, the process proceeds to step S16.

ステップS16では、あらかじめ設定された所定枚数のフレーム画像に対して、上述した処理を実行したか否かを判断する。あらかじめ設定された所定枚数のフレーム画像に対する処理が完了していないと判断した場合には、ステップS11へ戻り、処理を繰り返す。これに対して、あらかじめ設定された所定枚数のフレーム画像に対する処理が完了したと判断した場合には、ステップS17へ進む。   In step S16, it is determined whether or not the above-described processing has been executed for a predetermined number of frame images set in advance. If it is determined that the processing for the predetermined number of frame images set in advance has not been completed, the process returns to step S11 and the processing is repeated. On the other hand, if it is determined that the processing for a predetermined number of frame images set in advance has been completed, the process proceeds to step S17.

ステップS17では、横方向に隣接するそれぞれの画素に対応する画素カウンタのカウント値の差分を取ることで各画素におけるエッジ存在時間の差を算出して、当該エッジが1画素移動するのに要する時間を得る。そして、この値の逆数を得ることで、各画素における画像空間内の横方向の速度を算出することができる。この各画素における画像空間内の横方向の速度は、各画素に含まれるエッジの横方向の速度に相当する。その後、図2に示す処理に復帰する。   In step S17, the time required for the edge to move by one pixel is calculated by calculating the difference in the edge existence time in each pixel by taking the difference in the count value of the pixel counter corresponding to each pixel adjacent in the horizontal direction. Get. Then, by obtaining the reciprocal of this value, the lateral speed in the image space at each pixel can be calculated. The horizontal speed in the image space at each pixel corresponds to the horizontal speed of the edge included in each pixel. Thereafter, the process returns to the process shown in FIG.

次に、自車両前方を撮像した画像である図4および図5により、上述したステップS3における「背景と異なる画面領域」の検出処理について説明する。自車両が直進しているときには、撮像画像における背景は図4に示すように進行方向に存在する画像内のFOE(Focus of Expansion)4aから画像の外方向に向かう放射状に速度方向を持つ。すなわち、自車両が直進しているときは背景4b路面上の白線6cおよび7aは画面中央から画面外側に向かって湧き出すように移動する。これに対し自車の前方を通過しようとする飛び出し物体、例えば他車両4cは画面外側から画面中央に向かう速度方向を持つ。   Next, with reference to FIGS. 4 and 5 which are images obtained by capturing the front of the host vehicle, the “screen region different from the background” detection process in step S3 described above will be described. When the host vehicle is traveling straight, the background in the captured image has a speed direction radially extending from the FOE (Focus of Expansion) 4a in the image existing in the traveling direction toward the outside of the image as shown in FIG. That is, when the host vehicle is traveling straight, the white lines 6c and 7a on the road surface of the background 4b move so as to spring out from the center of the screen toward the outside of the screen. On the other hand, a pop-out object that tries to pass in front of the host vehicle, such as the other vehicle 4c, has a speed direction from the outside of the screen toward the center of the screen.

したがって、横方向の速度を算出したエッジ画像において、画面中央に向かう速度方向を持つ画素は、飛び出し物体のエッジを含んでいると判断する。そして、図5に示すように、エッジ画像を縦長の短冊状に区切り、各短冊状領域において背景と異なる速度方向を持つ画素、すなわち画面外側から画面中央に向かう速度方向を持つ画素が存在する範囲5a〜5cを「背景と異なる画面領域」として設定する。   Therefore, in the edge image for which the speed in the horizontal direction is calculated, it is determined that the pixel having the speed direction toward the center of the screen includes the edge of the protruding object. Then, as shown in FIG. 5, the edge image is divided into vertically long strips, and each strip region has a pixel having a speed direction different from the background, that is, a pixel having a speed direction from the outside of the screen toward the center of the screen. 5a to 5c are set as “screen areas different from the background”.

次に、図6および図7により上述したステップS4における誤検出領域の削除処理について説明する。自車両がピッチングすることによってカメラ101が上下に振動した場合には、これに伴ってカメラ101で撮像した画像上の静止物体も上下に振動する。   Next, the erroneous detection area deletion processing in step S4 described above with reference to FIGS. 6 and 7 will be described. When the camera 101 vibrates up and down due to pitching of the host vehicle, a stationary object on the image captured by the camera 101 vibrates up and down accordingly.

この場合、図6に示すように、画像上の横線は、現在時刻TからΔT秒前における画像上の位置6eから現在時刻Tのおける画像上の位置6fのように縦方向に移動するため、画像上の横方向の動き、すなわち横方向の移動速度は検出されず、カメラ101の上下方向の振動に伴って静止物体が誤検出され、当該静止物体を含む領域が上述した「背景と異なる画面領域」として誤って設定されることはない。同様に、画像上の縦線も、現在時刻TからΔT秒前における画像上の位置6aから現在時刻Tのおける画像上の位置6bのように縦方向に移動するため、横方向の移動速度は検出されず、カメラ101の上下方向の振動に伴って静止物体を含む領域が「背景と異なる画面領域」として誤って設定されることはない。   In this case, as shown in FIG. 6, the horizontal line on the image moves in the vertical direction from a position 6e on the image at ΔT seconds before the current time T to a position 6f on the image at the current time T. The horizontal movement on the image, that is, the moving speed in the horizontal direction is not detected, the stationary object is erroneously detected due to the vertical vibration of the camera 101, and the region including the stationary object is the above-described “screen different from the background”. It is not mistakenly set as “area”. Similarly, since the vertical line on the image also moves in the vertical direction from the position 6a on the image at ΔT seconds before the current time T to the position 6b on the image at the current time T, the movement speed in the horizontal direction is A region including a stationary object is not erroneously set as a “screen region different from the background” in accordance with the vertical vibration of the camera 101 without being detected.

これに対して、画像上に存在する斜め方向の線、例えば路面の白線6cは、カメラ101の上下方向の振動に伴って現在時刻TからΔT秒前における画像上の位置6cから現在時刻Tにおける画像上の位置6dのように移動する。これによって、画像上において、縦方向の動きとともに横方向の動きも検出されてしまい、横方向の移動速度が検出されることになる。これにより、実際には停止している物体であるにも関わらず、画面中央に向かう横方向の速度が誤検出され、静止している路面の白線を含む領域が「背景と異なる画面領域」として誤って設定されてしまう可能性がある。   On the other hand, a diagonal line existing on the image, for example, a white line 6c on the road surface, is present at the current time T from the position 6c on the image at ΔT seconds before the current time T due to the vertical vibration of the camera 101. It moves like position 6d on the image. As a result, in the image, the horizontal movement is detected together with the vertical movement, and the moving speed in the horizontal direction is detected. As a result, despite the fact that the object is actually stopped, the lateral speed toward the center of the screen is erroneously detected, and the area containing the white line on the stationary road surface is the `` screen area different from the background '' It may be set incorrectly.

このような場合、誤検出された静止物体に基づいて設定された「背景と異なる画面領域」を削除する必要がある。例えば、図7に示すように、画像上の他車両4cと路面の白線7a、から横方向の移動速度が検出され、太線で示す各領域が「背景と異なる画面領域」として設定されたとする。図7においては、路面の白線7aに基づいて設定された「背景と異なる画面領域」は、静止物体に基づいて横方向の速度を誤検出したことによって誤って設定された領域である。したがって、これらの範囲を以下のように削除する。   In such a case, it is necessary to delete the “screen area different from the background” set based on the erroneously detected stationary object. For example, as shown in FIG. 7, it is assumed that the moving speed in the horizontal direction is detected from the other vehicle 4c on the image and the white line 7a on the road surface, and each area indicated by a bold line is set as a “screen area different from the background”. In FIG. 7, the “screen area different from the background” set based on the white line 7a on the road surface is an area erroneously set by erroneously detecting the lateral speed based on the stationary object. Therefore, these ranges are deleted as follows.

まず画像上に設定された任意の「背景と異なる画面領域」を選択する。次に、その隣接する短冊状領域に「背景と異なる画面領域」の存在の有無を確認する。ここで隣接した短冊状領域に「背景と異なる画面領域」が存在し、さらにそれらが斜めに連続して存在(分布)している場合は、路面の白線7aのように、画像上に存在する静止物体の斜線から横方向の速度を誤検出した可能性が高いため、これらの「背景と異なる画面領域」を抽出して削除する。   First, an arbitrary “screen area different from the background” set on the image is selected. Next, the presence or absence of a “screen area different from the background” is confirmed in the adjacent strip-shaped area. Here, when there are “screen areas different from the background” in the adjacent strip-shaped areas, and they are continuously present (distributed) diagonally, they are present on the image as white lines 7a on the road surface. Since there is a high possibility that the horizontal speed is erroneously detected from the oblique line of the stationary object, these “screen areas different from the background” are extracted and deleted.

これに対して、隣接した短冊状領域に「背景と異なる画面領域」が存在しない場合や、領域5a〜5cのように横並びに「背景と異なる画面領域」が存在している場合には、誤検出とは考えられないので削除しない。この手順をすべての「背景と異なる画面領域」に対し行うことで、画像上に存在する静止物体の斜線に基づいて誤って設定された「背景と異なる画面領域」を削除することができる。   On the other hand, if there is no “screen area different from the background” in the adjacent strip-shaped area, or if there are “screen areas different from the background” side by side as in the areas 5a to 5c, an error occurs. Do not delete because it is not considered to be detected. By performing this procedure for all “screen areas different from the background”, it is possible to delete “screen areas different from the background” that are erroneously set based on the diagonal lines of the stationary object existing on the image.

また、図8に示すように、隣接した短冊状領域に存在する「背景と異なる画面領域」が斜めに連続していない場合であっても、これらの領域も画像上に存在する静止物体の斜線に基づいて誤って設定された「背景と異なる画面領域」である可能性がある。したがって、以下に説明するように、図8に示した各領域が斜線による誤検出であると仮定し、その仮定の妥当性を検討することで各「背景と異なる画面領域」が誤って設定されたものであるか否かを判断する。   In addition, as shown in FIG. 8, even when “screen areas different from the background” existing in adjacent strip-shaped areas are not obliquely continuous, these areas are also diagonal lines of still objects existing on the image. There is a possibility that the “screen area different from the background” is set erroneously based on the above. Therefore, as described below, it is assumed that each area shown in FIG. 8 is a false detection due to diagonal lines, and each “screen area different from the background” is erroneously set by examining the validity of the assumption. It is judged whether it is a thing.

まず、画像上に設定された任意の「背景と異なる画面領域」8aを選択する。この選択した領域8aに対して、図9に符号9aで示すようにその下端(X, Y)を通過する直線y = α(x―X)+Yを定義する。なお、αはパラメータであり、ここでは仮の値を設定しておき、後に推定する。次に、「背景と異なる画面領域」8aの近傍に存在する他の「背景と異なる画面領域」の下端をサンプルデータとし、そのデータ集合(xi, yi)を得る。そして、定義した直線9aがデータ集合(xi, yi)のなるべく近くを通るようなパラメータαの推定を行う。本実施の形態ではデータ集合(xi, yi)を用いて最小二乗法によりパラメータαの推定を行い、推定したαに基づいた直線9bを推定する。 First, an arbitrary “screen area different from the background” 8a set on the image is selected. A straight line y = α (x−X V ) + Y V passing through the lower end (X V , Y V ) is defined for the selected region 8a as indicated by reference numeral 9a in FIG. Α is a parameter. Here, a temporary value is set and estimated later. Next, the lower end of another “screen area different from the background” existing in the vicinity of the “screen area different from the background” 8a is used as sample data, and the data set (xi, yi) is obtained. Then, the parameter α is estimated so that the defined straight line 9a passes as close as possible to the data set (xi, yi). In this embodiment, the parameter α is estimated by the least square method using the data set (xi, yi), and the straight line 9b based on the estimated α is estimated.

このとき推定された直線9bとデータ集合(xi, yi)における各点とのy座標値の差分の平均値を誤差Eとして算出し、誤差Eが所定の閾値ETH以下であれば、任意の「背景と異なる画面領域」8a、およびその近傍に存在する他の「背景と異なる画面領域」は、画像上に存在する斜線9bで近似する静止した斜線に基づいて誤って設定された領域であると判断して、これらの「背景と異なる画面領域」を抽出して削除する。これに対して、誤差Eが所定の閾値ETHより大きければ、これらの領域は、斜線9bで近似する静止した斜線に基づいて誤って設定されたものとは考えられないので削除しない。なお、所定の閾値ETHは、画像解像度が高い場合、および画像上の速度検出精度が高い場合は小さい値が設定され、これらの精度があまり期待できないときは大きく設定される。 The average value of the difference between the y coordinate values of the straight line 9b estimated at this time and each point in the data set (xi, yi) is calculated as an error E. If the error E is equal to or less than a predetermined threshold value ETH , an arbitrary value is obtained. The “screen area different from the background” 8a and other “screen areas different from the background” in the vicinity thereof are areas that are erroneously set based on a stationary diagonal line approximated by the diagonal line 9b existing on the image. Therefore, these “screen areas different from the background” are extracted and deleted. In contrast, if the error E is greater than a predetermined threshold E TH, these areas are not removed because not considered to have been set incorrectly based on the shaded stationary approximated by hatching 9b. The predetermined threshold value E TH is set to a small value when the image resolution is high and the speed detection accuracy on the image is high, and is set to a large value when the accuracy cannot be expected so much.

以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)車両の上下方向の振動によって実際には静止している物体の横方向の移動速度が誤検出された場合、当該物体を含む「背景と異なる画面領域」を削除して、自車両に衝突する可能性が高い物体を含む領域を判定することとした。これによって、車両の挙動に係わらず安定して自車両前方に存在する移動物体(飛び出し物体)の検出を行うことができる。
(2)誤検出された静止物体に基づいて設定された「背景と異なる画面領域」を削除するに当たって、画像上に存在する静止物体の斜線を対象として領域の削除を行うこととした。このように誤検出が発生しやすい画像上の斜線のみを対象とするため、誤って設定された「背景と異なる画面領域」を効率よく削除することができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) When the lateral movement speed of an actually stationary object is erroneously detected due to the vertical vibration of the vehicle, the “screen area different from the background” including the object is deleted and An area including an object having a high possibility of colliding is determined. As a result, it is possible to detect a moving object (a protruding object) that is present in front of the host vehicle stably regardless of the behavior of the vehicle.
(2) In deleting the “screen area different from the background” set based on the erroneously detected stationary object, the area is deleted with respect to the oblique line of the stationary object existing on the image. As described above, since only the oblique lines on the image that are likely to be erroneously detected are targeted, it is possible to efficiently delete the “screen area different from the background” that is set in error.

(3)画像上で「背景と異なる画面領域」が斜めに連続して存在している場合には、これらの「背景と異なる画面領域」は静止した斜線に基づいて誤って設定された領域であると判断して、領域の削除を行うこととした。これによって、画像上から正確に静止した斜線に基づいて誤って設定された領域を削除することができる。
(4)画像上で「背景と異なる画面領域」が斜めに連続して存在していない場合であっても、「背景と異なる画面領域」の下端のデータ集合に基づいて直線9bを設定し、直線9bとデータ集合における各点とのy座標値の差分の平均値で表される誤差とに基づいて、これらの「背景と異なる画面領域」が斜線を誤検出したことによって誤って設定されたものであるか否かを判定した。そして、誤って設定されたものである場合には領域の削除を行うこととした。これによって、空間的に不連続で、さらにばらつきの大きい誤検出領域であっても正確に削除することができる.
(3) If “screen areas different from the background” exist diagonally and continuously on the image, these “screen areas different from the background” are areas that are erroneously set based on stationary diagonal lines. Judging that there was, it was decided to delete the area. As a result, it is possible to delete an erroneously set area based on a diagonal line that is accurately stationary from the top of the image.
(4) Even if the “screen area different from the background” does not exist diagonally continuously on the image, the straight line 9b is set based on the data set at the lower end of the “screen area different from the background” Based on the error represented by the average value of the difference of the y-coordinate values between the straight line 9b and each point in the data set, these “screen areas different from the background” were erroneously set due to the erroneous detection of the diagonal lines. It was judged whether it was a thing. If it is set by mistake, the area is deleted. As a result, even a false detection area that is spatially discontinuous and has a large variation can be deleted accurately.

―変形例―
なお、以下のように変形することもできる。
(1)上述した実施の形態では、図2に示す処理によって撮像画像の横方向の速度を検出した。しかし、これに限定されず、例えば勾配法やブロックマッチングを用いるオプティカルフローを算出して撮像画像の横方向の速度を検出してもよい。
-Modification-
In addition, it can also deform | transform as follows.
(1) In the embodiment described above, the lateral speed of the captured image is detected by the process shown in FIG. However, the present invention is not limited to this. For example, an optical flow using a gradient method or block matching may be calculated to detect the lateral velocity of the captured image.

(2)上述した実施の形態では、「背景と異なる画面領域」を検出するに当たって、エッジ画像を縦長の短冊状に区切り、各短冊状領域において画面外側から画面中央に向かう速度方向を持つ画素が存在する範囲を「背景と異なる画面領域」として設定することとした。しかし、画面外側から画面中央に向かう速度方向を持つ画素が所定以上の密度で存在する領域を「背景と異なる画面領域」として設定してもよい。また、設定した「背景と異なる画面領域」が、画像上において複数連続して存在しているものを結合して、当該結合領域を「背景と異なる画面領域」として設定してもよい。 (2) In the embodiment described above, when detecting the “screen area different from the background”, the edge image is divided into vertically long strips, and in each strip area, a pixel having a speed direction from the outside of the screen toward the center of the screen is obtained. The existing range is set as “screen area different from background”. However, an area in which pixels having a speed direction from the outside of the screen toward the center of the screen exist at a predetermined density or more may be set as a “screen area different from the background”. Alternatively, a plurality of screen areas different from the background that have been set may be combined to set the combined area as a “screen area different from the background”.

(3)上述した実施の形態では、直前9bを推定するに当たって、「背景と異なる画面領域」8aの近傍に存在する他の「背景と異なる画面領域」の下端をサンプルデータとし、そのデータ集合(xi, yi)を得ることとした。しかし、「背景と異なる画面領域」8aの近傍に存在する他の「背景と異なる画面領域」内の任意の点をサンプルデータとし、そのデータ集合を得てもよい。 (3) In the embodiment described above, in estimating the immediately preceding 9b, the lower end of another “screen area different from the background” existing in the vicinity of the “screen area different from the background” 8a is used as sample data, and the data set ( xi, yi). However, an arbitrary point in another “screen area different from the background” existing in the vicinity of the “screen area different from the background” 8a may be used as sample data to obtain the data set.

(4)上述した実施の形態では、直前9bを推定するために、パラメータαをデータ集合(xi, yi)を用いた最小二乗法により推定することとしたが、これに限定されず、他の近似手法を用いて推定してもよい。 (4) In the embodiment described above, the parameter α is estimated by the least square method using the data set (xi, yi) in order to estimate the immediately preceding 9b. However, the present invention is not limited to this. You may estimate using an approximation method.

(5)上述した実施の形態では、「背景と異なる画面領域」を削除するに当たって、推定された直線9bとデータ集合(xi, yi)における各点とのy座標値の差分の平均値を誤差Eとして算出することとしたが、その他の方法によって誤差Eを算出してもよい。 (5) In the above-described embodiment, when deleting the “screen area different from the background”, the average value of the difference between the y-coordinate values between the estimated straight line 9b and each point in the data set (xi, yi) is determined as an error. Although the calculation is performed as E, the error E may be calculated by other methods.

特許請求の範囲の構成要素と実施の形態との対応関係について説明する。カメラ101は撮像手段に、制御装置103は速度情報算出手段、領域設定手段、誤検出領域抽出手段、および判定手段に相当する。なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。   The correspondence between the constituent elements of the claims and the embodiment will be described. The camera 101 corresponds to an imaging unit, and the control device 103 corresponds to a speed information calculation unit, a region setting unit, an erroneous detection region extraction unit, and a determination unit. Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.

物体検出装置を車両に搭載した場合の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment at the time of mounting an object detection apparatus in a vehicle. 物体検出装置100の動作を示すフローチャート図である。FIG. 5 is a flowchart showing the operation of the object detection apparatus 100. 横方向の速度検出処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the speed detection process of a horizontal direction. 「背景と異なる画面領域」の検出処理の具体例を示した第1の図である。FIG. 11 is a first diagram illustrating a specific example of detection processing of “screen area different from background”. 「背景と異なる画面領域」の検出処理の具体例を示した第2の図である。FIG. 11 is a second diagram illustrating a specific example of the detection process of “screen area different from background”. 誤検出領域の削除処理の具体例を示した第1の図である。It is the 1st figure which showed the specific example of the deletion process of an erroneous detection area | region. 誤検出領域の削除処理の具体例を示した第2の図である。It is the 2nd figure which showed the specific example of the deletion process of an erroneous detection area | region. 誤検出領域の削除処理の具体例を示した第3の図である。It is the 3rd figure which showed the specific example of the deletion process of an erroneous detection area | region. 誤検出領域の削除処理の具体例を示した第4の図である。It is the 4th figure showing the example of deletion processing of a false detection field.

符号の説明Explanation of symbols

100 物体検出装置
101 カメラ
102 画像メモリ
103 制御装置
104 カウンタメモリ
DESCRIPTION OF SYMBOLS 100 Object detection apparatus 101 Camera 102 Image memory 103 Control apparatus 104 Counter memory

Claims (4)

自車両前方の画像を撮像する撮像手段と、
前記撮像手段で撮像した画像を画像処理して、前記画像内に存在する物体の横方向の速度情報を算出する速度情報算出手段と、
前記速度情報算出手段で算出した前記画像内に存在する物体の横方向の速度情報に基づいて、画像上の背景とは異なる速度方向を持つ物体を含む領域を設定する領域設定手段と、
前記領域設定手段によって設定された領域の中から画像上の斜線に対して設定された領域を誤検出領域として抽出する誤検出領域抽出手段と、
前記領域設定手段によって設定された領域の中から前記誤検出領域抽出手段で抽出された誤検出領域を削除して、残りの領域に含まれる物体を自車両前方に存在する移動物体であると判定する判定手段とを有することを特徴とする物体検出装置。
Imaging means for capturing an image in front of the host vehicle;
Speed information calculating means for performing image processing on an image captured by the imaging means and calculating lateral speed information of an object present in the image;
Area setting means for setting an area including an object having a speed direction different from the background on the image based on the speed information in the horizontal direction of the object existing in the image calculated by the speed information calculating means;
A false detection region extraction means for extracting, as a false detection region, a region set for the oblique line on the image from the regions set by the region setting means;
The erroneous detection area extracted by the erroneous detection area extraction means is deleted from the areas set by the area setting means, and the objects included in the remaining areas are determined to be moving objects existing in front of the host vehicle. An object detecting device.
請求項1に記載の物体検出装置において、
前記誤検出領域抽出手段は、前記領域設定手段によって設定された複数の領域が画像上において斜め方向に連続して存在する場合に、これらの領域を画像上の斜線に対して設定された領域として抽出することを特徴とする物体検出装置。
The object detection apparatus according to claim 1,
The misdetection area extracting means, when a plurality of areas set by the area setting means are continuously present in an oblique direction on the image, these areas are set as areas set with respect to the oblique lines on the image. An object detection apparatus characterized by extracting.
請求項1または2に記載の物体検出装置において、
前記誤検出領域抽出手段は、前記領域設定手段によって設定された複数の領域が画像上で不連続に存在している場合に、各領域内の任意の点の集合に近似する直線を算出し、前記直線と各領域内の任意の点の集合とに基づいて算出される誤差が所定値以下であれば、これらの領域を画像上の斜線に対して設定された領域として抽出することを特徴とする物体検出装置。
In the object detection device according to claim 1 or 2,
The erroneous detection area extraction means calculates a straight line that approximates a set of arbitrary points in each area when a plurality of areas set by the area setting means exist discontinuously on the image, If an error calculated based on the straight line and a set of arbitrary points in each area is equal to or less than a predetermined value, these areas are extracted as areas set with respect to diagonal lines on the image, Object detection device.
撮像された自車両前方の画像を画像処理して、前記画像内に存在する物体の横方向の速度情報を算出し、
算出した前記画像内に存在する物体の横方向の速度情報に基づいて、画像上の背景とは異なる速度方向を持つ物体を含む領域を設定し、
設定された前記領域の中から画像上の斜線に対して設定された領域を誤検出領域として抽出し、
設定された前記領域の中から抽出された前記誤検出領域を削除して、残りの領域に含まれる物体を自車両前方に存在する移動物体であると判定することを特徴とする物体検出方法。
Image processing is performed on the captured image in front of the vehicle, and lateral speed information of an object existing in the image is calculated.
Based on the calculated lateral velocity information of the object present in the image, a region including an object having a velocity direction different from the background on the image is set,
Extract the area set for the diagonal line on the image from the set area as a false detection area,
An object detection method comprising: deleting the erroneous detection area extracted from the set area, and determining that an object included in the remaining area is a moving object existing in front of the host vehicle.
JP2004266968A 2004-09-14 2004-09-14 Object detection apparatus and method Expired - Fee Related JP4069916B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004266968A JP4069916B2 (en) 2004-09-14 2004-09-14 Object detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004266968A JP4069916B2 (en) 2004-09-14 2004-09-14 Object detection apparatus and method

Publications (2)

Publication Number Publication Date
JP2006084218A JP2006084218A (en) 2006-03-30
JP4069916B2 true JP4069916B2 (en) 2008-04-02

Family

ID=36162855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004266968A Expired - Fee Related JP4069916B2 (en) 2004-09-14 2004-09-14 Object detection apparatus and method

Country Status (1)

Country Link
JP (1) JP4069916B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4946175B2 (en) * 2006-05-23 2012-06-06 日産自動車株式会社 Road boundary detection device and road boundary detection method
US8018353B2 (en) * 2008-05-09 2011-09-13 Omron Scientic Technologies, Inc. Method and apparatus for zone selection in area monitoring devices
WO2012066751A1 (en) * 2010-11-16 2012-05-24 本田技研工業株式会社 Peripheral monitoring device for vehicle
JP7202304B2 (en) * 2017-09-01 2023-01-11 株式会社村上開明堂 Collision prediction device, collision prediction method and program

Also Published As

Publication number Publication date
JP2006084218A (en) 2006-03-30

Similar Documents

Publication Publication Date Title
US7437243B2 (en) Detecting device and method to detect an object based on a road boundary
JP4811201B2 (en) Runway boundary line detection apparatus and runway boundary line detection method
KR101609303B1 (en) Method to calibrate camera and apparatus therefor
JP4877801B2 (en) Vehicle tracking method and apparatus
JP2001216519A (en) Traffic monitor device
JP5173549B2 (en) Image processing apparatus and imaging apparatus
JP4069916B2 (en) Object detection apparatus and method
JP3988758B2 (en) Moving body detection device
JP2010003253A (en) Motion estimation device
JP2008160635A (en) Camera state detection method
JP4529768B2 (en) On-vehicle object detection device and object detection method
JP4321410B2 (en) Object detection apparatus and method
JP4069919B2 (en) Collision determination device and method
JP5900021B2 (en) Pop-up detection device
JP5464073B2 (en) Outside environment recognition device, outside environment recognition method
JP4151631B2 (en) Object detection device
JP7134780B2 (en) stereo camera device
JP4107273B2 (en) Moving body detection device
JP2006107314A (en) Image processor and image processing method
JP2006317328A (en) On-vehicle object detection device and object detection method
JP4096932B2 (en) Vehicle collision time estimation apparatus and vehicle collision time estimation method
KR101724656B1 (en) Apparatus and method for extracting obstacle extraction base on difference-image
JP2003233802A (en) Approaching object detecting device
JP2002342748A (en) Method and device for detecting queue
JP2008293400A (en) Video monitoring system and method for setting monitoring area

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080107

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees