JP4830822B2 - Object detection apparatus and object detection method - Google Patents

Object detection apparatus and object detection method Download PDF

Info

Publication number
JP4830822B2
JP4830822B2 JP2006324155A JP2006324155A JP4830822B2 JP 4830822 B2 JP4830822 B2 JP 4830822B2 JP 2006324155 A JP2006324155 A JP 2006324155A JP 2006324155 A JP2006324155 A JP 2006324155A JP 4830822 B2 JP4830822 B2 JP 4830822B2
Authority
JP
Japan
Prior art keywords
determined
image
pixels
grouped
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006324155A
Other languages
Japanese (ja)
Other versions
JP2008077624A (en
Inventor
和巳 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006324155A priority Critical patent/JP4830822B2/en
Publication of JP2008077624A publication Critical patent/JP2008077624A/en
Application granted granted Critical
Publication of JP4830822B2 publication Critical patent/JP4830822B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体検出装置および物体検出方法に関するものである。   The present invention relates to an object detection device and an object detection method.

従来の物体検出装置は例えば下記特許文献1に記載されている。
下記従来技術では、移動体を検出するために、車載カメラの撮像画像からオプティカルフロー(画像上における動きを示すベクトル)を算出する。また車両の車輪の回転速度とハンドルの舵角から車両の動きを推定する。さらに、自車両前方に存在する物体までの距離を算出して自車両前方の空間をモデル化した空間モデルを生成する。そして、算出したオプティカルフローと車両の動き、空間モデルとに基づいて、撮像画像から移動体を検出している。
特開2004−56763号
A conventional object detection apparatus is described in, for example, Patent Document 1 below.
In the following prior art, in order to detect a moving body, an optical flow (a vector indicating a motion on an image) is calculated from a captured image of a vehicle-mounted camera. In addition, the movement of the vehicle is estimated from the rotational speed of the vehicle wheel and the steering angle of the steering wheel. Further, a distance model to the object existing in front of the host vehicle is calculated to generate a space model that models the space in front of the host vehicle. Then, based on the calculated optical flow, the movement of the vehicle, and the space model, a moving body is detected from the captured image.
JP 2004-56763 A

上記従来技術では、自車両前方の空間モデルを生成し、この空間モデルと自車両の動きに基づいて撮像画像から移動体を検出している。このため自車両の動き推定や物体までの距離を算出するための処理時間を要するため、移動体を高速に検出することが難しいという問題が生じていた。   In the above prior art, a space model ahead of the host vehicle is generated, and a moving object is detected from the captured image based on the space model and the movement of the host vehicle. For this reason, since it takes a processing time to estimate the motion of the host vehicle and to calculate the distance to the object, there is a problem that it is difficult to detect the moving object at high speed.

本発明は、撮像手段で撮像した自車両前方の画像から特徴点を抽出し、抽出した特徴点を表す画素の画像上における移動速度情報を算出するとともに、画像の垂直方向に隣接するし、移動速度情報が所定の範囲にある画素をグループ化する。そして、グループ化した画素の最上部に位置する画素と最下部に位置する画素の位置座標を、実空間上の水平方向及び車両前後方向の平面である俯瞰平面における位置座標に変換する。さらに、その変換結果に基づいて、グループ化した画素が平面物か立体物かを判定し、立体物と判定したグループ化した画素の画像における水平方向の位置座標と移動速度情報との関係に基づいて、静止物であるか移動体であるかを判定する。 The present invention extracts a feature point from an image ahead of the host vehicle imaged by the imaging means, calculates movement speed information on an image of a pixel representing the extracted feature point, is adjacent to the image in the vertical direction, and moves Pixels having velocity information in a predetermined range are grouped. Then, the position coordinates of the pixel located at the uppermost part and the pixel located at the lowermost part of the grouped pixels are converted into position coordinates on an overhead view plane which is a horizontal plane in the real space and a plane in the vehicle front-rear direction. Further, based on the conversion result, it is determined whether the grouped pixel is a planar object or a three-dimensional object, and based on the relationship between the horizontal position coordinate and the moving speed information in the image of the grouped pixel determined to be a three-dimensional object. To determine whether the object is a stationary object or a moving object.

本発明によれば、撮像した画像の特徴点を表す画素の画像上における移動速度情報に基づいてグループ化し、各グループ化した画素の最上部及び最下部の画素の俯瞰平面に変換した位置座標から、平面物と立体物を判定し、立体物と判定した画素の水平方向の位置座標と移動速度情報との関係に基づいて移動体を判定するようにしたので、自車両の動き推定や物体までの距離を算出することなく移動体を高速に検出することができる。 According to the present invention, from the position coordinates that are grouped based on the moving speed information on the image representing the feature point of the captured image and converted to the overhead plane of the top and bottom pixels of each grouped pixel. Since the moving object is determined based on the relationship between the horizontal position coordinate of the pixel determined to be a three-dimensional object and the moving speed information, the plane object and the three-dimensional object are determined. The moving object can be detected at high speed without calculating the distance.

以下、この発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、第1の実施例における物体検出装置の構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration example of an object detection apparatus according to the first embodiment.

物体検出装置10は車両に搭載され、車両前方を撮像する撮像部であるカメラ101および、カメラ101で撮像した画像を一時的に記録する画像一時記録部102と、画像一時記録部102に記憶された画像を画像処理することで特徴点を抽出する特徴点抽出部103と、特徴点抽出部103により抽出された特徴点の位置座標を3次元画像上の位置座標に変換する座標変換部104と、特徴点抽出部103により抽出された特徴点の画像上における速度および方向を移動情報として算出する移動情報算出部105と、移動情報算出部105により算出された特徴点の速度値に基づいて特徴点のグループ化を行うグループ化部106と、座標変換部104により変換された3次元座標の情報および移動情報算出部105により算出された特徴点の移動情報およびグループ化部106によりグループ化された特徴点のグループ化情報に基づいて特徴点が平面物であるか立体物であるかを判定するとともに、特徴点が立体物である場合には移動体であるかどうかを判定する物体属性判定部107とを有する制御部100を備えている。   The object detection device 10 is mounted on a vehicle and stored in a camera 101 that is an imaging unit that images the front of the vehicle, an image temporary recording unit 102 that temporarily records an image captured by the camera 101, and an image temporary recording unit 102. A feature point extraction unit 103 that extracts a feature point by performing image processing on the captured image; a coordinate conversion unit 104 that converts the position coordinates of the feature point extracted by the feature point extraction unit 103 into a position coordinate on a three-dimensional image; A feature information based on the velocity value of the feature point calculated by the movement information calculation unit 105 and the movement information calculation unit 105 that calculates the velocity and direction on the image of the feature point extracted by the feature point extraction unit 103 as movement information. The grouping unit 106 that groups points, the information of the three-dimensional coordinates converted by the coordinate conversion unit 104, and the special information calculated by the movement information calculation unit 105 When the feature point is a plane object or a three-dimensional object based on the point movement information and the grouping information of the feature points grouped by the grouping unit 106, and when the feature point is a three-dimensional object Includes a control unit 100 having an object attribute determination unit 107 that determines whether or not the object is a moving object.

カメラ101は、例えばCCDやCMOSなどの撮像素子を有したカメラであり、連続的に車両前方を撮像してフレーム毎に撮像した画像を画像一時記録部102に出力する。カメラ101で撮像された画像は、画像一時記録部102に一時的に記録される。ここで、図2に示すように、カメラ101は車両の室内上部前方に設置され、その光軸LSは車両前方正面方向(Z方向)に向き、撮像面の水平軸X(図示省略)は路面と平行となるように、また撮像面の垂直軸Y(図示省略)は路面と垂直になるように設定されている。   The camera 101 is a camera having an image sensor such as a CCD or a CMOS, for example, and continuously images the front of the vehicle and outputs an image captured for each frame to the image temporary recording unit 102. An image captured by the camera 101 is temporarily recorded in the image temporary recording unit 102. Here, as shown in FIG. 2, the camera 101 is installed in the upper front part of the vehicle interior, its optical axis LS is directed in the front front direction (Z direction) of the vehicle, and the horizontal axis X (not shown) of the imaging surface is the road surface. The vertical axis Y (not shown) of the imaging surface is set to be perpendicular to the road surface.

カメラ101で撮像した画像(自車両前方の画像)の例を図3に示す。カメラ101による撮像画像は、画像左上を原点として左から右へx軸、上から下へy軸とするxy座標系によって表される。なお、図3においては、左右の走路脇に設置された縁石、白線、外壁などの走路の境界線と、左から右へ移動する歩行者が撮像画像に含まれている。   An example of an image captured by the camera 101 (an image ahead of the host vehicle) is shown in FIG. An image captured by the camera 101 is represented by an xy coordinate system in which the upper left of the image is the origin and the x axis is from left to right and the y axis is from top to bottom. Note that in FIG. 3, the captured image includes a boundary line of a runway such as a curb, a white line, and an outer wall installed on the left and right side of the runway, and a pedestrian moving from left to right.

特徴点抽出部103は、カメラ101で撮像された画像を画像一時記録部102から読み込み、読み込んだ撮像画像を所定の閾値を用いて2値化することによって、画像内に存在する物体のエッジを抽出する。図4(a)に、抽出した垂直方向のエッジ例を示す。次に、抽出した各エッジに対して、細線化処理を行ってエッジ幅を絞り、エッジの中心を正確に設定する(図4(b)参照)。さらに、細線化されたエッジのエッジ幅が一定の幅となるように、例えば3画素分の幅となるように、エッジを水平方向に拡張する(図4(c)参照)。この操作により、抽出したエッジが正規化され、各エッジが均一の幅を持つエッジ画像を得ることができる。   The feature point extraction unit 103 reads the image captured by the camera 101 from the image temporary recording unit 102, and binarizes the read captured image using a predetermined threshold value, thereby detecting the edge of the object present in the image. Extract. FIG. 4A shows an example of the extracted vertical edge. Next, thinning processing is performed on each extracted edge to narrow the edge width, and the center of the edge is accurately set (see FIG. 4B). Further, the edge is expanded in the horizontal direction so that the edge width of the thinned edge becomes a constant width, for example, a width corresponding to three pixels (see FIG. 4C). By this operation, the extracted edges are normalized, and an edge image having a uniform width for each edge can be obtained.

移動情報算出部105は、エッジに該当する画素の画素カウンタのカウンタ値を更新する。ここで、画素カウンタとは、各画素毎に設定されたカウンタであり、画素がエッジに該当する場合に画素カウンタのカウンタ値が+1加算され、画素がエッジに該当しない場合は画素カウンタのカウンタ値が0となって初期化されるカウンタである。このカウンタ値の更新処理を、カメラ101で連続的に撮像されるフレーム毎に行う。この操作により、エッジに該当する時間が長い画素は画素カウンタのカウンタ値が大きくなり、エッジに該当する時間が短い画素は画素カウンタのカウンタ値が小さくなる。   The movement information calculation unit 105 updates the counter value of the pixel counter of the pixel corresponding to the edge. Here, the pixel counter is a counter set for each pixel, and when the pixel corresponds to an edge, the counter value of the pixel counter is incremented by +1, and when the pixel does not correspond to the edge, the counter value of the pixel counter Is a counter initialized to 0. The counter value updating process is performed for each frame continuously captured by the camera 101. As a result of this operation, the counter value of the pixel counter increases for pixels with a long time corresponding to the edge, and the counter value of the pixel counter decreases for a pixel with a short time corresponding to the edge.

この画素カウンタのカウンタ値の変化は、エッジの移動方向と移動量を表していることになるため、このカウンタ値から、撮像画像上におけるエッジの移動方向と移動速度とを算出することができる。以下、詳細に説明する。   Since the change in the counter value of the pixel counter represents the moving direction and moving amount of the edge, the moving direction and moving speed of the edge on the captured image can be calculated from the counter value. Details will be described below.

図4は、上述した抽出したエッジを正規化して、エッジ画像を得るために行う処理の具体例を示す図である。   FIG. 4 is a diagram illustrating a specific example of processing performed to obtain an edge image by normalizing the extracted edges.

まず、エッジ画像に対して2値化処理を行う。2値化処理とはエッジの検出された位置の画素を1とし、エッジの検出されなかった位置の画素を0とする処理である。2値化処理によって図4(a)に示すような2値化画像を生成する。   First, binarization processing is performed on the edge image. The binarization process is a process in which a pixel at a position where an edge is detected is set to 1 and a pixel at a position where no edge is detected is set to 0. A binarized image as shown in FIG. 4A is generated by binarization processing.

次に、生成された2値化画像に対して、細線化処理を行う。細線化処理とは、検出されたエッジのエッジ幅を所定画素幅になるまで縮小する処理である。図4(b)では所定画素幅として1画素になるまでエッジのエッジ幅を細線化している。そして、このようにエッジを所定の画素幅になるまで細線化することによって、エッジの中心となる中心位置を設定している。ここでは一例として1画素に細線化する場合について説明しているが、その他の画素数に細線化してもよい。   Next, thinning processing is performed on the generated binary image. The thinning process is a process of reducing the edge width of the detected edge until a predetermined pixel width is reached. In FIG. 4B, the edge width of the edge is thinned until the predetermined pixel width reaches 1 pixel. Then, the center position that is the center of the edge is set by thinning the edge until a predetermined pixel width is obtained. Here, as an example, the case of thinning to one pixel is described, but thinning may be performed to other numbers of pixels.

次に、細線化されたエッジのエッジ幅を膨張させる膨張処理を行う。膨張処理とは、細線化によって設定された中心位置からエッジの移動方向に向かってエッジ幅を膨張させるとともに、中心位置からエッジの移動方向と反対方向にもエッジ幅を膨張させる処理である。例えば、図4(c)では、エッジの中心位置x0からエッジの移動方向(x軸の正方向)に1画素膨張させるとともに、エッジの中心位置x0からエッジの移動方向と反対方向(x軸の負方向)に1画素膨張させて、エッジ幅を3画素に膨張させている。   Next, an expansion process is performed to expand the edge width of the thinned edge. The expansion process is a process of expanding the edge width from the center position set by thinning toward the edge moving direction and expanding the edge width from the center position to the opposite direction to the edge moving direction. For example, in FIG. 4C, one pixel is expanded from the edge center position x0 to the edge movement direction (the positive direction of the x-axis), and the edge movement direction from the edge center position x0 is opposite to the edge movement direction (the x-axis direction). 1 pixel is expanded in the negative direction), and the edge width is expanded to 3 pixels.

このように細線化処理と膨張処理とを行うことによって、抽出したエッジ画像のエッジ幅を、エッジの移動方向に向かって所定の幅に統一して規格化している。   By performing the thinning process and the expansion process in this way, the edge width of the extracted edge image is standardized to a predetermined width in the edge moving direction.

次に、エッジ幅の規格化されたエッジに対してカウントアップ処理を行う。カウントアップ処理とは、エッジが検出された位置のメモリアドレスの値をカウントアップし、エッジが検出されなかった位置のメモリアドレスの値を初期化する処理である。   Next, a count-up process is performed on the edge whose edge width is standardized. The count-up process is a process for counting up the value of the memory address at the position where the edge is detected and initializing the value of the memory address at the position where the edge is not detected.

以下、図4(c)〜(f)に基づいてエッジのカウントアップ処理について説明する。ここでは簡単のためにエッジはx軸の正方向に移動するものとして説明する。なお、エッジはx軸の負方向やy軸方向、あるいは2次元的に移動する場合も同様に説明することができる。   Hereinafter, the edge count-up process will be described with reference to FIGS. Here, for the sake of simplicity, it is assumed that the edge moves in the positive direction of the x axis. Note that the edge can be similarly described when moving in the negative x-axis direction, the y-axis direction, or two-dimensionally.

図4(c)に示すように、エッジはあるフレームにおいて位置x0にエッジの中心位置があり、その中心位置からエッジの移動方向に1画素の位置x0+1と、中心位置からエッジの移動方向と反対方向に1画素の位置x0−1に膨張されている。   As shown in FIG. 4C, the edge has a center position of the edge at a position x0 in a certain frame, a position x0 + 1 of one pixel in the moving direction of the edge from the center position, and opposite to the moving direction of the edge from the center position. In the direction, it is expanded to a position x0-1 of one pixel.

このような場合にエッジが検出された位置x0−1、x0、x0+1のカウント値が1ずつカウントアップされ、エッジが検出されなかった位置のカウント値がリセットされる。 例えば、図4(d)では、時刻tにおいて位置x0−1、x0、x0+1にエッジが検出されているので、それぞれの位置で1ずつカウントアップされて、位置x0+1のカウント値が1、位置x0のカウント値が3、位置x0−1のカウント値が5になっている。   In such a case, the count values at the positions x0-1, x0, and x0 + 1 where the edge is detected are incremented by 1, and the count value at the position where the edge is not detected is reset. For example, in FIG. 4D, since an edge is detected at positions x0-1, x0, x0 + 1 at time t, the count is incremented by 1 at each position, the count value at position x0 + 1 is 1, and position x0 Is 3, and the count value at position x0-1 is 5.

そして、図4(e)に示すように時刻t+1でもエッジが移動していないので、位置x0−1、x0、x0+1の各位置でエッジが検出され、位置x0−1、x0、x0+1のカウント値をさらに1ずつカウントアップして、位置x0−1のカウント値を2、位置x0のカウント値を4、位置x0+1のカウント値を6としている。   Then, as shown in FIG. 4E, since the edge does not move even at time t + 1, the edge is detected at each of the positions x0-1, x0, x0 + 1, and the count values at the positions x0-1, x0, x0 + 1 are detected. Is further incremented by 1 so that the count value at position x0-1 is 2, the count value at position x0 is 4, and the count value at position x0 + 1 is 6.

さらに、図4(f)に示すように時刻t+2では、エッジがx軸の正方向に1画素シフトして位置x0、x0+1、x0+2の位置でエッジが検出されている。
したがって、エッジが検出された位置x0、x0+1、x0+2のカウント値がカウントアップされ、エッジが検出されなかった位置x0−1のカウント値がリセットされる。
Further, as shown in FIG. 4 (f), at time t + 2, the edge is shifted by one pixel in the positive direction of the x axis, and the edge is detected at positions x0, x0 + 1, and x0 + 2.
Accordingly, the count values at the positions x0, x0 + 1, and x0 + 2 where the edge is detected are counted up, and the count values at the position x0-1 where the edge is not detected are reset.

この結果、図4(f)に示すように位置x0+2のカウント値が1、位置x0+1のカウント値が3、位置x0のカウント値が5となっている。さらに、エッジが検出されなかった位置x0−1のカウント値はリセットされて0になっている。   As a result, the count value at position x0 + 2 is 1, the count value at position x0 + 1 is 3, and the count value at position x0 is 5, as shown in FIG. Further, the count value at the position x0-1 where no edge is detected is reset to zero.

このようにして、エッジが検出された位置のカウント値をカウントアップし、エッジの検出されなかった位置のカウント値をリセットしている。   In this way, the count value at the position where the edge is detected is counted up, and the count value at the position where the edge is not detected is reset.

図4では、カウント値を検出する位置として、エッジの中心位置(x0)と、この中心位置からエッジの移動方向へ1画素の位置(x0+1)と、中心位置からエッジの移動方向と反対方向に1画素の位置(x0−1)の3箇所でカウント値を検出していたが、後述するカウント値の傾きが求められれば、エッジの移動方向に対して2箇所以上であれば何箇所のカウント値を検出してもよい。   In FIG. 4, as the position for detecting the count value, the center position (x0) of the edge, the position of one pixel (x0 + 1) from the center position to the edge movement direction, and the direction from the center position to the edge movement direction are opposite. The count value is detected at three positions of the position (x0-1) of one pixel. If the slope of the count value described later is obtained, the number of counts can be counted as long as it is two or more with respect to the edge moving direction. The value may be detected.

また、エッジが移動する速度に比べて、フレームレートが十分に高く設定されていれば、連続するフレーム間において、エッジは同じ位置で複数回検出される。   If the frame rate is set sufficiently higher than the speed at which the edge moves, the edge is detected a plurality of times at the same position between consecutive frames.

例えば、図4の例では、位置x0において時刻tと時刻t+1の2回エッジが検出されている。したがって、エッジが検出された位置のカウント値をカウントアップしていくと、そのカウント値はその位置においてエッジが検出されている時間(フレーム数)と等しくなる。特にエッジのカウント値の中で最小のカウント値hは、エッジが移動してから何フレームの間、同じ位置にあるかということを表している。   For example, in the example of FIG. 4, two edges at time t and time t + 1 are detected at the position x0. Therefore, when the count value at the position where the edge is detected is counted up, the count value becomes equal to the time (number of frames) during which the edge is detected at that position. In particular, the smallest count value h of the edge count values represents how many frames the edge has been in the same position after moving.

次に、エッジの移動速度、移動方向および位置を算出する。   Next, the moving speed, moving direction and position of the edge are calculated.

まずカウント値の移動方向への傾きを算出し、この傾きに基づいて、エッジの移動方向、移動速度および位置を算出する。   First, the inclination of the count value in the movement direction is calculated, and the movement direction, movement speed, and position of the edge are calculated based on this inclination.

例えば、図4(e)の場合では、位置x0−1、x0、x0+1のカウント値がそれぞれ6、4、2となっている。   For example, in the case of FIG. 4E, the count values at positions x0-1, x0, and x0 + 1 are 6, 4, and 2, respectively.

したがって、位置x0−1のカウント値6からx0+1のカウント値2を引くことによって、カウント値の傾きをH=(6−2)/2=2として算出することができる。   Therefore, by subtracting the count value 2 of x0 + 1 from the count value 6 of the position x0-1, the slope of the count value can be calculated as H = (6-2) / 2 = 2.

これは、
H={(エッジが位置x0−1に移動してから現在までの時間)−(エッジが位置x0+1に移動してしまった後の時間)}/(2画素)
を意味するので、これによりエッジが位置x0のある1画素を通過するのに要した時間(フレーム数)を算出したことになる。
this is,
H = {(time from the edge moving to the position x0-1 to the present)-(time after the edge has moved to the position x0 + 1)} / (2 pixels)
Thus, the time (number of frames) required for the edge to pass through one pixel at the position x0 is calculated.

したがって、カウント値の傾きHはエッジが1画素移動するために何フレームを要したかを求めることになり、このカウント値の傾きHに基づいてエッジの移動速度1/Hを算出することができる。   Accordingly, the slope H of the count value determines how many frames it takes for the edge to move by one pixel, and the edge moving speed 1 / H can be calculated based on the slope H of the count value. .

図4(e)では1画素移動するのに2フレームを要したことになるので、エッジの移動速度は1/2(画素/フレーム)と算出することができる。   In FIG. 4 (e), two frames are required to move one pixel, so the edge moving speed can be calculated as 1/2 (pixel / frame).

同様に、図4(f)でもH=(5−1)/2=2となるので、エッジの移動速度は1/2(画素/フレーム)になる。 Similarly, in FIG. 4F, H = (5-1) / 2 = 2, so that the edge moving speed is ½ (pixel / frame).

また、エッジの移動方向は、カウント値の大小によって判断することができる。エッジが移動して新たにエッジが検出された位置のカウント値は1であり、各位置のカウント値の中では最も小さな値となる。   Further, the edge moving direction can be determined by the magnitude of the count value. The count value at the position where the edge is moved and the edge is newly detected is 1, which is the smallest value among the count values at each position.

したがって、エッジが移動する方向のカウント値は小さく、エッジが移動する方向と反対方向のカウント値は大きくなるので、これによってエッジの移動方向を判断することができる。   Therefore, the count value in the direction in which the edge moves is small, and the count value in the direction opposite to the direction in which the edge moves is large, so that the edge moving direction can be determined.

さらに、エッジが移動する速度に比べてフレームレートが十分に高く設定されていれば、検出対象物は等速移動をしていると仮定することができる。また、現在の位置におけるカウント値の中で最小のカウント値hは、エッジがその位置で検出されている時間、すなわちエッジが移動してから何フレームの間、同じ位置にあるかということを表している。
これらのことにより、エッジの位置は、エッジの中心位置をx0とすると
エッジの位置=x0+h/H
により求めることができる。
Furthermore, if the frame rate is set sufficiently higher than the speed at which the edge moves, it can be assumed that the detection target object moves at a constant speed. In addition, the smallest count value h among the count values at the current position represents the time when the edge is detected at the position, that is, how many frames the edge has moved to stay at the same position. ing.
As a result, the position of the edge is determined by assuming that the center position of the edge is x0, the position of the edge = x0 + h / H.
It can ask for.

例えば図4(f)では、エッジの速度は1/2(画素/フレーム)で、時刻t+2の時点では1フレーム連続して同じ位置でエッジが検出されているので、時刻t+2のエッジの位置は
1(フレーム)×{1/2(画素/フレーム)}=0.5画素
だけ位置x0から移動していると算出することができる。
For example, in FIG. 4F, the edge speed is ½ (pixel / frame), and since the edge is detected at the same position continuously for one frame at time t + 2, the edge position at time t + 2 is It can be calculated that 1 (frame) × {1/2 (pixel / frame)} = 0.5 pixel is moved from the position x0.

以上から、エッジが検出された位置のカウント値をカウントアップし、カウントアップされたカウント値の傾きに基づいてエッジの移動速度及び移動方向を算出するができる。   From the above, it is possible to count up the count value at the position where the edge is detected and calculate the moving speed and moving direction of the edge based on the slope of the counted up count value.

次に、撮像画像上に存在するエッジの速度成分を所定の階級値に分類して表した速度画像を生成する。本実施例における速度画像は、図5に示すように、速度が検出されたエッジの画素を丸型の点で表し、移動速度が速い画素ほど点を大きく示す。また、右へ向かう速度を黒点で表し、左へ向かう速度を白点で表すことによって移動方向を表している。図5においては、自車両の走行路右側の縁石および白線からは画像の右側へ向かう速度が検出されており、走行路左側の外壁からは画像の左側へ向かう速度が検出されている。また、走行路左側から右へ移動する歩行者では、画像の右側へ向かう速度が検出されている。   Next, a velocity image is generated by classifying the velocity components of the edges present on the captured image into predetermined class values. As shown in FIG. 5, the velocity image in the present embodiment represents the edge pixels where the velocity is detected as a round dot, and the pixel having a higher moving velocity indicates a larger dot. Further, the moving direction is represented by expressing the speed toward the right as a black point and the speed toward the left as a white point. In FIG. 5, the speed toward the right side of the image is detected from the curb and the white line on the right side of the traveling path of the host vehicle, and the speed toward the left side of the image is detected from the outer wall on the left side of the traveling path. For a pedestrian who moves from the left side to the right side of the travel path, the speed toward the right side of the image is detected.

グループ化部106は、算出した速度画像から立体物を抽出するために、速度画像を分割する領域を設定する。すなわち、図6に示すように、速度画像上に短冊状の複数の領域を設定し、速度画像を複数の領域で分割する。   The grouping unit 106 sets a region for dividing the speed image in order to extract a three-dimensional object from the calculated speed image. That is, as shown in FIG. 6, a plurality of strip-shaped areas are set on the speed image, and the speed image is divided into the plurality of areas.

次に、各領域毎に、画像の縦方向において同じ速度で連続する画素をグループ化することにより、立体物を検出する。すなわち、画像の下部から上部に向かって各領域を走査し、領域内に速度を持った画素が存在する場合、その画素の上方に隣接する速度を持った画素との速度差を比較し、速度差が閾値T1以下である場合には、車両に対して同じ速度で移動する物体であると推定できることから、同じ物体であると判定してグループ化を行う。そして、同じ速度でグループ化された画素の上端位置(請求項における最上部)と下端位置(請求項における最下部)を検出する。この処理により、図6における下端BL1〜BL11及び上端TL1〜TL11が検出される。   Next, a three-dimensional object is detected by grouping pixels that are continuous at the same speed in the vertical direction of the image for each region. In other words, each area is scanned from the bottom to the top of the image, and if there is a pixel with speed in the area, the speed difference with the pixel with speed adjacent to that pixel is compared and the speed is compared. When the difference is equal to or less than the threshold value T1, it can be estimated that the objects are moving at the same speed with respect to the vehicle. Then, the upper end position (the uppermost part in the claims) and the lower end position (the lowermost part in the claims) of the pixels grouped at the same speed are detected. By this process, lower ends BL1 to BL11 and upper ends TL1 to TL11 in FIG. 6 are detected.

座標変換部104は、xy平面上で抽出した下端BL1〜BL11および上端TL1〜TL11の中心位置を座標とする下端点BP1〜BP11(図示省略)および上端点TP1〜TP11(図示省略)の位置座標を、規定の面積を備えたZX座標(以下、規定のZX座標と呼ぶ)上の点として3次元の位置座標(実空間上の水平方向及び車両前後方向の平面である俯瞰平面における位置座標)に変換する。 The coordinate conversion unit 104 has position coordinates of lower end points BP1 to BP11 (not shown) and upper end points TP1 to TP11 (not shown) having the coordinates of the center positions of the lower ends BL1 to BL11 and the upper ends TL1 to TL11 extracted on the xy plane. As a point on a ZX coordinate having a specified area (hereinafter referred to as a specified ZX coordinate), a three-dimensional position coordinate (a position coordinate in an overhead plane that is a plane in the horizontal direction and the vehicle front-rear direction in real space) Convert to

ここで、各点の座標を(x、y)とし、カメラの路面からの高さをCh(m)、カメラの俯角をTr(rad)、画像の縦サイズをIh、画像の横サイズをIw、高さ方向の1画素あたりの角度分解能をPYr(rad)、横方向の1画素あたりの角度分解能をPXr(rad)とすると、xy平面上の点TP1〜TP11及びBP1〜BP11は、次式に従ってZX平面の座標(Z、X)に変換される。   Here, the coordinates of each point are (x, y), the height from the road surface of the camera is Ch (m), the depression angle of the camera is Tr (rad), the vertical size of the image is Ih, and the horizontal size of the image is Iw. If the angular resolution per pixel in the height direction is PYr (rad) and the angular resolution per pixel in the horizontal direction is PXr (rad), the points TP1 to TP11 and BP1 to BP11 on the xy plane are Is converted into coordinates (Z, X) on the ZX plane.

(式1)Z=(Ch)/(TAN(Tr+(y−Ih/2)×PYr))
(式2)X=x×TAN((Z-Iw/2)×PXr)
上端点TP1〜TP11、下端点BP1〜BP11の変換後の点を、上端点の座標変換点RT1〜RT11、下端点の座標変換点RB1〜RB11とする。
(Formula 1) Z = (Ch) / (TAN (Tr + (y−Ih / 2) × PYr))
(Formula 2) X = x × TAN ((Z-Iw / 2) × PXr)
The converted points of the upper end points TP1 to TP11 and the lower end points BP1 to BP11 are referred to as upper end point coordinate conversion points RT1 to RT11 and lower end point coordinate conversion points RB1 to RB11.

物体属性判定部107は、上端点の座標変換点RT1〜RT11、下端点の座標変換点RB1〜RB11が、規定のZX平面を分割して設定した領域のうちどの領域に位置するかの判定を行う(図7参照)。ここで、車両の上下動に伴いカメラ101の撮像映像も上下に動き、座標変換点が位置する領域も変動してしまう可能性がある。この影響を避けるため、ZX平面を分割して設定する領域はメーターオーダーで設定することが望ましい。本実施例では、x軸方向は、−5.25m>x、−5.25≦x<−3.5m、−3.5m≦x<−1.75m、−1.75m≦x<0m、0m≦x<1.75m、1.75m≦x<3.5m、3.5m≦x<5.25m、5.25m≦x、として8分割し、z軸方向は、0≦z<10m、10m≦z<20m、20m≦z<30m、30m≦z<40m、40m≦z<50mとして5分割して、領域11〜領域15、領域21〜領域25、領域31〜領域35、領域41〜領域45、領域51〜領域55、領域61〜領域65、領域71〜領域75、領域81〜領域85を設定している。また、領域11〜領域15を領域10とし、領域21〜領域25を領域20とし、領域31〜領域35を領域30とし、領域41〜領域45を領域40とし、領域51〜領域55を領域50とし、領域61〜領域65を領域60とし、領域71〜領域75を領域70とし、領域81〜領域85を領域80としている。   The object attribute determination unit 107 determines in which region the coordinate conversion points RT1 to RT11 of the upper end point and the coordinate conversion points RB1 to RB11 of the lower end point are located among the regions set by dividing the prescribed ZX plane. Perform (see FIG. 7). Here, as the vehicle moves up and down, the captured image of the camera 101 also moves up and down, and the region where the coordinate conversion point is located may also change. In order to avoid this influence, it is desirable to set the area to be set by dividing the ZX plane in meter order. In this embodiment, the x-axis direction is −5.25 m> x, −5.25 ≦ x <−3.5 m, −3.5 m ≦ x <−1.75 m, −1.75 m ≦ x <0 m, 0 m ≦ x <1.75 m, 1.75 m ≦ x <3.5 m, 3.5 m ≦ x <5.25 m, 5.25 m ≦ x, and the z-axis direction is 0 ≦ z <10 m, 10 m ≦ z <20 m, 20 m ≦ z <30 m, 30 m ≦ z <40 m, 40 m ≦ z <50 m, and divided into 5 regions 11 to 15, regions 21 to 25, regions 31 to 35, regions 41 to 41 Region 45, region 51 to region 55, region 61 to region 65, region 71 to region 75, and region 81 to region 85 are set. Further, the region 11 to the region 15 are the region 10, the region 21 to the region 25 are the region 20, the region 31 to the region 35 are the region 30, the region 41 to the region 45 are the region 40, and the region 51 to the region 55 are the region 50. The region 61 to the region 65 are the region 60, the region 71 to the region 75 are the region 70, and the region 81 to the region 85 are the region 80.

そして、xy平面の同一の縦方向領域における上端点の座標変換点と上端点と同一のグループの下端点の座標変換点が規定のZX平面の同一の領域に位置すれば、上端点と下端点が路面上にある、すなわち路面上の平面物であると判定する。また、上端点の座標変換点が規定のZX平面外に位置し、上端点と同一のグループの下端点の座標変換点が規定のZX平面の領域に位置すれば、下端点のみ路面上にある、すなわち立体物であると判定する。ここで、走路境界を検出するために、各領域に設定したカウンタのうち下端点の座標変換点が位置する領域のカウンタのカウンタ値を+1加算し、下端点の位置情報分布を算出する。   If the coordinate transformation point of the upper end point and the coordinate transformation point of the lower end point of the same group as the upper end point in the same vertical region of the xy plane are located in the same region of the prescribed ZX plane, the upper end point and the lower end point Is on the road surface, that is, is a plane object on the road surface. In addition, if the coordinate transformation point of the upper end point is located outside the prescribed ZX plane and the coordinate transformation point of the lower end point of the same group as the upper end point is located in the region of the prescribed ZX plane, only the lower end point is on the road surface. That is, it is determined that the object is a three-dimensional object. Here, in order to detect the road boundary, +1 is added to the counter value of the counter in the area where the coordinate conversion point of the lower end point is located among the counters set in each area, and the position information distribution of the lower end point is calculated.

例えば、本実施例では、上端点TP1〜TP5の座標変換点RT1〜RT5は図7に示す規定のZX平面外に投影されるため、上端点TP1〜TP5を含むグループは立体物であると判定され、上端点TP1〜TP5を含むエッジはxy平面上で立体物OB1〜OB5として判定される。また上端点TP6〜TP11の座標変換点RT6〜RT11は下端点BP6〜BP11の座標変換点RB6〜RB11と同じ領域に位置するため、上端点TP6〜TP11を含むグループは路面上に位置する物であると判定される。ここで、走路境界を検出するために、下端点の座標変換点RB1〜RB11が位置する領域のカウンタのカウンタ値を+1加算する。   For example, in this embodiment, the coordinate transformation points RT1 to RT5 of the upper end points TP1 to TP5 are projected outside the prescribed ZX plane shown in FIG. 7, and therefore the group including the upper end points TP1 to TP5 is determined to be a three-dimensional object. The edges including the upper end points TP1 to TP5 are determined as the three-dimensional objects OB1 to OB5 on the xy plane. Since the coordinate transformation points RT6 to RT11 of the upper end points TP6 to TP11 are located in the same area as the coordinate transformation points RB6 to RB11 of the lower end points BP6 to BP11, the group including the upper end points TP6 to TP11 is located on the road surface. It is determined that there is. Here, in order to detect the road boundary, +1 is added to the counter value of the counter in the area where the coordinate conversion points RB1 to RB11 of the lower end point are located.

そして、図8に示すように、得られた下端点の座標変換点の位置分布から、走路境界線が存在する可能性が高い領域を抽出する。すなわち、得られた下端点の座標変換点の位置分布において、同じx軸領域で複数のz軸領域にカウンタ値が存在すれば、自車両前方に走路境界が車両に沿って直線状に存在すると推定できるため、カウンタ値がある領域を走路境界領域として抽出する。例えば、図8では、x軸が同じ範囲の領域30において、複数のz軸領域(下端点RB1、RB4、RB5が位置する領域)にカウンタ値が存在するため、これらの領域を走路境界領域として抽出する。領域50、領域80についても同様である。   And as shown in FIG. 8, the area | region where possibility that a track boundary line exists is extracted from the position distribution of the coordinate conversion point of the obtained lower end point. In other words, in the obtained position distribution of the coordinate transformation point of the lower end point, if there are counter values in a plurality of z-axis regions in the same x-axis region, a road boundary exists linearly along the vehicle in front of the host vehicle. Since it can be estimated, an area with a counter value is extracted as a road boundary area. For example, in FIG. 8, since there are counter values in a plurality of z-axis regions (regions where the lower end points RB1, RB4, and RB5 are located) in the region 30 in the same range of the x-axis, these regions are used as runway boundary regions. Extract. The same applies to the region 50 and the region 80.

そして、抽出した領域に走路境界を示す直線が存在するかどうかの判定を行う(図8参照)。すなわち、抽出した領域に存在する下端点の座標変換点に基づいて、xy座標系での回帰分析を行い、下端点を通る直線の傾きを算出する。例えば、本実施例の領域30では、領域30に存在する下端点の座標変換点RB1、RB4、RB5に対応するxy座標における下端点BP1、BP4、BP5の座標位置からxy座標系での回帰分析を行い、下端点BP1、BP4、BP5を通る直線の傾きa3を算出する。同様に、領域50、領域80に位置する下端点の座標変換点に対応した直線の傾きa5、a8を算出する。そして、算出した直線の傾きが所定の範囲内に入っていれば、抽出した領域内に走路境界を示す直線が存在すると判定する。すなわち、下端点の座標変換点が位置するx軸領域の左端座標と各Z軸領域の代表座標(例えば中心座標)を座標とする点(例えば図8のPL1〜PL5)をxy座標系に変換して回帰分析して算出した直線の傾きTn0a1と、下端点の座標変換点が位置するx軸領域の右端座標と各Z軸領域の代表座標(例えば中心座標)を座標とする点(例えば図8のPR1〜PR5)をxy座標系に変換して回帰分析して算出した直線の傾きTn0a2とで規定される傾きの範囲内に、下端点に基づき算出された直線の傾きanが入っている場合には、抽出した領域内に走路境界を示す直線Lnが存在するとの判定を行う。   Then, it is determined whether or not a straight line indicating a road boundary exists in the extracted area (see FIG. 8). That is, based on the coordinate conversion point of the lower end point existing in the extracted region, regression analysis is performed in the xy coordinate system, and the slope of the straight line passing through the lower end point is calculated. For example, in the region 30 of this embodiment, the regression analysis in the xy coordinate system is performed from the coordinate positions of the lower end points BP1, BP4, and BP5 in the xy coordinates corresponding to the coordinate conversion points RB1, RB4, and RB5 of the lower end points existing in the region 30. To calculate a slope a3 of a straight line passing through the lower end points BP1, BP4, and BP5. Similarly, straight line inclinations a5 and a8 corresponding to the coordinate conversion points of the lower end points located in the regions 50 and 80 are calculated. Then, if the calculated slope of the straight line is within a predetermined range, it is determined that a straight line indicating a road boundary exists in the extracted region. That is, the points (for example, PL1 to PL5 in FIG. 8) whose coordinates are the left end coordinates of the x-axis region where the coordinate conversion point of the lower end point is located and the representative coordinates (for example, center coordinates) of each Z-axis region are converted into the xy coordinate system. Then, the straight line slope Tn0a1 calculated by regression analysis, the right end coordinate of the x-axis area where the coordinate conversion point of the lower end point is located, and a point having the coordinates (for example, the center coordinates) of each Z-axis area as coordinates (for example, FIG. The slope of the straight line an calculated based on the lower end point is included in the range of the slope defined by the slope Tn0a2 of the straight line calculated by converting the PR1 to PR5) of 8 into the xy coordinate system and performing regression analysis. In this case, it is determined that the straight line Ln indicating the road boundary exists in the extracted area.

例えば、本実施例の領域30においては、座標(x、z)=(−3.5、5)の点PL1、座標(x、z)=(−3.5、15)の点PL2、座標(x、z)=(−3.5、25)の点PL3、座標(x、z)=(−3.5、35)の点PL4、座標(x、z)=(−3.5、45)の点PL5をxy座標に変換して回帰分析を行い算出した各点を結ぶ直線の傾きT30a1と、座標(x、z)=(−1.75、5)の点PR1、座標(x、z)=(−1.75、15)の点PR2、座標(x、z)=(−1.75、25)の点PR3、座標(x、z)=(−1.75、35)の点PR4、座標(x、z)=(−1.75、45)の点PR5をxy座標に変換して回帰分析を行い算出した各点を結ぶ直線の傾きT30a2に対し、下端点の座標変換点RB1、RB4、RB5に対応するxy平面上の下端点BP1、BP4、BP5を結ぶ直線の傾きa3が、T30a1とT30a2で規定される範囲内に存在するため、下端点BP1、BP4、BP5を結ぶ直線は走路境界を示す直線L3であると判定される(図9参照)。同様にして、領域50では、下端点の座標変換点RB6、RB7に対応するxy平面上の下端点BP6とBP7を結ぶ直線は走路境界を示す直線L5であると判定され、領域80では、下端点の座標変換点RB8〜RB11に対応するxy平面上の下端点BP8〜BP11を結ぶ直線は走路境界を示す直線L8であると判定される。   For example, in the region 30 of the present embodiment, the point PL1 with coordinates (x, z) = (− 3.5, 5), the point PL2 with coordinates (x, z) = (− 3.5, 15), the coordinates Point PL3 with (x, z) = (− 3.5, 25), point PL4 with coordinates (x, z) = (− 3.5, 35), coordinates (x, z) = (− 3.5, 45) The point PL5 of 45) is converted into xy coordinates, and regression analysis is performed to calculate the slope T30a1 of the straight line connecting the points, the point PR1 of coordinates (x, z) = (− 1.75, 5), the coordinates (x , Z) = point PR2 of (−1.75, 15), point PR3 of coordinates (x, z) = (− 1.75,25), coordinates (x, z) = (− 1.75,35) Point PR4, coordinate PR (x, z) = (− 1.75, 45) is converted to xy coordinates, and regression analysis is performed to calculate the slope T30a2 of the straight line connecting the points. Since the slope a3 of the straight line connecting the lower end points BP1, BP4, BP5 on the xy plane corresponding to the conversion points RB1, RB4, RB5 is within the range defined by T30a1 and T30a2, the lower end points BP1, BP4, BP5 Is determined to be the straight line L3 indicating the road boundary (see FIG. 9). Similarly, in the region 50, it is determined that the straight line connecting the lower end points BP6 and BP7 on the xy plane corresponding to the coordinate transformation points RB6 and RB7 of the lower end point is the straight line L5 indicating the road boundary. The straight line connecting the lower end points BP8 to BP11 on the xy plane corresponding to the coordinate conversion points RB8 to RB11 of the point is determined to be the straight line L8 indicating the road boundary.

そして、図9に示すように、走路境界で区切られた各領域において、検出された立体物の画像の水平方向位置と速度の関係を示すグラフを算出する。このグラフでは、画像中央より左側に位置する立体物、例えば外壁のような背景は、画像の右側に位置するほど自車よりも遠い位置にあるため、画素の速度は遅くなる。つまり、縦軸に速度(左に移動する速度をプラス、右に移動する速度をマイナス)、横軸に画像のx座標(画像左端を原点)に設定すると、背景のような静止物であれば、画像の左半分においては、速度とx座標の関係は、右下がりの直線となる。一方、右下がりの直線関係とならない座標がある場合は、領域内に静止物でないもの、すなわち移動体が存在する可能性がある。この場合、図9に示すように、背景の速度(左向きの速度)とは逆向きの速度(右向きの速度)を有する座標が検出された場合は、背景とは逆方向に移動する移動体が存在すると判定する。また、背景よりも速い速度を有する座標が検出されれば、移動体が存在すると判定する。   Then, as shown in FIG. 9, a graph indicating the relationship between the horizontal position and the speed of the detected three-dimensional object image is calculated in each region delimited by the road boundary. In this graph, a three-dimensional object located on the left side of the center of the image, for example, a background such as an outer wall, is located farther from the host vehicle as it is located on the right side of the image, so the pixel speed is reduced. In other words, if the vertical axis is set to speed (plus the speed to move to the left, minus the speed to move to the right) and the x axis of the image (the left end of the image is the origin), In the left half of the image, the relationship between the speed and the x coordinate is a straight line descending to the right. On the other hand, if there is a coordinate that does not have a straight line relationship that falls to the right, there may be a non-stationary object, that is, a moving object in the region. In this case, as shown in FIG. 9, when a coordinate having a speed (right speed) opposite to the background speed (left speed) is detected, the moving body moving in the direction opposite to the background is detected. It is determined that it exists. Further, if a coordinate having a speed faster than the background is detected, it is determined that a moving object exists.

例えば、本実施例では、領域30、領域50、領域80で検出された走路境界に基づいて、走路境界L3の左側、すなわち、領域10、領域20、領域30の左側の一部を区画aと設定し、走路境界L3と走路境界L5との間、すなわち、領域30の右側の一部、領域40、領域50の左側の一部を区画bと設定し、走路境界L5と走路境界L8との間、すなわち、領域50の右側の一部、領域60、領域70、領域80の左側の一部を区画cと設定し、走路境界L8の右側、すなわち、領域80の右側の一部を区画dと設定し、区画bに存在する立体物OB1〜OB5の水平方向位置と速度の関係から、OB1、OB4、OB5を静止している立体物(ここでは外壁)と判定し、右へ移動するOB2、OB3を移動体(ここでは歩行者)と判定する。   For example, in this embodiment, based on the road boundary detected in the area 30, the area 50, and the area 80, the left side of the road boundary L3, that is, the left side of the area 10, the area 20, and the area 30 is defined as a section a. And set a section b between the runway boundary L3 and the runway boundary L5, that is, a part on the right side of the region 30, a part on the left side of the region 40, and the region 50, and a section b between the runway boundary L5 and the runway boundary L8. A part on the right side of the area 50, that is, a part on the left side of the area 60, the area 70, and the area 80 is set as a section c, and a part on the right side of the runway boundary L8, that is, the right side of the area 80 is defined as the section d. OB2 that moves to the right by determining OB1, OB4, and OB5 as stationary three-dimensional objects (here, outer walls) from the relationship between the horizontal position and speed of the three-dimensional objects OB1 to OB5 existing in the section b. , OB3 and moving body (here pedestrian) A constant.

また、画像右側に存在する立体物においても、左側と同様な方法で、速度(左に移動する速度をプラス、右に移動する速度をマイナス)と画像のx座標(画像右端を原点)の関係を求め、右上がりの直線関係とならない場合には、領域内に立体物が存在する可能性が高いと判断し、背景の速度と逆向きの速度が検出されれば、背景とは逆方向に移動する移動体、例えば、画像右側から左側に移動する歩行者の検出を行うことができる。   Also, for the three-dimensional object existing on the right side of the image, the relationship between the speed (plus the speed to move to the left and minus the speed to move to the right) and the x coordinate of the image (the right end of the image is the origin) in the same way as the left side. If it is not a straight line relationship that rises to the right, it is determined that there is a high possibility that a solid object exists in the area, and if a speed opposite to the background is detected, the background is reversed. A moving body that moves, for example, a pedestrian that moves from the right side to the left side of the image can be detected.

さらに、車両挙動(車両の進行方向)を利用することにより、上述したように撮像画像の左右において別々に移動体の検出が必要か、あるいは撮像画像全体で移動体の検出が可能かを判断することも可能となる。例えば、車両を右へ操舵している場合には、前方画像の背景に該当する領域は、左側へ移動する速度のみが検出されるため、上述したように撮影画像左右でそれぞれ移動体の検出を行わずに撮像画像全体で一括して移動体の検出を行うことができる。車両を左へ操舵している場合も同様である。   Further, by using the vehicle behavior (the traveling direction of the vehicle), as described above, it is determined whether it is necessary to separately detect the moving body on the left and right of the captured image, or whether the moving body can be detected in the entire captured image. It is also possible. For example, when the vehicle is steered to the right, the area corresponding to the background of the front image is detected only at the speed of moving to the left side, so that the moving object is detected on the left and right of the captured image as described above. It is possible to detect the moving body in a lump for the entire captured image without performing the process. The same applies when the vehicle is steered to the left.

ここで、前述したように移動体の判定は、背景に該当する立体物と移動体の水平方向位置と速度を比較して行うため、例えば歩行者に該当する立体物しか検出できず、背景に該当する外壁等の立体物が抽出できない場合は、移動体の判定を行うことができない。この場合は、次回の検出で再度立体物と判定された際に、その速度変化から移動体であるか否かの判定を行う(後述)。   Here, as described above, since the moving object is determined by comparing the horizontal position and speed of the three-dimensional object corresponding to the background and the moving object, for example, only the three-dimensional object corresponding to the pedestrian can be detected. If a three-dimensional object such as the corresponding outer wall cannot be extracted, the moving object cannot be determined. In this case, when it is determined again as a three-dimensional object in the next detection, it is determined whether or not it is a moving body from the speed change (described later).

図10は、本実施例における物体検出装置10の処理を示すフローチャートである。
この処理はイグニションスイッチ(図示省略)がオンされると起動されるプログラムとして実行される。
FIG. 10 is a flowchart showing processing of the object detection apparatus 10 in the present embodiment.
This process is executed as a program that is activated when an ignition switch (not shown) is turned on.

ステップS101では、カメラ101で撮像され画像一時記録部102に記録された自車両前方の画像が所定の周期で特徴点抽出部103に出力される。この後に、フローはステップS102へ移行する。   In step S <b> 101, an image ahead of the host vehicle captured by the camera 101 and recorded in the image temporary recording unit 102 is output to the feature point extraction unit 103 at a predetermined cycle. After this, the flow moves to step S102.

ステップS102では、特徴点抽出部103が画像に対してエッジ抽出処理を行い、撮像画像内に存在する物体の輪郭をエッジ画像として抽出するとともにエッジ画像の正規化を行う。この後に、フローはステップS103へ移行する。   In step S102, the feature point extraction unit 103 performs edge extraction processing on the image, extracts the outline of the object existing in the captured image as an edge image, and normalizes the edge image. After this, the flow moves to step S103.

ステップS103では、移動情報算出部105がエッジの速度を算出し、算出した速度を所定の階調で表した速度画像を算出する。この後に、フローはステップS104へ移行する。   In step S103, the movement information calculation unit 105 calculates the edge speed, and calculates a speed image in which the calculated speed is represented by a predetermined gradation. After this, the flow moves to step S104.

ステップS104では、グループ化部106が算出した速度画像上に物体検出用の短冊領域を設定する。この後に、フローはステップS105へ移行する。   In step S104, a strip area for object detection is set on the velocity image calculated by the grouping unit 106. After this, the flow moves to step S105.

ステップS105では、グループ化部106が各短冊領域内に速度を持った画素があるかどうかを下から上に向かって調べる。速度を持った画素がある場合、グループ化部106がそれらの画素は同一の物体を表しているものとしてグループ化を行う。この後に、フローはステップS106へ移行する。   In step S105, the grouping unit 106 checks whether there is a pixel having speed in each strip area from the bottom to the top. When there are pixels having speed, the grouping unit 106 performs grouping on the assumption that these pixels represent the same object. After this, the flow moves to step S106.

ステップS106では、各短冊領域内におけるグループ毎において、最も上に位置する画素の中心座標を上端点に、最も下に位置する画素の中心座標を下端点に設定する。この後に、フローはステップS107へ移行する。   In step S106, for each group in each strip region, the center coordinate of the pixel located at the top is set as the upper end point, and the center coordinate of the pixel located at the bottom is set as the lower end point. After this, the flow moves to step S107.

ステップS107では、座標変換部104が、(式1)、(式2)を用いて、検出した上端点と下端点の座標をZX平面へ座標変換する。この後に、フローはステップS108へ移行する。   In step S107, the coordinate conversion unit 104 converts the coordinates of the detected upper end point and lower end point to the ZX plane using (Expression 1) and (Expression 2). After this, the flow moves to step S108.

ステップS108では、物体属性判定部107が、上端点の座標変換点と上端点と同じグループの下端点の座標変換点の位置がx軸範囲とz軸範囲を規定した規定のZX平面のどの領域に該当するかを判断し、上端点の座標変換点と上端点と同じグループの下端点の座標変換点の双方が規定のZX平面の同一の領域に位置する場合は、上端点、下端点を含む物体を平面物であると判定し、上端点と同じグループの下端点の座標変換点のみが規定のZX平面に位置する場合は、上端点、下端点を含む物体を立体物であると判定する。また、下端点が位置する領域のカウンタのカウンタ値を+1加算する。この後に、フローはステップS109に進む。   In step S108, the object attribute determination unit 107 determines which region of the prescribed ZX plane in which the position of the coordinate transformation point of the upper end point and the coordinate transformation point of the lower end point of the same group as the upper end point defines the x-axis range and the z-axis range. If both the coordinate transformation point of the upper end point and the coordinate transformation point of the lower end point of the same group as the upper end point are located in the same area of the prescribed ZX plane, the upper end point and the lower end point are If the object is determined to be a plane object, and only the coordinate transformation point of the lower end point of the same group as the upper end point is located on the specified ZX plane, the object including the upper end point and the lower end point is determined to be a three-dimensional object To do. Also, the counter value of the counter in the area where the lower end point is located is incremented by +1. After this, the flow proceeds to step S109.

ステップS109では、物体属性判定部107により、検出した全ての上端点、下端点について、上端点、下端点を含む物体が平面物であるか立体物であるかの判定(以下、物体の属性判定と呼ぶ)が行われたかどうかの判定が行われる。検出した全ての上端点、下端点について物体の属性判定が行われた場合は、ステップS110に進む。一方、検出した全ての上端点、下端点について物体の属性判定が行われていない場合は、ステップS105に戻る。   In step S109, the object attribute determination unit 107 determines whether the object including the upper end point and the lower end point is a planar object or a three-dimensional object for all detected upper and lower end points (hereinafter, object attribute determination). Is called). When the object attribute determination is performed for all the detected upper and lower end points, the process proceeds to step S110. On the other hand, when the object attribute determination is not performed for all the detected upper and lower end points, the process returns to step S105.

ステップS110では、物体属性判定部107により、ZX平面における下端点の座標変換点の位置分布から、同じx軸領域において、複数のz軸領域にカウンタ値が存在する領域が、走路境界線が存在する可能性が高い領域として抽出される。この後に、フローはステップS111へ進む。   In step S110, the object attribute determination unit 107 determines that the region where the counter value exists in a plurality of z-axis regions in the same x-axis region from the position distribution of the coordinate conversion point of the lower end point on the ZX plane has a road boundary line. It is extracted as a region that is likely to be. After this, the flow proceeds to step S111.

ステップS111では、物体属性判定部107により、抽出された領域内に存在する下端点の座標変換点に対応するxy平面の下端点についてxy座標系での回帰分析が行われ、下端点を結ぶ直線の傾きが算出される。この後に、フローはステップS112へ進む。   In step S111, the object attribute determination unit 107 performs regression analysis in the xy coordinate system on the lower end point of the xy plane corresponding to the coordinate conversion point of the lower end point existing in the extracted region, and a straight line connecting the lower end points. Is calculated. After this, the flow proceeds to step S112.

ステップS112では、物体属性判定部107により、ステップS111で算出した直線の傾きが、下端点が位置する領域において、x軸領域の左端座標と各z軸領域の代表座標を座標とする点(図8のPL1〜PL5)を結ぶ直線およびx軸領域の右端座標と各z軸領域の代表座標を座標とする点(図8のPR1〜PR5)を結ぶ直線のxy座標系における傾きの範囲にあれば、抽出した領域に走路境界を示す直線が存在すると判定され、ステップS111で算出した直線は走路境界を示す直線として検出される。この後に、フローはステップS113へ進む。   In step S112, the straight line slope calculated in step S111 by the object attribute determination unit 107 is a point having the coordinates of the left end coordinate of the x-axis region and the representative coordinate of each z-axis region in the region where the lower end point is located (see FIG. 8 and the straight line connecting the right end coordinate of the x-axis region and the point having the representative coordinate of each z-axis region (PR1 to PR5 in FIG. 8) as the coordinate range. For example, it is determined that a straight line indicating a road boundary exists in the extracted region, and the straight line calculated in step S111 is detected as a straight line indicating the road boundary. After this, the flow proceeds to step S113.

ステップS113では、物体属性判定部107において、抽出された領域において、全ての走路境界を示す直線が検出されたか否かの判定を行う。全ての走路境界を示す直線が検出された場合は、ステップS114へ進む。一方、全ての走路境界を示す直線が検出されていない場合は、ステップS110に戻る。   In step S113, the object attribute determination unit 107 determines whether or not straight lines indicating all the road boundaries have been detected in the extracted region. If a straight line indicating all the road boundaries is detected, the process proceeds to step S114. On the other hand, when the straight line which shows all the track boundaries is not detected, it returns to step S110.

ステップS114では、物体属性判定部107において、走路境界で区切られた各区画に対し、各区画内に存在する立体物(外壁、歩行者)間の速度とx座標の関係を算出し、背景と逆方向の速度が検出された立体物がある場合には、自車両に近づく移動体が存在すると判定し、フローはステップS116に進む。一方、背景と逆方向の速度が検出された物体がない場合には、移動体候補が存在する可能性があると判定し、ステップS115に進む。   In step S114, the object attribute determination unit 107 calculates the relationship between the speed and the x coordinate between three-dimensional objects (outer walls, pedestrians) existing in each section, for each section divided by the road boundary, If there is a three-dimensional object in which the speed in the reverse direction is detected, it is determined that there is a moving object that approaches the host vehicle, and the flow proceeds to step S116. On the other hand, if there is no object whose speed in the direction opposite to the background is detected, it is determined that there is a possibility that a moving object candidate exists, and the process proceeds to step S115.

ステップS115では、物体属性判定部107において、移動体候補が移動体であるかどうかの判定を行う。移動体候補が存在すると判断された区画に、前回も移動体候補が存在すれば、前回と今回の速度を比較する。移動体候補が静止物である場合は、自車両の前進に従い移動体候補が自車両に接近し、移動体候補に対応する画素の移動速度が速くなる。このため、前回よりも下端点の座標変換点の速度が速くなっている場合には、移動体は存在しないと判定し、前回よりも下端点の座標変換点の速度が速くなっていない場合には、移動体が存在すると判定する。この後に、フローはステップS116に進む。   In step S115, the object attribute determination unit 107 determines whether the moving object candidate is a moving object. If there is a moving object candidate in the previous section in which it is determined that a moving object candidate exists, the previous speed and the current speed are compared. When the moving object candidate is a stationary object, the moving object candidate approaches the own vehicle as the own vehicle moves forward, and the moving speed of the pixels corresponding to the moving object candidate becomes faster. Therefore, if the speed of the coordinate conversion point at the lower end point is faster than the previous time, it is determined that there is no moving object, and the speed of the coordinate conversion point at the lower end point is not faster than the previous time. Determines that there is a moving object. After this, the flow proceeds to step S116.

ステップS116では、走路境界で区切られたすべての区画において、移動体が検出されたか否かの判断を行う。全ての移動体が検出された場合には、フローはステップS117へ進む。一方、全ての移動体が検出されていない場合は、フローはステップS114に戻る。   In step S116, it is determined whether or not a moving object has been detected in all sections delimited by the road boundary. If all moving objects have been detected, the flow proceeds to step S117. On the other hand, when not all the moving bodies have been detected, the flow returns to step S114.

ステップS117では、自車両のイグニションスイッチがオフされたか否かの判定が行われる。イグニションスイッチがオフされていない場合には、ステップS101へ戻って処理を繰り返す。一方、イグニションスイッチがオフされた場合には、フローはステップS118へ移行して処理を終了する。   In step S117, it is determined whether or not the ignition switch of the host vehicle has been turned off. If the ignition switch is not turned off, the process returns to step S101 and is repeated. On the other hand, if the ignition switch is turned off, the flow moves to step S118 and the process ends.

以上説明した本発明の実施の形態の物体検出装置によれば、以下のような作用効果を得ることができる。   According to the object detection apparatus of the embodiment of the present invention described above, the following operational effects can be obtained.

自車両前方の画像を撮像するカメラ101(撮像部)および、前記カメラ101で撮像した画像から特徴点を抽出する特徴点抽出部103と、前記特徴点を表す画素の速度情報を算出する移動情報算出部105と、前記画素の位置座標を実空間上の3次元における位置座標に変換する座標変換部104と、前記画素の前記3次元における前記位置座標および前記画素の前記速度情報に基づいて前記特徴点が移動体であることを判定する物体属性判定部107とを備えることとした。   A camera 101 (imaging unit) that captures an image ahead of the host vehicle, a feature point extraction unit 103 that extracts a feature point from the image captured by the camera 101, and movement information that calculates velocity information of pixels representing the feature point Based on the calculation unit 105, the coordinate conversion unit 104 that converts the position coordinates of the pixel into a three-dimensional position coordinate in real space, the position coordinates of the pixel in the three dimensions, and the velocity information of the pixel An object attribute determination unit 107 that determines that a feature point is a moving object is provided.

この構成によれば、カメラ101で撮像した画像から抽出した特徴点の画像上の移動速度および位置座標に基づいて、特徴点が移動体であることを判定することができる。   According to this configuration, it is possible to determine that a feature point is a moving body based on the moving speed and position coordinates of the feature point extracted from the image captured by the camera 101.

また、本発明の実施の形態の物体検出装置によれば、前記物体属性判定部107は、前記画素の前記3次元における水平方向の位置座標と前記画素の速度情報との関係において前記画素の速度情報とは異なる速度情報を有する座標がある場合に、前記特徴点が移動体であると判定することとした。   Further, according to the object detection apparatus of the embodiment of the present invention, the object attribute determination unit 107 determines the speed of the pixel in the relationship between the three-dimensional horizontal position coordinate of the pixel and the speed information of the pixel. When there is a coordinate having velocity information different from the information, the feature point is determined to be a moving object.

この構成によれば、検出した立体物の画像上の水平方向位置と速度の関係から、移動体の識別を行う。背景となる立体物は自車両から遠ざかるにつれて画像上では横方向に移動し、また画像上の速度は遅くなることから、画像上の水平方向位置と速度は比例(直線)関係にある。一方、背景となる立体物の前に存在する物体では、画像上の水平方向位置と速度に比例関係はない。したがって、自車両の動きの推定や物体までの距離を算出することなく背景の動きを推定し、背景と異なる動きをするものを移動体として背景から分離することができるため、簡単な処理により移動体の検出を高速で行うことができる。   According to this configuration, the moving object is identified from the relationship between the position in the horizontal direction on the image of the detected three-dimensional object and the speed. Since the three-dimensional object as the background moves in the horizontal direction on the image as the distance from the host vehicle increases, and the speed on the image decreases, the horizontal position on the image and the speed have a proportional (straight) relationship. On the other hand, there is no proportional relationship between the horizontal position on the image and the speed of the object existing in front of the three-dimensional object as the background. Therefore, it is possible to estimate the movement of the background without estimating the movement of the host vehicle or calculating the distance to the object, and separate the moving object from the background as a moving object. Body detection can be performed at high speed.

また、本発明の実施の形態の物体検出装置によれば、前記画像の垂直方向に隣接するとともに速度情報が所定の範囲にある前記画素をグループ化するグループ化部106を備え、前記物体属性判定部107は、前記グループ化部106によりグループ化した前記画素のうち最上部に位置する前記画素と最下部に位置する前記画素の前記3次元における位置座標に基づいて前記判定を行うこととした。   The object detection apparatus according to the embodiment of the present invention further includes the grouping unit 106 that groups the pixels that are adjacent in the vertical direction of the image and whose velocity information is in a predetermined range, and the object attribute determination The unit 107 performs the determination based on the three-dimensional position coordinates of the pixel located at the top and the pixel located at the bottom among the pixels grouped by the grouping unit 106.

この構成によれば、カメラ101で撮像した画像に基づいて算出した速度画像上に物体検出領域を設定し、各領域において、画像の垂直方向に隣接するとともに移動速度が所定範囲にある点をグループ化し、その最上部(上端)および最下部(下端)を検出する。この最上部および最下部に位置する画素をZX平面に座標変換し、その位置座標に基づいて移動体の判定を行うことで、該判定を効率的に行うことができる。   According to this configuration, the object detection area is set on the speed image calculated based on the image captured by the camera 101, and the points that are adjacent to each other in the vertical direction of the image and whose moving speed is in the predetermined range are grouped. And the uppermost part (upper end) and the lowermost part (lower end) are detected. This determination can be performed efficiently by converting the coordinates of the pixels located at the top and bottom to the ZX plane and determining the moving body based on the position coordinates.

また、本発明の実施の形態の物体検出装置によれば、前記物体属性判定部107は、前記最上部に位置する前記画素と前記最下部に位置する前記画素が前記3次元の所定の範囲を所定の数に分割して設定した複数の領域のうち同一の領域に位置する場合には前記移動体を平面物と判定し、前記最上部に位置する前記画素が前記3次元の前記複数の領域外に位置するとともに前記最下部に位置する前記画素が前記3次元の前記複数の領域のうちいずれかの領域に位置する場合に前記移動体を立体物と判定することとした。   Further, according to the object detection apparatus of the embodiment of the present invention, the object attribute determination unit 107 determines that the pixel located at the top and the pixel located at the bottom fall within the three-dimensional predetermined range. If the movable body is located in the same area among a plurality of areas divided and set to a predetermined number, the moving body is determined to be a plane object, and the pixel located at the top is the three-dimensional area. The moving body is determined to be a three-dimensional object when the pixel located outside and located at the bottom is located in any one of the plurality of three-dimensional areas.

この構成によれば、最上部に位置する画素(上端点)と最下部に位置する画素(下端点)の位置を、カメラパラメータを用いてZX平面へ座標変換する。路面上に存在する白線や路面マーカーのような平面物は、上端点と下端点ともに路面上に存在するため、ZX平面上へ座標変換された場合、上端点と下端点は規定のZX平面に投影される。これに対して、立体物の下端点は路面上に存在し、上端点は路面上に存在しないため、下端点のみ規定のZX平面に投影され、上端点は規定のZX平面から大きく外れることになる。したがって、単眼カメラの構成であっても、グループ化した領域の上端点と下端点の座標変換結果から、平面物と立体物の判定を行うことができる。   According to this configuration, the coordinates of the position of the uppermost pixel (upper end point) and the lowermost pixel (lower end point) are converted to the ZX plane using the camera parameters. Plane objects such as white lines and road surface markers that exist on the road surface exist on the road surface at both the upper and lower end points. Therefore, when coordinate conversion is performed on the ZX plane, the upper and lower end points are on the specified ZX plane. Projected. On the other hand, since the lower end point of the three-dimensional object exists on the road surface and the upper end point does not exist on the road surface, only the lower end point is projected on the prescribed ZX plane, and the upper end point is greatly deviated from the prescribed ZX plane. Become. Therefore, even in the configuration of a monocular camera, it is possible to determine a planar object and a three-dimensional object from the coordinate conversion results of the upper end point and the lower end point of the grouped area.

また、本発明の実施の形態の物体検出装置によれば、前記物体属性判定部107は、前記画素のうち前記画像の垂直方向において最下部に位置する前記画素の前記3次元における前記位置座標に基づいて前記自車両の走路の境界を表す走路境界を検出し、該走路境界で区切られた区画毎に前記移動体判定を行うこととした。   Further, according to the object detection device of the embodiment of the present invention, the object attribute determination unit 107 sets the position coordinate in the three-dimensional position of the pixel located at the bottom of the pixel in the vertical direction of the image. Based on this, a road boundary representing the boundary of the road of the host vehicle is detected, and the moving body determination is performed for each section divided by the road boundary.

この構成によれば、下端点の座標変換点の位置から走路境界の検出が可能であり、検出した走路境界で区切られた区画毎に移動体の検出を行うため、複雑な背景下においても、効率的に移動体の検出を行うことができる。   According to this configuration, it is possible to detect the road boundary from the position of the coordinate conversion point of the lower end point, and to detect the moving body for each section divided by the detected road boundary, even under a complicated background, A moving body can be detected efficiently.

さらに、本発明の実施の形態の物体検出装置によれば、前記特徴点が物体のエッジであることとした。   Furthermore, according to the object detection apparatus of the embodiment of the present invention, the feature point is the edge of the object.

この構成によれば、カメラ101で撮像した画像から特徴点抽出部103により物体のエッジを検出すれば良く、簡単な画像処理で上記判定を行うことができる。   According to this configuration, the edge of the object may be detected by the feature point extraction unit 103 from the image captured by the camera 101, and the above determination can be performed with simple image processing.

また、以上説明した本発明の実施の形態の物体検出方法によれば、以下のような作用効果を得ることができる。   Further, according to the object detection method of the embodiment of the present invention described above, the following operational effects can be obtained.

自車両前方の画像を撮像し、撮像した画像から特徴点を抽出し、抽出した特徴点を表す画素の速度情報を算出し、前記画素の位置座標を実空間上の3次元における位置座標に変換し、前記画素の前記3次元における前記位置座標および前記画素の前記速度情報に基づいて、前記特徴点が移動体であることを判定することとした。   Captures an image ahead of the host vehicle, extracts feature points from the captured image, calculates pixel velocity information representing the extracted feature points, and converts the pixel position coordinates into three-dimensional position coordinates in real space Then, the feature point is determined to be a moving object based on the position coordinates of the pixel in the three dimensions and the speed information of the pixel.

この方法によれば、撮像した画像から抽出した特徴点の画像上の速度情報および位置座標に基づいて、特徴点が移動体であることを判定することができる。   According to this method, it is possible to determine that a feature point is a moving object based on speed information and position coordinates of the feature point extracted from the captured image.

また、本発明の実施の形態の物体検出方法によれば、前記移動体であることの判定は、前記画素の前記3次元における水平方向の位置座標と前記画素の速度情報との関係において前記画素の速度情報とは異なる速度情報を有する座標がある場合に、前記特徴点が移動体であると判定することとした。   Further, according to the object detection method of the embodiment of the present invention, the determination of the moving body is performed by determining whether the pixel is based on the relationship between the three-dimensional horizontal position coordinate of the pixel and the velocity information of the pixel. When there is a coordinate having speed information different from the speed information, the feature point is determined to be a moving object.

この方法によれば、検出した立体物の画像上の水平方向位置と速度の関係から、移動体の識別を行う。背景となる立体物は自車両から遠ざかるにつれて画像上では横方向に移動し、また画像上の速度は遅くなることから、画像上の水平方向位置と速度は比例(直線)関係にある。一方、背景となる立体物の前に存在する物体では、画像上の水平方向位置と速度に比例関係はない。したがって、自車両の動きの推定や物体までの距離を算出することなく背景の動きを推定し、背景と異なる動きをするものを移動体として背景から分離することができるため、簡単な処理により移動体の検出を高速で行うことができる。   According to this method, the moving object is identified from the relationship between the position in the horizontal direction on the image of the detected three-dimensional object and the speed. Since the three-dimensional object as the background moves in the horizontal direction on the image as the distance from the host vehicle increases, and the speed on the image decreases, the horizontal position on the image and the speed have a proportional (straight) relationship. On the other hand, there is no proportional relationship between the horizontal position on the image and the speed of the object existing in front of the three-dimensional object as the background. Therefore, it is possible to estimate the movement of the background without estimating the movement of the host vehicle or calculating the distance to the object, and separate the moving object from the background as a moving object. Body detection can be performed at high speed.

また、本発明の実施の形態の物体検出方法によれば、前記画像の垂直方向に隣接するとともに速度情報が所定の範囲にある前記画素をグループ化し、前記移動体であることの判定は、グループ化した前記画素のうち最上部に位置する前記画素と最下部に位置する前記画素の前記3次元における位置座標に基づいて行うこととした。   According to the object detection method of the embodiment of the present invention, the pixels that are adjacent to each other in the vertical direction of the image and whose velocity information is in a predetermined range are grouped, and the determination of the moving body is performed as a group. The determination is performed based on the three-dimensional position coordinates of the pixel located at the top and the pixel located at the bottom of the converted pixels.

この方法によれば、撮像した画像に基づいて算出した速度画像上に物体検出領域を設定し、各領域において、画像の垂直方向に隣接するとともに移動速度が所定範囲にある点をグループ化し、その最上部(上端)および最下部(下端)を検出する。この最上部および最下部に位置する画素をZX平面に座標変換し、その位置座標に基づいて移動体の判定を行うことで、該判定を効率的に行うことができる。   According to this method, an object detection area is set on a speed image calculated based on a captured image, and in each area, points that are adjacent in the vertical direction of the image and whose moving speed is within a predetermined range are grouped. The uppermost part (upper end) and the lowermost part (lower end) are detected. This determination can be performed efficiently by converting the coordinates of the pixels located at the top and bottom to the ZX plane and determining the moving body based on the position coordinates.

また、本発明の実施の形態の物体検出方法によれば、前記移動体であることの判定は、前記最上部に位置する前記画素と前記最下部に位置する前記画素が前記3次元の所定の範囲を所定の数に分割して設定した複数の領域のうち同一の領域に位置する場合には前記移動体を平面物と判定し、前記最上部に位置する前記画素が前記3次元の前記複数の領域外に位置するとともに前記最下部に位置する前記画素が前記3次元の前記複数の領域のうちいずれかの領域に位置する場合に前記移動体を立体物と判定することを含むこととした。   Further, according to the object detection method of the embodiment of the present invention, the determination that the object is the moving body is performed by determining whether the pixel located at the top and the pixel located at the bottom are the three-dimensional predetermined When a plurality of areas set by dividing a range into a predetermined number are located in the same area, the moving body is determined to be a plane object, and the pixel located at the top is the three-dimensional And determining that the moving object is a three-dimensional object when the pixel located outside the region and located at the bottom is located in any one of the plurality of three-dimensional regions. .

この方法によれば、最上部に位置する画素(上端点)と最下部に位置する画素(下端点)の位置を、カメラパラメータを用いてZX平面へ座標変換する。路面上に存在する白線や路面マーカーのような平面物は、上端点と下端点ともに路面上に存在するため、ZX平面上へ座標変換された場合、上端点と下端点は規定のZX平面に投影される。これに対して、立体物の下端点は路面上に存在し、上端点は路面上に存在しないため、下端点のみ規定のZX平面に投影され、上端点は規定のZX平面から大きく外れることになる。したがって、単眼カメラの構成であっても、グループ化した領域の上端点と下端点の座標変換結果から、平面物と立体物の判定を行うことができる。   According to this method, the coordinates of the pixel located at the uppermost position (upper end point) and the pixel located at the lowermost position (lower end point) are converted to the ZX plane using camera parameters. Plane objects such as white lines and road surface markers that exist on the road surface exist on the road surface at both the upper and lower end points. Therefore, when coordinate conversion is performed on the ZX plane, the upper and lower end points are on the specified ZX plane. Projected. On the other hand, since the lower end point of the three-dimensional object exists on the road surface and the upper end point does not exist on the road surface, only the lower end point is projected on the prescribed ZX plane, and the upper end point is greatly deviated from the prescribed ZX plane. Become. Therefore, even in the configuration of a monocular camera, it is possible to determine a planar object and a three-dimensional object from the coordinate conversion results of the upper end point and the lower end point of the grouped area.

また、本発明の実施の形態の物体検出方法によれば、前記移動体であることの判定は、前記画素のうち前記画像の垂直方向において最下部に位置する画素の前記3次元における位置座標に基づいて前記車両の走路の境界を表す走路境界を検出し、該走路境界で区切られた区画毎に行うこととした。   Further, according to the object detection method of the embodiment of the present invention, the determination that the object is the moving body is performed by using the three-dimensional position coordinates of the pixel located at the lowest part in the vertical direction of the image among the pixels. Based on this, a road boundary representing the road boundary of the vehicle is detected, and the determination is performed for each section divided by the road boundary.

この方法によれば、下端点の座標変換点の位置から走路境界の検出が可能であり、検出した走路境界で区切られた区画毎に移動体の検出を行うため、複雑な背景下においても、効率的に移動体の検出を行うことができる。   According to this method, it is possible to detect the road boundary from the position of the coordinate conversion point of the lower end point, and to detect the moving body for each section divided by the detected road boundary, even under a complicated background, A moving body can be detected efficiently.

さらに、本発明の実施の形態の物体検出方法によれば、前記特徴点が物体のエッジであることとした。   Furthermore, according to the object detection method of the embodiment of the present invention, the feature point is the edge of the object.

この方法によれば、撮像した画像から物体のエッジを検出すれば良く、簡単な画像処理で上記判定を行うことができる。   According to this method, it is only necessary to detect the edge of the object from the captured image, and the above determination can be made by simple image processing.

本実施例では、例えばエッジ検出の結果に起因して同じ立体物や移動体が速度情報を基に同じ速度でグループ化できない場合でも、平面物と立体物の検出を行う。   In the present embodiment, for example, even when the same three-dimensional object or moving object cannot be grouped at the same speed based on the speed information due to the edge detection result, the planar object and the three-dimensional object are detected.

ここでは、図11に示すように、外壁上に検出されたP1〜P13の内、P1〜P3とP4〜P13が別々にグループ化され、P1〜P13の内、P1〜P3とP4〜P13が別々にグループ化され、P1〜P13の内、P1〜P3とP4〜P13が別々にグループ化され、P1〜P12の内、P1、P2とP3〜P12が別々にグループ化され、P1〜P10の内、P1、P2とP3〜P10が別々にグループ化された場合について、説明を行う。 Here, as shown in FIG. 11, of the P 1 1 to P 1 13 detected on the outer wall, P 1 1 to P 1 3 and P 1 4~P 1 13 are grouped separately, P 2 1 to P 2 13 of, P 2 1 to P 2 3 and P 2 4~P 2 13 are grouped separately, of the P 3 1~P 3 13, P 3 1~P 3 3 and P 3 4~P 3 13 are grouped separately, of the P 4 1~P 4 12, P 4 1, P 4 2 and P 4 3 to P 4 12 are grouped separately, P 5 1 to P 5 A case where P 5 1, P 5 2 and P 5 3 to P 5 10 among 10 are grouped separately will be described.

なお、図1に示したブロック図、図2に示した車両へのカメラ101の設置例を示す図、図3に示したカメラ101による前方の撮像画像を説明する図、図4に示したエッジの正規化の例を示す図、および図5に示した速度画像を説明する図については、第1の実施例と同様のため説明を省略する。また、図8〜図9で説明した、下端点を基に走路境界を検出し、検出した走路境界で区切られた各領域毎に立体物の水平方向位置と速度の関係から、移動体を検出する方法については、第1の実施例における処理と同様のため説明を省略する。   1, FIG. 2 is a diagram illustrating an example of installation of the camera 101 on the vehicle, FIG. 3 is a diagram illustrating an image captured in front of the camera 101, and the edge illustrated in FIG. 4. Since a diagram illustrating an example of normalization and a diagram illustrating the velocity image illustrated in FIG. 5 are the same as those in the first embodiment, description thereof is omitted. In addition, the road boundary is detected based on the lower end point described in FIGS. 8 to 9, and the moving body is detected from the relationship between the horizontal position and the speed of the three-dimensional object for each area divided by the detected road boundary. The method to do is the same as the processing in the first embodiment, and therefore the description is omitted.

まず、算出した速度画像に物体を検出するための領域を設定する。すなわち、図11に示すように、速度画像上に短冊状の複数の領域を設定し、速度画像を分割する。本実施例では、各領域毎に画像下端から上端に速度を持った画素を順に走査して検出し、検出した画素を前述の(式1)、(式2)に基づいてZX平面へ座標変換し、座標変換の結果が図7に示す規定のZX平面内に位置するか否かを判定する。座標変換の結果が規定のZX平面内に位置すれば、平面物の候補点と判定する。一方、規定のZX平面内に位置しなければ、立体物の候補点として判定する。なお、規定のZX平面は第1の実施例で説明した領域と同じ領域とし、領域の設定方法については説明を省略する。例えば本実施例では、P1〜P3は規定のZX平面内の同一の領域に位置して平面物の候補点と判定され、P4〜P13は規定のZX平面内に位置しないため、立体物候補点と判定される。同様に、P1〜P3、P1〜P3、P1、P2、P1、P2、P1〜P4、P1〜P4、P1、P2、P1〜P3、P101、P102、P111〜P113は平面物候補点と判定され、P4〜P13、P4〜P13、P3〜P12、P3〜P10は立体物候補点と判定される。 First, an area for detecting an object is set in the calculated speed image. That is, as shown in FIG. 11, a plurality of strip-shaped areas are set on the speed image, and the speed image is divided. In this embodiment, pixels having a speed from the lower end to the upper end of the image are sequentially scanned and detected for each region, and the detected pixels are coordinate-converted to the ZX plane based on the above-described (Expression 1) and (Expression 2). Then, it is determined whether or not the result of the coordinate conversion is located within the prescribed ZX plane shown in FIG. If the result of the coordinate transformation is located within the prescribed ZX plane, it is determined as a candidate point for a plane object. On the other hand, if it is not located within the prescribed ZX plane, it is determined as a candidate point for a three-dimensional object. The prescribed ZX plane is the same region as that described in the first embodiment, and the description of the region setting method is omitted. For example in the present embodiment, P 1 1 to P 1 3 is determined as a candidate point of the planar articles located in the same area in the prescribed ZX plane, the P 1 4~P 1 13 is within the specified ZX plane Since it is not located, it is determined as a three-dimensional object candidate point. Similarly, P 2 1~P 2 3, P 3 1~P 3 3, P 4 1, P 4 2, P 5 1, P 5 2, P 6 1~P 6 4, P 7 1~P 7 4 , P 8 1, P 8 2, P 9 1 to P 9 3, P 10 1, P 10 2, P 11 1 to P 11 3 are determined as plane object candidate points, and P 2 4 to P 2 13, P 3 4~P 3 13, P 4 3~P 4 12, P 5 3~P 5 10 is determined to the three-dimensional object candidate points.

次に平面物候補点と立体物候補点の判定結果に基づき、立体物の判定を行う。すなわち、平面物候補点であると判定された点と立体物候補点であると判定された点が、縦方向に連続して存在する場合は、立体物の内、路面近くに存在する部分が誤って平面物候補点であると判定されたものと推定できるため、図12に示すように、平面物候補点と立体物候補点が縦方向に連続して存在する物体を立体物として判定する。例えば、本実施例では、平面物候補点P1〜P3と立体物候補点P4〜P13が縦方向に連続しているため、P1〜P13を立体物OB1として判定する。同様に、P1〜P13を立体物OB2、P1〜P13を立体物OB3、P1〜P12を立体物OB4、P1〜P10を立体物OB5として判定する。 Next, the solid object is determined based on the determination result of the planar object candidate point and the solid object candidate point. That is, when the point determined to be a planar object candidate point and the point determined to be a three-dimensional object candidate point exist continuously in the vertical direction, a portion of the three-dimensional object that exists near the road surface is present. Since it can be presumed that the object has been erroneously determined to be a planar object candidate point, as shown in FIG. 12, an object in which a planar object candidate point and a three-dimensional object candidate point continuously exist in the vertical direction is determined as a three-dimensional object. . For example, in this embodiment, since the planar object candidate points P 1 1 to P 1 3 and the three-dimensional object candidate points P 1 4~P 1 13 is continuous in the longitudinal direction, three-dimensional object the P 1 1 to P 1 13 It is determined as OB1. Similarly, three-dimensional object the P 2 1~P 2 13 OB2, P 3 1~P 3 13 a solid object OB3, P 4 1~P 4 12 a three-dimensional object OB4, P 5 1~P 5 10 solid object OB5 Judge as.

さらに、図12に示すように、平面物および立体物と判定された点のうち、下端点を抽出し、第1の実施例と同様に下端点のZX平面への座標変換点が位置するZX平面の領域のカウンタのカウンタ値を+1加算して、下端点の位置分布を算出する。例えば、本実施例では、P1、P1、P1、P1、P1、P1、P1、P1、P1、P101、P111を下端点として検出し、図8に示す各下端点の座標変換点RB1〜RB11が位置する領域のカウンタのカウンタ値を+1加算する。以下、第1の実施例と同様の操作を行うことで、走路境界と立体物、立体物中の移動体の検出を行うことができる。 Furthermore, as shown in FIG. 12, the lower end point is extracted from the points determined to be a plane object and a three-dimensional object, and the ZX where the coordinate conversion point to the ZX plane of the lower end point is located as in the first embodiment. The counter value of the counter in the plane area is incremented by 1 to calculate the position distribution of the lower end point. For example, in this embodiment, P 1 1, P 2 1, P 3 1, P 4 1, P 5 1, P 6 1, P 7 1, P 8 1, P 9 1, P 10 1, P 11 1 Is detected as the lower end point, and the counter value of the counter in the area where the coordinate conversion points RB1 to RB11 of the lower end points shown in FIG. Hereinafter, by performing the same operation as in the first embodiment, it is possible to detect the road boundary, the three-dimensional object, and the moving object in the three-dimensional object.

図13は、本実施例における物体検出装置10の処理を示すフローチャートである。図13に示す処理はイグニションスイッチがオンされると、起動されるプログラムとして実行される。図13においては、図10に示す第1の実施例における処理と同一の処理内容については、同じステップ番号を付与し、以下相違点を中心に説明する。   FIG. 13 is a flowchart showing the processing of the object detection apparatus 10 in the present embodiment. The process shown in FIG. 13 is executed as a program to be started when the ignition switch is turned on. In FIG. 13, the same processing numbers as those in the first embodiment shown in FIG. 10 are assigned the same step numbers, and the differences will be mainly described below.

ステップS118では、ステップS104にて設定した物体検出用の短冊領域内において画像下端から上端に向かって走査を行い、速度を持つ画素の座標を(式1)、(式2)を用いてZX平面上へ座標変換する。この後に、フローはステップS119へ移行する。   In step S118, scanning is performed from the lower end to the upper end of the image within the strip area for object detection set in step S104, and the coordinates of pixels having speed are expressed in the ZX plane using (Expression 1) and (Expression 2). Convert coordinates up. After this, the flow moves to step S119.

ステップS119では、画素の座標変換点が規定のZX平面内に位置すれば、平面物候補点と判定し、画素の座標変換点が規定のZX平面内に位置しなければ、立体物候補点と判定する。この後に、フローはステップS120に進む。   In step S119, if the coordinate conversion point of the pixel is located in the prescribed ZX plane, it is determined as a plane object candidate point. If the coordinate conversion point of the pixel is not located in the prescribed ZX plane, the three-dimensional object candidate point is determined. judge. After this, the flow proceeds to step S120.

ステップS120では、速度が算出された画素の全てがZX平面上へ座標変換されて、平面物候補点および立体物候補点の検出が終了したかどうかが判定される。平面物候補点および立体物候補点の検出が終了した場合には、フローはステップS121に進む。一方、平面物候補点および立体物候補点の検出が終了していない場合は、フローはステップS118に戻る。   In step S120, all of the pixels for which the velocity has been calculated are coordinate-transformed on the ZX plane, and it is determined whether or not the detection of the planar object candidate point and the three-dimensional object candidate point has been completed. When the detection of the planar object candidate point and the three-dimensional object candidate point is completed, the flow proceeds to step S121. On the other hand, if the detection of the planar object candidate point and the three-dimensional object candidate point is not completed, the flow returns to step S118.

ステップS121では、各領域内において、平面物候補点および立体物候補点が縦方向に連続して存在する場合には、平面物候補点および立体物候補点を含む物体を一つの立体物として判定する。この後に、フローはステップS122に進む。   In step S121, when a planar object candidate point and a three-dimensional object candidate point exist continuously in the vertical direction in each region, an object including the planar object candidate point and the three-dimensional object candidate point is determined as one solid object. To do. After this, the flow proceeds to step S122.

ステップS122では、各領域において、平面物および立体物と判定された点のうち、一番下にある点を下端点として検出し、検出した下端点のZX平面上の座標変換点が位置する領域のカウンタのカウンタ値を+1加算する。この後に、フローはステップS123に進む。   In step S122, in each region, a point at the bottom of the points determined to be a planar object and a three-dimensional object is detected as a lower end point, and a region where a coordinate conversion point on the ZX plane of the detected lower end point is located. +1 is added to the counter value of the counter. After this, the flow proceeds to step S123.

ステップS123では、各領域において、カウンタ値に基づき各領域の下端点の位置分布情報の算出が終了したかどうかの判定が行われる。各領域の下端点の位置分布情報の算出が終了した場合には、フローはステップS110へ進む。一方、各領域の下端点の位置分布情報の算出が終了していない場合には、フローはステップS121へ戻る。   In step S123, it is determined whether or not the calculation of the position distribution information of the lower end point of each area is completed in each area based on the counter value. When the calculation of the position distribution information of the lower end point of each region is completed, the flow proceeds to step S110. On the other hand, if the calculation of the position distribution information of the lower end point of each region has not been completed, the flow returns to step S121.

以降、第1の実施例と同様の処理により、走路境界、立体物、移動体を検出する。   Thereafter, the road boundary, the three-dimensional object, and the moving object are detected by the same processing as in the first embodiment.

以上説明した本発明の実施の形態の物体検出装置によれば、第1の実施例の作用効果に加え、以下のような作用効果を得ることができる。   According to the object detection apparatus of the embodiment of the present invention described above, the following functions and effects can be obtained in addition to the functions and effects of the first example.

前記物体属性判定部107は、前記画素が前記3次元の前記複数の領域のうちいずれかの領域に位置する場合に前記画素を平面物候補点と判定する一方、前記画素が前記3次元の前記複数の領域外に位置する場合に前記画素を立体物候補点と判定し、前記平面物候補点と前記立体物候補点が前記画像において垂直方向に連続して位置する場合に前記平面物候補点と前記立体物候補点を一つの立体物として判定することとした。   The object attribute determination unit 107 determines the pixel as a planar object candidate point when the pixel is located in any one of the three-dimensional regions, and the pixel is the three-dimensional object. The pixel is determined as a solid object candidate point when positioned outside a plurality of regions, and the planar object candidate point is determined when the planar object candidate point and the solid object candidate point are consecutively positioned in the image in the vertical direction. The three-dimensional object candidate point is determined as one solid object.

この構成によれば、カメラ101で撮像した画像に基づいて算出した速度画像上に物体検出領域を設定し、速度を有する各画素をZX平面へ座標変換した後に、ZX平面における座標変換点の位置座標に基づいて、各画素が平面物候補点か立体物候補点かの判定を行う。ここで、平面物候補点と立体物候補点が画像上の垂直方向に連続して存在する場合には、平面物候補点と立体物候補点を持つ物体を一つの立体物と判定する。この操作により、同じ物体を構成する画素でありながら何らかの影響で同じ速度が算出されない場合でも正確に立体物の判定が可能となる。   According to this configuration, an object detection area is set on a speed image calculated based on an image captured by the camera 101, and each pixel having speed is coordinate-converted to the ZX plane, and then the position of the coordinate conversion point on the ZX plane is determined. Based on the coordinates, it is determined whether each pixel is a planar object candidate point or a three-dimensional object candidate point. Here, when the planar object candidate point and the three-dimensional object candidate point exist continuously in the vertical direction on the image, the object having the planar object candidate point and the three-dimensional object candidate point is determined as one solid object. This operation makes it possible to accurately determine a three-dimensional object even when pixels that make up the same object cannot calculate the same speed due to some influence.

また、以上説明した本発明の実施の形態の物体検出方法によれば、第1の実施例の作用効果に加え、以下のような作用効果を得ることができる。   Further, according to the object detection method of the embodiment of the present invention described above, the following functions and effects can be obtained in addition to the functions and effects of the first example.

前記特徴点が移動体であることの判定は、前記画素が前記3次元の前記複数の領域のうちいずれかの領域に位置する場合に前記画素を平面物候補点と判定する一方、前記画素が前記3次元の前記複数の領域外に位置する場合に前記画素を立体物候補点と判定し、前記平面物候補点と前記立体物候補点が前記画像において垂直方向に連続して位置する場合に前記平面物候補点と前記立体物候補点を一つの立体物として判定することを含むこととした。   The determination that the feature point is a moving object is that when the pixel is located in any one of the three-dimensional regions, the pixel is determined as a plane object candidate point, When the pixel is determined as a three-dimensional object candidate point when positioned outside the plurality of three-dimensional regions, and the planar object candidate point and the three-dimensional object candidate point are consecutively positioned in the vertical direction in the image The method includes determining the plane object candidate point and the solid object candidate point as one solid object.

この方法によれば、撮像した画像に基づいて算出した速度画像上に物体検出領域を設定し、速度を有する各画素をZX平面へ座標変換した後に、ZX平面における座標変換点の位置座標に基づいて、各画素が平面物候補点か立体物候補点かの判定を行う。ここで、平面物候補点と立体物候補点が画像上の垂直方向に連続して存在する場合には、平面物候補点と立体物候補点を持つ物体を一つの立体物と判定する。この操作により、同じ物体を構成する画素でありながら何らかの影響で同じ速度が算出されない場合でも、正確に立体物の判定が可能となる。   According to this method, an object detection area is set on a speed image calculated based on a captured image, and each pixel having speed is coordinate-converted to the ZX plane, and then based on the position coordinates of the coordinate conversion point on the ZX plane. Thus, it is determined whether each pixel is a planar object candidate point or a three-dimensional object candidate point. Here, when the planar object candidate point and the three-dimensional object candidate point exist continuously in the vertical direction on the image, the object having the planar object candidate point and the three-dimensional object candidate point is determined as one solid object. This operation makes it possible to accurately determine a three-dimensional object even when the same speed is not calculated due to some influence even though the pixels constitute the same object.

本実施例では、走路境界で区切られた区画おいて、立体物の水平方向位置と速度の関係が算出されない場合においても、移動体の検出を行う。     In the present embodiment, the moving object is detected even when the relationship between the horizontal position and the speed of the three-dimensional object is not calculated in the section divided by the road boundary.

ここでは、図14に示すように、外壁と歩行者との間に白線及び駐車車両が存在する場合について、説明を行う。     Here, as shown in FIG. 14, the case where a white line and a parked vehicle exist between an outer wall and a pedestrian is demonstrated.

なお、図1に示したブロック図、図2に示した車両へのカメラ101の設置例を示す図、図4に示したエッジの正規化の例を示す図については、第1の実施例と同様のため説明を省略する。   The block diagram shown in FIG. 1, the diagram showing an example of installation of the camera 101 in the vehicle shown in FIG. 2, and the diagram showing an example of edge normalization shown in FIG. Explanation is omitted for the same reason.

まず、撮像画像上に存在するエッジの速度成分を所定の階級値に分類して表した速度画像を生成する。本実施例における速度画像は、図15に示すように、速度が検出されたエッジの画素を丸型の点で表し、移動速度が速い画素ほど点を大きく示す。また、右へ向かう速度を黒点で表し、左へ向かう速度を白点で表すことによって移動方向を表している。   First, a velocity image is generated by classifying the velocity components of the edges existing on the captured image into predetermined class values. As shown in FIG. 15, the velocity image in the present embodiment represents the edge pixels where the velocity is detected as a round dot, and the pixel having a higher moving velocity indicates a larger dot. Further, the moving direction is represented by expressing the speed toward the right as a black point and the speed toward the left as a white point.

図15においては、自車両の走行路右側の外壁からは画像の右側へ向かう速度が検出され、走行路左側の外壁からは画像の左側へ向かう速度が検出されている。また、走行路左側から右へ移動する歩行者では、画像の右側へ向かう速度が検出され、走行路左側に駐車中の車両からは左側へ向かう速度が検出されている。さらに、自車両の挙動により、走行走路右側の白線からは画像の左側へ向かう速度が検出され、走行走路左側の白線からは画像の右側へ向かう速度が検出されているものとする。   In FIG. 15, the speed toward the right side of the image is detected from the outer wall on the right side of the traveling path of the host vehicle, and the speed toward the left side of the image is detected from the outer wall on the left side of the traveling path. Further, for a pedestrian moving from the left side of the traveling road to the right, the speed toward the right side of the image is detected, and from the vehicle parked on the left side of the traveling path, the speed toward the left side is detected. Furthermore, it is assumed that the speed toward the left side of the image is detected from the white line on the right side of the travel road and the speed toward the right side of the image is detected from the white line on the left side of the travel path due to the behavior of the host vehicle.

次に、速度画像に基づき、物体検出を行う。物体を検出するための領域の設定および同一物体と判定するための画素のグループ化方法については実施例1と同様のため、説明は省略する。本実施例では、図16に示すように、図15に示す撮像画像において、上端TL1〜TL15および下端BL1〜BL15が検出される。   Next, object detection is performed based on the velocity image. Since the region setting method for detecting an object and the pixel grouping method for determining the same object are the same as those in the first embodiment, the description thereof is omitted. In the present embodiment, as shown in FIG. 16, upper ends TL1 to TL15 and lower ends BL1 to BL15 are detected in the captured image shown in FIG.

次に、xy平面上で抽出した下端BL1〜BL15および上端TL1〜TL15の中心位置を座標とする下端点BP1〜BP15(図示省略)および上端点TP1〜TP15(図示省略)の位置座標を、規定の面積を備えたZX平面(以下、規定のZX平面と呼ぶ)上の点として3次元の位置座標(実空間上の3次元における位置座標)に変換する。この変換方法は、実施例1と同様のため、説明を省略する。本実施例では、上端点TP1〜TP15、下端点BP1〜BP15の変換後の点を、上端点の座標変換点RT1〜RT15、下端点の座標変換点RB1〜RB15とする。   Next, the position coordinates of the lower end points BP1 to BP15 (not shown) and the upper end points TP1 to TP15 (not shown) having the coordinates of the center positions of the lower ends BL1 to BL15 and the upper ends TL1 to TL15 extracted on the xy plane are defined. Are converted into three-dimensional position coordinates (three-dimensional position coordinates in the real space) as points on a ZX plane (hereinafter referred to as a prescribed ZX plane) having the following area. Since this conversion method is the same as that of the first embodiment, description thereof is omitted. In the present embodiment, the converted points of the upper end points TP1 to TP15 and the lower end points BP1 to BP15 are the upper end point coordinate conversion points RT1 to RT15 and the lower end point coordinate conversion points RB1 to RB15.

次に、上端点及び下端点の座標変換点が規定のZX平面を分割して設定した領域のどの領域に位置するかに基づいて、平面物、立体物の判定を行う。また、走路境界を検出するために、各領域に設定したカウンタのうち、下端点の座標変換点が位置する領域のカウンタ値を加算し、下端点の位置情報分布を算出する。このZX平面の分割方法、平面物と立体部の判定方法、下端点の位置情報分布の算出方法は、実施例1と同様のため、説明は省略する。   Next, a plane object and a three-dimensional object are determined on the basis of which of the areas where the coordinate conversion points of the upper end point and the lower end point are located by dividing the prescribed ZX plane. In order to detect the road boundary, among the counters set in each area, the counter value of the area where the coordinate conversion point of the lower end point is added is added to calculate the position information distribution of the lower end point. Since the ZX plane dividing method, the plane object and solid part determining method, and the method of calculating the position information distribution of the lower end point are the same as those in the first embodiment, description thereof will be omitted.

本実施例では、図17に示すように、上端点TP1、TP4、TP6〜TP9、T13〜TP15の座標変換点RT1、RT4、RT6〜RT9、RT13〜RT15は、図17に示す規定のZX平面外に投影されるため、上端点TP1、TP4、TP6〜TP9、T13〜TP15を含むグループは立体物であると判定され、上端点TP1、TP4、TP6〜TP9、T13〜TP15を含むエッジはxy平面上で立体物OB1〜OB9として判定される。また上端点TP2、TP3、TP5、TP10〜TP12の座標変換点RT2、RT3、RT5、RT10〜RT12は、下端点BP2、BP3、BP5、BP10〜BP12の座標変換点RB2、RB3、RB5、RB10〜RB12と同じ領域に位置するため、上端点TP2、TP3、TP5、TP10〜TP12を含むグループは路面上に位置する物体であると判定される。ここで、走路境界を検出するために、下端点の座標変換点RB1〜RB15が位置する領域のカウンタのカウンタ値を+1加算する。   In the present embodiment, as shown in FIG. 17, the coordinate transformation points RT1, RT4, RT6 to RT9, RT13 to RT15 of the upper end points TP1, TP4, TP6 to TP9, T13 to TP15 are defined in the prescribed ZX plane shown in FIG. Since the projection is performed outside, the group including the upper end points TP1, TP4, TP6 to TP9, and T13 to TP15 is determined to be a three-dimensional object, and the edge including the upper end points TP1, TP4, TP6 to TP9, and T13 to TP15 is determined to be xy. It is determined as a three-dimensional object OB1 to OB9 on the plane. The coordinate transformation points RT2, RT3, RT5, RT10 to RT12 of the upper end points TP2, TP3, TP5, TP10 to TP12 are coordinate transformation points RB2, RB3, RB5, RB10 of the lower end points BP2, BP3, BP5, BP10 to BP12. Since it is located in the same region as RB12, it is determined that the group including the upper end points TP2, TP3, TP5, TP10 to TP12 is an object located on the road surface. Here, in order to detect the road boundary, +1 is added to the counter value of the counter in the region where the coordinate conversion points RB1 to RB15 of the lower end point are located.

そして、図18に示すように、得られた下端点の座標変換点の位置分布から、走路境界線が存在する可能性が高い領域を抽出し、抽出した走路境界を示す直線が存在するかどうかの判定を行う。抽出方法及び直線の存在判定方法は実施例1と同様のため、説明は省略する。本実施例では、領域10では、下端点の座標変換点RB1、RB4、RB8に対応するxy平面上の下端点BP1、BP4、BP8を結ぶ直線は走路境界を示す直線L1であると判定され、領域30では、下端点の座標変換点RB2、RB3、RB5に対応するxy平面上の下端点BP2、BP3、BP5を結ぶ直線は走路境界を示す直線L3であると判定され、領域60では、下端点の座標変換点RB10、RB11、RB12に対応するxy平面上の下端点BP10、BP11、BP12を結ぶ直線は走路境界を示す直線L6であると判定され、領域80では、下端点n座標変換点RB13、RB14、RB15に対応するxy平面上の下端点BP13、BP14、BP15を結ぶ直線は走路境界を示す直線L8であると判定される。   Then, as shown in FIG. 18, from the obtained position distribution of the coordinate conversion point of the lower end point, an area where there is a high possibility that the road boundary line exists is extracted, and whether or not there is a straight line indicating the extracted road boundary Judgment is made. Since the extraction method and the straight line existence determination method are the same as those in the first embodiment, description thereof is omitted. In the present embodiment, in the area 10, it is determined that the straight line connecting the lower end points BP1, BP4, BP8 on the xy plane corresponding to the coordinate conversion points RB1, RB4, RB8 of the lower end point is the straight line L1 indicating the road boundary. In the region 30, it is determined that the straight line connecting the lower end points BP2, BP3, BP5 on the xy plane corresponding to the coordinate transformation points RB2, RB3, RB5 of the lower end point is the straight line L3 indicating the road boundary. The straight line connecting the lower end points BP10, BP11, and BP12 on the xy plane corresponding to the point coordinate conversion points RB10, RB11, and RB12 is determined to be the straight line L6 indicating the road boundary, and in the region 80, the lower end point n coordinate conversion point A straight line connecting the lower end points BP13, BP14, and BP15 on the xy plane corresponding to RB13, RB14, and RB15 is determined to be a straight line L8 that indicates a road boundary.

次に、図19に示すように、走路境界を示す直線のうち、自車両の近傍から遠方に連続して存在する立体物で構成される直線を背景として検出する。一般に、背景は、静止した立体物が自車両近傍から遠方に直線的に並んでおり、近傍の速度が速く、遠方に行くに従い速度が遅くなる、という特徴を備える。したがって、このような特徴を示す走路境界を背景として抽出する。ここで、立体物で構成される走路境界が複数存在する場合には、自車両からより遠方に位置する走路境界を選択する。本実施例では、外壁と路面の交点である走路境界線L1とL8を背景として検出する。   Next, as shown in FIG. 19, a straight line constituted by a three-dimensional object continuously present in the distance from the vicinity of the host vehicle is detected as a background among straight lines indicating the road boundary. In general, the background is characterized in that stationary three-dimensional objects are linearly arranged in the distance from the vicinity of the host vehicle, the speed in the vicinity is high, and the speed decreases as the distance increases. Therefore, the road boundary showing such characteristics is extracted as the background. Here, when there are a plurality of road boundaries composed of three-dimensional objects, a road boundary located farther from the host vehicle is selected. In this embodiment, the road boundary lines L1 and L8, which are the intersections of the outer wall and the road surface, are detected as the background.

次に、図19に示すように、検出した背景の画像位置と速度の関係から、画像上の任意の位置における静止物体の速度を算出する予測式を算出する。背景となる立体物は静止物であるため、背景となる立体物の速度は、画像の各位置における静止物の速度を表している。例えば、立体物OB1、OB2、OB5の速度は、それぞれの画像位置における静止物の速度を表している。したがって、複数の立体物間の画像位置と速度の関係を示す予測式を算出することで、画像上の任意の位置の静止物の速度を求めることができる。本実施例では、画像左側の物体に対しては、立体物OB1、OB2、OB5の画像上のxy座標を説明変数、速度を目的変数として、回帰分析を行い、静止物体の速度の予測式を算出する。同様に、画像右側の物体に対しては、立体物OB7、OB8、OB9の画像上のxy座標を説明変数、速度を目的変数として、回帰分析を行い、静止物体の速度の予測式を算出する。   Next, as shown in FIG. 19, a prediction formula for calculating the speed of the stationary object at an arbitrary position on the image is calculated from the relationship between the detected background image position and speed. Since the solid object serving as the background is a stationary object, the speed of the solid object serving as the background represents the speed of the stationary object at each position of the image. For example, the speed of the three-dimensional objects OB1, OB2, and OB5 represents the speed of the stationary object at each image position. Therefore, by calculating a prediction formula indicating the relationship between the image position and the speed between a plurality of three-dimensional objects, the speed of a stationary object at an arbitrary position on the image can be obtained. In this embodiment, for the object on the left side of the image, regression analysis is performed using the xy coordinates on the images of the three-dimensional objects OB1, OB2, and OB5 as explanatory variables and the speed as an objective variable. calculate. Similarly, with respect to the object on the right side of the image, regression analysis is performed using the xy coordinates on the images of the three-dimensional objects OB7, OB8, and OB9 as explanatory variables and the speed as an objective variable, and a prediction formula for the speed of a stationary object is calculated. .

次に、図19に示すように、画像処理により検出された立体物の下端位置での速度情報(速度の値、方向)と、算出した予測式から得られる立体物の下端位置における静止物の速度情報とを比較して速度情報が異なる場合に立体物を移動体として検出する。   Next, as shown in FIG. 19, the velocity information (speed value and direction) at the lower end position of the three-dimensional object detected by the image processing and the stationary object at the lower end position of the three-dimensional object obtained from the calculated prediction formula. When the speed information is different from the speed information, the three-dimensional object is detected as a moving object.

本発明の場合、自車両に向かって来る移動体が移動体としての検出対象となるため、立体物の速度の方向が予測式から算出した静止物体の速度と同じ方向であり、立体物の速度の値と予測式から算出した静止物の速度の値との差が所定値以下であれば、その立体物は自車両に向かって来る移動体ではない静止物であると判定する。   In the case of the present invention, since the moving body that faces the host vehicle is a detection target as the moving body, the direction of the speed of the three-dimensional object is the same direction as the speed of the stationary object calculated from the prediction formula, and the speed of the three-dimensional object If the difference between this value and the value of the speed of the stationary object calculated from the prediction formula is equal to or less than a predetermined value, it is determined that the three-dimensional object is a stationary object that is not a moving object that comes toward the host vehicle.

また、移動体であれば、路面上に存在する可能性が高く背景よりも手前に存在するため、画像上では、立体物の下端は背景の下端よりも下方に存在し、立体物の上端は一般に背景の下端よりも高い位置に存在する。さらに、自車両の方向に向かって来る移動体のうち、立体物の下端位置での速度成分が予測式から算出した静止物と反対方向の速度成分を持つ場合には、確実に自車両の進路方向に向かって来る移動体であるといえる。   Also, if it is a moving object, it is likely to exist on the road surface and is present in front of the background, so on the image, the lower end of the three-dimensional object exists below the lower end of the background, and the upper end of the three-dimensional object is Generally, it exists at a position higher than the lower end of the background. Furthermore, if the speed component at the lower end position of the three-dimensional object has a speed component in the opposite direction to the stationary object calculated from the prediction formula among the moving objects that are moving in the direction of the own vehicle, the path of the own vehicle is surely It can be said that it is a moving body that comes in the direction.

したがって、予測式から算出した速度とは反対向きの速度を持ち、背景の下端位置よりも上端位置が高い立体物という判定条件を加えることによって、移動体であるかどうかの判定だけでなく自車の進路路方向に進む移動体であることを簡易的に判定することができる。   Therefore, by adding the determination condition of a three-dimensional object having a speed opposite to the speed calculated from the prediction formula and having an upper end position higher than the lower end position of the background, not only whether it is a moving object but also the own vehicle It is possible to easily determine that the mobile body is traveling in the direction of the path.

本実施例では、立体物OB3、OB4は、予測式から算出した静止物の速度情報と同等の速度情報を有するため、静止物であると判定する。また、立体物OB6は、予測式から算出した静止物とは反対向きの速度の方向を持ち、その上端位置が背景(走路境界L1)の下端位置よりも高い位置にあるため、自車両の進路方向に進む移動体であると判定する。   In the present embodiment, the three-dimensional objects OB3 and OB4 have speed information equivalent to the speed information of the stationary object calculated from the prediction formula, and thus are determined to be stationary objects. The three-dimensional object OB6 has a speed direction opposite to that of the stationary object calculated from the prediction formula, and its upper end position is higher than the lower end position of the background (running road boundary L1). It is determined that the moving body is moving in the direction.

図20は、本実施例における物体検出装置10の処理を示すフローチャートであり、前述の移動体判定方法のうち、自車両の方向に確実に向かってくる移動体を簡易的に判定するためのものである。図20に示す処理はイグニションスイッチがオンされると、起動されるプログラムとして実行される。図20においては、図10に示す第1の実施例における処理と同一の処理内容については、同じステップ番号を付与し、以下相違点を中心に説明する。     FIG. 20 is a flowchart showing the processing of the object detection apparatus 10 in the present embodiment, and for easily determining a moving body that surely faces the direction of the host vehicle in the above-described moving body determination method. It is. The process shown in FIG. 20 is executed as a program to be started when the ignition switch is turned on. In FIG. 20, the same processing numbers as those in the first embodiment shown in FIG. 10 are assigned the same step numbers, and the differences will be mainly described below.

ステップS131では、ステップS112で検出した走路境界直線のうち、車両の近傍から遠方に連続して存在する立体物で構成される直線を背景となる走路境界として検出する。この後に,フローはステップS132へ移行する。   In step S131, among the road boundary straight lines detected in step S112, a straight line composed of a three-dimensional object that continuously exists far from the vicinity of the vehicle is detected as a road boundary serving as a background. After this, the flow moves to step S132.

ステップS132では、ステップS131で検出した背景となる走路境界を構成する立体物の速度情報を目的変数とし、下端点における画像xy座標を説明変数として、重回帰分析を行うことで、画像上の任意の位置での静止物の速度の予測式を算出する。この後に、フローはステップ133に移行する。   In step S132, multiple regression analysis is performed using the velocity information of the three-dimensional object constituting the background road boundary detected in step S131 as an objective variable and the image xy coordinates at the lower end point as explanatory variables. The prediction formula of the speed of the stationary object at the position of is calculated. After this, the flow moves to step 133.

ステップS133では、ステップS131で検出した背景となる走路境界の位置と立体物の上端位置とを比較し、画像上において、走路境界の位置よりも立体物の上端位置が上方に存在する場合には、その立体物を移動体候補として検出する。この後に、フローはステップS134に移行する。   In step S133, the position of the road boundary that is the background detected in step S131 is compared with the upper edge position of the solid object, and when the upper edge position of the solid object exists above the position of the road boundary on the image. The three-dimensional object is detected as a moving object candidate. After this, the flow moves to step S134.

ステップS134では、ステップS133で検出した移動体候補の速度情報と移動体候補位置において予測式から得られる静止物の速度情報とを比較し、速度差の絶対値が所定の範囲内にある場合は、その移動体候補を静止物と判定し、フローはステップS116に移行する。一方、速度差の絶対値が所定の範囲外である場合ば、その移動体候補を移動体と判定し、フローはステップS135に移行する。   In step S134, the speed information of the moving object candidate detected in step S133 is compared with the speed information of the stationary object obtained from the prediction formula at the moving object candidate position, and when the absolute value of the speed difference is within a predetermined range. The moving object candidate is determined as a stationary object, and the flow proceeds to step S116. On the other hand, if the absolute value of the speed difference is outside the predetermined range, the mobile object candidate is determined as a mobile object, and the flow proceeds to step S135.

ステップS135では、移動体と判定された立体物の速度の向きと予測式から得られた静止物体の速度の向きが反対であれば、その移動体を自車の進路中心に向かう移動体と判定する。この後に、フローはステップS116に移行する。   In step S135, if the direction of the speed of the three-dimensional object determined as the moving object is opposite to the direction of the speed of the stationary object obtained from the prediction formula, the moving object is determined as the moving object toward the center of the course of the own vehicle. To do. After this, the flow moves to step S116.

以降、第1の実施例と同様の処理により、全ての移動体の検出処理を行い、処理を終了する。   Thereafter, all mobile objects are detected by the same process as in the first embodiment, and the process ends.

以上説明した本実施の形態の物体検出装置によれば、以下のような作用効果を得ることができる。   According to the object detection device of the present embodiment described above, the following operational effects can be obtained.

前記物体属性判定部107は、前記3次元における前記位置座標と前記画素の速度情報とに基づいて、基準となる静止物および移動体としての判定対象となる立体物を検出し、前記基準となる静止物を構成する前記画素の前記速度情報と、前記移動体としての判定対象となる立体物を構成する前記速度情報とに基づいて、前記移動体としての判定対象となる立体物が移動体であることを判定することとした。   The object attribute determination unit 107 detects a reference stationary object and a three-dimensional object to be determined as a moving object based on the three-dimensional position coordinates and the pixel velocity information, and serves as the reference. Based on the speed information of the pixels constituting the stationary object and the speed information constituting the three-dimensional object to be determined as the moving object, the three-dimensional object to be determined as the moving object is a moving object. It was decided to determine that there was.

また、本実施の形態の物体検出装置によれば、前記基準となる静止物は、背景となる立体物であることとした。   Further, according to the object detection apparatus of the present embodiment, the reference stationary object is a solid object as a background.

また、本実施の形態の物体検出装置によれば、前記画像の垂直方向に隣接するとともに速度情報が所定の範囲にある前記画素をグループ化するグループ化部106を備え、前記物体属性判定部107は、前記グループ化部106によりグループ化した前記画素のうち最上部に位置する前記画素と最下部に位置する前記画素の前記3次元における位置座標を検出し、検出した前記最上部に位置する前記画素が前記3次元の所定の範囲を所定の数に分割して設定した複数の領域外に位置するとともに検出した前記最下部に位置する前記画素が前記3次元の前記複数の領域のうちいずれかの領域に位置する場合にはグループ化した前記画素を立体物と判定し、検出した複数の前記立体物の最下部に位置する前記画素が前記実空間上の3次元における位置座標において直線上に並ぶとともに、複数の前記立体物の前記最下部に位置する前記画素の速度情報が前記直線方向において一定の割合で変化する場合に、前記立体物を背景となる静止物と判定することとした。   In addition, according to the object detection apparatus of the present embodiment, the object attribute determination unit 107 includes the grouping unit 106 that groups the pixels that are adjacent in the vertical direction of the image and whose velocity information is in a predetermined range. Detects the three-dimensional position coordinates of the pixel located at the top and the pixel located at the bottom among the pixels grouped by the grouping unit 106, and the pixel located at the top is detected. The pixel is located outside the plurality of regions set by dividing the three-dimensional predetermined range into a predetermined number, and the detected pixel located at the bottom is one of the three-dimensional regions The grouped pixels are determined as solid objects, and the pixels located at the bottom of the detected plurality of solid objects are in three dimensions in the real space. When the velocity information of the pixels located on the straight line in the set coordinates and located at the lowermost part of the plurality of solid objects changes at a constant rate in the straight line direction, the solid object is a background stationary object. I decided to judge.

また、本実施の形態の物体検出装置によれば、前記物体属性判定部107は、前記背景となる静止物である複数の前記立体物の前記最下部に位置する前記画素の位置座標と速度とに基づいて、前記移動体としての判定対象となる立体物の位置座標における静止物の速度を算出し、算出した該静止物と前記移動体としての判定対象となる立体物との速度情報が異なる場合に、前記移動体としての判定対象となる立体物を移動体と判定することとした。   Further, according to the object detection apparatus of the present embodiment, the object attribute determination unit 107 includes the position coordinates and speed of the pixels located at the lowermost part of the plurality of three-dimensional objects that are the background stationary objects. Based on the above, the speed of the stationary object at the position coordinates of the three-dimensional object to be determined as the moving object is calculated, and the calculated velocity information of the stationary object and the three-dimensional object to be determined as the moving object are different. In this case, the three-dimensional object to be determined as the moving body is determined to be a moving body.

この構成によれば、自車の近傍から遠方に連続して存在する静止している立体物は背景であることから、検出した立体物の中から容易に背景を検出することができる。また、静止物である背景は、自車の近傍における速度は大きく、遠方になるに従い速度が小さくなるという特徴を備えるため、検出した背景の画像位置と速度の関係を表す予測式を算出することにより、画像上の任意の位置での静止物の速度情報を予測することができる。したがって、検出した立体物の速度情報と、その立体物の位置で予測式により算出した背景(静止物)の速度情報とを比較することで、立体物が移動体であるか否かを簡単に判定することができる。   According to this configuration, since the stationary solid object continuously present in the distance from the vicinity of the own vehicle is the background, the background can be easily detected from the detected three-dimensional object. In addition, the background, which is a stationary object, has a feature that the speed in the vicinity of the host vehicle is large and the speed decreases as the vehicle is farther away, so that a prediction formula that expresses the relationship between the detected image position of the background and the speed must be calculated. Thus, it is possible to predict the velocity information of the stationary object at an arbitrary position on the image. Therefore, by comparing the speed information of the detected three-dimensional object with the speed information of the background (stationary object) calculated by the prediction formula at the position of the three-dimensional object, it is easy to determine whether the three-dimensional object is a moving object. Can be determined.

また、この構成によれば、背景と立体物との速度情報の比較に基づいて移動体の検出を行うため、複数の立体物が存在しなくても移動物体の検出が可能になり、より複雑な背景下においても画像を分割することなく一括して移動体の検出を行うことができる。   In addition, according to this configuration, since the moving object is detected based on the comparison of the speed information between the background and the three-dimensional object, it is possible to detect the moving object even when there are not a plurality of three-dimensional objects. It is possible to detect a moving body all at once without dividing an image even under a complicated background.

また、本実施の形態の物体検出装置によれば、前記物体属性判定部107は、前記背景となる静止物である前記立体物とは反対方向の速度を持つとともに、前記背景となる静止物である前記立体物の下端位置よりも高い位置に上端位置がある立体物を移動体と判定することとした。   Further, according to the object detection apparatus of the present embodiment, the object attribute determination unit 107 has a speed in a direction opposite to that of the three-dimensional object that is the background stationary object and is the background stationary object. The three-dimensional object having the upper end position at a position higher than the lower end position of the certain three-dimensional object is determined as the moving object.

この構成によれば、立体物の速度の方向と上端の位置とに基づいて、移動体の検出を簡単に行うことができる。   According to this configuration, the moving body can be easily detected based on the speed direction of the three-dimensional object and the position of the upper end.

また、以上説明した本実施の形態の物体検出方法によれば、以下のような作用効果を得ることができる。   Moreover, according to the object detection method of this Embodiment demonstrated above, the following effects can be acquired.

前記3次元における前記位置座標と前記画素の速度情報とに基づいて、基準となる静止物および移動体としての判定対象となる立体物を検出し、前記基準となる静止物を構成する前記画素の前記速度情報と、前記移動体としての判定対象となる立体物を構成する前記速度情報とに基づいて、前記移動体としての判定対象となる立体物が移動体であることを判定することとした。   Based on the position coordinates in the three dimensions and the velocity information of the pixels, a reference stationary object and a three-dimensional object to be determined as a moving object are detected, and the pixels constituting the reference stationary object are detected. Based on the speed information and the speed information constituting the three-dimensional object to be determined as the moving object, it is determined that the three-dimensional object to be determined as the moving object is a moving object. .

また、本実施の形態の物体検出方法によれば、前記基準となる静止物は、背景となる立体物であることとした。   Moreover, according to the object detection method of the present embodiment, the reference stationary object is a three-dimensional object as a background.

また、本実施の形態の物体検出方法によれば、前記画像の垂直方向に隣接するとともに速度情報が所定の範囲にある前記画素をグループ化し、グループ化した前記画素のうち最上部に位置する前記画素と最下部に位置する前記画素の前記3次元における位置座標を検出し、検出した前記最上部に位置する前記画素が前記3次元の所定の範囲を所定の数に分割して設定した複数の領域外に位置するとともに検出した前記最下部に位置する前記画素が前記3次元の前記複数の領域のうちいずれかの領域に位置する場合にはグループ化した前記画素を立体物と判定し、検出した複数の前記立体物の最下部に位置する前記画素が前記実空間上の3次元における位置座標において直線上に並ぶとともに、複数の前記立体物の前記最下部に位置する前記画素の速度情報が前記直線方向において一定の割合で変化する場合に、前記立体物を背景となる静止物と判定することとした。   Further, according to the object detection method of the present embodiment, the pixels that are adjacent in the vertical direction of the image and whose velocity information is in a predetermined range are grouped, and the pixel located at the top of the grouped pixels is positioned. A plurality of pixels in which the three-dimensional position coordinates of the pixel and the pixel located at the lowermost part are detected and the detected pixel located at the uppermost part is set by dividing the three-dimensional predetermined range into a predetermined number When the pixel located outside the region and located at the bottom is located in any one of the three-dimensional regions, the grouped pixels are determined as a three-dimensional object and detected. The pixels positioned at the bottom of the plurality of three-dimensional objects are arranged on a straight line in three-dimensional position coordinates in the real space, and the image positioned at the bottom of the plurality of three-dimensional objects. If the speed information changes at a constant rate in the line direction, was possible to determine that the stationary object as a background of the three-dimensional object.

また、本実施の形態の物体検出方法によれば、前記背景となる静止物である複数の前記立体物の前記最下部に位置する前記画素の位置座標と速度とに基づいて、前記移動体としての判定対象となる立体物の位置座標における静止物の速度を算出し、算出した該静止物と前記移動体としての判定対象となる立体物との速度情報が異なる場合に、前記移動体としての判定対象となる立体物を移動体と判定することとした。   Further, according to the object detection method of the present embodiment, as the moving body, based on the position coordinates and the speed of the pixel located at the bottom of the plurality of three-dimensional objects that are the stationary objects as the background When the velocity information of the stationary object at the position coordinates of the three-dimensional object to be determined is different from the calculated stationary object and the three-dimensional object to be determined as the moving object, The solid object to be determined is determined to be a moving object.

この方法によれば、自車の近傍から遠方に連続して存在する静止している立体物は背景であることから、検出した立体物の中から容易に背景を検出することができる。また、静止物である背景は、自車の近傍における速度は大きく、遠方になるに従い速度が小さくなるという特徴を備えるため、検出した背景の画像位置と速度の関係を表す予測式を算出することにより、画像上の任意の位置での静止物の速度情報を予測することができる。したがって、検出した立体物の速度情報と、その立体物の位置で予測式により算出した背景(静止物)の速度情報とを比較することで、立体物が移動体であるか否かを簡単に判定することができる。   According to this method, since the stationary solid object continuously existing far from the vicinity of the own vehicle is the background, the background can be easily detected from the detected three-dimensional object. In addition, the background, which is a stationary object, has a feature that the speed in the vicinity of the host vehicle is large and the speed decreases as the vehicle is farther away, so that a prediction formula that expresses the relationship between the detected image position of the background and the speed must be calculated. Thus, it is possible to predict the velocity information of the stationary object at an arbitrary position on the image. Therefore, by comparing the speed information of the detected three-dimensional object with the speed information of the background (stationary object) calculated by the prediction formula at the position of the three-dimensional object, it is easy to determine whether the three-dimensional object is a moving object. Can be determined.

また、この方法によれば、背景と立体物との速度情報の比較に基づいて移動体の検出を行うため、複数の立体物が存在しなくても移動物体の検出が可能になり、より複雑な背景下においても画像を分割することなく一括して移動体の検出を行うことができる。   In addition, according to this method, since the moving object is detected based on the comparison of the speed information between the background and the three-dimensional object, it is possible to detect the moving object even when there are not a plurality of three-dimensional objects. It is possible to detect a moving body all at once without dividing an image even under a complicated background.

また、本実施の形態の物体検出方法によれば、前記背景となる静止物である前記立体物とは反対方向の速度を持つとともに、前記背景となる静止物である前記立体物の下端位置よりも高い位置に上端位置がある立体物を移動体と判定することとした。   Further, according to the object detection method of the present embodiment, it has a speed in a direction opposite to that of the three-dimensional object that is the background stationary object, and from the lower end position of the three-dimensional object that is the background stationary object. A three-dimensional object having an upper end position at a higher position is determined as a moving object.

この方法によれば、立体物の速度の方向と上端の位置とに基づいて、移動体の検出を簡単に行うことができる。   According to this method, it is possible to easily detect the moving body based on the speed direction of the three-dimensional object and the position of the upper end.

本実施例では、走路境界で区切られた区画おいて、立体物の水平方向位置と速度の関係が算出されない場合においても、移動体の検出を行い、移動物体の進路の方向を判定する。     In the present embodiment, even when the relationship between the horizontal position and the speed of the three-dimensional object is not calculated in the section divided by the road boundary, the moving object is detected and the direction of the moving object is determined.

ここでは、図21に示すように、外壁と歩行者との間に白線及び駐車車両が存在する場合について、説明を行う。ここで、走行路左側から右へ移動する歩行者の移動速度が自車両の走行に伴う画面の移動速度より遅く、画面上では左側へ向かう速度が検出されているものとして説明を行う。     Here, as shown in FIG. 21, the case where a white line and a parked vehicle exist between an outer wall and a pedestrian will be described. Here, the description will be made on the assumption that the moving speed of the pedestrian moving from the left side to the right side of the traveling path is slower than the moving speed of the screen as the host vehicle travels and the speed toward the left side is detected on the screen.

なお、図1に示したブロック図、図2に示した車両へのカメラ101の設置例を示す図、図4に示したエッジの正規化の例を示す図については、第1の実施例と同様のため説明を省略する。また、図16〜図19の各説明図については、実施例3と同様のため、説明を省略する。   The block diagram shown in FIG. 1, the diagram showing an example of installation of the camera 101 in the vehicle shown in FIG. 2, and the diagram showing an example of edge normalization shown in FIG. Explanation is omitted for the same reason. Moreover, about each explanatory drawing of FIGS. 16-19, since it is the same as that of Example 3, description is abbreviate | omitted.

本実施例では、予測式から得られる静止物の速度情報と検出した立体物の速度情報とを比較することにより移動物体を検出し、移動物体の移動方向を判定する。ここで、予測式からから得られる静止物の速度情報と検出した立体物の速度情報が異なり、立体物が反対向きの速度情報を持つ場合については、実施例3で説明したため、説明は省略する。   In this embodiment, the moving object is detected by comparing the speed information of the stationary object obtained from the prediction formula and the speed information of the detected three-dimensional object, and the moving direction of the moving object is determined. Here, the case where the speed information of the stationary object obtained from the prediction formula is different from the speed information of the detected three-dimensional object, and the three-dimensional object has speed information in the opposite direction has been described in the third embodiment, and the description thereof will be omitted. .

図22に、自車両と自車両周囲の移動体の移動方向の関係を、図23に、移動体の実空間上での移動方向と画面上での移動方向の関係を示す。ここで、自車両が時刻tから時刻t+1走行する間に画面上の背景が左方向に移動する速度をVbとする。   FIG. 22 shows the relationship between the moving direction of the host vehicle and the moving body around the host vehicle, and FIG. 23 shows the relationship between the moving direction of the moving body in real space and the moving direction on the screen. Here, the speed at which the background on the screen moves to the left while the host vehicle travels from time t to time t + 1 is defined as Vb.

自車両が走行中に、自車両の進路に直角に速度Vpで近づく移動体P1の画面上の動きを考える。速度Vpの画面上における速度をVmとすると、移動体P1は、Vm>Vbで自車両の進路に近づけば、画面上では右方向に移動するように見え、Vm=Vbで自車両の進路に近づけば、画面上では静止しているように見え、Vm<Vbで自車両の進路に近づけば、実空間上では右方向に移動しているにもかかわらず画面上では左方向に移動するように見える(図23の区間D1)。   Consider the movement on the screen of the moving body P1 approaching at a speed Vp perpendicular to the course of the host vehicle while the host vehicle is traveling. Assuming that the speed Vp on the screen is Vm, the moving body P1 appears to move rightward on the screen when Vm> Vb and approaches the path of the host vehicle when Vm = Vb. If it approaches, it will appear to be stationary on the screen, and if it approaches the path of the vehicle with Vm <Vb, it will move to the left on the screen even though it moves to the right in real space. (Section D1 in FIG. 23).

次に、自車両が走行中に、自車両の進行方向に速度Vpで遠ざかる(図23、24では背面移動と記載)移動体P21の画面上の動きを考える。時刻tにおける移動体P21の画面上の水平方向位置をx(t)、時刻t+1における移動体P21の画面上の水平方向位置をx(t+1)とすると、x(t+1)−x(t)>0となる場合は、画面上では右方向に移動するように見え、x(t+1)−x(t)=0となる場合は、画面上では静止しているように見え、x(t+1)−x(t)<0となる場合は、画面上では左方向に移動するように見える。ここで、移動体P21は自車両の進行方向に遠ざかるように移動しているので、画面上の位置変化は通常背景の位置変化より小さくなり、自車両の進行方向に遠ざかる移動体P21は、画面上では左方向に移動するように見える(図23の区間D21)。   Next, let us consider the movement of the moving body P21 on the screen while the host vehicle travels away at a speed Vp in the traveling direction of the host vehicle (referred to as back movement in FIGS. 23 and 24). Assuming that the horizontal position on the screen of the moving body P21 at time t is x (t) and the horizontal position on the screen of the moving body P21 at time t + 1 is x (t + 1), x (t + 1) −x (t)> When it is 0, it appears to move rightward on the screen, and when x (t + 1) −x (t) = 0, it appears to be stationary on the screen, and x (t + 1) −. When x (t) <0, it appears to move leftward on the screen. Here, since the moving body P21 is moving away from the traveling direction of the host vehicle, the position change on the screen is usually smaller than the position change of the background, and the moving body P21 moving away from the traveling direction of the host vehicle is It looks like it moves in the left direction above (section D21 in FIG. 23).

次に、自車両が走行中に、停止している立体物P2の画面上の動きを考える。立体物P2は、背景と同等の速度を有する。したがって、停止している立体物P2は画面上では速度Vbで左方向に移動するように見える(図23の区間D2)。なお、ここでは実空間上で速度が±Vs以下である移動体を停止しているものと仮定している。   Next, the movement on the screen of the three-dimensional object P2 that is stopped while the host vehicle is traveling will be considered. The three-dimensional object P2 has a speed equivalent to the background. Accordingly, the stopped three-dimensional object P2 appears to move leftward at the speed Vb on the screen (section D2 in FIG. 23). Here, it is assumed that the moving body whose speed is ± Vs or less in the real space is stopped.

次に、自車両が走行中に、自車両の進行方向に速度Vpで近づく移動体P22の画面上の動きを考える。時刻tにおける移動体P22の画面上の水平方向位置をx(t)、時刻t+1における移動体P22の画面上の水平方向位置をx(t+1)とすると、x(t+1)−x(t)>0となる場合は、画面上では右方向に移動するように見え、x(t+1)−x(t)=0となる場合は、画面上では静止しているように見え、x(t+1)−x(t)<0となる場合は、画面上では左方向に移動するように見える。ここで、移動体P11は自車両の進行方向に近づくように移動しているので、画面上の位置変化は通常背景の位置変化より大きくなり、自車両の進行方向に遠ざかる移動体P22は、画面上では左方向に移動するように見える(図23の区間D22)。   Next, consider the movement on the screen of the moving body P22 that approaches the traveling direction of the host vehicle at the speed Vp while the host vehicle is traveling. If the horizontal position on the screen of the moving body P22 at time t is x (t) and the horizontal position on the screen of the moving body P22 at time t + 1 is x (t + 1), then x (t + 1) −x (t)> When it is 0, it appears to move rightward on the screen, and when x (t + 1) −x (t) = 0, it appears to be stationary on the screen, and x (t + 1) −. When x (t) <0, it appears to move leftward on the screen. Here, since the moving body P11 is moving so as to approach the traveling direction of the own vehicle, the position change on the screen is usually larger than the position change of the background, and the moving body P22 moving away from the traveling direction of the own vehicle It looks like it moves in the left direction above (section D22 in FIG. 23).

次に、自車両が走行中に、自車両の進路に直角に速度Vpで遠ざかる移動体P3の画面上の動きを考える。速度Vpの画面上における速度をVmとすると、移動体P3は、画面上では速度Vm+Vbで左方向に移動するように見える(図23の区間D3)。   Next, consider the movement on the screen of the moving body P3 moving away at a speed Vp perpendicular to the course of the host vehicle while the host vehicle is traveling. If the speed Vp on the screen is Vm, the moving body P3 appears to move leftward at the speed Vm + Vb on the screen (section D3 in FIG. 23).

図24は、本実施例における物体検出装置10の処理を示すフローチャートである。図24に示す処理はイグニションスイッチがオンされると、起動されるプログラムとして実行される。図24においては、図23に示す実施例1および実施例3における処理と同一の処理内容については、同じステップ番号を付与し、以下相違点を中心に説明する。     FIG. 24 is a flowchart showing processing of the object detection apparatus 10 in the present embodiment. The process shown in FIG. 24 is executed as a program to be started when the ignition switch is turned on. In FIG. 24, the same process number as the process in Example 1 and Example 3 shown in FIG. 23 is assigned with the same step number, and the difference will be mainly described below.

ステップS141では、ステップS134で検出した移動体に対して、移動体と判定された立体物の速度情報と予測式から得られた静止物の速度情報とを比較することにより、前述した移動体の移動方向の判定が行われる。   In step S141, the speed information of the three-dimensional object determined as the moving object is compared with the speed information of the stationary object obtained from the prediction formula for the moving object detected in step S134. The moving direction is determined.

ステップS141の詳細を示すフローチャートを図25に示す。   A flowchart showing details of step S141 is shown in FIG.

ステップS1411では、検出した移動体の速度Vmの絶対値と予測式から得られた静止物の速度Vbの絶対値との差dV=|Vm|−|Vb|に基づいて、フローの分岐が行われる。dV>0の場合は、フローはステップS1412へ移行する。一方、dV≦0の場合は、フローはステップS1415へ移行する。   In step S1411, the flow branches based on the difference dV = | Vm | − | Vb | between the absolute value of the detected velocity Vm of the moving object and the absolute value of the velocity Vb of the stationary object obtained from the prediction formula. Is called. If dV> 0, the flow moves to step S1412. On the other hand, if dV ≦ 0, the flow moves to step S1415.

ステップS1412では、|dV|が所定値以上であるか否かの判定が行われる。|dV|が所定値以上である場合は、フローはステップS1413へ移行する。一方、|dV|が所定値未満の場合は、フローはステップS1414へ移行する。   In step S1412, it is determined whether or not | dV | is equal to or greater than a predetermined value. If | dV | is equal to or greater than the predetermined value, the flow moves to step S1413. On the other hand, if | dV | is less than the predetermined value, the flow moves to step S1414.

ステップS1413では、移動体は図23の区間D3の条件に該当し、移動体は自車両の進路中心から遠ざかると判定される。   In step S1413, it is determined that the moving body meets the condition of the section D3 in FIG. 23, and the moving body moves away from the course center of the host vehicle.

ステップS1414では、移動体は図23の区間D22の条件に該当し、移動体は自車両の進行方向に近づくと判定される。   In step S1414, it is determined that the moving body meets the condition of section D22 in FIG. 23, and the moving body approaches the traveling direction of the host vehicle.

ステップS1415では、|dV|が所定値以上であるか否かの判定が行われる。|dV|が所定値以上である場合は、フローはステップS1416へ移行する。一方、|dV|が所定値未満の場合は、フローはステップS1416へ移行する。   In step S1415, it is determined whether or not | dV | is equal to or greater than a predetermined value. If | dV | is equal to or greater than the predetermined value, the flow moves to step S1416. On the other hand, if | dV | is less than the predetermined value, the flow moves to step S1416.

ステップS1416では、移動体は図23の区間D1の条件に該当し、移動体は自車両の進路中心に徐々に近づくと判定される。   In step S1416, it is determined that the moving body satisfies the condition of the section D1 in FIG. 23 and the moving body gradually approaches the center of the course of the host vehicle.

ステップS1417では、移動体は図23の区間D21の条件に該当し、移動体は自車両の進行方向に遠ざかると判定される。   In step S1417, it is determined that the moving body satisfies the condition of the section D21 in FIG. 23 and the moving body moves away in the traveling direction of the host vehicle.

以降,第1の実施例と同様の処理により、全ての移動物体検出処理を行い処理を終了する。   Thereafter, all moving object detection processing is performed by the same processing as in the first embodiment, and the processing is terminated.

以上説明した本実施の形態の物体検出装置によれば、以下のような作用効果を得ることができる。   According to the object detection device of the present embodiment described above, the following operational effects can be obtained.

前記物体属性判定部107は、前記背景となる静止物である前記立体物と同じ方向の速度を持つ立体物の実空間上における移動方向を判定することとした。   The object attribute determination unit 107 determines a moving direction in real space of a three-dimensional object having the same speed as the three-dimensional object that is the stationary object serving as the background.

この構成によれば、予測式で算出された静止物の速度と検出した移動体の速度差とに基づいて、自車両の進路中心に近づく移動体以外の移動体の移動方向の判定が可能となる。   According to this configuration, it is possible to determine the moving direction of the moving body other than the moving body that approaches the center of the course of the host vehicle based on the speed of the stationary object calculated by the prediction formula and the detected speed difference of the moving body. Become.

また、以上説明した本実施の形態の物体検出方法によれば、以下のような作用効果を得ることができる。   Moreover, according to the object detection method of this Embodiment demonstrated above, the following effects can be acquired.

前記背景となる静止物である前記立体物と同じ方向の速度を持つ立体物の実空間上における移動方向を判定することとした。   The moving direction in the real space of the three-dimensional object having the same speed as that of the three-dimensional object as the background stationary object is determined.

この方法によれば、予測式で算出された静止物の速度と検出した移動体の速度差とに基づいて、自車両の進路中心に近づく移動体以外の移動体の移動方向の判定が可能となる。   According to this method, it is possible to determine the moving direction of a moving body other than a moving body approaching the course center of the host vehicle based on the speed of the stationary object calculated by the prediction formula and the detected speed difference of the moving body. Become.

以上のように、本発明によれば、撮像面の水平軸と垂直軸をそれぞれ地表面と平行および垂直に設定したカメラで撮像した画像から平面物と立体物を識別するとともに立体物が移動体であるかどうかの識別も可能であり、簡単なセンサ構成で移動体を検出することができる。   As described above, according to the present invention, a planar object and a three-dimensional object are identified from an image captured by a camera in which the horizontal axis and the vertical axis of the imaging surface are set parallel and perpendicular to the ground surface, respectively, and the three-dimensional object is a moving object. It is also possible to identify whether or not the moving object can be detected with a simple sensor configuration.

また、画像の特徴点(エッジ)の画像上における速度と位置座表とに基づいて平面物と立体物の識別を行うため、簡単なアルゴリズムで高速に移動体の検出ができる。   In addition, since a planar object and a three-dimensional object are identified based on the speed and position map of the image feature points (edges) on the image, a moving object can be detected at high speed with a simple algorithm.

また、検出した複数の立体物の水平方向位置と速度の関係から移動体を検出するため、車両の動きの推定や物体までの距離を算出する必要がなく、簡単なアルゴリズムで高速に移動体の検出ができる。   In addition, since a moving object is detected from the relationship between the detected horizontal position and speed of a plurality of three-dimensional objects, there is no need to estimate the movement of the vehicle or calculate the distance to the object. Can be detected.

また、座標変換点の位置座標から走路境界を検出し、走路境界で区切られた各区画毎において複数の立体物の水平方向位置と速度の関係を求めることにより、複雑な背景下においても効率的に移動体の検出ができる。   In addition, the road boundary is detected from the position coordinates of the coordinate conversion point, and the relationship between the horizontal position and speed of multiple solid objects is obtained for each section divided by the road boundary. Can detect moving objects.

また、速度の検出精度が不足し、同じ物体を表す特徴点の画素の速度にばらつきがある場合でも、平面物と立体物の検出を精度よく行うことができる。   In addition, even when the speed detection accuracy is insufficient and the speed of pixels of feature points representing the same object varies, it is possible to accurately detect a planar object and a three-dimensional object.

また、検出した立体物の速度情報と、その立体物の位置で予測式により算出した背景(静止物)の速度情報とを比較することで、立体物が移動体であるか否かを簡単に判定することができる。   Also, by comparing the speed information of the detected three-dimensional object with the speed information of the background (stationary object) calculated by the prediction formula at the position of the three-dimensional object, it is easy to determine whether the three-dimensional object is a moving object. Can be determined.

また、検出した立体物の速度の方向と上端の位置に基づいて、移動体の検出を簡単に行うことができる。   Further, the moving object can be easily detected based on the detected speed direction of the three-dimensional object and the position of the upper end.

さらに、予測式で算出された静止物の速度と検出した移動体の速度差に基づいて、自車両の進路中心に近づく移動体以外の移動体の移動方向の判定が可能となる。   Further, based on the difference between the speed of the stationary object calculated by the prediction formula and the detected speed of the moving body, it is possible to determine the moving direction of the moving body other than the moving body approaching the course center of the host vehicle.

以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎず、本発明は実施例の構成にのみ限定されるものではない。したがって本発明の要旨を逸脱しない範囲の設計の変更等があっても本発明に含まれることはもちろんである。   As mentioned above, although the Example of this invention was explained in full detail with drawing, an Example is only an illustration of this invention and this invention is not limited only to the structure of an Example. Accordingly, it is a matter of course that the present invention includes any design change within a range not departing from the gist of the present invention.

例えば、ブロック図は上記実施例に示すものに限定されるものではなく、同等の機能を備えた構成であれば良い。   For example, the block diagram is not limited to that shown in the above embodiment, and any configuration having equivalent functions may be used.

また、カメラの取り付け位置は実施例で述べた位置に限定されるものではなく、カメラの光軸が車両前方正面方向(Z方向)に向き、撮像面の水平軸および垂直軸がそれぞれ路面と平行および垂直となるように設定されていれば良い。   The camera mounting position is not limited to the position described in the embodiment. The optical axis of the camera faces the front front direction (Z direction) of the vehicle, and the horizontal axis and the vertical axis of the imaging surface are parallel to the road surface, respectively. It is only necessary to be set to be vertical.

また、検出したエッジの幅の正規化を行うにあたっては、エッジ幅は3画素に限定されるものではなく、任意の画素数を設定することができる。この場合、その後の処理でエッジの中央部の画素を利用するため、エッジ幅の画素数は奇数個であることが望ましい。   In addition, in normalizing the detected edge width, the edge width is not limited to three pixels, and an arbitrary number of pixels can be set. In this case, since the pixel at the center of the edge is used in the subsequent processing, the number of pixels with the edge width is desirably an odd number.

また、ZX平面を分割して設定する領域の数は上記実施例に示すものに限定されるものではなく、任意の数に分割して設定することができる。   Further, the number of areas set by dividing the ZX plane is not limited to that shown in the above embodiment, and can be set by dividing it into an arbitrary number.

また、ZX平面の縦方向および横方向の範囲は、任意の値に設定することができる。   Further, the vertical and horizontal ranges of the ZX plane can be set to arbitrary values.

また、上記実施例では道路を走行する車両に物体検出装置10を搭載する例について説明したが、他の移動体に搭載してもよい。   Moreover, although the example which mounts the object detection apparatus 10 in the vehicle which drive | works a road was demonstrated in the said Example, you may mount in another mobile body.

さらに、上記実施例では、走路境界として、縁石、白線、外壁と路面との接点の例について説明したが、これに限定されず、例えば、ガードレール、駐車車両と路面との境界、路面と路面以外の領域(田、畑など)との境界を検出してもよい。   Furthermore, in the above embodiment, examples of curbstones, white lines, and contact points between the outer wall and the road surface have been described as the road boundary. However, the present invention is not limited to this example. Boundary with other areas (fields, fields, etc.) may be detected.

物体検出装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of an object detection apparatus. カメラ101の車両への設置例を示す図である。It is a figure which shows the example of installation to the vehicle of the camera 101. FIG. カメラ101で撮像した画像の例を示す図である。3 is a diagram illustrating an example of an image captured by a camera 101. FIG. 抽出したエッジを正規化して、エッジ画像を得るために行う各処理の例を示す図である。It is a figure which shows the example of each process performed in order to normalize the extracted edge and to obtain an edge image. 速度画像の例を示す図である。It is a figure which shows the example of a speed image. 速度画像上に物体検出用領域を設定し、各物体検出用領域において下端点と同じ速度を持つ画素をグループ化し、グループ化した領域の上端点の位置を検出した例を示す図である。It is a figure which shows the example which set the object detection area | region on the speed image, grouped the pixel which has the same speed as a lower end point in each object detection area, and detected the position of the upper end point of the grouped area | region. 速度画像上で検出した上端点と下端点をZX平面上に座標変換し、物体が平面物か立体物かの判定を行う例を示す図である。It is a figure which shows the example which carries out coordinate conversion of the upper end point and lower end point detected on the speed image on a ZX plane, and determines whether an object is a planar object or a solid object. 下端点の座標変換点のZX平面上の位置分布より走路境界線を検出する例を示す図である。It is a figure which shows the example which detects a road boundary line from the position distribution on the ZX plane of the coordinate transformation point of a lower end point. 検出した走路境界で区切られた領域内で検出した立体物の画像の水平方向位置と速度の関係から移動体を検出する場合の具体例を示す図である。It is a figure which shows the specific example in the case of detecting a moving body from the relationship of the horizontal direction position and speed of the image of the solid object detected within the area | region divided by the detected track boundary. 物体検出装置10の第1の実施例の処理を示すフローチャートである。3 is a flowchart illustrating a process of the first embodiment of the object detection apparatus 10. 速度画像上に物体検出用領域を設定し、各物体検出用領域において速度を持った画素をZX平面上へ座標変換することで、平面物候補点か立体物候補点かを判定する例を示す図である。An example is shown in which an object detection area is set on a speed image, and a pixel having a speed in each object detection area is coordinate-converted to a ZX plane to determine whether it is a planar object candidate point or a three-dimensional object candidate point. FIG. 検出した平面物候補点と立体物候補点の並び方から立体物の判定を行う例を示す図である。It is a figure which shows the example which determines a solid object from the alignment method of the detected planar object candidate point and a solid object candidate point. 物体検出装置10の第2の実施例の処理を示すフローチャートである。It is a flowchart which shows the process of the 2nd Example of the object detection apparatus. 実施例3において、カメラ101で撮像した画像の例を示す図である。In Example 3, it is a figure which shows the example of the image imaged with the camera. 速度画像の例を示す図である。It is a figure which shows the example of a speed image. 速度画像上に物体検出用領域を設定し、各物体検出用領域において下端点と同じ速度を持つ画素をグループ化し、グループ化した領域の上端点の位置を検出した例を示す図である。It is a figure which shows the example which set the object detection area | region on the speed image, grouped the pixel which has the same speed as a lower end point in each object detection area, and detected the position of the upper end point of the grouped area | region. 速度画像上で検出した上端点と下端点をZX平面上に座標変換し、物体が平面物か立体物かの判定を行う例を示す図である。It is a figure which shows the example which carries out coordinate conversion of the upper end point and lower end point detected on the speed image on a ZX plane, and determines whether an object is a planar object or a solid object. 下端点の座標変換点のZX平面上の位置分布より走路境界線を検出する例を示す図である。It is a figure which shows the example which detects a road boundary line from the position distribution on the ZX plane of the coordinate transformation point of a lower end point. 検出した走路境界から背景を検出し、背景となる立体物の位置座標と速度との関係から画像上の任意の位置における静止物の速度を算出する予測式を決定し、この予測式による速度情報と検出した立体物の速度情報とを比較することにより移動体の検出を行う説明図である。The background is detected from the detected road boundary, and a prediction formula for calculating the speed of the stationary object at an arbitrary position on the image is determined from the relationship between the position coordinates and the speed of the solid object serving as the background. It is explanatory drawing which detects a mobile body by comparing with the speed information of the detected solid object. 実施例3の処理のフローチャートである。10 is a flowchart of processing according to the third embodiment. 速度画像の例を示す図である。It is a figure which shows the example of a speed image. 自車両と自車両周囲の移動体の移動方向の関係を示す図である。It is a figure which shows the relationship between the moving direction of the own vehicle and the mobile body around the own vehicle. 移動体の実空間上での移動方向と画面上での移動方向の関係を示す図である.It is a figure which shows the relation between the moving direction in the real space of the moving body and the moving direction on the screen. 実施例4における処理のフローチャートである。10 is a flowchart of processing in Embodiment 4. 実施例4における移動体の移動方向の判定の処理のフローチャートである。14 is a flowchart of processing for determining a moving direction of a moving object in the fourth embodiment.

符号の説明Explanation of symbols

10 物体検出装置
100 制御部
101 カメラ(撮像部)
102 画像一時記録部
103 特徴点抽出部
104 座標変換部
105 移動情報算出部
106 グループ化部
107 物体属性判定部
DESCRIPTION OF SYMBOLS 10 Object detection apparatus 100 Control part 101 Camera (imaging part)
102 image temporary recording unit 103 feature point extraction unit 104 coordinate conversion unit 105 movement information calculation unit 106 grouping unit 107 object attribute determination unit

Claims (14)

自車両前方の画像を撮像する撮像部と、
前記撮像部で撮像した画像から特徴点を抽出する特徴点抽出部と、
前記画像上における前記特徴点を表す画素の移動速度情報を算出する移動情報算出部と、
前記画像の垂直方向に隣接するとともに前記移動速度情報が所定の範囲にある前記画素をグループ化するグループ化部と、
前記グループ化部によりグループ化した画素のうち、前記画像の垂直方向において、最上部に位置する画素と最下部に位置する画素の位置座標を、前記撮像部の路面からの高さ及び俯角に基づき、実空間上の水平方向及び車両前後方向の平面である俯瞰平面における位置座標に変換する座標変換部と、
前記最上部に位置する画素と前記最下部に位置する画素が、前記俯瞰平面の所定の範囲を水平方向及び車両前後方向に所定の数に分割して設定した複数の領域のうち、同一の領域に位置する場合には前記グループ化した画素を平面物と判定し、
前記最上部に位置する画素が、前記俯瞰平面に設定した複数の領域外に位置するとともに、前記最下部に位置する画素が、前記俯瞰平面に設定した複数の領域のうちいずれかの領域に位置する場合には前記グループ化した画素を立体物と判定し、
前記立体物と判定したグループ化した画素における前記最下部に位置する画素が、前記画像における水平方向の位置座標と移動速度情報との関係において、所定の直線上に並ぶときには前記立体物と判定したグループ化した画素を静止物と判定し、前記所定の直線上に並ばないときには前記立体物と判定したグループ化した画素を移動体と判定する物体属性判定部と、
を備えることを特徴とする物体検出装置。
An imaging unit that captures an image in front of the host vehicle;
A feature point extraction unit that extracts feature points from the image captured by the imaging unit;
A movement information calculation unit for calculating movement speed information of pixels representing the feature points on the image;
A grouping unit that groups the pixels adjacent in the vertical direction of the image and having the moving speed information in a predetermined range;
Among the pixels grouped by the grouping unit, the position coordinates of the pixel located at the top and the pixel located at the bottom in the vertical direction of the image are based on the height and depression angle from the road surface of the imaging unit. A coordinate conversion unit that converts position coordinates in an overhead view plane that is a plane in the horizontal direction and the vehicle longitudinal direction in real space;
The same region among the plurality of regions in which the pixel located at the top and the pixel located at the bottom are set by dividing a predetermined range of the overhead view plane into a predetermined number in the horizontal direction and the vehicle front-rear direction If the pixel is located in the group, the grouped pixels are determined to be a plane object,
The pixel located in the uppermost part is located outside the plurality of areas set in the overhead view plane, and the pixel located in the lowermost part is located in any one of the plurality of areas set in the overhead view plane When doing so, the grouped pixels are determined as solid objects,
The pixel located at the bottom of the grouped pixels determined to be the three-dimensional object is determined to be the three-dimensional object when aligned on a predetermined straight line in the relationship between the horizontal position coordinate and the moving speed information in the image. An object attribute determination unit that determines the grouped pixels as a stationary object and determines the grouped pixels determined as the three-dimensional object as a moving object when not aligned on the predetermined straight line;
An object detection apparatus comprising:
前記座標変換部は、前記グループ化部によりグループ化した画素のうち、前記画像の垂直方向において、最下部に位置する画素から最上部に位置する画素までの位置座標を、前記俯瞰平面における位置座標に変換し、
前記物体属性判定部は、前記座標変換部の結果が、前記俯瞰平面に設定した複数の領域のうちいずれかの領域に位置する場合には、前記画素を平面物候補点と判定する一方、
前記座標変換の結果が、前記俯瞰平面に設定した複数の領域内に位置しない場合には、前記画素を立体物候補点と判定し、
前記平面物候補点と前記立体物候補点が、前記画像において垂直方向に連続して位置する場合に、前記平面物候補点と前記立体物候補点を一つの立体物として判定することを特徴とする請求項1に記載の物体検出装置。
The coordinate conversion unit is configured to display, from the pixels grouped by the grouping unit, the position coordinates from the pixel located at the bottom to the pixel located at the top in the vertical direction of the image, Converted to
The object attribute determination unit determines that the pixel is a plane object candidate point when the result of the coordinate conversion unit is located in any one of a plurality of regions set in the overhead view plane ,
If the result of the coordinate transformation is not located within a plurality of regions set in the overhead view plane, the pixel is determined as a three-dimensional object candidate point,
The planar object candidate point and the three-dimensional object candidate point are determined as one solid object when the planar object candidate point and the three-dimensional object candidate point are continuously located in the vertical direction in the image. The object detection apparatus according to claim 1.
前記物体属性判定部は、
前記グループ化した画素のうち前記画像の垂直方向において最下部に位置する画素の前記俯瞰平面における位置座標に基づいて前記自車両の走路の境界を表す走路境界を検出し、該走路境界で区切られた区画毎に前記グループ化した画素が移動体であることを判定することを特徴とする請求項1又は請求項2に記載の物体検出装置。
The object attribute determination unit
Of the grouped pixels, a road boundary representing the boundary of the road of the host vehicle is detected based on the position coordinates in the overhead view of the pixel located at the bottom in the vertical direction of the image, and is divided by the road boundary The object detection apparatus according to claim 1 , wherein the grouped pixel is determined to be a moving object for each divided section .
自車両前方の画像を撮像し、
撮像した画像から特徴点を抽出し、
前記画像上における抽出した特徴点を表す画素の移動速度情報を算出し、
前記画像の垂直方向に隣接するとともに前記移動速度情報が所定の範囲にある前記画素をグループ化し、
前記グループ化した画素のうち、前記画像の垂直方向において、最上部に位置する画素と最下部に位置する画素の位置座標を、前記画像を撮像した位置の路面からの高さ及び俯角に基づき、実空間上の水平方向及び車両前後方向の平面である俯瞰平面における位置座標に変換し、
前記最上部に位置する画素と前記最下部に位置する画素が、前記俯瞰平面の所定の範囲を水平方向及び車両前後方向に所定の数に分割して設定した複数の領域のうち、同一の領域に位置する場合には前記グループ化した画素を平面物と判定し、
前記最上部に位置する画素が、前記俯瞰平面に設定した複数の領域外に位置するとともに、前記最下部に位置する画素が、前記俯瞰平面に設定した複数の領域のうちいずれかの領域に位置する場合には前記グループ化した画素を立体物と判定し、
前記立体物と判定したグループ化した画素における前記最下部に位置する画素が、前記画像における水平方向の位置座標と移動速度情報との関係において、所定の直線上に並ぶときには前記立体物と判定したグループ化した画素を静止物と判定し、前記所定の直線上に並ばないときには前記立体物と判定したグループ化した画素を移動体と判定することを特徴とする物体検出方法。
Take an image of the front of your vehicle,
Extract feature points from the captured image,
Calculating moving speed information of a pixel representing the extracted feature point on the image;
Grouping the pixels adjacent in the vertical direction of the image and having the moving speed information in a predetermined range;
Among the grouped pixels, in the vertical direction of the image, the position coordinates of the pixel located at the top and the pixel located at the bottom are based on the height and depression angle from the road surface of the position where the image was captured, Convert to position coordinates in the overhead view plane that is the horizontal plane in the real space and the plane in the vehicle longitudinal direction ,
The same region among the plurality of regions in which the pixel located at the top and the pixel located at the bottom are set by dividing a predetermined range of the overhead view plane into a predetermined number in the horizontal direction and the vehicle front-rear direction If the pixel is located in the group, the grouped pixels are determined to be a plane object,
The pixel located in the uppermost part is located outside the plurality of areas set in the overhead view plane, and the pixel located in the lowermost part is located in any one of the plurality of areas set in the overhead view plane When doing so, the grouped pixels are determined as solid objects,
The pixel located at the bottom of the grouped pixels determined to be the three-dimensional object is determined to be the three-dimensional object when aligned on a predetermined straight line in the relationship between the horizontal position coordinate and the moving speed information in the image. An object detection method characterized in that a grouped pixel is determined as a stationary object, and a grouped pixel determined as a three-dimensional object is determined as a moving object when not aligned on the predetermined straight line .
前記移動体であること判定は、
前記グループ化部によりグループ化した画素のうち、前記画像の垂直方向において、最下部に位置する画素から最上部に位置する画素までの位置座標を、前記俯瞰平面における位置座標に変換し、
前記座標変換部の結果が、前記俯瞰平面に設定した複数の領域のうちいずれかの領域に位置する場合には、前記画素を平面物候補点と判定する一方、
前記座標変換の結果が、前記俯瞰平面に設定した複数の領域内に位置しない場合には、前記画素を立体物候補点と判定し、
前記平面物候補点と前記立体物候補点が、前記画像において垂直方向に連続して位置する場合に、前記平面物候補点と前記立体物候補点を一つの立体物として判定することを含むことを特徴とする請求項に記載の物体検出方法。
The determination of being a mobile object is
Among the pixels grouped by the grouping unit, in the vertical direction of the image, the position coordinates from the pixel located at the bottom to the pixel located at the top are converted into position coordinates on the overhead view plane,
When the result of the coordinate conversion unit is located in any one of a plurality of regions set in the overhead view plane, the pixel is determined as a plane object candidate point,
If the result of the coordinate transformation is not located within a plurality of regions set in the overhead view plane, the pixel is determined as a three-dimensional object candidate point,
Determining the planar object candidate point and the solid object candidate point as one solid object when the planar object candidate point and the solid object candidate point are continuously located in the vertical direction in the image. The object detection method according to claim 4 .
前記移動体であることの判定は、
前記グループ化した画素のうち前記画像の垂直方向において最下部に位置する画素の前記俯瞰平面における位置座標に基づいて前記自車両の走路の境界を表す走路境界を検出し、該走路境界で区切られた区画毎に行うことを特徴とする請求項4又は請求項5に記載の物体検出方法。
The determination of being a mobile object is
Of the grouped pixels , a road boundary representing the boundary of the road of the host vehicle is detected based on the position coordinates in the overhead view of the pixel located at the bottom in the vertical direction of the image, and is divided by the road boundary The object detection method according to claim 4, wherein the object detection method is performed for each divided section .
前記物体属性判定部は、
前記グループ化した画素のうち、最下部に位置する画素の前記俯瞰平面における位置座標に基づいて前記自車両の走路の境界を表す走路境界を検出し、
前記走路境界のうち、前記自車両の近傍から遠方に連続して存在する立体物で構成されるものを背景として検出し、
前記背景と検出したグループ化した画素と、その移動速度情報との関係から、前記画像上の任意の位置における静止物体の移動速度情報を推定し、
前記任意の位置における静止物体の移動速度情報と、前記立体物と判定したグループ化した画素の移動速度情報とに基づいて、前記立体物と判定したグループ化した画素が移動体であることを判定することを特徴とする請求項1に記載の物体検出装置。
The object attribute determination unit
Among the grouped pixels, detect a road boundary that represents the boundary of the road of the host vehicle based on the position coordinates in the overhead view of the pixel located at the bottom,
Among the running road boundaries, those that are constituted by a three-dimensional object that continuously exists far away from the vicinity of the host vehicle are detected as a background,
From the relationship between the background and detected grouped pixels and the moving speed information, the moving speed information of a stationary object at an arbitrary position on the image is estimated,
Based on the moving speed information of the stationary object at the arbitrary position and the moving speed information of the grouped pixels determined as the three-dimensional object, it is determined that the grouped pixels determined as the three-dimensional object are moving objects. object detection apparatus according to claim 1, characterized in that.
前記任意の位置は、前記立体物と判定したグループ化した画素の下端位置であり、
前記物体属性判定部は、
前記立体物と判定したグループ化した画素の下端位置における静止物体の移動速度情報と、前記立体物と判定したグループ化した画素の移動速度情報が異なる場合に、移動体と判定することを特徴とする請求項に記載の物体検出装置。
The arbitrary position is a lower end position of the grouped pixels determined to be the three-dimensional object ,
The object attribute determination unit
When the moving speed information of the stationary object at the lower end position of the pixels grouped it is determined that the three-dimensional object, moving speed information of the pixels grouped it is determined that the three-dimensional object are different, and wherein determining that the mobile The object detection apparatus according to claim 7 .
前記物体属性判定部は、
前記立体物と判定したグループ化した画素の下端位置における静止物体とは反対方向の速度を持つとともに、前記立体物と判定したグループ化した画素の下端位置における静止物体の下端位置よりも高い位置に上端位置がある立体物と判定したグループ化した画素を移動体と判定することを特徴とする請求項に記載の物体検出装置。
The object attribute determination unit
With the stationary object having a velocity in the opposite direction in the lower end position of the pixels grouped it is determined that the three-dimensional object, in a position higher than the lower end position of the stationary object at the lower end position of the pixels grouped it is determined that the three-dimensional object The object detection apparatus according to claim 8 , wherein the grouped pixels determined to be a three-dimensional object having an upper end position are determined to be moving objects.
前記物体属性判定部は、
前記立体物と判定したグループ化した画素の下端位置における静止物体と同じ方向の移動速度情報を持つ立体物の実空間上における移動方向を判定することを特徴とする請求項8又は請求項9に記載の物体検出装置。
The object attribute determination unit
To claim 8 or claim 9, characterized in that to determine the movement direction in the real space of the three-dimensional object with the moving speed information in the same direction as the stationary object at the lower end position of the pixels grouped it is determined that the three-dimensional object The object detection apparatus described.
前記グループ化した画素のうち、最下部に位置する画素の前記俯瞰平面における位置座標に基づいて前記自車両の走路の境界を表す走路境界を検出し、
前記走路境界のうち、前記自車両の近傍から遠方に連続して存在する立体物で構成されるものを背景として検出し、
前記背景と検出したグループ化した画素と、その移動速度情報との関係から、前記画像上の任意の位置における静止物体の移動速度情報を推定し、
前記任意の位置における静止物体の移動速度情報と、前記立体物と判定したグループ化した画素の移動速度情報とに基づいて、前記立体物と判定したグループ化した画素が移動体であることを判定することを特徴とする請求項に記載の物体検出方法。
Among the grouped pixels, detect a road boundary that represents the boundary of the road of the host vehicle based on the position coordinates in the overhead view of the pixel located at the bottom,
Among the running road boundaries, those that are constituted by a three-dimensional object that continuously exists far away from the vicinity of the host vehicle are detected as a background,
From the relationship between the background and detected grouped pixels and the moving speed information, the moving speed information of a stationary object at an arbitrary position on the image is estimated,
Based on the moving speed information of the stationary object at the arbitrary position and the moving speed information of the grouped pixels determined as the three-dimensional object, it is determined that the grouped pixels determined as the three-dimensional object are moving objects. the object detection method as claimed in claim 4, characterized in that.
前記任意の位置を前記立体物と判定したグループ化した画素の下端位置とし、
前記立体物と判定したグループ化した画素の下端位置における静止物体の移動速度情報と、前記立体物と判定したグループ化した画素の移動速度情報が異なる場合に、移動体と判定することを特徴とする請求項11に記載の物体検出方法。
The arbitrary position is set as the lower end position of the grouped pixels determined as the three-dimensional object ,
When the moving speed information of the stationary object at the lower end position of the pixels grouped it is determined that the three-dimensional object, moving speed information of the pixels grouped it is determined that the three-dimensional object are different, and wherein determining that the mobile The object detection method according to claim 11 .
前記立体物と判定したグループ化した画素の下端位置における静止物体とは反対方向の速度を持つとともに、前記立体物と判定したグループ化した画素の下端位置における静止物体の下端位置よりも高い位置に上端位置がある立体物と判定したグループ化した画素を移動体と判定することを特徴とする請求項12に記載の物体検出方法。 With the stationary object having a velocity in the opposite direction in the lower end position of the pixels grouped it is determined that the three-dimensional object, in a position higher than the lower end position of the stationary object at the lower end position of the pixels grouped it is determined that the three-dimensional object The object detection method according to claim 12 , wherein the grouped pixels determined to be a three-dimensional object having an upper end position are determined to be moving objects. 前記立体物と判定したグループ化した画素の下端位置における静止物体と同じ方向の移動速度情報を持つ立体物の実空間上における移動方向を判定することを特徴とする請求項12又は請求項13に記載の物体検出方法。 To claim 12 or claim 13, characterized in that to determine the movement direction in the real space of the three-dimensional object with the moving speed information in the same direction as the stationary object at the lower end position of the pixels grouped it is determined that the three-dimensional object The object detection method described.
JP2006324155A 2005-12-07 2006-11-30 Object detection apparatus and object detection method Expired - Fee Related JP4830822B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006324155A JP4830822B2 (en) 2005-12-07 2006-11-30 Object detection apparatus and object detection method

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2005352831 2005-12-07
JP2005352831 2005-12-07
JP2006225468 2006-08-22
JP2006225468 2006-08-22
JP2006324155A JP4830822B2 (en) 2005-12-07 2006-11-30 Object detection apparatus and object detection method

Publications (2)

Publication Number Publication Date
JP2008077624A JP2008077624A (en) 2008-04-03
JP4830822B2 true JP4830822B2 (en) 2011-12-07

Family

ID=39349576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006324155A Expired - Fee Related JP4830822B2 (en) 2005-12-07 2006-11-30 Object detection apparatus and object detection method

Country Status (1)

Country Link
JP (1) JP4830822B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5320828B2 (en) * 2008-06-04 2013-10-23 日産自動車株式会社 Pedestrian detection device and pedestrian detection method
JP6453571B2 (en) * 2014-07-24 2019-01-16 株式会社Soken 3D object recognition device
DE112017008236T5 (en) * 2017-11-28 2020-08-20 Bayerische Motoren Werke Aktiengesellschaft METHOD AND DEVICE TO ASSIST DRIVING

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4650079B2 (en) * 2004-11-30 2011-03-16 日産自動車株式会社 Object detection apparatus and method
JP2006268097A (en) * 2005-03-22 2006-10-05 Nissan Motor Co Ltd On-vehicle object detecting device, and object detecting method
JP4811201B2 (en) * 2005-12-06 2011-11-09 日産自動車株式会社 Runway boundary line detection apparatus and runway boundary line detection method
JP2007249257A (en) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd Apparatus and method for detecting movable element
JP4946175B2 (en) * 2006-05-23 2012-06-06 日産自動車株式会社 Road boundary detection device and road boundary detection method
JP4797794B2 (en) * 2006-05-24 2011-10-19 日産自動車株式会社 Pedestrian detection device and pedestrian detection method

Also Published As

Publication number Publication date
JP2008077624A (en) 2008-04-03

Similar Documents

Publication Publication Date Title
JP4797794B2 (en) Pedestrian detection device and pedestrian detection method
JP5320828B2 (en) Pedestrian detection device and pedestrian detection method
EP1796043B1 (en) Object detection
JP4811201B2 (en) Runway boundary line detection apparatus and runway boundary line detection method
KR20190082065A (en) Method and apparatus for processing point cloud data
WO2018058356A1 (en) Method and system for vehicle anti-collision pre-warning based on binocular stereo vision
JP4363295B2 (en) Plane estimation method using stereo images
JP5561064B2 (en) Vehicle object recognition device
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
WO2017130640A1 (en) Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
WO2017145605A1 (en) Image processing device, image pickup device, moving body apparatus control system, image processing method, and program
CN107909012B (en) Real-time vehicle tracking detection method and device based on disparity map
CN1979524B (en) Apparatus and method for detecting a road boundary
JP4946175B2 (en) Road boundary detection device and road boundary detection method
JP2007249257A (en) Apparatus and method for detecting movable element
JP4940177B2 (en) Traffic flow measuring device
JP6815963B2 (en) External recognition device for vehicles
WO2014002692A1 (en) Stereo camera
JP5157692B2 (en) Moving body detection apparatus and moving body detection method
JPWO2017145634A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
CN105512641A (en) Method for using laser radar scanning method to calibrate dynamic pedestrians and vehicles in video in snowing or raining state
JP4967758B2 (en) Object movement detection method and detection apparatus
JP4830822B2 (en) Object detection apparatus and object detection method
JP5981284B2 (en) Object detection device and object detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110905

R150 Certificate of patent or registration of utility model

Ref document number: 4830822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees