JP5141603B2 - Moving object detection apparatus and moving object detection method - Google Patents
Moving object detection apparatus and moving object detection method Download PDFInfo
- Publication number
- JP5141603B2 JP5141603B2 JP2009057735A JP2009057735A JP5141603B2 JP 5141603 B2 JP5141603 B2 JP 5141603B2 JP 2009057735 A JP2009057735 A JP 2009057735A JP 2009057735 A JP2009057735 A JP 2009057735A JP 5141603 B2 JP5141603 B2 JP 5141603B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- moving
- pixel
- area
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 117
- 239000000284 extract Substances 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000000034 method Methods 0.000 description 82
- 230000008569 process Effects 0.000 description 62
- 230000006870 function Effects 0.000 description 32
- 238000013459 approach Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 14
- 239000013598 vector Substances 0.000 description 14
- 230000007423 decrease Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、撮像された画像に基づいて移動物体を検出する移動物体検出装置及び移動物体検出方法に関する。 The present invention relates to a moving object detection apparatus and a moving object detection method for detecting a moving object based on a captured image.
撮影画像のオプティカルフローを算出し、判定対象画素の鉛直方向又は水平方向に存在する比較対象画素を静止物体の点であると仮定し、判定対象画素の予測速度ベクトルを算出し、該判定対象画素の速度ベクトルの水平成分と予測速度ベクトルの水平成分との差が自車の進路方向に向かい、その速度差が所定しきい値以上の場合は、移動物体上の点と判断するとともに、位置の差と速度ベクトルの差が所定しきい値以下の点をグループ化して移動物体を抽出する技術が知られている(特許文献1参照)。 The optical flow of the photographed image is calculated, the comparison target pixel existing in the vertical direction or the horizontal direction of the determination target pixel is assumed to be a point of a stationary object, the prediction speed vector of the determination target pixel is calculated, and the determination target pixel If the difference between the horizontal component of the speed vector and the horizontal component of the predicted speed vector is in the direction of the vehicle and the speed difference is greater than or equal to a predetermined threshold value, the point is determined as a point on the moving object and the position A technique is known in which moving objects are extracted by grouping points where the difference between the difference and the velocity vector is equal to or less than a predetermined threshold (see Patent Document 1).
しかしながら、従来の技術では、移動物体の各部位の速度ベクトル(オプティカルフロー)の値が異なる場合、移動物体に対応する領域の判定精度が低下するという問題がある。 However, the conventional technique has a problem in that the determination accuracy of the region corresponding to the moving object is lowered when the velocity vector (optical flow) value of each part of the moving object is different.
本発明は、画像から移動物体候補の少なくとも一部を含む移動物体候補領域の進行方向側の下端と、この下端よりも下方向に存在する移動物体候補の進行方向側の先端と、この先端から進行方向反対側に存在する移動物体候補の後端を検出し、この下端、先端及び後端が属する領域と移動物体候補領域とを含む領域を一の移動物体領域として判定することにより上記課題を解決する。 The present invention relates to a moving object candidate region including at least a part of moving object candidates from an image, a moving object candidate area having a lower end on the moving direction side, a moving object candidate existing in a lower direction than the lower end, and a leading end on the moving direction side. By detecting the rear end of the moving object candidate existing on the opposite side in the traveling direction, and determining the area including the moving object candidate area and the area to which the lower end, the front end, and the rear end belong as one moving object area, Solve.
本発明によれば、同一の移動物体でありながら、部位によって異なる速度ベクトルが検出された場合であっても、移動物体の先端と後端を検出できるので、移動物体の存在領域を高い精度で判定することができる。 According to the present invention, the front and rear ends of the moving object can be detected even when different velocity vectors are detected depending on the part even though they are the same moving object. Can be determined.
本実施形態の移動物体検出システム100は、車両に搭載され、車両前方が撮像された画像情報から車両の走行方向前方に存在する移動物体を検出する装置である。 A moving object detection system 100 according to the present embodiment is an apparatus that is mounted on a vehicle and detects a moving object that exists in front of the traveling direction of the vehicle from image information obtained by imaging the front of the vehicle.
図面に基づいて、本実施形態に係る移動物体検出システム100を含む車載装置1000について説明する。 An in-vehicle device 1000 including a moving object detection system 100 according to the present embodiment will be described based on the drawings.
図1は、本実施形態の移動物体検出システム100を含む車載装置1000のブロック構成の一例を示す図である。 FIG. 1 is a diagram illustrating an example of a block configuration of an in-vehicle device 1000 including a moving object detection system 100 according to the present embodiment.
図1に示すように、車載装置1000は、移動物体検出システム100と、車両コントローラ200と、警報装置300と、走行支援装置400と、出力装置500とを備える、これらの装置はCAN(Controller Area Network)その他の車載LANによって接続され、相互に情報の授受を行う。警報装置300は、移動物体検出システム100の検出結果に応じて運転者に警報を発する。走行支援装置400は、移動物体検出システム100の検出結果に応じた運転支援機能を実行する。また、出力装置500は、移動物体検出システム100の検出結果を、ディスプレイ及び/又はスピーカを介して運転者に提示する。 As shown in FIG. 1, the in-vehicle device 1000 includes a moving object detection system 100, a vehicle controller 200, an alarm device 300, a travel support device 400, and an output device 500, and these devices are CAN (Controller Area). Network) Connected by other in-vehicle LAN and exchanges information with each other. The alarm device 300 issues an alarm to the driver according to the detection result of the moving object detection system 100. The driving support device 400 executes a driving support function according to the detection result of the moving object detection system 100. Further, the output device 500 presents the detection result of the moving object detection system 100 to the driver via a display and / or a speaker.
また、図1に示すように、移動物体検出システム100は、カメラ20と、画像メモリ21と、制御装置10を有する。
As illustrated in FIG. 1, the moving object detection system 100 includes a
以下、移動物体検出システム100が備える各構成について説明する。 Hereinafter, each structure with which the moving object detection system 100 is provided is demonstrated.
まず、カメラ20と画像メモリ21について説明する。カメラ20は、車両に搭載され、車両前方の画像を撮像する。カメラ20は、例えばCCD(Charge-Coupled Devices)やCMOS(Complementary Metal-Oxide Semiconductor)などの撮像素子を有するカメラである。本実施形態のカメラ20は、車両の進行方向の前方を所定周期で撮像し、撮像された画像をフレーム毎に画像メモリ21に順次出力する。画像メモリ21は、カメラ20により撮像された画像をアクセス可能な状態で記憶する。
First, the
図2は、カメラ20の設置例を示す。図2(A)はカメラを搭載する自車両を側面から見た図、図2(B)はカメラを搭載する自車両を上方から見た図である。本実施形態では、カメラ20を車両前方に向けて車両の室内上部に設置する。そして、カメラ20の光軸LSが、車両の走行方向(ドライバ正面方向)のZ方向に向くように調整し、撮像面の水平軸Xが路面と平行となるように調整し、さらに、撮像面の垂直軸Yが路面と垂直になるように調整する。
FIG. 2 shows an installation example of the
図3は、本実施形態のカメラ20を用いて車両前方を撮像する画像の例である。カメラ20による撮像画像は、画像左上の頂点を原点とするxy座標系によって表される。そして、原点から右方向へ延在する軸をx軸とし、原点から下へ延在する軸をy軸とする。なお、図3に示す撮像画像は、立体の静止物である外壁、画像右側から左側へ移動する歩行者、静止物である路上の白線(白色以外の線も含む)を含む。
FIG. 3 is an example of an image captured in front of the vehicle using the
さらに、図1に示すように、移動物体検出システム100の制御装置10は、本実施形態に係る移動物体検出処理を実行するためのプログラムを格納したROM(Read Only Memory )12と、このROM12に格納されたプログラムを実行することで、移動物体検出システム100として機能する動作回路としてのCPU(Central Processing Unit)11と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)13と、を備える。なお、動作回路としては、CPU(Central Processing Unit)11に代えて又はこれとともに、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを用いることができる。
Further, as shown in FIG. 1, the
次に、移動物体検出システム100の制御装置10が備える処理機能について説明する。制御装置10は、速度情報算出機能と、移動物体候補領域抽出機能と、路面境界検出機能と、第一移動物体領域判定機能と、移動物体先端検出機能と、移動物体後端機能と、第二移動物体領域判定機能と移動物体判定機能とを有する。そして、各機能を実現するためのソフトウェアと、上述した制御装置10を含むハードウェアの協働により各機能を実行する。
Next, processing functions provided in the
以下、上述した移動物体検出システム100の制御装置10が実現する機能についてそれぞれ説明する。
Hereinafter, functions realized by the
まず、移動物体検出システム100の速度情報算出機能について説明する。 First, the speed information calculation function of the moving object detection system 100 will be described.
制御装置10は、カメラ20により撮像された画像の情報に基づいて、画像中の物体に対応する特徴点を抽出し、この抽出された特徴点の移動方向及び/又は移動速度を含む速度情報を算出する。つまり、この速度情報算出機能は、特徴抽出処理と速度情報の算出処理を実行する。
The
まず、制御装置10は、カメラ20が撮像する各画像データ(フレームデータ)から、撮像された物体の画像上の動きを観測するため、物体の外延、物体の特徴的な部分を含む特徴部を抽出する。本実施形態の制御装置10は、カメラ20で撮像された画像を画像メモリ21から読み込み、読み込んだ撮像画像を所定の閾値を用いて2値化し、画像内に存在する物体のエッジを抽出する。
First, in order to observe the movement of the imaged object on the image from each image data (frame data) captured by the
制御装置10は、抽出されたエッジから求められた特徴部の画素の速度を算出する。制御装置10は、求めた特徴部の移動速度と移動方向を、撮像タイミング識別子又はフレーム識別子と対応づけてRAM13に記憶する。この画素の速度情報は、画素を特定する特定情報とともに、「画素の移動速度」と「画素の移動方向」とを含む。なお、一の画像データ中に複数の特徴部が存在する場合は、すべての特徴部について速度を算出する。
The
そして、制御装置10は、カメラ20により撮像された物体の画像の情報に基づいて、物体の外延に対応するエッジが検出された位置の画素のカウント値をカウントアップし、このカウント値の傾きに基づいて、エッジの移動速度及び移動方向を算出する。
Then, the
さらに、制御装置10は、撮像タイミングが異なる画像データについて、各画像データに含まれるエッジに対応する画素の画素カウンタのカウンタ値を所定の手法で更新する。ここで、画素カウンタとは、画素ごとに設定されたカウンタであり、画素がエッジに対応する場合は画素カウンタのカウンタ値を+1加算し、画素がエッジに対応しない場合は画素カウンタのカウンタ値を0とする(初期化する)カウンタである。このカウンタ値の更新処理を、カメラ20により所定周期で繰り返し撮像されるフレーム毎に行う。この操作を行うと、エッジに対応する時間が長い画素は、対応する画素カウンタのカウンタ値が大きくなり、他方、エッジに対応する時間が短い画素は、対応する画素カウンタのカウンタ値が小さくなる。
Furthermore, the
この画素カウンタのカウンタ値の変化は、エッジの移動方向と移動量を表す。制御装置10は、このカウンタ値に基づいて、撮像画像上におけるエッジの移動方向と移動速度とを算出する。画像の座標系は方位を表しているため、エッジ、及びこのエッジに対応する特徴部の移動方向と移動速度を求めることができる。
The change in the counter value of the pixel counter represents the moving direction and moving amount of the edge. Based on the counter value, the
以下、図4に基づいて、速度情報の算出手法を具体的に説明する。 Hereinafter, the speed information calculation method will be described in detail with reference to FIG.
図4は速度情報の算出処理を説明するための図であり、抽出されたエッジを正規化したエッジ画像を取得し、エッジのカウンタ値(滞留時間)から移動方向と移動速度を算出する手法を説明するための図である。 FIG. 4 is a diagram for explaining speed information calculation processing. A method of acquiring edge images obtained by normalizing extracted edges and calculating a moving direction and a moving speed from an edge counter value (staying time). It is a figure for demonstrating.
制御装置10は、エッジ画像に対して2値化処理を行う。2値化処理とはエッジの検出された位置の画素を1とし、エッジの検出されなかった位置の画素を0とする処理である。図4(a)は抽出された垂直方向のエッジの2値化画像例を示す。
The
次に、図4(b)に示すように、生成された2値化画像に対して、細線化処理を行う。細線化処理とは、検出されたエッジのエッジ幅を所定画素幅になるまで縮小する処理である。つまり、抽出された各エッジに対して細線化処理を行ってエッジ幅を絞る。本例では、図4(b)に示すように、所定画素幅として1画素になるまでエッジのエッジ幅を細線化する。このようにエッジを所定の画素幅になるまで細線化することによって、エッジの中心となる中心位置を設定する。なお、本例では、1画素に細線化する例を示すが、細線化する画素数は特に限定されない。 Next, as shown in FIG. 4B, thinning processing is performed on the generated binary image. The thinning process is a process of reducing the edge width of the detected edge until a predetermined pixel width is reached. That is, the edge width is narrowed by performing thinning processing on each extracted edge. In this example, as shown in FIG. 4B, the edge width of the edge is thinned until the predetermined pixel width becomes one pixel. In this way, the edge is thinned to a predetermined pixel width, thereby setting the center position as the center of the edge. Note that, in this example, an example in which one pixel is thinned is shown, but the number of pixels to be thinned is not particularly limited.
次に、細線化されたエッジのエッジ幅を膨張させる膨張処理を行う。膨張処理とは、細線化によって設定された中心位置からエッジの移動方向に向かってエッジ幅が一定の幅となるように膨張させるとともに、中心位置からエッジの移動方向と反対方向にもエッジ幅を膨張させる処理である。本例では、細線化されたエッジのエッジ幅が3画素分の幅となるように、エッジを水平方向に膨張させる。この処理により、抽出されたエッジを正規化し、各エッジの幅が均一なエッジ画像を得る。具体的に、図4(c)に示すように、エッジの中心位置x0からエッジの移動方向(x軸の正方向)に1画素膨張させるとともに、エッジの中心位置x0からエッジの移動方向と反対方向(x軸の負方向)に1画素膨張させて、エッジ幅を3画素に膨張させる。 Next, an expansion process is performed to expand the edge width of the thinned edge. The expansion process is performed so that the edge width is constant from the center position set by thinning toward the edge movement direction, and the edge width is also changed from the center position to the direction opposite to the edge movement direction. It is a process of expanding. In this example, the edge is expanded in the horizontal direction so that the edge width of the thinned edge becomes a width corresponding to three pixels. By this process, the extracted edges are normalized, and an edge image having a uniform width is obtained. Specifically, as shown in FIG. 4C, one pixel is expanded from the edge center position x0 in the edge movement direction (the positive direction of the x-axis) and opposite to the edge movement direction from the edge center position x0. The edge width is expanded to 3 pixels by expanding one pixel in the direction (negative direction of the x axis).
このように細線化処理と膨張処理とを行うことによって、抽出されたエッジ画像のエッジ幅を、エッジの移動方向に向かって所定の幅に統一し、規格化する。 By performing the thinning process and the expansion process in this way, the edge width of the extracted edge image is standardized by standardizing to a predetermined width in the edge moving direction.
続いて、速度情報を算出におけるカウントアップ処理について説明する。ここに言うカウントアップ処理とは、エッジが検出された画素の位置に対応するメモリアドレスの値をカウントアップし、エッジが検出されなかった画素の位置に対応するメモリアドレスの値を初期化する処理である。 Subsequently, a count-up process in calculating speed information will be described. The count-up process mentioned here is a process for counting up the value of the memory address corresponding to the position of the pixel where the edge is detected and initializing the value of the memory address corresponding to the position of the pixel where the edge is not detected. It is.
以下、図4(c)〜(f)に基づいて算出部22によるエッジのカウントアップ処理について説明する。説明の便宜のため、ここでは、エッジがx軸の正方向に移動する場合を例にして説明する。エッジがx軸の負方向やy軸方向、あるいは2次元的に移動する場合においても、基本的な処理手法は共通する。 Hereinafter, the edge count-up processing by the calculation unit 22 will be described with reference to FIGS. For convenience of explanation, here, a case where the edge moves in the positive direction of the x-axis will be described as an example. Even when the edge moves in the negative x-axis direction, the y-axis direction, or two-dimensionally, the basic processing method is common.
図4(c)に示すように、エッジはあるフレームにおいて位置x0にエッジの中心位置がある。そして、その中心位置からエッジの移動方向に1画素の位置x0+1に膨張され、同様に、中心位置からエッジの移動方向と反対方向に1画素の位置x0−1に膨張される。 As shown in FIG. 4C, the edge has a center position of the edge at a position x0 in a certain frame. Then, the pixel is expanded from the center position to the position x0 + 1 of one pixel in the edge moving direction, and similarly expanded from the center position to the position x0-1 of one pixel in the direction opposite to the edge moving direction.
このようなエッジが検出された位置、「x0−1」、「x0」、「x0+1」に対応するメモリアドレスのカウント値は、「+1」カウントアップされる。他方、エッジが検出されなかった位置に対応するメモリアドレスのカウント値は、リセットされる。 The count value of the memory address corresponding to the position where such an edge is detected, “x0-1”, “x0”, “x0 + 1” is incremented by “+1”. On the other hand, the count value of the memory address corresponding to the position where the edge is not detected is reset.
例えば、図4(d)に示すように、時刻tにおいて、位置「x0−1」、「x0」、「x0+1」にエッジが検出されている。このため、それぞれの位置に対応するメモリアドレスのカウント値が各「1」カウントアップされる。その結果、位置「x0+1」のカウント値は「1」であり、位置「x0」のカウント値は「3であり」、位置「x0−1」のカウント値は「5」である。 For example, as shown in FIG. 4D, edges are detected at positions “x0-1”, “x0”, and “x0 + 1” at time t. Therefore, the count value of the memory address corresponding to each position is incremented by “1”. As a result, the count value at the position “x0 + 1” is “1”, the count value at the position “x0” is “3”, and the count value at the position “x0-1” is “5”.
次に、図4(e)に示すように、時刻t+1になってもエッジが移動していないので、位置「x0−1」、「x0」、「x0+1」の各位置でエッジが検出される。このため、位置「x0−1」、「x0」、「x0+1」のカウント値をさらに1ずつカウントアップする。その結果、位置「x0+1」のカウント値は2となり、位置「x0」のカウント値は4となり、位置「x0−1」のカウント値は6となる。
Next, as shown in FIG. 4E, since the edge does not move even at
さらに、図4(f)に示すように、時刻t+2では、エッジがx軸の正方向に1画素シフトして位置「x0」、「x0+1」、「x0+2」の位置でエッジが検出される。このため、エッジが検出された位置「x0」、「x0+1」、「x0+2」に対応するメモリアドレスのカウント値がカウントアップされる。他方、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「ゼロ」となる。その結果、図4(f)に示すように位置「x0+2」のカウント値は1となり、位置「x0+1」のカウント値は3となり、位置「x0」のカウント値は5となる。さらに、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「0」となる。
Further, as shown in FIG. 4F, at
制御装置10は、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、エッジの検出されなかった位置に対応するメモリアドレスのカウント値をリセットする処理を繰り返す。 なお、図4に基づく説明においては、カウント値を検出する位置としてエッジの中心位置「x0」と、この中心位置からエッジの移動方向へ1画素の位置「x0+1」と、中心位置からエッジの移動方向と反対方向に1画素の位置「x0−1」の3箇所でカウント値を検出するが、後述するカウント値の傾きが求められれば、カウント値を検出するポイントの配置、数は限定されない。つまり、エッジの移動方向に対して2箇所以上においてカウント値を検出できれば、カウント値の検出箇所はいくつであってもよい。
The
そのカウント値はその位置においてエッジが検出されている時間(フレーム数、滞留時間)と相関する。エッジが移動する速度に比べて、フレームレートが十分に高く設定されていれば、連続するフレーム間において、エッジは同じ位置で複数回検出される。例えば、図4の例では、位置x0において時刻tと時刻t+1の2回エッジが検出されている。したがって、エッジが検出された位置のカウント値をカウントアップしていくと、そのカウント値はその位置においてエッジが検出されている時間(フレーム数)と等しくなる。特にエッジのカウント値のうち最小のカウント値hは、エッジが移動してから何フレームの間、同じ位置にあるかということを表している。 The count value correlates with the time (number of frames, dwell time) during which an edge is detected at that position. If the frame rate is set sufficiently higher than the moving speed of the edge, the edge is detected a plurality of times at the same position between consecutive frames. For example, in the example of FIG. 4, two edges at time t and time t + 1 are detected at the position x0. Therefore, when the count value at the position where the edge is detected is counted up, the count value becomes equal to the time (number of frames) during which the edge is detected at that position. In particular, the smallest count value h of the edge count values represents how many frames the edge has moved from the same position.
次に、本実施形態における、エッジの移動速度、移動方向及び位置の算出手法について説明する。本実施形態では、抽出された特徴部の位置に対応する画素のカウント値を所定周期でカウントアップし、カウント値の傾きに基づいて、特徴部に対応する画素の速度情報を算出する。 Next, an edge moving speed, moving direction, and position calculation method in this embodiment will be described. In this embodiment, the count value of the pixel corresponding to the extracted feature position is counted up at a predetermined period, and the speed information of the pixel corresponding to the feature section is calculated based on the slope of the count value.
例えば、図4(e)の場合では、位置「x0−1」、「x0」、「x0+1」のカウント値がそれぞれ「6」、「4」、「2」である。位置「x0−1」のカウント値「6」から「x0+1」のカウント値「2」を引くと、カウント値の傾きHは、H=(6−2)/2=2と算出できる。 For example, in the case of FIG. 4E, the count values at the positions “x0-1”, “x0”, and “x0 + 1” are “6”, “4”, and “2”, respectively. When the count value “2” of “x0 + 1” is subtracted from the count value “6” of the position “x0-1”, the slope H of the count value can be calculated as H = (6-2) / 2 = 2.
これは、H={(エッジが位置x0−1に移動してから現在までの時間)−(エッジが位置x0+1に移動した後の時間)}/(2画素)を意味する。つまり、傾きHを算出することにより、エッジが位置x0にある1画素を通過するのに要する時間(フレーム数)を算出することになる。 This means H = {(time from the edge moving to the position x0-1 to the present) − (time after the edge moves to the position x0 + 1)} / (2 pixels). That is, by calculating the slope H, the time (number of frames) required for the edge to pass through one pixel at the position x0 is calculated.
したがって、カウント値の傾きHは、エッジが1画素移動するために何フレームを要するかに相当し、このカウント値の傾きHに基づいてエッジの移動速度1/Hを算出する。図4(e)では1画素移動するのに2フレームを要することになるので、エッジの移動速度は1/2(画素/フレーム)と算出する。
Therefore, the slope H of the count value corresponds to how many frames it takes for the edge to move by one pixel, and the
続いて、カウント値の大小に基づいて、エッジの移動方向を判断する手法について説明する。エッジの無い位置にエッジが移動し、新たにエッジが検出された位置のカウント値は1となるから、各位置のカウント値の中では最も小さな値となる。したがって、エッジが移動する方向のカウント値は小さく、エッジが移動する方向と反対方向のカウント値は大きくなる。この傾向を利用して、エッジの移動方向を判断することができる。 Next, a method for determining the edge moving direction based on the magnitude of the count value will be described. Since the edge moves to a position where there is no edge and the count value at the position where the edge is newly detected is 1, the count value at each position is the smallest value. Therefore, the count value in the direction in which the edge moves is small, and the count value in the direction opposite to the direction in which the edge moves is large. By using this tendency, the moving direction of the edge can be determined.
現在の位置におけるカウント値の中で最小のカウント値hは、エッジがその位置で検出されている時間、すなわちエッジが移動してから何フレームの間、同じ位置にあるかということを表している。このため、エッジの位置は、エッジの中心位置をx0とすると、エッジの位置=x0+h/H により求めることができる。例えば、図4(f)では、エッジの速度は1/2(画素/フレーム)で、時刻t+2の時点では1フレーム連続して同じ位置でエッジが検出されているので、時刻t+2のエッジの位置は、「1(フレーム)×{1/2(画素/フレーム)}=0.5画素」だけ位置x0から移動していると算出することができる。
The smallest count value h among the count values at the current position represents the time when the edge is detected at the position, that is, how many frames the edge has moved to stay at the same position. . For this reason, the position of the edge can be obtained from the position of the edge = x0 + h / H where the center position of the edge is x0. For example, in FIG. 4F, the edge speed is ½ (pixel / frame), and the edge is detected at the same position continuously for one frame at
以上のことから、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、カウントアップされたカウント値の傾きに基づいてエッジの移動速度及び移動方向を算出することができる。 From the above, it is possible to count up the count value of the memory address corresponding to the position where the edge is detected, and to calculate the moving speed and moving direction of the edge based on the slope of the counted up count value.
なお、本実施形態の速度情報算出部20は、各エッジに対応する画素のx方向(横方向)成分の速度情報を算出する。
Note that the speed
また、制御装置10は、撮像画像上に存在するエッジの速度情報を所定の階級値に分類し、速度情報の特徴を表現する移動画像を生成する。図5に移動画像の一例を示す。図5に示すように、本実施形態の移動画像では、速度情報が検出されたエッジの画素を丸印で表し、移動速度が速い画素ほど点を大きい丸印で表すことにより、画素の速度情報を表現する。また、移動方向が右、すなわち右方向へ移動する画素を塗りつぶした黒印で表し、移動方向が左、すなわち左方向へ移動する画素を色抜きの白印で表すことにより、画素の移動方向を表現する。このように、移動画像は、移動速度と移動方向を含む速度情報を表現する。
In addition, the
すなわち、図5においては、自車両の走行路右側の外壁よび白線に対応する領域では画像の右側へ向かう速度が検出されており、走行路左側の外壁に対応する領域では画像の左側へ向かう速度が検出される。また、走行路右側から左側へ移動する歩行者は、カメラ20の光軸の右側に衝突の可能性があるとすると、歩行者の胴体付近である中央部分は画像の右側へ向かう速度がされ、脚部は左側へ向かう速度が検出される。
That is, in FIG. 5, the speed toward the right side of the image is detected in the area corresponding to the outer wall and the white line on the right side of the traveling path of the host vehicle, and the speed toward the left side of the image in the area corresponding to the outer wall on the left side of the traveling path. Is detected. Also, if a pedestrian moving from the right side of the road to the left side has a possibility of a collision on the right side of the optical axis of the
次に、移動物体検出システム100の移動物体候補領域抽出機能について説明する。制御装置10は、速度情報が予め設定された所定値未満である特徴点が含まれる領域を、移動物体候補の少なくとも一部を含む移動物体候補領域として抽出する。具体的に、制御装置10は、撮像画像に含まれる立体物(の画像領域)を抽出し、立体物として抽出された画像領域のうち、速度情報が予め設定された所定値未満である特徴点が含まれる領域を、自車両に接近する可能性の高い移動立体物の移動物体候補領域として抽出する。
Next, the moving object candidate area extraction function of the moving object detection system 100 will be described. The
制御装置10は、検出対象となる立体物を抽出する。制御装置10は、特徴部の各画素の速度情報に基づいて、速度情報の共通する(速度情報の値の差が所定値未満である、以下同じ)画素が縦方向に連続する領域を抽出する。「縦方向に速度情報が共通する画素が連続する」という特徴は、画像上における立体の特徴である。制御装置10は、立体物が含まれる画像領域を抽出するにあたり、画像中の特徴部において検出された画素のカウント値の傾きに基づいて算出された速度情報を用いる。
The
図6は、速度情報から立体物を抽出し、時間的に前後する立体物を比較して移動物体候補を抽出する処理を説明するための図である。図6(A)は時刻tにおける立体物抽出結果を示し、図6(B)は時刻t+1における立体物抽出結果を示す図である。
FIG. 6 is a diagram for explaining a process of extracting a three-dimensional object from speed information and extracting moving object candidates by comparing three-dimensional objects moving back and forth in time. 6A shows a three-dimensional object extraction result at time t, and FIG. 6B shows a three-dimensional object extraction result at
具体的に、制御装置10は、図6(A)に示す移動画像を縦方向(y軸方向)に探索する。ただし、縦に連続する速度情報を有する画素列の抽出にあたり、画素列の上端画素と下端画素については、この速度情報の共通性判断の処理の対象としない。移動画像を縦方向に探索し、速度情報を持った画素A(画素の符号は図示しない)が見つかった場合、画素Aに縦方向に隣接する画素Bを探索する。画素Bが速度情報を有し、さらに画素Bと縦方向に隣接する画素Cも速度情報を有する場合、画素Bと画素Cの移動方向の差(E3−E2)が閾値Re以内であり、かつ、画素Bと画素Cの移動速度の大きさの差(V3−V2)が閾値Tv以内であれば、共通する画素が縦に連続すると判断する。次に、画素Cに縦方向に隣接する画素Dについても同様に速度情報の有無を判断し、画素Bと画素Dの移動方向(E4−E2が閾値Tv以内か)が閾値Re以内か、移動速度の大きさの差(V4−V2)が閾値Tv以内かを判断する。以後、いずれかの条件を満たさなくなるまで繰り返す。
Specifically, the
そして、画素Nで条件を満たさなくなった場合、たとえば、画素Nに移動速度が無かった場合は画素Aから画素N−1までの画素の数をカウントする。また、画素Nに移動速度はあるが、画素(N−1)の移動速度との差(Vn−Vn−1)が閾値Tvを超える場合は、画素Aから画素Nまでの画素の数をカウントする。さらにまた画素Nの速度の方向と画素N−1の移動方向の差が所定値以内である場合は画素Aから画素Nまでを画素の数をカウントする。このように、速度情報が所定の条件を満たす画素の数をカウントする。そのカウント値が閾値TH以上であれば、その画素列を縦方向に速度情報が共通するという特徴を備える立体物の一部の画像領域として抽出する。 When the condition is not satisfied with the pixel N, for example, when the pixel N has no moving speed, the number of pixels from the pixel A to the pixel N-1 is counted. If the pixel N has a moving speed but the difference (Vn−Vn−1) from the moving speed of the pixel (N−1) exceeds the threshold value Tv, the number of pixels from the pixel A to the pixel N is counted. To do. Furthermore, when the difference between the speed direction of the pixel N and the moving direction of the pixel N-1 is within a predetermined value, the number of pixels from the pixel A to the pixel N is counted. Thus, the number of pixels whose speed information satisfies a predetermined condition is counted. If the count value is equal to or greater than the threshold value TH, the pixel row is extracted as a partial image region of a three-dimensional object having a feature that speed information is common in the vertical direction.
この手法により、本実施形態の制御装置10は、図6(A)に示すように、OB1(t)〜OB11(t)の立体物を抽出する。
With this technique, the
次に、制御装置10は、立体物のうち、自車両に接近する可能性のある移動物体を抽出する。
Next, the
制御装置10は、撮像タイミングの異なる図6(A)及び(B)に示す異なるタイミングで得られた、立体物の位置と速度情報を比較する。立体物が自車両に接近する可能性がある場合は、自車両(のカメラ10)と立体物のなす角が経時的にほぼ一定であるため、その速度情報は比較において(自車両に接近しない対象物の速度情報に比べて)小さい値を示す。つまり、図6に示す移動画像において、接近する立体物の移動速度に対応する丸印の大きさが比較的小さい。したがって、速度情報の小さい画素を含む領域に対応する立体物は、自車両に接近する可能性が高い。
The
本実施形態の制御装置10は、異なる時刻で検出された立体物の速度情報と比較し、速度情報が予め設定された所定値A未満である特徴点が含まれる領域を、自車両に接近する可能性がある移動物体候補の少なくとも一部を含む移動物体候補領域として抽出する。自車両に接近する可能性の高い移動物体(立体物)を抽出するための閾値である所定値Aは、予め実験等により任意に設定する。
The
さらに、立体物が自車両に接近する可能性がある場合は、画面の水平位置の変化が小さく、また立体物に対応する画像領域の下端が画像の下方向(yが大きい値となる方向)に移動する。つまり、立体物に対応する画像領域の下端が画像の下方向に移動し、その速度情報の移動量が小さい領域に対応する立体物は、自車両に接近する立体物である可能性が高い。 Furthermore, when there is a possibility that the three-dimensional object approaches the host vehicle, the change in the horizontal position of the screen is small, and the lower end of the image area corresponding to the three-dimensional object is the lower direction of the image (the direction in which y is a larger value). Move to. That is, the lower end of the image area corresponding to the three-dimensional object moves downward in the image, and the three-dimensional object corresponding to the area where the moving amount of the speed information is small is highly likely to be a three-dimensional object approaching the host vehicle.
本実施形態の制御装置10は、速度情報が予め設定された所定値A未満であり、さらに、時系列に連続して検出される特徴点を含む領域の下端に位置する特徴点の移動方向が自車両に接近する方向、すなわち画像の下方向(yが大きい値となる方向)である場合は、その領域を自車両に接近する可能性がある移動物体候補の少なくとも一部を含む移動物体候補領域として抽出する。
In the
つまり、制御装置10は、異なる時刻で検出された立体物の水平位置の移動量が小さく、下端位置が下方向に移動した立体物を、自車両に接近する可能性のある移動物体であると判断する。
In other words, the
そして、制御装置10は、この移動物体に対応する画像領域を、移動物体候補の一部を含む移動物体候補領域として抽出する。
And the
図6に示す例において、制御装置10は、時刻t1において抽出された立体物OB1(t)〜OB11(t)と時刻t+1において抽出された立体物OB1(t+1)〜OB9(t+1)の速度情報を比較し、対応関係にある立体物OB8(t)とOB6(t+1)を自車両に接近する可能性がある移動物体候補の少なくとも一部が含まれる移動物体候補領域として抽出する。
In the example illustrated in FIG. 6, the
次に、移動物体検出システム100の路面境界検出機能について説明する。制御装置10は、移動物体候補領域と路面領域との境界を検出する。
Next, the road surface boundary detection function of the moving object detection system 100 will be described. The
具体的に、制御装置10は、移動物体候補領域における移動物体候補の進行方向側の下端からさらに画像の下方向(yが大きい値となる方向)の速度情報を走査し、速度情報が画像の下方向の隣接画素において検出されない場合の最下端の画素を移動物体候補と路面領域との境界として検出する。この処理により、移動物体の最下端を求めることができる。
Specifically, the
また、走査方向としての「下方向」とは鉛直下向き方向(画像のX座標が同じでY座標が増加する方向)場合のほか、斜め下方向(画像のX座標が異なり、Y座標が増加する方向)を含む(以下、同じ)。本処理において、制御装置10は、移動物体候補の進行方向側の下端からの距離が最も近い路面領域との接点(画像の下方向の隣接画素において速度情報が検出されない画素)を、移動物体の最下端として検出する。
Further, the “downward direction” as the scanning direction is a vertically downward direction (a direction in which the X coordinate of the image is the same and the Y coordinate increases), and an oblique downward direction (the X coordinate of the image is different and the Y coordinate increases). Direction) (hereinafter the same). In this process, the
また、制御装置10は、速度情報の有無に代えて、速度情報の値に基づいて、最下端を検出する。つまり、制御装置10は、移動物体候補の進行方向側の下端からさらに下方向の速度情報を走査し、移動物体候補の進行方向側の下端に対応する画素の速度情報との差が所定値B未満の速度情報が下方向に検出されない場合の最下端の画素を移動物体候補と路面領域との境界として検出する。この移動物体の最下端を求める処理における所定値Bは、異なる領域が共通の物体に属するものであるか否かを判断する観点から予め設定される。
Moreover, it replaces with the presence or absence of speed information, and the
次に、移動物体検出システム100の第一移動物体領域判定機能について説明する。制御装置10は、先に求めた移動物体候補と路面領域との境界から移動物体候補の進行方向に速度情報の有無を走査し、速度情報が検出されない移動可能領域が存在する場合は、先に求めた移動物体候補領域(図6Bの例ではOB6(t+1))を第一移動物体領域と判定する。
Next, the first moving object region determination function of the moving object detection system 100 will be described. The
つまり、本実施形態の移動物体検出システム100は、移動物体候補の進行方向側に移動可能な移動空間があるか否かを判断し、移動物体候補の進行方向側に移動空間がある場合はその移動物体候補が自車両に接近する可能性が高いことが確認できるため、移動物体候補領域を第一移動物体領域とする。この第一移動物体領域は、本実施形態の移動物体検出システム100が検出する移動物体の対応領域の一部をなす。 That is, the moving object detection system 100 according to the present embodiment determines whether or not there is a moving space that can move on the traveling direction side of the moving object candidate, and if there is a moving space on the traveling direction side of the moving object candidate, Since it can be confirmed that the moving object candidate is likely to approach the host vehicle, the moving object candidate area is set as the first moving object area. This first moving object region forms part of the corresponding region of the moving object detected by the moving object detection system 100 of the present embodiment.
次に、移動物体検出システム100の移動物体先端検出機能について説明する。制御装置10は、移動可能領域と路面領域との境界(コーナー部分)に位置する画素を、移動物体候補の進行方向側の先端として検出する。
Next, the moving object tip detection function of the moving object detection system 100 will be described. The
また、制御装置10は、この路面領域と移動可能領域との間に特徴点が抽出される場合は、次のようにして先端を検出する。すなわち、制御装置10は、まず、検出された路面領域との境界と移動可能領域との間の領域にある、画像の縦方向に共通する速度情報が連続する立体物領域を抽出する。そして、制御装置10は、この抽出された立体物領域の最下端の画素が路面領域との境界として検出された最下端の画素と所定の位置関係に位置するとともに、立体物領域の最下端の画素の速度情報と路面領域との境界として検出された最下端の画素の速度情報との差が所定値C未満である場合は、立体物領域と移動物体候補と路面領域との境界をグループ化する。さらに、制御装置10は、グループ化された領域の移動物体候補の進行方向側の下端の画素を、移動物体候補の進行方向側の先端として検出する。なお、この移動物体の先端を求める処理における所定値Cは、異なる領域が共通の物体に属するものであるか否かを判断する観点から予め設定される。
Moreover, the
具体的に、本実施形態の制御装置10は、路面領域と移動可能領域との間に検出された立体物の画像領域が、先に検出した先端(路面領域との境界として検出された最下端)から所定距離範囲内に位置し、その立体物の画像領域の速度情報と先に検出した先端(路面領域との境界として検出された最下端)の速度情報との差が小さく、所定値C未満である場合は、その立体物は先に検出した先端に連なる移動物体候補の一部分であると判断し、この立体物を含めて、最も進行方向側の下端にある画素を、移動物体の先端として検出する。
Specifically, the
次に、移動物体検出システム100の移動物体後端検出機能について説明する。制御装置10は、進行方向の先端に対応する移動物体の後端を求める。制御装置10は、先に検出された先端から移動物体候補の進行方向と反対方向(反対方向乃至反対方向、進行方向に対して180°±α、以下同じ)に速度情報を走査し、予め求められた所定域値の速度情報が進行方向とは反対方向の隣接画素において検出されない場合の画素を移動物体候補の進行方向側の後端として検出する。
Next, the moving object rear end detection function of the moving object detection system 100 will be described. The
また、制御装置10は、検出された先端から移動物体候補の進行方向とは反対方向に速度情報を走査し、予め求められた所定値域の速度情報の画素を先端の画素とグループ化し、このグループ化された領域の移動物体候補の進行方向と反対方向側の下端の画素を、移動物体候補の後端として検出する。なお、特に限定されないが、所定値域は先端と後端とが同一移動物体であるか否かを判断する観点から、予め求められる。本実施形態において、この所定値域は先端の速度情報に基づいて算出される。
Further, the
つまり、制御装置10は、先端の画素に対して進行方向と反対方向側に位置する画素であって、先端の速度情報に基づいて算出された所定値域の速度情報を有する画素を少なくとも一時的にグループ化し、このグループ化された画素のうち移動物体候補の進行方向と反対方向側の下端の画素を後端とする。
In other words, the
なお、この処理において、グループ化される画素は、必ずしも隣接していなくてもよい。歩行者の両足のように、別々の立体物として検出され、その間には速度情報が無い部分もあるからである。本実施形態の後端検出処理においては、先端とグループ化が許容される画素間隔(歩行者の両足の開きなどに応じた画素間隔)を予め設定する。制御装置10は、この画素間隔以内であれば、連続していなくても、所定値域の速度情報を後端検出用のグループに属すると判断する。
In this process, the pixels to be grouped do not necessarily have to be adjacent to each other. This is because, like pedestrians' legs, they are detected as separate three-dimensional objects, and there is a portion without speed information between them. In the rear end detection process of the present embodiment, a pixel interval (a pixel interval corresponding to the opening of both feet of the pedestrian) that allows grouping with the front end is set in advance. If it is within this pixel interval, the
また、制御装置10は、先端の画素とグループ化する際に用いられる所定値域を、画像に含まれる静止物の推定速度と、第一移動物体領域に属する画素の速度情報の代表値との差の絶対値に基づいて求める。
In addition, the
まず、制御装置10は、第一移動物体領域の属する画素の速度情報の代表値として、第一移動物体領域内の速度情報の平均値を求める。また、制御装置10は、第一移動物体領域(移動物体候補領域)における静止物体の推定速度を算出する。そして、制御装置10は、第一移動物体領域の速度情報の平均値と静止物体の推定速度との差の絶対値に基づく値域を、グループ化処理における所定値域として設定する。
First, the
ちなみに、静止物体の推定速度は、以下のように計算する。車速V(km/h)と、物体Aの位置a(Z,X(m))が与えられれば、物体Aが存在する位置aにおける静止物体の速度情報S(画素/秒)を式1及び式2から算出することができる。ここで、Fはフレームレート(fps)、θは自車両と物体とのなす角(Rad)PXrは横方向の1画素あたりの角度分解能(Rad)を示す。自車両の速度、フレームレートその他の必要な情報は車両コントローラ200から取得する。車両コントローラ200は、物体検出装置100の要求に応じて、必要な情報を送出する。
Incidentally, the estimated speed of a stationary object is calculated as follows. If the vehicle speed V (km / h) and the position a (Z, X (m)) of the object A are given, the speed information S (pixels / second) of the stationary object at the position a where the object A exists is expressed by
θ=ATAN(X/Z)…式1
S=F*(ATAN(X/(Z+V/(3.6*F))―θ)/PXr)…式2
また、物体Aの位置Z,Xは、後述する式3,4に示すように画像下端でのx,y座標から,カメラパラメータを用いて計算することから、物体下端位置、つまり路面上の速度を計算することとなる。
θ = ATAN (X / Z) ...
S = F * (ATAN (X / (Z + V / (3.6 * F)) − θ) / PXr)
Further, since the positions Z and X of the object A are calculated using the camera parameters from the x and y coordinates at the lower end of the image as shown in
ただし、y座標は、移動物体候補領域の下端ではなく、移動物体候補領域の先端(コーナー部)に位置する画素のy座標を用いる。x座標は移動物体候補領域の水平中心座標を用いる。ここで、Ch(m)はカメラ高さ、Tr(Rad)はカメラ俯角、Ihは画像縦サイズ、Iwは画像横サイズ、PYr(Rad)は高さ方向の1画素あたりの角度分解能を示す。 However, as the y coordinate, the y coordinate of the pixel located at the tip (corner portion) of the moving object candidate region is used instead of the lower end of the moving object candidate region. As the x coordinate, the horizontal center coordinate of the moving object candidate region is used. Here, Ch (m) represents the camera height, Tr (Rad) represents the camera depression angle, Ih represents the image vertical size, Iw represents the image horizontal size, and PYr (Rad) represents the angular resolution per pixel in the height direction.
Z=(Ch)/(TAN(Tr+(y-Ih/2)*PYr))…式3
X=x*TAN((Z-Iw/2)* PXr)…式4
さらに、上述した後端の検出処理において、制御装置10は、検出された先端の画素よりも画像上方向の所定高さ未満に位置する画素を、先端の画素とグループ化する。同一移動物体であれば、その後端の画素の位置は、先端の画素の位置よりも画像の上側(yが小さくなる方向)に位置する。また、移動物体の高さは、検出対象の大きさに応じて上限を設定することが可能である。例えば、歩行者の脚部の長さには一般的な人間の脚の長さに応じた上限を設定できる。このため、制御装置10は、検出された先端の画素よりも画像上方向の所定高さ未満に位置する画素のみを後端の候補としてグループ化する。これにより、検出の対象とする移動物体(例えば歩行者の脚部)の後端を高い精度で抽出することができる。
Z = (Ch) / (TAN (Tr + (y−Ih / 2) * PYr))...
X = x * TAN ((Z-Iw / 2) * PXr) ...
Further, in the above-described detection processing of the trailing edge, the
加えて、この後端の検出処理において、制御装置10は、検出された先端の画素から移動物体候補の進行方向と反対方向の所定距離未満に位置する画素を、先端の画素とグループ化する。移動物体の幅は、検出対処の長さや大きさに応じて上限を設定することが可能である。例えば、歩行者の幅、二輪車の幅、車両の幅には上限を設定できる。このため、制御装置10は、検出された先端の画素から画像横方向の所定距離未満に位置する画素のみを後端の候補としてグループ化する。これにより、検出の対象とする移動物体(例えば歩行者、二輪車、自動車)の後端を高い精度で抽出することができる。
In addition, in this rear end detection process, the
さらにまた、この後端の検出処理において、制御装置10は、一度、後端を検出した後、この後端から移動物体候補の進行方向と反対方向に速度情報の有無を走査し、速度情報が検出されない移動可能領域が存在する場合は、先に検出した後端を確定する。先端と同様に、後端が移動可能領域と隣接していれば、後端は、移動物体候補に対応する画像領域の外延上に存在することが確認できる。このため、本実施形態では、後端からさらに移動方向の反対方向に速度情報を走査して、後端と移動可能領域とが隣接していれば、先に検出した後端を確定する。
Furthermore, in this rear end detection process, the
次に、移動物体検出システム100の第二移動物体領域判定機能を説明する。制御装置10は、第一移動物体領域の下端、先端、後端を含む領域を第二移動物体領域として判定する。歩行者を例にすれば、歩行者の脚部を第二移動物体領域として判定する。このように第二移動物体領域を上端位置、右端位置、左端位置の3点により特定することができる。
Next, the second moving object area determination function of the moving object detection system 100 will be described. The
最後に、移動物体検出システム100の移動物体判定機能について説明する。制御装置10は、第一移動物体領域と第二移動物体領域を含む領域を、移動物体領域として判定する。歩行者を例にすれば、歩行者の胴体部に対応する第一移動物体領域と歩行者の脚部に対応する第二移動物体領域を併せて移動物体の領域と判定する。
Finally, the moving object determination function of the moving object detection system 100 will be described. The
以上のとおり説明する第一移動物体領域の判定処理、第二移動物体領域の判定処理、及び移動物体の領域の判定処理を、図7A〜図7C、図8A〜図8C、図9A〜図9Cに基づいて具体的に説明する。 The first moving object area determination process, the second moving object area determination process, and the moving object area determination process described above will be described with reference to FIGS. 7A to 7C, FIGS. 8A to 8C, and FIGS. 9A to 9C. This will be described in detail.
図7Aは、移動物体が歩行者である場合であって、移動物体候補領域から移動物体の最下端位置を検出し、最下端位置の進行方向側に移動可能な空間が存在するか判定し、存在すれば移動物体の先端位置を検出する処理を説明するための図、図7Bは、移動物体が歩行者である場合であって、検出した先端位置から領域のグループ化を行い、後端位置を検出する処理を説明するための図、移動物体が歩行者である場合であって、後端位置の確定処理を説明するための図である。 FIG. 7A shows a case where the moving object is a pedestrian, detects the lowermost position of the moving object from the moving object candidate area, determines whether there is a movable space on the traveling direction side of the lowermost position, FIG. 7B is a diagram for explaining processing for detecting the tip position of a moving object if present, and FIG. 7B shows a case where the moving object is a pedestrian, and groups the areas based on the detected tip position, and the rear end position. The figure for demonstrating the process which detects this, It is a figure for the case where a moving object is a pedestrian, Comprising: The figure for demonstrating the rear end position determination process.
また、図8A〜Cは、移動物体が二輪車である場合であって、図7A〜Cにそれぞれ対応する図である。同様に、図9A〜Cは、移動物体が自動車である場合であって、図7A〜Cにそれぞれ対応する図である。 8A to 8C illustrate a case where the moving object is a two-wheeled vehicle and corresponds to FIGS. 7A to 7C, respectively. Similarly, FIGS. 9A to 9C are diagrams corresponding to FIGS. 7A to 7C, respectively, when the moving object is an automobile.
まず、図7Aに基づいて、移動物体候補が歩行者である場合を例にして、先端の検出手法の一例を説明する。 First, based on FIG. 7A, an example of a tip detection method will be described using a case where the moving object candidate is a pedestrian as an example.
図7Aに示すように、制御装置10は、移動物体候補の進行方向(図中矢印方向)側の下端(xl、yl)からさらに斜め下向き(画像下方向、x座標値が変化せずy座標値が増加する方向、乃至x座標値が変化しy座標値が増加する方向、以下同じ)に速度情報の有無を走査し、速度情報が画像の斜め下方向の隣接画素において検出されない場合の最下端(xl−1、yl+n)の画素を検出する。この最下端(xl−1、yl+n)は、移動物体候補と路面領域との境界である。
As shown in FIG. 7A, the
本例において、制御装置10は、移動物体の進行方向側に立体物の速度情報が無い領域(移動可能領域)が検出される場合は、自車両と接近する可能性が高いので、移動物体候補領域を、検出するべき移動物体候補(自車両に接近する移動物体候補)であると確定する。他方、移動物体の進行方向側に移動可能領域が検出されない場合には、自車両と接近する可能性が低いので、制御装置10は移動物体候補領域を、検出する必要の無い移動物体候補(自車両に接近しない移動物体候補)であると判断する。
In this example, when a region (movable region) where there is no speed information of the three-dimensional object is detected on the moving direction side of the moving object, the
図7Aに示す例では、制御装置10は、路面領域との境界(xl−1、yl+n)から移動物体候補の進行方向(図中左側方向)に速度情報が検出されない移動可能領域(図中楕円図形で示す)が存在するため、移動物体候補領域OB6(t+1)を第一移動物体領域と判定する。
In the example shown in FIG. 7A, the
さらに、制御装置10は、移動物体候補の最下端(xl−1、yl+n)と移動可能領域との間に存在する立体物を参照し、その立体物の下端位置が移動物体候補の最下端位置より上方の所定範囲内に存在し、移動物体候補の最下端位置を構成する立体物の速度情報との速度差が所定値以内であれば、同一移動物体としてグループ化を行い、グループ化された領域の移動物体候補の進行方向側の下端の画素を、移動物体候補の進行方向側の先端として検出する。
Furthermore, the
ただし、図7Aの例では、最下端(xl−1、yl+n)と移動可能領域との間に立体物が存在しないため、先端の位置は変更されず、移動物体候補の最下端(xl−1、yl+n)を先端として検出する。 However, in the example of FIG. 7A, since there is no solid object between the lowermost end (xl−1, yl + n) and the movable region, the position of the tip is not changed, and the lowermost end (xl−1) of the moving object candidate. , Yl + n) as a tip.
また、図8Aに基づいて、移動物体候補が二輪車である場合を例にして、先端の検出手法の一例を説明する。 Further, based on FIG. 8A, an example of the tip detection method will be described by taking as an example the case where the moving object candidate is a two-wheeled vehicle.
図8Aに示す例において、移動物体候補領域はOB7(t+1)である。そして、移動物体候補領域OB7(t+1)の進行方向側の下端は(xl、yl)である。この移動物体候補領域の下端は(xl、yl)からさらに下方向乃至斜め下方向(本例ではx座標値が減少し、y座標値が増加する方向)の速度情報を走査し、速度情報が画像の下方向の隣接画素において検出されない場合の最下端の画素(xl−5、yl+n)を検出する。この最下端の画素(xl−5、yl+n)が移動物体候補と路面領域との境界である。 In the example shown in FIG. 8A, the moving object candidate region is OB7 (t + 1). The lower end of the moving object candidate area OB7 (t + 1) on the traveling direction side is (xl, yl). The lower end of this moving object candidate region scans the speed information from (xl, yl) further downward or diagonally downward (in this example, the direction in which the x coordinate value decreases and the y coordinate value increases). The lowermost pixel (xl-5, yl + n) when not detected in the adjacent pixel in the lower direction of the image is detected. The lowermost pixel (xl-5, yl + n) is the boundary between the moving object candidate and the road surface area.
さらに、図8Aに示す例では、制御装置10は、路面領域との境界(xl−5、yl+n)から移動物体候補の進行方向(図中左側方向)に速度情報が検出されない移動可能領域(図中楕円図形で示す)が存在するため、移動物体候補領域OB7(t+1)を第一移動物体領域と判定する。なお、図8Aの例では、最下端(xl−5、yl+n)と移動可能領域との間に立体物が存在しないため、先端の位置は変更されず、移動物体候補の最下端(xl−5、yl+n)を先端として検出する。
Further, in the example shown in FIG. 8A, the
さらに、図9Aに基づいて、移動物体候補が自動車(四輪車)である場合を例にして、先端の検出手法の一例を説明する。 Furthermore, based on FIG. 9A, an example of a tip detection method will be described by taking as an example the case where the moving object candidate is an automobile (four-wheeled vehicle).
図9Aに示す例において、移動物体候補領域はOB8(t+1)である。そして、移動物体候補領域OB8(t+1)の進行方向側の下端は(xl、yl)である。この移動物体候補領域の下端は(xl、yl)からさらに下方向乃至斜め下方向(本例ではx座標値が減少し、y座標値が増加する方向)の速度情報を走査し、速度情報が画像の下方向の隣接画素において検出されない場合の最下端の画素(xl−2、yl+n)を検出する。この最下端の画素(xl−2、yl+n)が移動物体候補と路面領域との境界である。 In the example shown in FIG. 9A, the moving object candidate region is OB8 (t + 1). The lower end of the moving object candidate region OB8 (t + 1) on the traveling direction side is (xl, yl). The lower end of this moving object candidate region scans the speed information from (xl, yl) further downward or diagonally downward (in this example, the direction in which the x coordinate value decreases and the y coordinate value increases). The lowermost pixel (xl−2, yl + n) when not detected in the adjacent pixel in the lower direction of the image is detected. The lowermost pixel (xl-2, yl + n) is the boundary between the moving object candidate and the road surface area.
さらに、図9Aに示す例では、制御装置10は、路面領域との境界(xl−2、yl+n)から移動物体候補の進行方向(図中左側方向)に速度情報が検出されない移動可能領域(図中楕円図形で示す)が存在するため、移動物体候補領域OB8(t+1)を第一移動物体領域と判定する。
Further, in the example shown in FIG. 9A, the
また、図9Aの例では、移動物体候補の最下端の画素(xl−2、yl+n)と移動可能領域の間に立体物OB4(t+1)が存在する。この立体物OB4(t+1)の下端位置(xl−4、yl+n-m)は、最下端の画素(xl−2、yl+n)位置よりも上方(yが減少する方向)に位置し、最下端の画素(xl−2、yl+n)から所定距離範囲内に存在する。また、移動物体候補の最下端(xl−2、yl+n)が属する立体物OB6(t+1)との速度差も所定範囲内である。このため、同一物体としてグループ化を行い、立体物OB4(t+1)の進行方向側の下端(xl−4、yl+n-m)を移動物体候補の先端として検出する。 In the example of FIG. 9A, a three-dimensional object OB4 (t + 1) exists between the lowermost pixel (xl−2, yl + n) of the moving object candidate and the movable region. The lower end position (xl-4, yl + n−m) of the three-dimensional object OB4 (t + 1) is located above the lowermost pixel (xl-2, yl + n) position (in the direction in which y decreases), It exists within a predetermined distance range from the pixel (xl−2, yl + n). Further, the speed difference from the three-dimensional object OB6 (t + 1) to which the lowermost end (xl-2, yl + n) of the moving object candidate belongs is also within a predetermined range. For this reason, grouping is performed as the same object, and the lower end (xl−4, yl + n−m) on the traveling direction side of the three-dimensional object OB4 (t + 1) is detected as the tip of the moving object candidate.
ところで、図8A〜Cに示す移動する二輪車、及び図9A〜Cに示す自動車(四輪車)は進行方向に沿う移動物体の長さが長いため、移動物体の長さ方向の位置が異なる各部位において、異なる速度ベクトル(オプティカルフロー)が検出される場合がある。これは、以下の理由による。撮像領域に含まれる自車両の走行道路を移動物体が右から左に横断する場合、移動物体と自車両とが最も接近する最接近位置の速度はゼロである。この最接近位置の左側では左向きの速度が検出され、接近位置の右側では右向きの速度が検出される。このため、移動物体の物体幅(移動方向に沿う長さ)が大きいと、同一物体であるのに、異なる速度ベクトル(オプティカルフロー)の領域が検出され、異なる物体の領域として分割されてしまう場合がある。もっとも、これは画像上の動きであって、自車両(カメラ10)と移動物体の位置関係、自車両の移動速度及び移動方向、移動物体の移動速度及び移動方向の影響を受けるので、必ず生じるというものではないが、このような状況になった場合、同一の移動物体でありながら、別々の物体に分割されてしまうおそれがある。本実施形態の移動物体検出システム100によれば、同一の移動物体でありながら異なる速度ベクトル(オプティカルフロー)の領域が検出される移動物体の領域を高い精度で判定することができる。 By the way, since the moving two-wheeled vehicle shown in FIGS. 8A to 8C and the automobile (four-wheeled vehicle) shown in FIGS. 9A to 9C have a long moving object along the traveling direction, the moving objects have different positions in the length direction. Different velocity vectors (optical flow) may be detected at the site. This is due to the following reason. When the moving object crosses the traveling road of the own vehicle included in the imaging region from right to left, the speed of the closest approach position where the moving object and the own vehicle are closest to each other is zero. A leftward speed is detected on the left side of the closest approach position, and a rightward speed is detected on the right side of the approach position. For this reason, if the object width (length along the moving direction) of the moving object is large, the area of the different velocity vector (optical flow) is detected and divided as the area of the different object even though it is the same object. There is. However, this is a movement on the image, and is always generated because it is affected by the positional relationship between the own vehicle (camera 10) and the moving object, the moving speed and moving direction of the own vehicle, and the moving speed and moving direction of the moving object. However, in such a situation, there is a possibility of being divided into different objects even though they are the same moving object. According to the moving object detection system 100 of the present embodiment, it is possible to determine with high accuracy a region of a moving object in which different velocity vector (optical flow) regions are detected while being the same moving object.
ここで、図7Bに戻り、図7Bに基づいて、移動物体候補が歩行者である場合を例にして、後端の検出手法の一例を説明する。 Here, referring back to FIG. 7B, an example of the detection method of the rear end will be described based on FIG. 7B, taking as an example the case where the moving object candidate is a pedestrian.
図7Bに示すように、先端(xl−1、yl+n)から移動物体候補の進行方向とは反対方向に速度情報を走査し、予め求められた所定値域の速度情報の画素を、先端の画素(xl−1、yl+n)と順次グループ化する。そして、グループ化された領域G7Bの移動物体候補の進行方向と反対方向側の下端の画素(xl−1+m、yl+n)を、移動物体候補の後端として検出する。 As shown in FIG. 7B, the velocity information is scanned in the direction opposite to the moving direction of the moving object candidate from the tip (xl−1, yl + n), and the pixel of the velocity information in the predetermined value range obtained in advance is changed to the tip pixel ( xl-1, yl + n). Then, the pixel (xl−1 + m, yl + n) at the lower end on the side opposite to the traveling direction of the moving object candidate in the grouped region G7B is detected as the trailing end of the moving object candidate.
なお、後端の検出処理において用いられる予め設定された所定値域は、先述したように、画像に含まれる静止物の推定速度と、判定された第一移動物体領域の属する画素の速度情報の代表値との差の絶対値に基づいて求める。図7Bに示す例において、制御装置10は、第一移動物体領域としてのOB6(t+1)領域内の画素の速度情報の平均値を用いて、第一移動物体領域の属する画素の速度情報の代表値を求める。また、制御装置10は、上述した式1〜式4を用いて画像に含まれる静止物の推定速度を算出する。その際、x座標として、OB6(t+1)の水平中心座標xcを用い、y座標として、第一移動物体領域の下端ではなく、さらに下方に走査した体最下端のy位置(yl+n)をy座標として用いて静止物体の推定速度を計算する。
Note that the predetermined range set in advance used in the rear end detection process is, as described above, representative of the estimated speed of the stationary object included in the image and the speed information of the pixel to which the determined first moving object area belongs. Obtained based on the absolute value of the difference from the value. In the example shown in FIG. 7B, the
また、図7Bに示すように、制御装置10は、先端(xl−1、yl+n)の画素から移動物体候補の進行方向と反対方向の所定距離未満(図の物体幅上限未満)に位置する画素のみをグループ化する。所定距離は、予め設定された物体幅の上限とする。本例では、平均的な歩行者の歩幅に基づいて所定距離を決定する。
Further, as illustrated in FIG. 7B, the
このように、本例における後端検出のためのグループ化を行う際に、制御装置10は、速度情報を先端から進行方向と反対方向に走査し、速度情報が移動可能領域と路面領域とが接するコーナー部よりも鉛直上方でコーナー部からの高さ(y方向の高さ)が所定値以下かつ、代表値との速度差が設定したしきい値以下、かつ先端から物体幅が所定値以下の条件を満たす画素をグループ化する。
Thus, when performing grouping for detecting the trailing edge in this example, the
図7Bに示す例において、制御装置10は、立体物OB5(t+1)及び立体物OB7(t+1)に属する画素をグループ化し、そのグループの進行方向の反対方向の下端(xl−1+m、yl+n)を、移動物体の後端として検出する。
In the example shown in FIG. 7B, the
次に、図8Bに基づいて、移動物体候補が二輪車である場合を例にして、後端の検出手法の一例を説明する。 Next, based on FIG. 8B, an example of the detection method of the rear end will be described using a case where the moving object candidate is a two-wheeled vehicle as an example.
図8Bに示すように、先端(xl−5、yl+n)から移動物体候補の進行方向とは反対方向に速度情報を走査し、予め求められた所定値域の速度情報の画素を、先端の画素(xl−5、yl+n)と順次グループ化する。そして、グループ化された領域G8Bの移動物体候補の進行方向と反対方向側の下端の画素(xl−5+m、yl+n)を、移動物体候補の後端として検出する。 As shown in FIG. 8B, the speed information is scanned from the tip (xl-5, yl + n) in the direction opposite to the traveling direction of the moving object candidate, and the pixel of the speed information in the predetermined range obtained in advance is changed to the tip pixel ( xl-5, yl + n). Then, the pixel (xl−5 + m, yl + n) at the lower end on the side opposite to the traveling direction of the moving object candidate in the grouped region G8B is detected as the trailing end of the moving object candidate.
また、図8Bに示すように、制御装置10は、先端(xl−5、yl+n)の画素から移動物体候補の進行方向と反対方向の所定距離未満に位置する画素のみをグループ化する。所定距離は、予め設定された物体幅の上限とする。本例では、平均的な二輪車の長さ(走行方向に沿う幅に基づいて所定距離を決定する。
Further, as illustrated in FIG. 8B, the
本例におけるグループ化の手法は、図7Bにおいて説明した手法を用いる。図8Bに示す例において、制御装置10は、立体物OB4(t+1)、立体物OB5(t+1)及び立体物OB7(t+1)に属する画素をグループ化し、そのグループの進行方向の反対方向の下端(xl−5+m、yl+n)を、移動物体の後端として検出する。
The grouping method in this example uses the method described in FIG. 7B. In the example shown in FIG. 8B, the
さらに、図9Bに基づいて、移動物体候補が自動車である場合を例にして、後端の検出手法の一例を説明する。 Further, based on FIG. 9B, an example of the rear end detection method will be described using a case where the moving object candidate is an automobile as an example.
図9Bに示すように、先端(xl−4、yl+n−m)から移動物体候補の進行方向とは反対方向に速度情報を走査し、予め求められた所定値域の速度情報の画素を、先端の画素(xl−4、yl+n−m)と順次グループ化する。そして、グループ化された領域G8Bの移動物体候補の進行方向と反対方向側の下端の画素(xl−4+p、yl+n−s)を、移動物体候補の後端として検出する。 As shown in FIG. 9B, the velocity information is scanned from the tip (xl−4, yl + n−m) in the direction opposite to the moving direction of the moving object candidate, and the pixel of the velocity information in the predetermined range obtained in advance is Grouped sequentially with pixels (xl−4, yl + n−m). Then, the lowermost pixel (xl−4 + p, yl + ns) on the opposite side of the moving direction of the moving object candidate in the grouped region G8B is detected as the trailing end of the moving object candidate.
また、図9Bに示すように、制御装置10は、先端(xl−4、yl+n−m)の画素から移動物体候補の進行方向と反対方向の所定距離未満に位置する画素のみをグループ化する。所定距離は、予め設定された物体幅の上限とする。本例では、平均的な二輪車の長さ(走行方向に沿う幅に基づいて所定距離を決定する。
Further, as illustrated in FIG. 9B, the
本例におけるグループ化の手法は、図7Bにおいて説明した手法を用いる。図9Bに示す例において、制御装置10は、立体物OB4(t+1)、立体物OB6(t+1)及び立体物OB8(t+1)に属する画素をグループ化し、そのグループの進行方向の反対方向の下端(xl−4+p、yl+n−s)を、移動物体の後端として検出する。
The grouping method in this example uses the method described in FIG. 7B. In the example illustrated in FIG. 9B, the
ここで、図7Cに戻り、図7Cに基づいて、移動物体候補が歩行者である場合を例にして、後端の確定手法の一例を説明する。 Here, referring back to FIG. 7C, an example of a method for determining the rear end will be described based on FIG. 7C, taking as an example the case where the moving object candidate is a pedestrian.
制御装置10は、精度向上の観点から、後端から移動物体候補(歩行者)の進行方向と反対方向に速度情報の有無を走査し、速度情報が検出されない移動可能領域が存在する場合は、先に検出した後端を確定する。
From the viewpoint of improving accuracy, the
先述したように、移動物体の先端側には移動空間が存在するとし、移動可能領域の存在に基づいて移動物体の境界を検出すれば、精度の高い検出が可能になる。他方、後端は背景と重なり部分が多く、精度の高い検出が難しい。しかし、車両が走行するに従い、後端位置も移動し、移動空間が出現する可能性がある。後端側に移動空間が出現するということは、移動物体を回避できる空間が存在することを示す。したがって、後端側に移動空間が存在し、移動可能領域が検出できれば、その外延を移動物体との境界と判断することができるので、後端も高い精度で検出できる。 As described above, it is assumed that there is a moving space on the front end side of the moving object, and if the boundary of the moving object is detected based on the presence of the movable region, detection with high accuracy is possible. On the other hand, the rear end has many overlapping portions with the background, and it is difficult to detect with high accuracy. However, as the vehicle travels, the rear end position also moves and a moving space may appear. The appearance of the moving space on the rear end side indicates that there is a space that can avoid the moving object. Therefore, if there is a moving space on the rear end side and a movable region can be detected, the extension can be determined as a boundary with the moving object, so that the rear end can also be detected with high accuracy.
制御装置10は、後端のさらに進行方向の反対方向側に移動可能領域が検出された場合は、後端から下向き乃至斜め下向き方向に速度情報を走査し、後端の移動速度と速度差が所定範囲内(移動速度が近似する)画素を、移動物体候補の後端として検出する。
When a movable region is detected further on the opposite side of the advancing direction at the rear end, the
図7Cに示す例では、後端(xr、yr)から、さらに斜め下向きに移動速度が共通する(近似する)画素を走査し、隣接する画素に速度情報が存在しない位置(xr+1、yr+n+p)を探索する。さらに、この位置で進行方向と反対方向に立体物の速度情報が存在しない領域(移動可能領域)が存在すれば、その位置(xr+1、yr+n+p)を最終的に後端として確定する。 In the example shown in FIG. 7C, pixels having a common (approximate) moving speed are scanned further diagonally downward from the rear end (xr, yr), and positions (xr + 1, yr + n + p) where no speed information exists in adjacent pixels are scanned. Explore. Furthermore, if there is a region (movable region) where the velocity information of the three-dimensional object does not exist in the direction opposite to the traveling direction at this position, the position (xr + 1, yr + n + p) is finally determined as the rear end.
制御装置10は、第一移動物体領域の下端、先端、後端を含む領域G7Cを第二移動物体領域として判定する。そして、制御装置10は、第一移動物体領域(OB6(t+1))と第二移動物体領域(G7C)を含む領域を、移動物体領域として判定する。
The
以上の処理によれば、歩行者のように、胴体部分が一定に移動するが脚部は開脚動作により速度が変動する移動物体についても、一の移動物体が分割されることなく、一の移動物体として高い精度で検出することができる。 According to the above processing, as for a pedestrian, a moving body whose torso part moves constantly but whose leg fluctuates due to an opening leg movement is not divided into one moving object. It can be detected as a moving object with high accuracy.
次に、図8Cに基づいて、移動物体候補が二輪車である場合を例にして、後端の確定手法の一例を説明する。 Next, based on FIG. 8C, an example of a method for determining the rear end will be described using a case where the moving object candidate is a two-wheeled vehicle as an example.
本例における後端の確定手法は、図7Cにおいて説明した手法を用いる。 The method described in FIG. 7C is used as the method for determining the rear end in this example.
図8Cに示す例では、後端(xr、yr)から、さらに斜め下向きに移動速度が共通する(近似する)画素を走査し、隣接する画素に速度情報が存在しない位置(xr+2、yr+p)を探索する。さらに、この位置で進行方向と反対方向に立体物の速度情報が存在しない領域(移動可能領域)が存在すれば、その位置(xr+2、yr+p)を最終的に後端として確定する。 In the example shown in FIG. 8C, pixels having a common (approximate) moving speed are scanned further diagonally downward from the rear end (xr, yr), and positions (xr + 2, yr + p) where no speed information exists in adjacent pixels are scanned. Explore. Furthermore, if there is an area (movable area) where the velocity information of the three-dimensional object does not exist in the direction opposite to the traveling direction at this position, the position (xr + 2, yr + p) is finally determined as the rear end.
制御装置10は、第一移動物体領域の下端、先端、後端を含む領域G8Cを第二移動物体領域として判定する。そして、制御装置10は、第一移動物体領域(OB7(t+1))と第二移動物体領域(G8C)を含む領域を、移動物体領域として判定する。
The
以上の処理によれば、二輪車のように、移動方向に沿う幅が大きく、部分によって異なる速度ベクトル(オプティカルフロー)が検出される場合がある移動物体についても、一の移動物体が分割されることなく、一の移動物体として高い精度で検出することができる。 According to the above processing, one moving object is divided even for a moving object that has a large width along the moving direction and may detect a different velocity vector (optical flow) depending on the part, such as a two-wheeled vehicle. And can be detected with high accuracy as one moving object.
さらに、図9Cに基づいて、移動物体候補が自動車である場合を例にして、後端の確定手法の一例を説明する。 Furthermore, based on FIG. 9C, an example of a method for determining the rear end will be described using a case where the moving object candidate is an automobile as an example.
本例における後端の確定手法は、図7Cにおいて説明した手法を用いる。 The method described in FIG. 7C is used as the method for determining the rear end in this example.
図9Cに示す例では、後端(xr、yr)から、さらに斜め下向きに移動速度が共通する(近似する)画素を走査し、隣接する画素に速度情報が存在しない位置(xr+v、yr+u)を探索する。さらに、この位置で進行方向と反対方向に立体物の速度情報が存在しない領域(移動可能領域)が存在すれば、その位置(xr+v、yr+u)を最終的に後端として確定する。 In the example shown in FIG. 9C, pixels having a common (approximate) moving speed are scanned obliquely downward from the rear end (xr, yr), and positions (xr + v, yr + u) where no speed information exists in adjacent pixels are scanned. Explore. Furthermore, if there is a region (movable region) where the velocity information of the three-dimensional object does not exist in the direction opposite to the traveling direction at this position, the position (xr + v, yr + u) is finally determined as the rear end.
制御装置10は、第一移動物体領域の下端、先端、後端を含む領域G9Cを第二移動物体領域として判定する。そして、制御装置10は、第一移動物体領域(OB8(t+1))と第二移動物体領域(G9C)を含む領域を、移動物体領域として判定する。
The
以上の処理によれば、自動車のように、移動方向に沿う幅が大きく、部分によって異なる速度ベクトル(オプティカルフロー)が検出される場合がある移動物体についても、一の移動物体が分割されることなく、一の移動物体として高い精度で検出することができる。 According to the above processing, one moving object is divided even for a moving object that has a large width along the moving direction and may detect a different velocity vector (optical flow) depending on the part, such as an automobile. And can be detected with high accuracy as one moving object.
続いて、図10のフローチャート図に基づいて、本実施形態の移動物体検出システム100の制御手順を説明する。 Subsequently, a control procedure of the moving object detection system 100 of the present embodiment will be described based on the flowchart of FIG.
図10に示す処理は、不図示のイグニションスイッチがオンに呼応して起動する制御装置10により実行される。
The process shown in FIG. 10 is executed by the
まず、ステップS101において、制御装置10は、カメラ10により、所定の周期で撮像され、画像メモリ21に記憶された自車両前方の画像を取得する。
First, in step S <b> 101, the
次に、ステップS102において、制御装置10は、撮像された画像に対してエッジ抽出処理を行い、撮像画像内に存在する物体の輪郭をエッジ画像として抽出するとともにエッジ画像の正規化を行う。
Next, in step S <b> 102, the
また、ステップS103において、制御装置10は、エッジの速度情報を算出し、算出された移動情報を所定の階調で表された移動画像(図5参照)を作成する。
In step S103, the
次に、ステップS104において、制御装置10は、算出した移動画像に対して、画像下部から画像上部に順に走査し、速度情報を比較し、画像の縦方向(y方向)に連続して共通乃至近似する速度情報が存在する領域を立体物として抽出する。さらに隣接する立体物で共通乃至近似する速度情報を持つものは同一立体物として抽出する。
Next, in step S104, the
続くステップS105において、制御装置10は、時間的に前に検出した立体物の位置情報と速度情報を比較し、速度差と水平位置差が小さく、下端位置が鉛直下方向に移動した立体物を自車両に接近する可能性のある立体物として、その領域を移動物体候補領域として抽出する。
In subsequent step S105, the
さらに、ステップS106において、制御装置10は、全ての移動物体候補領域が抽出されたか否かを判断する。全ての移動物体候補領域が抽出された場合には、ステップS107に移行する。全ての移動物体候補領域の抽出されていないと判断された場合には、ステップS104に戻り、立体物の抽出を継続する。
Furthermore, in step S106, the
続いて、ステップS107において、制御装置10は、抽出された移動物体候補の進行方向側の下端位置から下向き乃至斜め下向きに速度情報の共通性を走査する。制御装置10は、下向き乃至斜め下向きに共通乃至近似する速度情報が存在しない最下端の位置を、画素を移動物体候補と路面領域との境界として検出する。
Subsequently, in step S107, the
さらに続いて、ステップS108において、制御装置10は、最下端位置の進行方向側に立体物の速度情報が存在するか否かを判断する。進行方向側に立体物の速度情報が無い移動可能領域が存在すれば、移動物体候補の進行方向側に移動可能な空間が存在すると判断できるので、移動物体候補が移動物体に対応する可能性が高いとして、移動物体候補領域を第一移動物体領域として確定する。他方、移動物体候補の進行方向側に立体物の速度情報が存在すれば、移動可能な空間は存在しないと判断し、移動物体候補から外し、ステップS116に移行する。
Subsequently, in step S108, the
次に、ステップS109において、制御装置10は、最下端位置と移動空間の間の立体物を探索し、立体物の下端位置の速度情報に基づいて、最下端とのグループ化処理を行う。そして、制御装置10は、グループ化された領域の移動物体候補の進行方向側の下端の画素を、移動物体候補の進行方向側の先端として検出する。
Next, in step S109, the
さらに、ステップS110において、制御装置10は、先端位置から進行方向と反対方向側に速度情報を走査し、移動物体候補領域の代表値との速度差及び物体幅、物体高の条件に基づき、同一物体としてのグループ化処理を行う。
Further, in step S110, the
また、ステップS111において、制御装置10は、同一物体としてのグループ化処理が行えたか否かを判断する。グループ化処理が完了したと判断する場合にはステップS112の処理に移行し、グループ化処理が完了していないと判断する場合には、ステップS110の処理に戻り、グループ化処理を継続する。
In step S111, the
ステップS112では、同一物体としてのグループ化後の進行方向と反対側の端部を移動物体の後端として検出する。 In step S112, the end on the opposite side of the traveling direction after grouping as the same object is detected as the trailing end of the moving object.
また、ステップS113において、制御装置10は、後端が確定可能であるか否かを判断する。確定可能と判断された場合にはステップS114の処理に移行する。確定できない場合は、ステップS116の処理に移行する。
In step S113, the
そして、ステップS114において、制御装置10は、検出された後端位置から画像の下向きに速度情報の共通性を走査し、共通乃至近似する速度情報が下方向に隣接する画素に存在しない画素を検出し、この位置において移動物体の進行方向と反対方向側に立体物の速度情報の存在領域(移動可能領域)が存在する場合は、その位置を最終的に移動物体の後端として確定する。
In step S <b> 114, the
最後に、ステップS115において、制御装置10は、第一移動物体領域の下端、先端、後端を含む領域を第二移動物体領域として判定する。さらに制御装置10は、第一移動物体領域と第二移動物体領域を含む領域を、移動物体領域として判定する。
Finally, in step S115, the
この後に、フローはステップS116に移行する。ステップS116において、制御装置10は、自車両のイグニションスイッチがオフされたか否かを判断し、オフされないと判断した場合には、ステップS1へ戻って処理を繰り返す。これに対して、自車両のイグニションスイッチがオフされたと判断した場合には、処理を終了する。
After this, the flow moves to step S116. In step S116, the
移動物体の検出情報は、警報装置300、走行支援装置400、出力装置500へ送出される。警報装置300は、移動物体の検出情報に基づく警報情報を出力装置500を介して運転者に出力する。走行支援装置400は、移動物体の検出情報に基づく走行支援制御を実行する。 The detection information of the moving object is sent to the alarm device 300, the travel support device 400, and the output device 500. The alarm device 300 outputs alarm information based on the detection information of the moving object to the driver via the output device 500. The driving support device 400 executes driving support control based on the detection information of the moving object.
本実施形態の移動物体検出システム100は、以上のように構成され、作用するので以下の効果を奏する。 The moving object detection system 100 of the present embodiment is configured and operates as described above, and thus provides the following effects.
本実施形態の移動物体検出システム100によれば、各部位の移動速度が異なる移動物体の領域を高い精度で判定することができる。 According to the moving object detection system 100 of the present embodiment, it is possible to determine a region of a moving object with different moving speeds of each part with high accuracy.
すなわち、本実施形態の移動物体検出システム100は、画像から移動物体候補の少なくとも一部を含む移動物体候補領域の進行方向側の下端を検出するとともに、この下端からさらに下方向に速度情報の有無を走査し、速度情報が下方向の隣接画素において検出されない場合の最下端を含む路面領域と移動物体候補の進行方向側の速度情報が検出されない移動可能領域との境界に位置する画素を移動物体候補の進行方向側の先端として検出し、この先端から進行方向反対側に速度情報を走査したときに所定域値の速度情報が検出されない場合の画素を移動物体候補の進行方向側の後端として検出し、この下端、先端及び後端が属する領域と移動物体候補領域とを含む領域を移動物体領域として判定するので、同一の移動物体でありながら移動速度の異なる各部位を含む移動物体の領域を高い精度で判定することができる。 That is, the moving object detection system 100 according to the present embodiment detects the lower end of the moving object candidate area including at least a part of the moving object candidates from the image, and detects the presence or absence of speed information further downward from the lower end. , The pixel located at the boundary between the road surface area including the lowermost edge when the speed information is not detected in the downward adjacent pixel and the movable area where the speed information on the moving direction of the moving object candidate is not detected is the moving object. A pixel that is detected as a tip of the candidate in the direction of travel and when speed information of a predetermined range value is not detected when speed information is scanned from this tip to the opposite side of the direction of travel is defined as the rear end of the moving object candidate in the direction of travel The area including the area to which the lower end, the front end, and the rear end belong and the moving object candidate area is determined as the moving object area. It is possible to determine the area of a moving object including the parts having different speeds with high accuracy.
移動物体が歩行者などの部分ごとに速度が異なる場合に、オプティカルフローを算出すると、歩行者の部位に応じてオプティカルフローの値は異なる。歩行者が歩行する場合には、胴体部分が一定速度で移動しても、脚部は開脚動作により速度が小さい範囲で変動する。このように、検出される速度差が小さい場合に、この速度差に基づいて移動物体をグループ化すると、歩行者全体の存在領域を正しくグループ化できないということがあるが、本実施形態では同一の移動物体でありながら異なる速度で移動する他の一部の先端位置と後端位置を検出できるため、各部位の移動速度が異なる移動物体の領域を高い精度で判定することができる。 When the optical flow is calculated when the moving object has different speeds for each part such as a pedestrian, the value of the optical flow differs depending on the part of the pedestrian. When a pedestrian walks, even if the body part moves at a constant speed, the leg part varies in a range where the speed is small due to the leg opening operation. As described above, when the detected speed difference is small and the moving objects are grouped based on the speed difference, the existence area of the entire pedestrian may not be correctly grouped. Since other tip positions and rear end positions that are moving objects but move at different speeds can be detected, it is possible to determine the areas of moving objects with different moving speeds of the respective parts with high accuracy.
また、進行方向に沿う移動物体の長さが比較的長い二輪車及び自動車(四輪車)は、移動物体の長さ方向の位置が異なる各部位において、異なる速度ベクトル(オプティカルフロー)が検出される場合がある。このように、移動物体の物体幅(移動方向に沿う長さ)が大きいと、同一物体であるのに、異なる速度ベクトル(オプティカルフロー)の領域が検出され、異なる物体の領域として分割されてしまう場合がある。本実施形態の移動物体検出システム100は、下端、先端及び後端を適切に検出し、これらが属する領域と移動物体候補領域とを含む領域を移動物体領域として判定するので、同一の移動物体でありながら異なる速度ベクトル(オプティカルフロー)の領域が検出される移動物体の領域を高い精度で判定することができる。 In addition, for two-wheeled vehicles and automobiles (four-wheeled vehicles) having relatively long moving objects along the traveling direction, different velocity vectors (optical flows) are detected in the respective parts where the positions of the moving objects in the length direction are different. There is a case. As described above, when the object width (length along the moving direction) of the moving object is large, areas of different velocity vectors (optical flow) are detected even though they are the same object, and are divided as areas of different objects. There is a case. The moving object detection system 100 according to the present embodiment appropriately detects the lower end, the front end, and the rear end, and determines the area including the area to which these belong and the moving object candidate area as the moving object area. It is possible to determine with high accuracy the area of the moving object in which areas of different velocity vectors (optical flow) are detected.
また、本実施形態の移動物体検出システム100は、速度情報が予め設定された所定値未満である特徴点が含まれる領域を、移動物体候補の少なくとも一部を含む移動物体候補領域として抽出することにより、立体物の中から自車両に接近する可能性のある移動物体候補を抽出することができる。自車両に接近する可能性のある移動物体は、背景と同じ移動方向を持つものも存在するが、本実施形態では、背景の移動方向の差に基づいて判断するのではないので、背景と区別して自車両に接近する立体物(移動物体)を確実に検出することができる。 Further, the moving object detection system 100 according to the present embodiment extracts an area including a feature point whose speed information is less than a predetermined value set in advance as a moving object candidate area including at least a part of the moving object candidate. Thus, it is possible to extract a moving object candidate that may approach the host vehicle from the three-dimensional object. Some moving objects that may approach the host vehicle have the same moving direction as the background, but in this embodiment, the determination is not based on the difference in the moving direction of the background. Separately, a three-dimensional object (moving object) approaching the host vehicle can be reliably detected.
また、本実施形態の移動物体検出システム100は、路面領域との境界から移動物体候補の進行方向に速度情報の有無を走査し、速度情報が検出されない移動可能領域が存在する場合は、移動物体候補領域を第一移動物体領域と判定するので、速度情報が有る領域から無い領域に切り替わる位置を検出すれば、速度情報の差によるグループ化の手法を用いることなく、正確に移動物体の進行方向側の物体の端部(先端)を検出することができる。 Further, the moving object detection system 100 according to the present embodiment scans for the presence or absence of speed information in the traveling direction of the moving object candidate from the boundary with the road surface area, and when there is a movable area where the speed information is not detected, the moving object Since the candidate area is determined as the first moving object area, if the position where the speed information is switched from the area with the speed information is detected, the traveling direction of the moving object can be accurately determined without using the grouping method based on the speed information difference. The end (tip) of the side object can be detected.
さらにまた、本実施形態の移動物体検出システム100は、第一移動物体領域の下端、先端、後端を含む領域を第二移動物体領域として判定し、第一移動物体領域と第二移動物体領域を含む領域を、移動物体領域として判定するので、各部分で移動速度が異なる移動物体、たとえば、胴体部分が一定に移動するが脚部は開脚動作により速度が変動する歩行者のような移動物体についても、一の移動物体が分割されることなく、一の移動物体として高い精度で検出することができる。 Furthermore, the moving object detection system 100 according to the present embodiment determines a region including the lower end, the front end, and the rear end of the first moving object region as the second moving object region, and the first moving object region and the second moving object region. Is determined as a moving object area, so moving objects with different moving speeds in each part, for example, the body part moves constantly, but the legs move like a pedestrian whose speed changes due to the leg opening action. An object can also be detected as a single moving object with high accuracy without dividing the single moving object.
また、本実施形態の移動物体検出システム100は、移動物体の最下端から進行方向側に速度情報の有無を走査し、立体物の速度情報が存在しなければ、移動空間が存在すると判断し、移動物体候補を第一移動物体候補として確定する。このように、移動空間の検出を行うことにより、自車に接近する可能性の高い移動物体を確実に検出することができる。他方、移動空間が検出されなければ、移動物体は移動が不可能となり、自車に接近する可能性も低くなると判断できる。 Further, the moving object detection system 100 according to the present embodiment scans the moving object from the lowermost end of the moving object for the presence or absence of speed information, and determines that there is a moving space if the speed information of the three-dimensional object does not exist. The moving object candidate is determined as the first moving object candidate. Thus, by detecting the moving space, it is possible to reliably detect a moving object that is likely to approach the host vehicle. On the other hand, if the moving space is not detected, it can be determined that the moving object cannot move and the possibility of approaching the host vehicle becomes low.
本実施形態によれば、移動可能空間の存在に基づいて、自車両に接近する可能性のある移動物体を検出することができる。つまり、移動物体候補の先端から進行方向側の領域に速度情報が存在しない移動可能領域の存在を検出することにより、速度情報の比較によって同一物体をグループ化する処理を行うことなく、移動物体の先端を検出することができるため、移動物体の先端の検出精度を向上させることができる。 According to the present embodiment, it is possible to detect a moving object that may approach the host vehicle based on the presence of the movable space. In other words, by detecting the presence of a movable area in which no speed information exists in the area on the traveling direction side from the tip of the moving object candidate, the process of grouping the same objects by comparing the speed information is performed. Since the tip can be detected, the detection accuracy of the tip of the moving object can be improved.
また、本発明の実施の形態の移動物体システム100によれば、先端の画素とグループ化する際に用いられる所定値域を、画像に含まれる静止物の推定速度と、判定された第一移動物体領域の属する画素の速度情報の代表値との差の絶対値に基づいて求めるので、背景から移動物体を識別して、正確に移動物体の後端を検出することができる。 In addition, according to the moving object system 100 of the embodiment of the present invention, the predetermined range used when grouping with the tip pixel is the estimated speed of the stationary object included in the image, and the determined first moving object Since it is obtained based on the absolute value of the difference from the representative value of the velocity information of the pixel to which the region belongs, it is possible to identify the moving object from the background and accurately detect the rear end of the moving object.
また、本実施形態の移動物体検出システム100は、時系列に連続して検出される特徴点を含む領域の下端に位置する特徴点の移動方向が画像の下方向である場合は、領域を移動物体候補領域として抽出するので、自車両に接近する領域を自車両に接近する可能性がある移動物体候補領域として抽出することができる。 In addition, the moving object detection system 100 according to the present embodiment moves the region when the moving direction of the feature point located at the lower end of the region including the feature point continuously detected in time series is the downward direction of the image. Since the object candidate area is extracted, an area approaching the host vehicle can be extracted as a moving object candidate area that may approach the host vehicle.
また、本実施形態の移動物体検出システム100は、移動物体候補領域における移動物体候補の進行方向側の下端からさらに下方向に、速度情報の値が予め設定された所定値未満である速度情報の有無を走査し、下端に対応する画素の速度情報と所定値未満の速度情報が下方向に検出されない場合の最下端の画素を路面の画像との境界として検出するので、部分ごとに移動速度が異なる物体の下方部分(路面に接する部分)の先端を検出することができる。 In addition, the moving object detection system 100 according to the present embodiment has a speed information value whose speed information value is less than a predetermined value set in a further downward direction from the lower end of the moving object candidate in the moving direction in the moving object candidate area. Scan the presence / absence and detect the velocity information of the pixel corresponding to the lower end and the velocity information below the predetermined value as the boundary with the road image when the lowermost pixel is not detected in the downward direction. The tip of the lower part of the different object (the part in contact with the road surface) can be detected.
また、本実施形態の移動物体検出システム100は、路面境界検出手段により検出された路面領域との境界と第一移動物体領域判定手段により検出された移動可能領域との間の領域に立体物領域を抽出し、その立体物領域の最下端の画素が最下端の画素と所定の位置関係に位置するとともに、最下端の画素の速度情報との差が所定値未満である場合は、路面領域との境界と立体物領域とをグループ化し、グループ化された領域の移動物体候補の進行方向側の下端の画素を移動物体候補の進行方向側の先端として検出するので、上下の部分ごとに移動速度が異なる物体の下方部分(路面に接する部分)の先端を検出することができる。 In addition, the moving object detection system 100 according to the present embodiment includes a three-dimensional object region in a region between the boundary between the road surface region detected by the road surface boundary detection unit and the movable region detected by the first moving object region determination unit. When the lowermost pixel of the three-dimensional object region is positioned in a predetermined positional relationship with the lowermost pixel and the difference between the velocity information of the lowermost pixel is less than a predetermined value, the road surface region The boundary of the object and the three-dimensional object region are grouped, and the lower pixel on the moving direction side of the moving object candidate in the grouped region is detected as the tip on the moving direction side of the moving object candidate. It is possible to detect the tip of the lower part (the part in contact with the road surface) of an object with a different.
特に、移動物体が歩行者で有る場合には、胴体部と脚部で速度情報が異なる。脚部の速度情報は斜めの連続性を持つことから、下向きに速度情報の共通性を走査し、下向きに共通乃至近似する速度情報が存在しない位置を検出することにより、胴体と脚部のように部位毎に異なる速度を持つ歩行者の下端の先端位置を正確に検出することができる。 In particular, when the moving object is a pedestrian, the speed information is different between the trunk and the leg. Since the speed information of the legs has diagonal continuity, the commonality of the speed information is scanned downward, and the positions where there is no speed information that is common or approximate to the downward direction are detected. In addition, it is possible to accurately detect the tip position of the lower end of a pedestrian having a different speed for each part.
また、本実施形態の移動物体検出システム100は、検出された先端から移動物体候補の進行方向とは反対方向に速度情報の有無を走査し、予め設定された所定値域の速度情報の画素を、先端の画素とグループ化し、グループ化された領域の移動物体候補の進行方向と反対方向側の下端の画素を移動物体候補の後端として検出するので、左右端の部分ごとに移動速度が異なる物体の下方部分(路面に接する部分)の先端を検出することができる。 Further, the moving object detection system 100 of the present embodiment scans the detected tip for the presence or absence of speed information in a direction opposite to the traveling direction of the moving object candidate, and sets pixels of speed information in a predetermined range of preset values. Objects that are grouped with the leading edge pixels, and the lower end pixel on the opposite side of the moving direction of the moving object candidate in the grouped area is detected as the trailing end of the moving object candidate. The tip of the lower part (the part in contact with the road surface) can be detected.
また、本実施形態の移動物体検出システム100は、検出された先端の画素よりも画像上方向の所定高さ未満に位置する画素を、先端の画素とグループ化し、グループ化された領域の移動物体候補の進行方向と反対方向側の下端の画素を、移動物体候補の進行方向と反対方向側の後端として検出するので、左右端の部分ごとに移動速度が異なる物体の下方部分(路面に接する部分)の先端を正確に検出することができる。 In addition, the moving object detection system 100 according to the present embodiment groups the pixels located below the predetermined height in the image upper direction with respect to the detected leading end pixel with the leading end pixel, and moves the moving object in the grouped region. Since the pixel at the lower end on the side opposite to the direction of travel of the candidate is detected as the rear end on the side opposite to the direction of travel of the moving object candidate, the lower part of the object whose moving speed is different for each of the left and right end parts The tip of (part) can be detected accurately.
また、本実施形態の移動物体検出システム100は、検出された先端の画素から移動物体候補の進行方向と反対方向の所定距離未満に位置する画素を、先端の画素とグループ化し、グループ化された領域の移動物体候補の進行方向と反対方向側の下端の画素を、移動物体候補の進行方向と反対方向側の後端として検出するので、検出の対象とする移動物体の後端を正確に検出することができる。つまり、検出の対象とする移動物体の幅に基づいて所定距離を設定することにより、検出したい対象の後端を適切に検出することができる。たとえば、歩行者(人間)の歩幅の最大値に応じて、所定距離を設定することにより、歩行者の後端を適切に検出することができる。 In addition, the moving object detection system 100 according to the present embodiment groups pixels that are located within a predetermined distance in the direction opposite to the moving direction of the moving object candidate from the detected front end pixel and grouped with the front end pixel. The lower end pixel on the opposite side of the moving object candidate in the area is detected as the rear end of the moving object candidate in the opposite direction to the moving direction of the moving object candidate. can do. That is, by setting the predetermined distance based on the width of the moving object to be detected, the rear end of the target to be detected can be detected appropriately. For example, the rear end of the pedestrian can be detected appropriately by setting a predetermined distance according to the maximum value of the pedestrian (human) stride.
また、本発明の実施の形態の移動物体検出システム100によれば、後端を検出した後、当該後端から移動物体候補の進行方向と反対方向に速度情報の有無を走査し、速度情報が検出されない移動可能領域が存在する場合は、先に検出された後端を確定するので、後端を正確に検出することができる。 Further, according to the moving object detection system 100 of the embodiment of the present invention, after detecting the rear end, the speed information is scanned from the rear end in the direction opposite to the traveling direction of the moving object candidate. When there is a movable area that is not detected, the rear end detected first is determined, so that the rear end can be accurately detected.
つまり、進行方向の反対側の物体端は背景と重なり合う部分が多く、背景と区別が難しくなるが、片側の物体端が正確に検出できているため、同一物体と判定するためのグループ化のしきい値を厳しくしなくても、物体幅の制限を加えることで、背景とのグルーピングミスを低減することができる。自車と移動物体が移動を続ければ、進行方向を続ければ、背景との重なり合いが解消し、進行方向の反対側にも移動空間が出現する。その場合は、進行方向側の物体端検出方法を適用することで、正確に検出することができる。 In other words, the object edge on the opposite side of the traveling direction has many parts that overlap with the background, making it difficult to distinguish it from the background, but since the object edge on one side can be accurately detected, grouping to determine the same object is performed. Even if the threshold value is not strict, grouping errors with the background can be reduced by limiting the object width. If the vehicle and the moving object continue to move, if the traveling direction is continued, the overlap with the background is eliminated, and a moving space appears on the opposite side of the traveling direction. In that case, it is possible to detect accurately by applying the object end detection method on the traveling direction side.
また、本発明の実施の形態の移動物体検出システム100によれば、抽出された特徴部の位置に対応する画素のカウント値を所定周期でカウントアップし、カウント値の傾きに基づいて、特徴部に対応する画素の速度情報を算出するので、簡易な手法で画素の移動情報を取得することができる。また、このような画像処理により、速度情報の共通する画素が縦方向に連続する立体の特徴点を容易に導出し、撮像画像から立体物領域を簡単に抽出することができる。 Further, according to the moving object detection system 100 of the embodiment of the present invention, the count value of the pixel corresponding to the extracted position of the feature portion is counted up at a predetermined period, and the feature portion is based on the slope of the count value. Since the pixel velocity information corresponding to is calculated, the pixel movement information can be acquired by a simple method. Further, by such image processing, it is possible to easily derive a three-dimensional feature point in which pixels having common speed information are continuous in the vertical direction and easily extract a three-dimensional object region from the captured image.
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。 The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.
すなわち、本明細書では、本発明に係る移動物体検出装置の一態様として移動物体検出システム100を例にして説明するが、本発明はこれに限定されるものではない。 That is, in this specification, the moving object detection system 100 will be described as an example of the moving object detection device according to the present invention, but the present invention is not limited to this.
また、本明細書では、本発明に係る移動物体検出装置の一態様として、CPU11、ROM12、RAM13を含む制御装置10を備えた移動物体検出システム100を一例として説明するが、これに限定されるものではない。
In this specification, as an example of the moving object detection device according to the present invention, the moving object detection system 100 including the
また、本明細書では、本願発明に係る撮像手段と、速度情報算出手段と、移動物体候補領域抽出手段と、路面境界検出手段と、第一移動物体領域判定手段と、移動物体先端検出手段と、移動物体後端検出手段と、第二移動物体領域判定手段と、移動物体判定手段とを有する移動物体検出装置の一態様として、カメラ20と、速度情報算出機能と、移動物体候補領域抽出機能と、路面境界検出機能と、第一移動物体領域判定機能と、移動物体先端検出機能と、移動物体後端機能と、第二移動物体領域判定機能と移動物体判定機能とを実現する制御装置10とを備える移動物体検出システム100を例にして説明するが、本発明はこれに限定されるものではない。
Further, in this specification, the imaging means, speed information calculation means, moving object candidate area extraction means, road surface boundary detection means, first moving object area determination means, moving object tip detection means, As one aspect of the moving object detection device having the moving object rear end detection unit, the second moving object region determination unit, and the moving object determination unit, a
100…移動物体検出システム
10…制御装置
11…CPU
12…ROM
13…RAM
20…カメラ
21…画像メモリ
200…車両コントローラ
300…警報装置
400…走行支援装置
500…出力装置
DESCRIPTION OF SYMBOLS 100 ... Moving
12 ... ROM
13 ... RAM
DESCRIPTION OF
Claims (11)
前記撮像手段により撮像された画像から特徴点を抽出し、前記特徴点の移動速度及び/又は移動方向を含む速度情報を算出する速度情報算出手段と、
前記速度情報が予め設定された所定値未満である特徴点が含まれる領域を、移動物体候補の少なくとも一部を含む移動物体候補領域として抽出する移動物体候補領域抽出手段と、
前記移動物体候補領域における前記移動物体候補の進行方向側の下端からさらに下方向の速度情報を走査し、前記速度情報が画像の下方向の隣接画素において検出されない場合の最下端の画素を前記移動物体候補と路面領域との境界として検出する路面境界検出手段と、
前記路面領域との境界から前記移動物体候補の進行方向に前記速度情報の有無を走査し、前記速度情報が検出されない移動可能領域が存在する場合は、前記移動物体候補領域を第一移動物体領域と判定する第一移動物体領域判定手段と、
前記路面領域と前記移動可能領域との境界に位置する画素を前記移動物体候補の進行方向側の先端として検出する移動物体先端検出手段と、
前記先端から前記移動物体候補の進行方向とは反対方向に前記速度情報を走査し、予め求められた所定域値内の速度情報が前記進行方向とは反対方向の隣接画素において検出されない場合の画素を前記移動物体候補の進行方向側の後端として検出する移動物体後端検出手段と、
前記第一移動物体領域の下端、前記先端、前記後端を含む領域を第二移動物体領域として判定する第二移動物体領域判定手段と、
前記第一移動物体領域と前記第二移動物体領域を含む領域を、移動物体領域として判定する移動物体判定手段と、を有する移動物体検出装置。 An imaging means mounted on a vehicle for capturing an image in front of the vehicle;
Speed information calculating means for extracting feature points from the image captured by the imaging means and calculating speed information including the moving speed and / or moving direction of the feature points;
Moving object candidate area extracting means for extracting an area including a feature point whose speed information is less than a preset predetermined value as a moving object candidate area including at least a part of the moving object candidate;
In the moving object candidate area, the speed information in the lower direction is scanned from the lower end on the moving direction side of the moving object candidate, and the lowermost pixel is moved when the speed information is not detected in the adjacent pixels in the lower direction of the image. Road surface boundary detecting means for detecting the boundary between the object candidate and the road surface area;
The presence or absence of the speed information is scanned in the traveling direction of the moving object candidate from the boundary with the road surface area, and when there is a movable area where the speed information is not detected, the moving object candidate area is defined as the first moving object area. First moving object region determination means for determining
Moving object tip detection means for detecting a pixel located at a boundary between the road surface region and the movable region as a tip on the traveling direction side of the moving object candidate;
The pixel when the speed information is scanned from the tip in the direction opposite to the moving direction of the moving object candidate, and the speed information within a predetermined threshold value obtained in advance is not detected in the adjacent pixel in the direction opposite to the moving direction Moving object rear end detection means for detecting the moving object candidate as a rear end on the moving direction side,
Second moving object region determination means for determining a region including the lower end, the front end, and the rear end of the first moving object region as a second moving object region;
A moving object detection apparatus comprising: a moving object determination unit that determines an area including the first moving object area and the second moving object area as a moving object area.
前記移動物体候補領域抽出手段は、さらに、時系列に連続して検出される特徴点を含む領域の下端に位置する特徴点の移動方向が画像の下方向である場合は、前記領域を前記移動物体候補領域として抽出する移動物体検出装置。 The moving object detection device according to claim 1,
The moving object candidate region extraction means further moves the region when the moving direction of the feature point located at the lower end of the region including the feature point detected continuously in time series is the downward direction of the image. A moving object detection apparatus that extracts an object candidate area.
前記路面境界検出手段は、前記移動物体候補領域における前記移動物体候補の進行方向側の下端からさらに下方向の速度情報を走査し、前記移動物体候補の進行方向側の下端に対応する画素の速度情報との差が所定値未満の速度情報が下方向に検出されない場合の最下端の画素を前記移動物体候補と路面領域との境界として検出する移動物体検出装置。 In the moving object detection device according to claim 1 or 2,
The road surface boundary detection means scans further downward velocity information from the lower end of the moving object candidate in the moving direction in the moving object candidate region, and the velocity of the pixel corresponding to the lower end of the moving object candidate on the moving direction side A moving object detection apparatus that detects a lowermost pixel as a boundary between a moving object candidate and a road surface area when speed information whose difference from information is less than a predetermined value is not detected in a downward direction.
前記移動物体先端検出手段は、前記路面境界検出手段により検出された路面領域との境界と前記第一移動物体領域判定手段により検出された移動可能領域との間の領域にある、前記画像の縦方向に共通する速度情報が連続する立体物領域を抽出し、前記立体物領域の最下端の画素が前記路面境界検出手段により検出された最下端の画素と所定の位置関係に位置するとともに、前記立体物領域の最下端の画素の速度情報との差が所定値未満である場合は、前記最下端の画素と前記立体物領域とをグループ化し、前記グループ化された領域の前記移動物体候補の進行方向側の下端の画素を、前記移動物体候補の進行方向側の先端として検出する移動物体検出装置。 In the moving object detection device according to any one of claims 1 to 3,
The moving object front end detection means is a vertical portion of the image located in a region between a boundary between the road surface area detected by the road surface boundary detection means and a movable area detected by the first moving object area determination means. A three-dimensional object region in which velocity information common to the direction is continuous is extracted, and the lowermost pixel of the three-dimensional object region is positioned in a predetermined positional relationship with the lowermost pixel detected by the road surface boundary detection unit; When the difference between the velocity information of the lowermost pixel of the three-dimensional object area is less than a predetermined value, the lowermost pixel and the three-dimensional object area are grouped, and the moving object candidate in the grouped area is grouped. A moving object detection apparatus that detects a pixel at a lower end on a traveling direction side as a tip on a traveling direction side of the moving object candidate.
前記移動物体後端検出手段は、前記検出された先端から前記移動物体候補の進行方向とは反対方向の速度情報を走査し、前記先端の速度情報に対する所定域値内の速度情報の画素を前記先端の画素とグループ化し、前記グループ化された領域の前記移動物体候補の進行方向と反対方向側の下端の画素を、前記移動物体候補の後端として検出する移動物体検出装置。 In the moving object detection device according to any one of claims 1 to 4,
The moving object rear end detection means scans speed information in a direction opposite to the moving direction of the moving object candidate from the detected front end, and sets pixels of speed information within a predetermined range value with respect to the speed information of the front end. A moving object detection apparatus that groups with a front end pixel and detects a lower end pixel of the grouped region on a side opposite to a moving direction of the moving object candidate as a rear end of the moving object candidate.
前記移動物体後端検出手段は、さらに、前記検出された先端の画素よりも画像上方向の所定高さ未満に位置する画素を前記先端の画素とグループ化する移動物体検出装置。 The moving object detection device according to claim 5,
The moving object rear end detection unit further groups a pixel located below a predetermined height in the image upper direction with respect to the detected front end pixel with the front end pixel.
前記移動物体後端検出手段は、さらに、前記検出された先端の画素から前記移動物体候補の進行方向と反対方向の所定距離未満に位置する画素を前記先端の画素とグループ化する移動物体検出装置。 The moving object detection device according to claim 6,
The moving object rear end detection means further groups a pixel located within a predetermined distance in a direction opposite to the traveling direction of the moving object candidate from the detected front end pixel with the front end pixel. .
前記移動物体後端検出手段は、前記先端の画素とグループ化する際に用いる所定値域を、前記画像に含まれる静止物の推定速度と、前記判定された第一移動物体領域に属する画素の速度情報の代表値との差の絶対値に基づいて求める移動物体検出装置。 In the moving object detection device according to any one of claims 1 to 7,
The moving object trailing edge detecting means uses a predetermined range used when grouping with the leading pixel, an estimated speed of a stationary object included in the image, and a speed of a pixel belonging to the determined first moving object area. A moving object detection device obtained based on an absolute value of a difference from a representative value of information.
前記移動物体後端検出手段は、前記後端を検出した後、当該後端から前記移動物体候補の進行方向と反対方向に前記速度情報の有無を走査し、前記速度情報が検出されない移動可能領域が存在する場合は、先に検出した後端を確定する移動物体検出装置。 In the moving object detection device according to any one of claims 1 to 8,
The moving object rear end detection means detects the rear end, and then scans for the presence or absence of the speed information in a direction opposite to the moving direction of the moving object candidate from the rear end, and the movable area where the speed information is not detected. A moving object detection device that determines the rear end detected first.
前記速度情報算出手段は、前記抽出された特徴部の位置に対応する画素のカウント値を所定周期でカウントアップし、前記カウント値の傾きに基づいて、前記特徴部に対応する画素の速度情報を算出する移動物体検出装置。 In the moving object detection device according to any one of claims 1 to 9,
The speed information calculation means counts up the count value of the pixel corresponding to the extracted feature position at a predetermined period, and calculates the speed information of the pixel corresponding to the feature section based on the slope of the count value. A moving object detection device to calculate.
前記移動物体候補領域における前記移動物体候補の進行方向側の下端からさらに下方向の前記速度情報を走査し、前記速度情報が下方向の隣接画素において検出されない場合の最下端の画素を前記移動物体候補と路面領域との境界として検出し、
前記路面領域との境界から前記移動物体候補の進行方向に前記速度情報が検出されない移動可能領域と前記路面領域との境界に位置する画素を前記移動物体候補の進行方向側における先端として検出し、
前記先端から前記移動物体候補の進行方向とは反対方向に前記速度情報を走査し、予め求められた所定域値の速度情報が検出されない場合の画素を前記移動物体候補の進行方向側の後端として検出し、
前記第一移動物体領域と、前記第一移動物体領域の下端、前記先端、前記後端を含む領域を第二移動物体領域が同一物体に対応する領域であると判定する移動物体検出方法。 An area where speed information including the moving speed and / or moving direction of the feature point extracted from the captured image in front of the vehicle is less than a predetermined value is set as a moving object candidate area including at least a part of the moving object candidates. Extract and
In the moving object candidate area, the speed information in the lower direction is scanned from the lower end on the moving direction side of the moving object candidate, and the lowermost pixel is detected when the speed information is not detected in the adjacent pixels in the lower direction. Detect as the boundary between the candidate and the road surface area,
Detecting a pixel located at the boundary between the movable area where the speed information is not detected in the traveling direction of the moving object candidate from the boundary with the road surface area and the road surface area as a tip on the traveling direction side of the moving object candidate;
The speed information is scanned in the direction opposite to the moving direction of the moving object candidate from the front end, and the pixel in the case where speed information of a predetermined predetermined value is not detected is determined as the rear end of the moving object candidate in the moving direction. Detect as
A moving object detection method for determining that the first moving object area and an area including a lower end, a front end, and a rear end of the first moving object area are areas corresponding to the same object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009057735A JP5141603B2 (en) | 2009-03-11 | 2009-03-11 | Moving object detection apparatus and moving object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009057735A JP5141603B2 (en) | 2009-03-11 | 2009-03-11 | Moving object detection apparatus and moving object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010211578A JP2010211578A (en) | 2010-09-24 |
JP5141603B2 true JP5141603B2 (en) | 2013-02-13 |
Family
ID=42971651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009057735A Expired - Fee Related JP5141603B2 (en) | 2009-03-11 | 2009-03-11 | Moving object detection apparatus and moving object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5141603B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5935435B2 (en) * | 2012-03-26 | 2016-06-15 | 富士通株式会社 | Image processing apparatus and image processing method |
JP5904925B2 (en) * | 2012-10-25 | 2016-04-20 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP6844235B2 (en) | 2016-12-08 | 2021-03-17 | 富士通株式会社 | Distance measuring device and distance measuring method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006268097A (en) * | 2005-03-22 | 2006-10-05 | Nissan Motor Co Ltd | On-vehicle object detecting device, and object detecting method |
JP2007249257A (en) * | 2006-03-13 | 2007-09-27 | Nissan Motor Co Ltd | Apparatus and method for detecting movable element |
-
2009
- 2009-03-11 JP JP2009057735A patent/JP5141603B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010211578A (en) | 2010-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5145986B2 (en) | Object detection apparatus and distance measuring method | |
JP4203512B2 (en) | Vehicle periphery monitoring device | |
US9836657B2 (en) | System and method for periodic lane marker identification and tracking | |
JP4811201B2 (en) | Runway boundary line detection apparatus and runway boundary line detection method | |
JP4985306B2 (en) | Obstacle determination device and method, and vehicle equipped with an obstacle determination device | |
JP2009288867A (en) | Lane marking detection device and lane marking detection method | |
JP2006268097A (en) | On-vehicle object detecting device, and object detecting method | |
WO2010113239A1 (en) | Image integration unit and image integration method | |
JP2006338272A (en) | Vehicle behavior detector and vehicle behavior detection method | |
JP3562751B2 (en) | Forward vehicle detection method and device | |
EP2936386B1 (en) | Method for detecting a target object based on a camera image by clustering from multiple adjacent image cells, camera device and motor vehicle | |
JP2007249257A (en) | Apparatus and method for detecting movable element | |
JP5369921B2 (en) | Object detection apparatus and object detection method | |
JP6069938B2 (en) | Pop-up detection device | |
JP5141603B2 (en) | Moving object detection apparatus and moving object detection method | |
JP2010020476A (en) | Object detection device and object detection method | |
JP2006047091A (en) | Moving object detector | |
JP4321410B2 (en) | Object detection apparatus and method | |
JP4645292B2 (en) | On-vehicle object detection device and object detection method | |
JP5900021B2 (en) | Pop-up detection device | |
JP5141275B2 (en) | VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING METHOD | |
JP5464073B2 (en) | Outside environment recognition device, outside environment recognition method | |
JP2004362334A (en) | Device for detecting area of traveling object | |
JP2006314060A (en) | Image processing apparatus and noise detecting method | |
KR20140076043A (en) | Device and method for detecting pedestrian candidate |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121023 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121105 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151130 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5141603 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |