JP5141603B2 - Moving object detection apparatus and moving object detection method - Google Patents

Moving object detection apparatus and moving object detection method Download PDF

Info

Publication number
JP5141603B2
JP5141603B2 JP2009057735A JP2009057735A JP5141603B2 JP 5141603 B2 JP5141603 B2 JP 5141603B2 JP 2009057735 A JP2009057735 A JP 2009057735A JP 2009057735 A JP2009057735 A JP 2009057735A JP 5141603 B2 JP5141603 B2 JP 5141603B2
Authority
JP
Japan
Prior art keywords
moving object
moving
pixel
area
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009057735A
Other languages
Japanese (ja)
Other versions
JP2010211578A (en
Inventor
和巳 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2009057735A priority Critical patent/JP5141603B2/en
Publication of JP2010211578A publication Critical patent/JP2010211578A/en
Application granted granted Critical
Publication of JP5141603B2 publication Critical patent/JP5141603B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像された画像に基づいて移動物体を検出する移動物体検出装置及び移動物体検出方法に関する。   The present invention relates to a moving object detection apparatus and a moving object detection method for detecting a moving object based on a captured image.

撮影画像のオプティカルフローを算出し、判定対象画素の鉛直方向又は水平方向に存在する比較対象画素を静止物体の点であると仮定し、判定対象画素の予測速度ベクトルを算出し、該判定対象画素の速度ベクトルの水平成分と予測速度ベクトルの水平成分との差が自車の進路方向に向かい、その速度差が所定しきい値以上の場合は、移動物体上の点と判断するとともに、位置の差と速度ベクトルの差が所定しきい値以下の点をグループ化して移動物体を抽出する技術が知られている(特許文献1参照)。   The optical flow of the photographed image is calculated, the comparison target pixel existing in the vertical direction or the horizontal direction of the determination target pixel is assumed to be a point of a stationary object, the prediction speed vector of the determination target pixel is calculated, and the determination target pixel If the difference between the horizontal component of the speed vector and the horizontal component of the predicted speed vector is in the direction of the vehicle and the speed difference is greater than or equal to a predetermined threshold value, the point is determined as a point on the moving object and the position A technique is known in which moving objects are extracted by grouping points where the difference between the difference and the velocity vector is equal to or less than a predetermined threshold (see Patent Document 1).

特開2005−209019号公報JP 2005-209019 A

しかしながら、従来の技術では、移動物体の各部位の速度ベクトル(オプティカルフロー)の値が異なる場合、移動物体に対応する領域の判定精度が低下するという問題がある。   However, the conventional technique has a problem in that the determination accuracy of the region corresponding to the moving object is lowered when the velocity vector (optical flow) value of each part of the moving object is different.

本発明は、画像から移動物体候補の少なくとも一部を含む移動物体候補領域の進行方向側の下端と、この下端よりも下方向に存在する移動物体候補の進行方向側の先端と、この先端から進行方向反対側に存在する移動物体候補の後端を検出し、この下端、先端及び後端が属する領域と移動物体候補領域とを含む領域を一の移動物体領域として判定することにより上記課題を解決する。   The present invention relates to a moving object candidate region including at least a part of moving object candidates from an image, a moving object candidate area having a lower end on the moving direction side, a moving object candidate existing in a lower direction than the lower end, and a leading end on the moving direction side. By detecting the rear end of the moving object candidate existing on the opposite side in the traveling direction, and determining the area including the moving object candidate area and the area to which the lower end, the front end, and the rear end belong as one moving object area, Solve.

本発明によれば、同一の移動物体でありながら、部位によって異なる速度ベクトルが検出された場合であっても、移動物体の先端と後端を検出できるので、移動物体の存在領域を高い精度で判定することができる。   According to the present invention, the front and rear ends of the moving object can be detected even when different velocity vectors are detected depending on the part even though they are the same moving object. Can be determined.

図1は、本実施形態の移動物体検出システム100を含む車載装置1000のブロック構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a block configuration of an in-vehicle device 1000 including a moving object detection system 100 according to the present embodiment. 図2(A)及び(B)は、カメラ20の搭載例を示す図である。図2(A)はカメラを搭載する自車両を側面から見た図、図2(B)はカメラを搭載する自車両を上方から見た図である。2A and 2B are diagrams illustrating an example of mounting the camera 20. FIG. 2A is a view of the host vehicle on which the camera is mounted as viewed from the side, and FIG. 2B is a view of the host vehicle on which the camera is mounted as viewed from above. 図3は、カメラ20により撮像された自車両前方の画像例である。FIG. 3 is an example of an image in front of the host vehicle captured by the camera 20. 図4(a)〜(f)は移動速度の算出処理を説明するための図である。つまり、抽出されたエッジを正規化したエッジ画像を取得し、エッジのカウンタ値(滞留時間)から移動方向と移動速度を算出する手法を説明するための図である。FIGS. 4A to 4F are diagrams for explaining the movement speed calculation process. That is, it is a diagram for explaining a method of acquiring an edge image obtained by normalizing extracted edges and calculating a moving direction and a moving speed from an edge counter value (residence time). 図5は、移動画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of a moving image. 図6は、速度情報から立体物を抽出し、時間的に前後する立体物を比較して移動物体候補を抽出する処理を説明するための図である。図6(A)は時刻tにおける立体物抽出結果を示し、図6(B)は時刻t+1における立体物抽出結果を示す図である。FIG. 6 is a diagram for explaining a process of extracting a three-dimensional object from speed information and extracting moving object candidates by comparing three-dimensional objects moving back and forth in time. 6A shows a three-dimensional object extraction result at time t, and FIG. 6B shows a three-dimensional object extraction result at time t + 1. 図7Aは、移動物体が歩行者である場合であって、移動物体候補領域から移動物体の最下端位置を検出し、最下端位置の進行方向側に移動可能な空間が存在するか判定し、存在すれば移動物体の先端位置を検出する処理を説明するための図である。FIG. 7A shows a case where the moving object is a pedestrian, detects the lowermost position of the moving object from the moving object candidate area, determines whether there is a movable space on the traveling direction side of the lowermost position, It is a figure for demonstrating the process which detects the front-end | tip position of a moving object if it exists. 図7Bは、移動物体が歩行者である場合であって、検出した先端位置から領域のグループ化を行い、後端位置を検出する処理を説明するための図である。FIG. 7B is a diagram for explaining a process of detecting a rear end position by grouping regions from detected front end positions when the moving object is a pedestrian. 図7Cは、移動物体が歩行者である場合であって、後端位置の確定処理を説明するための図である。FIG. 7C is a diagram for explaining the rear end position determination process when the moving object is a pedestrian. 図8Aは、移動物体が二輪車である場合であって、移動物体候補領域から移動物体の最下端位置を検出し、最下端位置の進行方向側に移動可能な空間が存在するか判定し、存在すれば移動物体の先端位置を検出する処理を説明するための図である。FIG. 8A shows a case where the moving object is a two-wheeled vehicle, detects the lowermost position of the moving object from the moving object candidate area, determines whether there is a movable space on the traveling direction side of the lowermost position, It is a figure for demonstrating the process which detects the front-end | tip position of a moving object if it does. 図8Bは、移動物体が二輪車である場合であって、検出した先端位置から領域のグループ化を行い、後端位置を検出する処理を説明するための図である。FIG. 8B is a diagram for describing a process of grouping regions from the detected front end position and detecting the rear end position when the moving object is a two-wheeled vehicle. 図8Cは、移動物体が二輪車である場合であって、後端位置の確定処理を説明するための図である。FIG. 8C is a diagram for explaining the determination process of the rear end position when the moving object is a two-wheeled vehicle. 図9Aは、移動物体が自動車である場合であって、移動物体候補領域から移動物体の最下端位置を検出し、最下端位置の進行方向側に移動可能な空間が存在するか判定し、存在すれば移動物体の先端位置を検出する処理を説明するための図である。FIG. 9A shows a case where the moving object is an automobile, detects the lowermost position of the moving object from the moving object candidate area, determines whether there is a movable space on the traveling direction side of the lowermost position, and It is a figure for demonstrating the process which detects the front-end | tip position of a moving object if it does. 図9Bは、移動物体が自動車である場合であって、検出した先端位置から領域のグループ化を行い、後端位置を検出する処理を説明するための図である。FIG. 9B is a diagram for explaining a process of grouping areas from the detected front end position and detecting the rear end position when the moving object is an automobile. 図9Cは、移動物体が自動車である場合であって、後端位置の確定処理を説明するための図である。FIG. 9C is a diagram for explaining the rear end position determination process when the moving object is an automobile. 図10は、本実施形態の移動物体検出処理を説明するためのフローチャート図である。FIG. 10 is a flowchart for explaining the moving object detection process of the present embodiment.

本実施形態の移動物体検出システム100は、車両に搭載され、車両前方が撮像された画像情報から車両の走行方向前方に存在する移動物体を検出する装置である。   A moving object detection system 100 according to the present embodiment is an apparatus that is mounted on a vehicle and detects a moving object that exists in front of the traveling direction of the vehicle from image information obtained by imaging the front of the vehicle.

図面に基づいて、本実施形態に係る移動物体検出システム100を含む車載装置1000について説明する。   An in-vehicle device 1000 including a moving object detection system 100 according to the present embodiment will be described based on the drawings.

図1は、本実施形態の移動物体検出システム100を含む車載装置1000のブロック構成の一例を示す図である。   FIG. 1 is a diagram illustrating an example of a block configuration of an in-vehicle device 1000 including a moving object detection system 100 according to the present embodiment.

図1に示すように、車載装置1000は、移動物体検出システム100と、車両コントローラ200と、警報装置300と、走行支援装置400と、出力装置500とを備える、これらの装置はCAN(Controller Area Network)その他の車載LANによって接続され、相互に情報の授受を行う。警報装置300は、移動物体検出システム100の検出結果に応じて運転者に警報を発する。走行支援装置400は、移動物体検出システム100の検出結果に応じた運転支援機能を実行する。また、出力装置500は、移動物体検出システム100の検出結果を、ディスプレイ及び/又はスピーカを介して運転者に提示する。   As shown in FIG. 1, the in-vehicle device 1000 includes a moving object detection system 100, a vehicle controller 200, an alarm device 300, a travel support device 400, and an output device 500, and these devices are CAN (Controller Area). Network) Connected by other in-vehicle LAN and exchanges information with each other. The alarm device 300 issues an alarm to the driver according to the detection result of the moving object detection system 100. The driving support device 400 executes a driving support function according to the detection result of the moving object detection system 100. Further, the output device 500 presents the detection result of the moving object detection system 100 to the driver via a display and / or a speaker.

また、図1に示すように、移動物体検出システム100は、カメラ20と、画像メモリ21と、制御装置10を有する。   As illustrated in FIG. 1, the moving object detection system 100 includes a camera 20, an image memory 21, and a control device 10.

以下、移動物体検出システム100が備える各構成について説明する。   Hereinafter, each structure with which the moving object detection system 100 is provided is demonstrated.

まず、カメラ20と画像メモリ21について説明する。カメラ20は、車両に搭載され、車両前方の画像を撮像する。カメラ20は、例えばCCD(Charge-Coupled Devices)やCMOS(Complementary Metal-Oxide Semiconductor)などの撮像素子を有するカメラである。本実施形態のカメラ20は、車両の進行方向の前方を所定周期で撮像し、撮像された画像をフレーム毎に画像メモリ21に順次出力する。画像メモリ21は、カメラ20により撮像された画像をアクセス可能な状態で記憶する。   First, the camera 20 and the image memory 21 will be described. The camera 20 is mounted on the vehicle and captures an image in front of the vehicle. The camera 20 is a camera having an image sensor such as a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS). The camera 20 of the present embodiment captures the front of the vehicle in the traveling direction at a predetermined cycle, and sequentially outputs the captured images to the image memory 21 for each frame. The image memory 21 stores an image captured by the camera 20 in an accessible state.

図2は、カメラ20の設置例を示す。図2(A)はカメラを搭載する自車両を側面から見た図、図2(B)はカメラを搭載する自車両を上方から見た図である。本実施形態では、カメラ20を車両前方に向けて車両の室内上部に設置する。そして、カメラ20の光軸LSが、車両の走行方向(ドライバ正面方向)のZ方向に向くように調整し、撮像面の水平軸Xが路面と平行となるように調整し、さらに、撮像面の垂直軸Yが路面と垂直になるように調整する。   FIG. 2 shows an installation example of the camera 20. FIG. 2A is a view of the host vehicle on which the camera is mounted as viewed from the side, and FIG. 2B is a view of the host vehicle on which the camera is mounted as viewed from above. In the present embodiment, the camera 20 is installed in the upper part of the vehicle interior facing the front of the vehicle. Then, the optical axis LS of the camera 20 is adjusted so as to be directed in the Z direction of the vehicle traveling direction (driver front direction), the horizontal axis X of the imaging surface is adjusted to be parallel to the road surface, and the imaging surface The vertical axis Y is adjusted to be perpendicular to the road surface.

図3は、本実施形態のカメラ20を用いて車両前方を撮像する画像の例である。カメラ20による撮像画像は、画像左上の頂点を原点とするxy座標系によって表される。そして、原点から右方向へ延在する軸をx軸とし、原点から下へ延在する軸をy軸とする。なお、図3に示す撮像画像は、立体の静止物である外壁、画像右側から左側へ移動する歩行者、静止物である路上の白線(白色以外の線も含む)を含む。   FIG. 3 is an example of an image captured in front of the vehicle using the camera 20 of the present embodiment. The image captured by the camera 20 is represented by an xy coordinate system with the vertex at the upper left of the image as the origin. An axis extending rightward from the origin is taken as the x-axis, and an axis extending downward from the origin is taken as the y-axis. Note that the captured image illustrated in FIG. 3 includes an outer wall that is a three-dimensional stationary object, a pedestrian that moves from the right side to the left side of the image, and a white line on the road that is a stationary object (including lines other than white).

さらに、図1に示すように、移動物体検出システム100の制御装置10は、本実施形態に係る移動物体検出処理を実行するためのプログラムを格納したROM(Read Only Memory )12と、このROM12に格納されたプログラムを実行することで、移動物体検出システム100として機能する動作回路としてのCPU(Central Processing Unit)11と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)13と、を備える。なお、動作回路としては、CPU(Central Processing Unit)11に代えて又はこれとともに、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを用いることができる。   Further, as shown in FIG. 1, the control device 10 of the moving object detection system 100 includes a ROM (Read Only Memory) 12 storing a program for executing the moving object detection processing according to the present embodiment, and the ROM 12. By executing the stored program, a CPU (Central Processing Unit) 11 as an operation circuit that functions as the moving object detection system 100 and a RAM (Random Access Memory) 13 that functions as an accessible storage device are provided. . As an operation circuit, an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array) is used instead of or together with the CPU (Central Processing Unit) 11. Etc. can be used.

次に、移動物体検出システム100の制御装置10が備える処理機能について説明する。制御装置10は、速度情報算出機能と、移動物体候補領域抽出機能と、路面境界検出機能と、第一移動物体領域判定機能と、移動物体先端検出機能と、移動物体後端機能と、第二移動物体領域判定機能と移動物体判定機能とを有する。そして、各機能を実現するためのソフトウェアと、上述した制御装置10を含むハードウェアの協働により各機能を実行する。   Next, processing functions provided in the control device 10 of the moving object detection system 100 will be described. The control device 10 includes a speed information calculation function, a moving object candidate area extraction function, a road surface boundary detection function, a first moving object area determination function, a moving object front end detection function, a moving object rear end function, It has a moving object area determination function and a moving object determination function. And each function is performed by cooperation of the software for implement | achieving each function, and the hardware containing the control apparatus 10 mentioned above.

以下、上述した移動物体検出システム100の制御装置10が実現する機能についてそれぞれ説明する。   Hereinafter, functions realized by the control device 10 of the above-described moving object detection system 100 will be described.

まず、移動物体検出システム100の速度情報算出機能について説明する。   First, the speed information calculation function of the moving object detection system 100 will be described.

制御装置10は、カメラ20により撮像された画像の情報に基づいて、画像中の物体に対応する特徴点を抽出し、この抽出された特徴点の移動方向及び/又は移動速度を含む速度情報を算出する。つまり、この速度情報算出機能は、特徴抽出処理と速度情報の算出処理を実行する。   The control device 10 extracts feature points corresponding to the object in the image based on the information of the image captured by the camera 20, and obtains speed information including the movement direction and / or movement speed of the extracted feature points. calculate. That is, this speed information calculation function executes a feature extraction process and a speed information calculation process.

まず、制御装置10は、カメラ20が撮像する各画像データ(フレームデータ)から、撮像された物体の画像上の動きを観測するため、物体の外延、物体の特徴的な部分を含む特徴部を抽出する。本実施形態の制御装置10は、カメラ20で撮像された画像を画像メモリ21から読み込み、読み込んだ撮像画像を所定の閾値を用いて2値化し、画像内に存在する物体のエッジを抽出する。   First, in order to observe the movement of the imaged object on the image from each image data (frame data) captured by the camera 20, the control device 10 includes a feature part including an extension of the object and a characteristic part of the object. Extract. The control device 10 according to the present embodiment reads an image captured by the camera 20 from the image memory 21, binarizes the read captured image using a predetermined threshold, and extracts an edge of an object present in the image.

制御装置10は、抽出されたエッジから求められた特徴部の画素の速度を算出する。制御装置10は、求めた特徴部の移動速度と移動方向を、撮像タイミング識別子又はフレーム識別子と対応づけてRAM13に記憶する。この画素の速度情報は、画素を特定する特定情報とともに、「画素の移動速度」と「画素の移動方向」とを含む。なお、一の画像データ中に複数の特徴部が存在する場合は、すべての特徴部について速度を算出する。   The control device 10 calculates the velocity of the pixel of the characteristic portion obtained from the extracted edge. The control device 10 stores the obtained moving speed and moving direction of the characteristic portion in the RAM 13 in association with the imaging timing identifier or the frame identifier. The pixel speed information includes “pixel moving speed” and “pixel moving direction” together with specifying information for specifying the pixel. Note that if there are a plurality of feature portions in one image data, the speed is calculated for all the feature portions.

そして、制御装置10は、カメラ20により撮像された物体の画像の情報に基づいて、物体の外延に対応するエッジが検出された位置の画素のカウント値をカウントアップし、このカウント値の傾きに基づいて、エッジの移動速度及び移動方向を算出する。   Then, the control device 10 counts up the count value of the pixel at the position where the edge corresponding to the extension of the object is detected based on the information of the image of the object imaged by the camera 20, and sets the inclination of the count value. Based on this, the moving speed and moving direction of the edge are calculated.

さらに、制御装置10は、撮像タイミングが異なる画像データについて、各画像データに含まれるエッジに対応する画素の画素カウンタのカウンタ値を所定の手法で更新する。ここで、画素カウンタとは、画素ごとに設定されたカウンタであり、画素がエッジに対応する場合は画素カウンタのカウンタ値を+1加算し、画素がエッジに対応しない場合は画素カウンタのカウンタ値を0とする(初期化する)カウンタである。このカウンタ値の更新処理を、カメラ20により所定周期で繰り返し撮像されるフレーム毎に行う。この操作を行うと、エッジに対応する時間が長い画素は、対応する画素カウンタのカウンタ値が大きくなり、他方、エッジに対応する時間が短い画素は、対応する画素カウンタのカウンタ値が小さくなる。   Furthermore, the control apparatus 10 updates the counter value of the pixel counter of the pixel corresponding to the edge contained in each image data with respect to image data having different imaging timings by a predetermined method. Here, the pixel counter is a counter set for each pixel. When the pixel corresponds to the edge, the counter value of the pixel counter is incremented by +1. When the pixel does not correspond to the edge, the counter value of the pixel counter is increased. This is a counter that is set to 0 (initialized). This counter value update process is performed for each frame that is repeatedly imaged by the camera 20 in a predetermined cycle. When this operation is performed, the counter value of the corresponding pixel counter increases for a pixel having a long time corresponding to an edge, while the counter value of the corresponding pixel counter decreases for a pixel having a short time corresponding to an edge.

この画素カウンタのカウンタ値の変化は、エッジの移動方向と移動量を表す。制御装置10は、このカウンタ値に基づいて、撮像画像上におけるエッジの移動方向と移動速度とを算出する。画像の座標系は方位を表しているため、エッジ、及びこのエッジに対応する特徴部の移動方向と移動速度を求めることができる。   The change in the counter value of the pixel counter represents the moving direction and moving amount of the edge. Based on the counter value, the control device 10 calculates the moving direction and moving speed of the edge on the captured image. Since the coordinate system of the image represents the azimuth, the moving direction and moving speed of the edge and the feature corresponding to the edge can be obtained.

以下、図4に基づいて、速度情報の算出手法を具体的に説明する。   Hereinafter, the speed information calculation method will be described in detail with reference to FIG.

図4は速度情報の算出処理を説明するための図であり、抽出されたエッジを正規化したエッジ画像を取得し、エッジのカウンタ値(滞留時間)から移動方向と移動速度を算出する手法を説明するための図である。   FIG. 4 is a diagram for explaining speed information calculation processing. A method of acquiring edge images obtained by normalizing extracted edges and calculating a moving direction and a moving speed from an edge counter value (staying time). It is a figure for demonstrating.

制御装置10は、エッジ画像に対して2値化処理を行う。2値化処理とはエッジの検出された位置の画素を1とし、エッジの検出されなかった位置の画素を0とする処理である。図4(a)は抽出された垂直方向のエッジの2値化画像例を示す。   The control device 10 performs binarization processing on the edge image. The binarization process is a process in which a pixel at a position where an edge is detected is set to 1 and a pixel at a position where no edge is detected is set to 0. FIG. 4A shows an example of the binarized image of the extracted vertical edge.

次に、図4(b)に示すように、生成された2値化画像に対して、細線化処理を行う。細線化処理とは、検出されたエッジのエッジ幅を所定画素幅になるまで縮小する処理である。つまり、抽出された各エッジに対して細線化処理を行ってエッジ幅を絞る。本例では、図4(b)に示すように、所定画素幅として1画素になるまでエッジのエッジ幅を細線化する。このようにエッジを所定の画素幅になるまで細線化することによって、エッジの中心となる中心位置を設定する。なお、本例では、1画素に細線化する例を示すが、細線化する画素数は特に限定されない。   Next, as shown in FIG. 4B, thinning processing is performed on the generated binary image. The thinning process is a process of reducing the edge width of the detected edge until a predetermined pixel width is reached. That is, the edge width is narrowed by performing thinning processing on each extracted edge. In this example, as shown in FIG. 4B, the edge width of the edge is thinned until the predetermined pixel width becomes one pixel. In this way, the edge is thinned to a predetermined pixel width, thereby setting the center position as the center of the edge. Note that, in this example, an example in which one pixel is thinned is shown, but the number of pixels to be thinned is not particularly limited.

次に、細線化されたエッジのエッジ幅を膨張させる膨張処理を行う。膨張処理とは、細線化によって設定された中心位置からエッジの移動方向に向かってエッジ幅が一定の幅となるように膨張させるとともに、中心位置からエッジの移動方向と反対方向にもエッジ幅を膨張させる処理である。本例では、細線化されたエッジのエッジ幅が3画素分の幅となるように、エッジを水平方向に膨張させる。この処理により、抽出されたエッジを正規化し、各エッジの幅が均一なエッジ画像を得る。具体的に、図4(c)に示すように、エッジの中心位置x0からエッジの移動方向(x軸の正方向)に1画素膨張させるとともに、エッジの中心位置x0からエッジの移動方向と反対方向(x軸の負方向)に1画素膨張させて、エッジ幅を3画素に膨張させる。   Next, an expansion process is performed to expand the edge width of the thinned edge. The expansion process is performed so that the edge width is constant from the center position set by thinning toward the edge movement direction, and the edge width is also changed from the center position to the direction opposite to the edge movement direction. It is a process of expanding. In this example, the edge is expanded in the horizontal direction so that the edge width of the thinned edge becomes a width corresponding to three pixels. By this process, the extracted edges are normalized, and an edge image having a uniform width is obtained. Specifically, as shown in FIG. 4C, one pixel is expanded from the edge center position x0 in the edge movement direction (the positive direction of the x-axis) and opposite to the edge movement direction from the edge center position x0. The edge width is expanded to 3 pixels by expanding one pixel in the direction (negative direction of the x axis).

このように細線化処理と膨張処理とを行うことによって、抽出されたエッジ画像のエッジ幅を、エッジの移動方向に向かって所定の幅に統一し、規格化する。   By performing the thinning process and the expansion process in this way, the edge width of the extracted edge image is standardized by standardizing to a predetermined width in the edge moving direction.

続いて、速度情報を算出におけるカウントアップ処理について説明する。ここに言うカウントアップ処理とは、エッジが検出された画素の位置に対応するメモリアドレスの値をカウントアップし、エッジが検出されなかった画素の位置に対応するメモリアドレスの値を初期化する処理である。   Subsequently, a count-up process in calculating speed information will be described. The count-up process mentioned here is a process for counting up the value of the memory address corresponding to the position of the pixel where the edge is detected and initializing the value of the memory address corresponding to the position of the pixel where the edge is not detected. It is.

以下、図4(c)〜(f)に基づいて算出部22によるエッジのカウントアップ処理について説明する。説明の便宜のため、ここでは、エッジがx軸の正方向に移動する場合を例にして説明する。エッジがx軸の負方向やy軸方向、あるいは2次元的に移動する場合においても、基本的な処理手法は共通する。   Hereinafter, the edge count-up processing by the calculation unit 22 will be described with reference to FIGS. For convenience of explanation, here, a case where the edge moves in the positive direction of the x-axis will be described as an example. Even when the edge moves in the negative x-axis direction, the y-axis direction, or two-dimensionally, the basic processing method is common.

図4(c)に示すように、エッジはあるフレームにおいて位置x0にエッジの中心位置がある。そして、その中心位置からエッジの移動方向に1画素の位置x0+1に膨張され、同様に、中心位置からエッジの移動方向と反対方向に1画素の位置x0−1に膨張される。   As shown in FIG. 4C, the edge has a center position of the edge at a position x0 in a certain frame. Then, the pixel is expanded from the center position to the position x0 + 1 of one pixel in the edge moving direction, and similarly expanded from the center position to the position x0-1 of one pixel in the direction opposite to the edge moving direction.

このようなエッジが検出された位置、「x0−1」、「x0」、「x0+1」に対応するメモリアドレスのカウント値は、「+1」カウントアップされる。他方、エッジが検出されなかった位置に対応するメモリアドレスのカウント値は、リセットされる。   The count value of the memory address corresponding to the position where such an edge is detected, “x0-1”, “x0”, “x0 + 1” is incremented by “+1”. On the other hand, the count value of the memory address corresponding to the position where the edge is not detected is reset.

例えば、図4(d)に示すように、時刻tにおいて、位置「x0−1」、「x0」、「x0+1」にエッジが検出されている。このため、それぞれの位置に対応するメモリアドレスのカウント値が各「1」カウントアップされる。その結果、位置「x0+1」のカウント値は「1」であり、位置「x0」のカウント値は「3であり」、位置「x0−1」のカウント値は「5」である。   For example, as shown in FIG. 4D, edges are detected at positions “x0-1”, “x0”, and “x0 + 1” at time t. Therefore, the count value of the memory address corresponding to each position is incremented by “1”. As a result, the count value at the position “x0 + 1” is “1”, the count value at the position “x0” is “3”, and the count value at the position “x0-1” is “5”.

次に、図4(e)に示すように、時刻t+1になってもエッジが移動していないので、位置「x0−1」、「x0」、「x0+1」の各位置でエッジが検出される。このため、位置「x0−1」、「x0」、「x0+1」のカウント値をさらに1ずつカウントアップする。その結果、位置「x0+1」のカウント値は2となり、位置「x0」のカウント値は4となり、位置「x0−1」のカウント値は6となる。   Next, as shown in FIG. 4E, since the edge does not move even at time t + 1, the edge is detected at each of the positions “x0-1”, “x0”, and “x0 + 1”. . Therefore, the count values at the positions “x0-1”, “x0”, and “x0 + 1” are further incremented by one. As a result, the count value at the position “x0 + 1” is 2, the count value at the position “x0” is 4, and the count value at the position “x0-1” is 6.

さらに、図4(f)に示すように、時刻t+2では、エッジがx軸の正方向に1画素シフトして位置「x0」、「x0+1」、「x0+2」の位置でエッジが検出される。このため、エッジが検出された位置「x0」、「x0+1」、「x0+2」に対応するメモリアドレスのカウント値がカウントアップされる。他方、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「ゼロ」となる。その結果、図4(f)に示すように位置「x0+2」のカウント値は1となり、位置「x0+1」のカウント値は3となり、位置「x0」のカウント値は5となる。さらに、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「0」となる。   Further, as shown in FIG. 4F, at time t + 2, the edge is shifted by one pixel in the positive direction of the x-axis, and the edge is detected at positions “x0”, “x0 + 1”, and “x0 + 2”. Therefore, the count value of the memory address corresponding to the positions “x0”, “x0 + 1”, and “x0 + 2” where the edge is detected is counted up. On the other hand, the count value at the position “x0-1” where no edge is detected is reset to “zero”. As a result, as shown in FIG. 4F, the count value at the position “x0 + 2” is 1, the count value at the position “x0 + 1” is 3, and the count value at the position “x0” is 5. Further, the count value at the position “x0-1” where no edge is detected is reset to “0”.

制御装置10は、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、エッジの検出されなかった位置に対応するメモリアドレスのカウント値をリセットする処理を繰り返す。 なお、図4に基づく説明においては、カウント値を検出する位置としてエッジの中心位置「x0」と、この中心位置からエッジの移動方向へ1画素の位置「x0+1」と、中心位置からエッジの移動方向と反対方向に1画素の位置「x0−1」の3箇所でカウント値を検出するが、後述するカウント値の傾きが求められれば、カウント値を検出するポイントの配置、数は限定されない。つまり、エッジの移動方向に対して2箇所以上においてカウント値を検出できれば、カウント値の検出箇所はいくつであってもよい。   The control device 10 repeats the process of counting up the count value of the memory address corresponding to the position where the edge is detected and resetting the count value of the memory address corresponding to the position where the edge is not detected. In the description based on FIG. 4, the center position “x0” of the edge as the position for detecting the count value, the position “x0 + 1” of one pixel in the moving direction of the edge from the center position, and the movement of the edge from the center position Although the count value is detected at three positions “x0-1” of one pixel in the direction opposite to the direction, if the slope of the count value to be described later is obtained, the arrangement and number of points for detecting the count value are not limited. That is, as long as the count value can be detected at two or more locations in the edge moving direction, the count value may be detected in any number.

そのカウント値はその位置においてエッジが検出されている時間(フレーム数、滞留時間)と相関する。エッジが移動する速度に比べて、フレームレートが十分に高く設定されていれば、連続するフレーム間において、エッジは同じ位置で複数回検出される。例えば、図4の例では、位置x0において時刻tと時刻t+1の2回エッジが検出されている。したがって、エッジが検出された位置のカウント値をカウントアップしていくと、そのカウント値はその位置においてエッジが検出されている時間(フレーム数)と等しくなる。特にエッジのカウント値のうち最小のカウント値hは、エッジが移動してから何フレームの間、同じ位置にあるかということを表している。   The count value correlates with the time (number of frames, dwell time) during which an edge is detected at that position. If the frame rate is set sufficiently higher than the moving speed of the edge, the edge is detected a plurality of times at the same position between consecutive frames. For example, in the example of FIG. 4, two edges at time t and time t + 1 are detected at the position x0. Therefore, when the count value at the position where the edge is detected is counted up, the count value becomes equal to the time (number of frames) during which the edge is detected at that position. In particular, the smallest count value h of the edge count values represents how many frames the edge has moved from the same position.

次に、本実施形態における、エッジの移動速度、移動方向及び位置の算出手法について説明する。本実施形態では、抽出された特徴部の位置に対応する画素のカウント値を所定周期でカウントアップし、カウント値の傾きに基づいて、特徴部に対応する画素の速度情報を算出する。   Next, an edge moving speed, moving direction, and position calculation method in this embodiment will be described. In this embodiment, the count value of the pixel corresponding to the extracted feature position is counted up at a predetermined period, and the speed information of the pixel corresponding to the feature section is calculated based on the slope of the count value.

例えば、図4(e)の場合では、位置「x0−1」、「x0」、「x0+1」のカウント値がそれぞれ「6」、「4」、「2」である。位置「x0−1」のカウント値「6」から「x0+1」のカウント値「2」を引くと、カウント値の傾きHは、H=(6−2)/2=2と算出できる。   For example, in the case of FIG. 4E, the count values at the positions “x0-1”, “x0”, and “x0 + 1” are “6”, “4”, and “2”, respectively. When the count value “2” of “x0 + 1” is subtracted from the count value “6” of the position “x0-1”, the slope H of the count value can be calculated as H = (6-2) / 2 = 2.

これは、H={(エッジが位置x0−1に移動してから現在までの時間)−(エッジが位置x0+1に移動した後の時間)}/(2画素)を意味する。つまり、傾きHを算出することにより、エッジが位置x0にある1画素を通過するのに要する時間(フレーム数)を算出することになる。   This means H = {(time from the edge moving to the position x0-1 to the present) − (time after the edge moves to the position x0 + 1)} / (2 pixels). That is, by calculating the slope H, the time (number of frames) required for the edge to pass through one pixel at the position x0 is calculated.

したがって、カウント値の傾きHは、エッジが1画素移動するために何フレームを要するかに相当し、このカウント値の傾きHに基づいてエッジの移動速度1/Hを算出する。図4(e)では1画素移動するのに2フレームを要することになるので、エッジの移動速度は1/2(画素/フレーム)と算出する。   Therefore, the slope H of the count value corresponds to how many frames it takes for the edge to move by one pixel, and the edge moving speed 1 / H is calculated based on the slope H of the count value. In FIG. 4E, since 2 frames are required to move 1 pixel, the edge moving speed is calculated as 1/2 (pixel / frame).

続いて、カウント値の大小に基づいて、エッジの移動方向を判断する手法について説明する。エッジの無い位置にエッジが移動し、新たにエッジが検出された位置のカウント値は1となるから、各位置のカウント値の中では最も小さな値となる。したがって、エッジが移動する方向のカウント値は小さく、エッジが移動する方向と反対方向のカウント値は大きくなる。この傾向を利用して、エッジの移動方向を判断することができる。   Next, a method for determining the edge moving direction based on the magnitude of the count value will be described. Since the edge moves to a position where there is no edge and the count value at the position where the edge is newly detected is 1, the count value at each position is the smallest value. Therefore, the count value in the direction in which the edge moves is small, and the count value in the direction opposite to the direction in which the edge moves is large. By using this tendency, the moving direction of the edge can be determined.

現在の位置におけるカウント値の中で最小のカウント値hは、エッジがその位置で検出されている時間、すなわちエッジが移動してから何フレームの間、同じ位置にあるかということを表している。このため、エッジの位置は、エッジの中心位置をx0とすると、エッジの位置=x0+h/H により求めることができる。例えば、図4(f)では、エッジの速度は1/2(画素/フレーム)で、時刻t+2の時点では1フレーム連続して同じ位置でエッジが検出されているので、時刻t+2のエッジの位置は、「1(フレーム)×{1/2(画素/フレーム)}=0.5画素」だけ位置x0から移動していると算出することができる。   The smallest count value h among the count values at the current position represents the time when the edge is detected at the position, that is, how many frames the edge has moved to stay at the same position. . For this reason, the position of the edge can be obtained from the position of the edge = x0 + h / H where the center position of the edge is x0. For example, in FIG. 4F, the edge speed is ½ (pixel / frame), and the edge is detected at the same position continuously for one frame at time t + 2, so the position of the edge at time t + 2 Can be calculated as moving from the position x0 by “1 (frame) × {1/2 (pixel / frame)} = 0.5 pixel”.

以上のことから、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、カウントアップされたカウント値の傾きに基づいてエッジの移動速度及び移動方向を算出することができる。   From the above, it is possible to count up the count value of the memory address corresponding to the position where the edge is detected, and to calculate the moving speed and moving direction of the edge based on the slope of the counted up count value.

なお、本実施形態の速度情報算出部20は、各エッジに対応する画素のx方向(横方向)成分の速度情報を算出する。   Note that the speed information calculation unit 20 of the present embodiment calculates speed information of the x direction (lateral direction) component of the pixel corresponding to each edge.

また、制御装置10は、撮像画像上に存在するエッジの速度情報を所定の階級値に分類し、速度情報の特徴を表現する移動画像を生成する。図5に移動画像の一例を示す。図5に示すように、本実施形態の移動画像では、速度情報が検出されたエッジの画素を丸印で表し、移動速度が速い画素ほど点を大きい丸印で表すことにより、画素の速度情報を表現する。また、移動方向が右、すなわち右方向へ移動する画素を塗りつぶした黒印で表し、移動方向が左、すなわち左方向へ移動する画素を色抜きの白印で表すことにより、画素の移動方向を表現する。このように、移動画像は、移動速度と移動方向を含む速度情報を表現する。   In addition, the control device 10 classifies edge speed information existing on the captured image into a predetermined class value, and generates a moving image that represents the characteristics of the speed information. FIG. 5 shows an example of the moving image. As shown in FIG. 5, in the moving image of the present embodiment, the pixel of the edge where the speed information is detected is indicated by a circle, and the pixel having the higher moving speed is indicated by a larger circle, thereby indicating the speed information of the pixel. Express. In addition, the moving direction of the pixel is represented by a solid black mark that represents a pixel that moves to the right, that is, the right direction, and the moving direction is represented by a white mark that represents a pixel that moves to the left, that is, the left direction. Express. Thus, the moving image represents speed information including the moving speed and the moving direction.

すなわち、図5においては、自車両の走行路右側の外壁よび白線に対応する領域では画像の右側へ向かう速度が検出されており、走行路左側の外壁に対応する領域では画像の左側へ向かう速度が検出される。また、走行路右側から左側へ移動する歩行者は、カメラ20の光軸の右側に衝突の可能性があるとすると、歩行者の胴体付近である中央部分は画像の右側へ向かう速度がされ、脚部は左側へ向かう速度が検出される。   That is, in FIG. 5, the speed toward the right side of the image is detected in the area corresponding to the outer wall and the white line on the right side of the traveling path of the host vehicle, and the speed toward the left side of the image in the area corresponding to the outer wall on the left side of the traveling path. Is detected. Also, if a pedestrian moving from the right side of the road to the left side has a possibility of a collision on the right side of the optical axis of the camera 20, the central part near the pedestrian's torso is moved toward the right side of the image, The leg is detected as moving toward the left side.

次に、移動物体検出システム100の移動物体候補領域抽出機能について説明する。制御装置10は、速度情報が予め設定された所定値未満である特徴点が含まれる領域を、移動物体候補の少なくとも一部を含む移動物体候補領域として抽出する。具体的に、制御装置10は、撮像画像に含まれる立体物(の画像領域)を抽出し、立体物として抽出された画像領域のうち、速度情報が予め設定された所定値未満である特徴点が含まれる領域を、自車両に接近する可能性の高い移動立体物の移動物体候補領域として抽出する。   Next, the moving object candidate area extraction function of the moving object detection system 100 will be described. The control device 10 extracts a region including a feature point whose speed information is less than a predetermined value set in advance as a moving object candidate region including at least a part of the moving object candidate. Specifically, the control device 10 extracts a three-dimensional object (its image area) included in the captured image, and among the image areas extracted as the three-dimensional object, feature points whose speed information is less than a predetermined value set in advance. Is extracted as a moving object candidate region of a moving three-dimensional object that is likely to approach the host vehicle.

制御装置10は、検出対象となる立体物を抽出する。制御装置10は、特徴部の各画素の速度情報に基づいて、速度情報の共通する(速度情報の値の差が所定値未満である、以下同じ)画素が縦方向に連続する領域を抽出する。「縦方向に速度情報が共通する画素が連続する」という特徴は、画像上における立体の特徴である。制御装置10は、立体物が含まれる画像領域を抽出するにあたり、画像中の特徴部において検出された画素のカウント値の傾きに基づいて算出された速度情報を用いる。   The control device 10 extracts a three-dimensional object to be detected. Based on the velocity information of each pixel of the feature unit, the control device 10 extracts a region in which the pixels having the same velocity information (the difference between the values of the velocity information is less than a predetermined value, and the same hereinafter) are continuous in the vertical direction. . The feature that “pixels having common speed information continue in the vertical direction” is a three-dimensional feature on the image. The control device 10 uses speed information calculated based on the inclination of the count value of the pixel detected in the feature portion in the image when extracting the image area including the three-dimensional object.

図6は、速度情報から立体物を抽出し、時間的に前後する立体物を比較して移動物体候補を抽出する処理を説明するための図である。図6(A)は時刻tにおける立体物抽出結果を示し、図6(B)は時刻t+1における立体物抽出結果を示す図である。   FIG. 6 is a diagram for explaining a process of extracting a three-dimensional object from speed information and extracting moving object candidates by comparing three-dimensional objects moving back and forth in time. 6A shows a three-dimensional object extraction result at time t, and FIG. 6B shows a three-dimensional object extraction result at time t + 1.

具体的に、制御装置10は、図6(A)に示す移動画像を縦方向(y軸方向)に探索する。ただし、縦に連続する速度情報を有する画素列の抽出にあたり、画素列の上端画素と下端画素については、この速度情報の共通性判断の処理の対象としない。移動画像を縦方向に探索し、速度情報を持った画素A(画素の符号は図示しない)が見つかった場合、画素Aに縦方向に隣接する画素Bを探索する。画素Bが速度情報を有し、さらに画素Bと縦方向に隣接する画素Cも速度情報を有する場合、画素Bと画素Cの移動方向の差(E3−E2)が閾値Re以内であり、かつ、画素Bと画素Cの移動速度の大きさの差(V3−V2)が閾値Tv以内であれば、共通する画素が縦に連続すると判断する。次に、画素Cに縦方向に隣接する画素Dについても同様に速度情報の有無を判断し、画素Bと画素Dの移動方向(E4−E2が閾値Tv以内か)が閾値Re以内か、移動速度の大きさの差(V4−V2)が閾値Tv以内かを判断する。以後、いずれかの条件を満たさなくなるまで繰り返す。   Specifically, the control device 10 searches the moving image shown in FIG. 6A in the vertical direction (y-axis direction). However, when extracting a pixel row having vertically continuous speed information, the upper end pixel and the lower end pixel of the pixel row are not subjected to the processing for determining the commonality of the speed information. When a moving image is searched in the vertical direction and a pixel A (pixel code not shown) having speed information is found, a pixel B adjacent to the pixel A in the vertical direction is searched. When the pixel B has speed information, and the pixel C adjacent to the pixel B in the vertical direction also has speed information, the difference between the moving directions of the pixel B and the pixel C (E3-E2) is within the threshold value Re, and If the difference (V3−V2) in the moving speed between the pixel B and the pixel C is within the threshold value Tv, it is determined that the common pixels are vertically continuous. Next, the presence / absence of speed information is similarly determined for the pixel D adjacent to the pixel C in the vertical direction, and the movement direction of the pixel B and the pixel D (whether E4-E2 is within the threshold value Tv) is within the threshold value Re, or movement It is determined whether the difference in speed magnitude (V4−V2) is within the threshold value Tv. Thereafter, the process is repeated until one of the conditions is not satisfied.

そして、画素Nで条件を満たさなくなった場合、たとえば、画素Nに移動速度が無かった場合は画素Aから画素N−1までの画素の数をカウントする。また、画素Nに移動速度はあるが、画素(N−1)の移動速度との差(Vn−Vn−1)が閾値Tvを超える場合は、画素Aから画素Nまでの画素の数をカウントする。さらにまた画素Nの速度の方向と画素N−1の移動方向の差が所定値以内である場合は画素Aから画素Nまでを画素の数をカウントする。このように、速度情報が所定の条件を満たす画素の数をカウントする。そのカウント値が閾値TH以上であれば、その画素列を縦方向に速度情報が共通するという特徴を備える立体物の一部の画像領域として抽出する。   When the condition is not satisfied with the pixel N, for example, when the pixel N has no moving speed, the number of pixels from the pixel A to the pixel N-1 is counted. If the pixel N has a moving speed but the difference (Vn−Vn−1) from the moving speed of the pixel (N−1) exceeds the threshold value Tv, the number of pixels from the pixel A to the pixel N is counted. To do. Furthermore, when the difference between the speed direction of the pixel N and the moving direction of the pixel N-1 is within a predetermined value, the number of pixels from the pixel A to the pixel N is counted. Thus, the number of pixels whose speed information satisfies a predetermined condition is counted. If the count value is equal to or greater than the threshold value TH, the pixel row is extracted as a partial image region of a three-dimensional object having a feature that speed information is common in the vertical direction.

この手法により、本実施形態の制御装置10は、図6(A)に示すように、OB1(t)〜OB11(t)の立体物を抽出する。   With this technique, the control device 10 of the present embodiment extracts three-dimensional objects OB1 (t) to OB11 (t) as shown in FIG.

次に、制御装置10は、立体物のうち、自車両に接近する可能性のある移動物体を抽出する。   Next, the control apparatus 10 extracts a moving object that may approach the host vehicle from the three-dimensional object.

制御装置10は、撮像タイミングの異なる図6(A)及び(B)に示す異なるタイミングで得られた、立体物の位置と速度情報を比較する。立体物が自車両に接近する可能性がある場合は、自車両(のカメラ10)と立体物のなす角が経時的にほぼ一定であるため、その速度情報は比較において(自車両に接近しない対象物の速度情報に比べて)小さい値を示す。つまり、図6に示す移動画像において、接近する立体物の移動速度に対応する丸印の大きさが比較的小さい。したがって、速度情報の小さい画素を含む領域に対応する立体物は、自車両に接近する可能性が高い。   The control device 10 compares the position and speed information of the three-dimensional object obtained at different timings shown in FIGS. 6A and 6B with different imaging timings. When there is a possibility that the three-dimensional object approaches the own vehicle, the angle between the own vehicle (the camera 10 thereof) and the three-dimensional object is almost constant over time, and therefore the speed information is compared (the vehicle does not approach the own vehicle). It shows a small value (compared to the speed information of the object). That is, in the moving image shown in FIG. 6, the size of the circle corresponding to the moving speed of the approaching three-dimensional object is relatively small. Therefore, there is a high possibility that a three-dimensional object corresponding to a region including pixels with small speed information will approach the host vehicle.

本実施形態の制御装置10は、異なる時刻で検出された立体物の速度情報と比較し、速度情報が予め設定された所定値A未満である特徴点が含まれる領域を、自車両に接近する可能性がある移動物体候補の少なくとも一部を含む移動物体候補領域として抽出する。自車両に接近する可能性の高い移動物体(立体物)を抽出するための閾値である所定値Aは、予め実験等により任意に設定する。   The control device 10 of the present embodiment compares the speed information of the three-dimensional object detected at different times, and approaches a region including a feature point whose speed information is less than a predetermined value A set in advance to the host vehicle. A moving object candidate area including at least a part of the moving object candidates that can be extracted is extracted. The predetermined value A, which is a threshold value for extracting a moving object (three-dimensional object) that is likely to approach the host vehicle, is arbitrarily set in advance through experiments or the like.

さらに、立体物が自車両に接近する可能性がある場合は、画面の水平位置の変化が小さく、また立体物に対応する画像領域の下端が画像の下方向(yが大きい値となる方向)に移動する。つまり、立体物に対応する画像領域の下端が画像の下方向に移動し、その速度情報の移動量が小さい領域に対応する立体物は、自車両に接近する立体物である可能性が高い。   Furthermore, when there is a possibility that the three-dimensional object approaches the host vehicle, the change in the horizontal position of the screen is small, and the lower end of the image area corresponding to the three-dimensional object is the lower direction of the image (the direction in which y is a larger value). Move to. That is, the lower end of the image area corresponding to the three-dimensional object moves downward in the image, and the three-dimensional object corresponding to the area where the moving amount of the speed information is small is highly likely to be a three-dimensional object approaching the host vehicle.

本実施形態の制御装置10は、速度情報が予め設定された所定値A未満であり、さらに、時系列に連続して検出される特徴点を含む領域の下端に位置する特徴点の移動方向が自車両に接近する方向、すなわち画像の下方向(yが大きい値となる方向)である場合は、その領域を自車両に接近する可能性がある移動物体候補の少なくとも一部を含む移動物体候補領域として抽出する。   In the control device 10 of the present embodiment, the speed information is less than the predetermined value A set in advance, and the moving direction of the feature point located at the lower end of the region including the feature point detected continuously in time series is If it is the direction approaching the host vehicle, that is, the downward direction of the image (the direction in which y is a large value), the moving object candidate including at least a part of the moving object candidate that may approach the host vehicle in that region Extract as a region.

つまり、制御装置10は、異なる時刻で検出された立体物の水平位置の移動量が小さく、下端位置が下方向に移動した立体物を、自車両に接近する可能性のある移動物体であると判断する。   In other words, the control device 10 is a moving object that has a small moving amount of the horizontal position of the three-dimensional object detected at different times and has a possibility of approaching the host vehicle with the three-dimensional object whose lower end position has moved downward. to decide.

そして、制御装置10は、この移動物体に対応する画像領域を、移動物体候補の一部を含む移動物体候補領域として抽出する。   And the control apparatus 10 extracts the image area | region corresponding to this moving object as a moving object candidate area | region including a part of moving object candidate.

図6に示す例において、制御装置10は、時刻t1において抽出された立体物OB1(t)〜OB11(t)と時刻t+1において抽出された立体物OB1(t+1)〜OB9(t+1)の速度情報を比較し、対応関係にある立体物OB8(t)とOB6(t+1)を自車両に接近する可能性がある移動物体候補の少なくとも一部が含まれる移動物体候補領域として抽出する。   In the example illustrated in FIG. 6, the control device 10 includes the speed information of the three-dimensional objects OB1 (t) to OB11 (t) extracted at time t1 and the three-dimensional objects OB1 (t + 1) to OB9 (t + 1) extracted at time t + 1. Are compared, and the three-dimensional objects OB8 (t) and OB6 (t + 1) that are in a correspondence relationship are extracted as moving object candidate regions that include at least a part of moving object candidates that may approach the host vehicle.

次に、移動物体検出システム100の路面境界検出機能について説明する。制御装置10は、移動物体候補領域と路面領域との境界を検出する。   Next, the road surface boundary detection function of the moving object detection system 100 will be described. The control device 10 detects the boundary between the moving object candidate region and the road surface region.

具体的に、制御装置10は、移動物体候補領域における移動物体候補の進行方向側の下端からさらに画像の下方向(yが大きい値となる方向)の速度情報を走査し、速度情報が画像の下方向の隣接画素において検出されない場合の最下端の画素を移動物体候補と路面領域との境界として検出する。この処理により、移動物体の最下端を求めることができる。   Specifically, the control device 10 scans the speed information in the lower direction of the image (the direction in which y becomes a larger value) from the lower end of the moving object candidate in the moving object candidate region in the moving direction side. The lowermost pixel when not detected in the adjacent pixels in the downward direction is detected as a boundary between the moving object candidate and the road surface area. By this process, the lowest end of the moving object can be obtained.

また、走査方向としての「下方向」とは鉛直下向き方向(画像のX座標が同じでY座標が増加する方向)場合のほか、斜め下方向(画像のX座標が異なり、Y座標が増加する方向)を含む(以下、同じ)。本処理において、制御装置10は、移動物体候補の進行方向側の下端からの距離が最も近い路面領域との接点(画像の下方向の隣接画素において速度情報が検出されない画素)を、移動物体の最下端として検出する。   Further, the “downward direction” as the scanning direction is a vertically downward direction (a direction in which the X coordinate of the image is the same and the Y coordinate increases), and an oblique downward direction (the X coordinate of the image is different and the Y coordinate increases). Direction) (hereinafter the same). In this process, the control device 10 determines a contact point (a pixel in which no speed information is detected in the adjacent pixel in the lower direction of the image) with the road surface area having the shortest distance from the lower end on the moving direction side of the moving object candidate. Detect as the bottom end.

また、制御装置10は、速度情報の有無に代えて、速度情報の値に基づいて、最下端を検出する。つまり、制御装置10は、移動物体候補の進行方向側の下端からさらに下方向の速度情報を走査し、移動物体候補の進行方向側の下端に対応する画素の速度情報との差が所定値B未満の速度情報が下方向に検出されない場合の最下端の画素を移動物体候補と路面領域との境界として検出する。この移動物体の最下端を求める処理における所定値Bは、異なる領域が共通の物体に属するものであるか否かを判断する観点から予め設定される。   Moreover, it replaces with the presence or absence of speed information, and the control apparatus 10 detects the lowest end based on the value of speed information. That is, the control apparatus 10 scans further downward speed information from the lower end of the moving object candidate on the traveling direction side, and the difference from the speed information of the pixel corresponding to the lower end of the moving object candidate on the traveling direction side is a predetermined value B. If the lower speed information is not detected in the downward direction, the lowermost pixel is detected as the boundary between the moving object candidate and the road surface area. The predetermined value B in the process of obtaining the lowermost end of the moving object is set in advance from the viewpoint of determining whether different areas belong to a common object.

次に、移動物体検出システム100の第一移動物体領域判定機能について説明する。制御装置10は、先に求めた移動物体候補と路面領域との境界から移動物体候補の進行方向に速度情報の有無を走査し、速度情報が検出されない移動可能領域が存在する場合は、先に求めた移動物体候補領域(図6Bの例ではOB6(t+1))を第一移動物体領域と判定する。   Next, the first moving object region determination function of the moving object detection system 100 will be described. The control device 10 scans the presence / absence of speed information from the boundary between the previously obtained moving object candidate and the road surface area in the traveling direction of the moving object candidate, and if there is a movable area in which no speed information is detected, The obtained moving object candidate area (OB6 (t + 1) in the example of FIG. 6B) is determined as the first moving object area.

つまり、本実施形態の移動物体検出システム100は、移動物体候補の進行方向側に移動可能な移動空間があるか否かを判断し、移動物体候補の進行方向側に移動空間がある場合はその移動物体候補が自車両に接近する可能性が高いことが確認できるため、移動物体候補領域を第一移動物体領域とする。この第一移動物体領域は、本実施形態の移動物体検出システム100が検出する移動物体の対応領域の一部をなす。   That is, the moving object detection system 100 according to the present embodiment determines whether or not there is a moving space that can move on the traveling direction side of the moving object candidate, and if there is a moving space on the traveling direction side of the moving object candidate, Since it can be confirmed that the moving object candidate is likely to approach the host vehicle, the moving object candidate area is set as the first moving object area. This first moving object region forms part of the corresponding region of the moving object detected by the moving object detection system 100 of the present embodiment.

次に、移動物体検出システム100の移動物体先端検出機能について説明する。制御装置10は、移動可能領域と路面領域との境界(コーナー部分)に位置する画素を、移動物体候補の進行方向側の先端として検出する。   Next, the moving object tip detection function of the moving object detection system 100 will be described. The control device 10 detects a pixel located at the boundary (corner portion) between the movable region and the road surface region as the tip of the moving object candidate on the traveling direction side.

また、制御装置10は、この路面領域と移動可能領域との間に特徴点が抽出される場合は、次のようにして先端を検出する。すなわち、制御装置10は、まず、検出された路面領域との境界と移動可能領域との間の領域にある、画像の縦方向に共通する速度情報が連続する立体物領域を抽出する。そして、制御装置10は、この抽出された立体物領域の最下端の画素が路面領域との境界として検出された最下端の画素と所定の位置関係に位置するとともに、立体物領域の最下端の画素の速度情報と路面領域との境界として検出された最下端の画素の速度情報との差が所定値C未満である場合は、立体物領域と移動物体候補と路面領域との境界をグループ化する。さらに、制御装置10は、グループ化された領域の移動物体候補の進行方向側の下端の画素を、移動物体候補の進行方向側の先端として検出する。なお、この移動物体の先端を求める処理における所定値Cは、異なる領域が共通の物体に属するものであるか否かを判断する観点から予め設定される。   Moreover, the control apparatus 10 detects a front-end | tip as follows, when a feature point is extracted between this road surface area | region and a movable area | region. That is, the control device 10 first extracts a three-dimensional object region in which the speed information common to the vertical direction of the image continues in the region between the boundary with the detected road surface region and the movable region. Then, the control device 10 positions the lowermost pixel of the extracted three-dimensional object region in a predetermined positional relationship with the lowermost pixel detected as the boundary with the road surface region, and also sets the lowermost pixel of the three-dimensional object region. When the difference between the velocity information of the pixel and the velocity information of the lowermost pixel detected as the boundary between the road surface area is less than a predetermined value C, the boundary between the three-dimensional object area, the moving object candidate, and the road surface area is grouped. To do. Further, the control device 10 detects the pixel at the lower end of the moving object candidate in the traveling direction of the grouped region as the tip of the moving object candidate on the traveling direction side. Note that the predetermined value C in the process for obtaining the tip of the moving object is set in advance from the viewpoint of determining whether different areas belong to a common object.

具体的に、本実施形態の制御装置10は、路面領域と移動可能領域との間に検出された立体物の画像領域が、先に検出した先端(路面領域との境界として検出された最下端)から所定距離範囲内に位置し、その立体物の画像領域の速度情報と先に検出した先端(路面領域との境界として検出された最下端)の速度情報との差が小さく、所定値C未満である場合は、その立体物は先に検出した先端に連なる移動物体候補の一部分であると判断し、この立体物を含めて、最も進行方向側の下端にある画素を、移動物体の先端として検出する。   Specifically, the control device 10 according to the present embodiment is configured such that the image area of the three-dimensional object detected between the road surface area and the movable area is the tip detected earlier (the lowest end detected as the boundary with the road surface area). ) Within a predetermined distance range, and the difference between the speed information of the image area of the three-dimensional object and the speed information of the tip detected earlier (the lowermost end detected as the boundary with the road surface area) is small, and the predetermined value C If it is less than that, it is determined that the three-dimensional object is a part of the moving object candidate connected to the tip detected earlier, and the pixel at the lower end of the moving direction side including this three-dimensional object is determined as the tip of the moving object. Detect as.

次に、移動物体検出システム100の移動物体後端検出機能について説明する。制御装置10は、進行方向の先端に対応する移動物体の後端を求める。制御装置10は、先に検出された先端から移動物体候補の進行方向と反対方向(反対方向乃至反対方向、進行方向に対して180°±α、以下同じ)に速度情報を走査し、予め求められた所定域値の速度情報が進行方向とは反対方向の隣接画素において検出されない場合の画素を移動物体候補の進行方向側の後端として検出する。   Next, the moving object rear end detection function of the moving object detection system 100 will be described. The control device 10 obtains the rear end of the moving object corresponding to the front end in the traveling direction. The control device 10 scans the velocity information in the direction opposite to the traveling direction of the moving object candidate from the previously detected tip (opposite direction to opposite direction, 180 ° ± α with respect to the traveling direction, hereinafter the same), and obtains in advance. A pixel when the speed information of the predetermined threshold value is not detected in the adjacent pixel in the direction opposite to the traveling direction is detected as the rear end of the moving object candidate in the traveling direction.

また、制御装置10は、検出された先端から移動物体候補の進行方向とは反対方向に速度情報を走査し、予め求められた所定値域の速度情報の画素を先端の画素とグループ化し、このグループ化された領域の移動物体候補の進行方向と反対方向側の下端の画素を、移動物体候補の後端として検出する。なお、特に限定されないが、所定値域は先端と後端とが同一移動物体であるか否かを判断する観点から、予め求められる。本実施形態において、この所定値域は先端の速度情報に基づいて算出される。   Further, the control device 10 scans the velocity information in the direction opposite to the moving direction of the moving object candidate from the detected tip, and groups the pixels of the velocity information in a predetermined range obtained in advance with the tip pixels. The pixel at the lower end on the opposite direction side of the moving object candidate in the converted region is detected as the trailing end of the moving object candidate. Although not particularly limited, the predetermined value range is obtained in advance from the viewpoint of determining whether the front end and the rear end are the same moving object. In the present embodiment, the predetermined value range is calculated based on tip speed information.

つまり、制御装置10は、先端の画素に対して進行方向と反対方向側に位置する画素であって、先端の速度情報に基づいて算出された所定値域の速度情報を有する画素を少なくとも一時的にグループ化し、このグループ化された画素のうち移動物体候補の進行方向と反対方向側の下端の画素を後端とする。   In other words, the control device 10 at least temporarily stores a pixel that is located on the side opposite to the traveling direction with respect to the tip pixel, and that has velocity information in a predetermined range calculated based on the tip velocity information. Grouping is performed, and among the grouped pixels, the lower end pixel on the side opposite to the moving direction of the moving object candidate is set as the rear end.

なお、この処理において、グループ化される画素は、必ずしも隣接していなくてもよい。歩行者の両足のように、別々の立体物として検出され、その間には速度情報が無い部分もあるからである。本実施形態の後端検出処理においては、先端とグループ化が許容される画素間隔(歩行者の両足の開きなどに応じた画素間隔)を予め設定する。制御装置10は、この画素間隔以内であれば、連続していなくても、所定値域の速度情報を後端検出用のグループに属すると判断する。   In this process, the pixels to be grouped do not necessarily have to be adjacent to each other. This is because, like pedestrians' legs, they are detected as separate three-dimensional objects, and there is a portion without speed information between them. In the rear end detection process of the present embodiment, a pixel interval (a pixel interval corresponding to the opening of both feet of the pedestrian) that allows grouping with the front end is set in advance. If it is within this pixel interval, the control device 10 determines that the velocity information in the predetermined value range belongs to the rear end detection group even if it is not continuous.

また、制御装置10は、先端の画素とグループ化する際に用いられる所定値域を、画像に含まれる静止物の推定速度と、第一移動物体領域に属する画素の速度情報の代表値との差の絶対値に基づいて求める。   In addition, the control device 10 determines a predetermined value range used when grouping with the leading pixel as a difference between the estimated speed of the stationary object included in the image and the representative value of the speed information of the pixels belonging to the first moving object area. Obtained based on the absolute value of.

まず、制御装置10は、第一移動物体領域の属する画素の速度情報の代表値として、第一移動物体領域内の速度情報の平均値を求める。また、制御装置10は、第一移動物体領域(移動物体候補領域)における静止物体の推定速度を算出する。そして、制御装置10は、第一移動物体領域の速度情報の平均値と静止物体の推定速度との差の絶対値に基づく値域を、グループ化処理における所定値域として設定する。   First, the control device 10 obtains an average value of the speed information in the first moving object region as a representative value of the speed information of the pixel to which the first moving object region belongs. Further, the control device 10 calculates the estimated speed of the stationary object in the first moving object region (moving object candidate region). And the control apparatus 10 sets the value range based on the absolute value of the difference of the average value of the speed information of a 1st moving object area | region and the estimated speed of a stationary object as a predetermined value range in a grouping process.

ちなみに、静止物体の推定速度は、以下のように計算する。車速V(km/h)と、物体Aの位置a(Z,X(m))が与えられれば、物体Aが存在する位置aにおける静止物体の速度情報S(画素/秒)を式1及び式2から算出することができる。ここで、Fはフレームレート(fps)、θは自車両と物体とのなす角(Rad)PXrは横方向の1画素あたりの角度分解能(Rad)を示す。自車両の速度、フレームレートその他の必要な情報は車両コントローラ200から取得する。車両コントローラ200は、物体検出装置100の要求に応じて、必要な情報を送出する。   Incidentally, the estimated speed of a stationary object is calculated as follows. If the vehicle speed V (km / h) and the position a (Z, X (m)) of the object A are given, the speed information S (pixels / second) of the stationary object at the position a where the object A exists is expressed by Equation 1 and It can be calculated from Equation 2. Here, F is the frame rate (fps), θ is the angle (Rad) between the host vehicle and the object, and PXr is the angular resolution (Rad) per pixel in the horizontal direction. Necessary information such as the speed, frame rate, and the like of the host vehicle is acquired from the vehicle controller 200. The vehicle controller 200 sends necessary information in response to a request from the object detection device 100.

θ=ATAN(X/Z)…式1
S=F*(ATAN(X/(Z+V/(3.6*F))―θ)/PXr)…式2
また、物体Aの位置Z,Xは、後述する式3,4に示すように画像下端でのx,y座標から,カメラパラメータを用いて計算することから、物体下端位置、つまり路面上の速度を計算することとなる。
θ = ATAN (X / Z) ... Equation 1
S = F * (ATAN (X / (Z + V / (3.6 * F)) − θ) / PXr) Equation 2
Further, since the positions Z and X of the object A are calculated using the camera parameters from the x and y coordinates at the lower end of the image as shown in equations 3 and 4 described later, the lower end position of the object, that is, the speed on the road surface. Will be calculated.

ただし、y座標は、移動物体候補領域の下端ではなく、移動物体候補領域の先端(コーナー部)に位置する画素のy座標を用いる。x座標は移動物体候補領域の水平中心座標を用いる。ここで、Ch(m)はカメラ高さ、Tr(Rad)はカメラ俯角、Ihは画像縦サイズ、Iwは画像横サイズ、PYr(Rad)は高さ方向の1画素あたりの角度分解能を示す。   However, as the y coordinate, the y coordinate of the pixel located at the tip (corner portion) of the moving object candidate region is used instead of the lower end of the moving object candidate region. As the x coordinate, the horizontal center coordinate of the moving object candidate region is used. Here, Ch (m) represents the camera height, Tr (Rad) represents the camera depression angle, Ih represents the image vertical size, Iw represents the image horizontal size, and PYr (Rad) represents the angular resolution per pixel in the height direction.

Z=(Ch)/(TAN(Tr+(y-Ih/2)*PYr))…式3
X=x*TAN((Z-Iw/2)* PXr)…式4
さらに、上述した後端の検出処理において、制御装置10は、検出された先端の画素よりも画像上方向の所定高さ未満に位置する画素を、先端の画素とグループ化する。同一移動物体であれば、その後端の画素の位置は、先端の画素の位置よりも画像の上側(yが小さくなる方向)に位置する。また、移動物体の高さは、検出対象の大きさに応じて上限を設定することが可能である。例えば、歩行者の脚部の長さには一般的な人間の脚の長さに応じた上限を設定できる。このため、制御装置10は、検出された先端の画素よりも画像上方向の所定高さ未満に位置する画素のみを後端の候補としてグループ化する。これにより、検出の対象とする移動物体(例えば歩行者の脚部)の後端を高い精度で抽出することができる。
Z = (Ch) / (TAN (Tr + (y−Ih / 2) * PYr))...
X = x * TAN ((Z-Iw / 2) * PXr) ... Formula 4
Further, in the above-described detection processing of the trailing edge, the control device 10 groups the pixels located below the predetermined height in the image upper direction with respect to the detected leading edge pixels with the leading edge pixels. If they are the same moving object, the position of the pixel at the rear end is located above the position of the pixel at the front end (the direction in which y decreases). In addition, the height of the moving object can be set to an upper limit according to the size of the detection target. For example, an upper limit corresponding to the length of a general human leg can be set for the length of the leg of the pedestrian. For this reason, the control device 10 groups only the pixels located below the predetermined height in the image upper direction than the detected leading edge pixel as the trailing edge candidates. Thereby, the rear end of the moving object (for example, a leg part of a pedestrian) to be detected can be extracted with high accuracy.

加えて、この後端の検出処理において、制御装置10は、検出された先端の画素から移動物体候補の進行方向と反対方向の所定距離未満に位置する画素を、先端の画素とグループ化する。移動物体の幅は、検出対処の長さや大きさに応じて上限を設定することが可能である。例えば、歩行者の幅、二輪車の幅、車両の幅には上限を設定できる。このため、制御装置10は、検出された先端の画素から画像横方向の所定距離未満に位置する画素のみを後端の候補としてグループ化する。これにより、検出の対象とする移動物体(例えば歩行者、二輪車、自動車)の後端を高い精度で抽出することができる。   In addition, in this rear end detection process, the control device 10 groups pixels located within a predetermined distance in the direction opposite to the moving direction of the moving object candidate from the detected front end pixels with the front end pixels. The upper limit of the width of the moving object can be set according to the length and size of the detection countermeasure. For example, an upper limit can be set for the width of the pedestrian, the width of the two-wheeled vehicle, and the width of the vehicle. For this reason, the control apparatus 10 groups only pixels located within a predetermined distance in the horizontal direction of the image from the detected leading edge pixel as a trailing edge candidate. Thereby, the rear end of the moving object (for example, a pedestrian, a two-wheeled vehicle, a motor vehicle) to be detected can be extracted with high accuracy.

さらにまた、この後端の検出処理において、制御装置10は、一度、後端を検出した後、この後端から移動物体候補の進行方向と反対方向に速度情報の有無を走査し、速度情報が検出されない移動可能領域が存在する場合は、先に検出した後端を確定する。先端と同様に、後端が移動可能領域と隣接していれば、後端は、移動物体候補に対応する画像領域の外延上に存在することが確認できる。このため、本実施形態では、後端からさらに移動方向の反対方向に速度情報を走査して、後端と移動可能領域とが隣接していれば、先に検出した後端を確定する。   Furthermore, in this rear end detection process, the control device 10 once detects the rear end, and then scans for the presence or absence of speed information from the rear end in the direction opposite to the traveling direction of the moving object candidate. If there is a movable area that is not detected, the rear end detected first is determined. Similarly to the front end, if the rear end is adjacent to the movable region, it can be confirmed that the rear end exists on the extension of the image region corresponding to the moving object candidate. For this reason, in this embodiment, the speed information is further scanned in the direction opposite to the movement direction from the rear end, and if the rear end and the movable region are adjacent to each other, the first detected rear end is determined.

次に、移動物体検出システム100の第二移動物体領域判定機能を説明する。制御装置10は、第一移動物体領域の下端、先端、後端を含む領域を第二移動物体領域として判定する。歩行者を例にすれば、歩行者の脚部を第二移動物体領域として判定する。このように第二移動物体領域を上端位置、右端位置、左端位置の3点により特定することができる。   Next, the second moving object area determination function of the moving object detection system 100 will be described. The control device 10 determines an area including the lower end, the front end, and the rear end of the first moving object area as the second moving object area. Taking a pedestrian as an example, the leg of the pedestrian is determined as the second moving object region. As described above, the second moving object region can be specified by the three points of the upper end position, the right end position, and the left end position.

最後に、移動物体検出システム100の移動物体判定機能について説明する。制御装置10は、第一移動物体領域と第二移動物体領域を含む領域を、移動物体領域として判定する。歩行者を例にすれば、歩行者の胴体部に対応する第一移動物体領域と歩行者の脚部に対応する第二移動物体領域を併せて移動物体の領域と判定する。   Finally, the moving object determination function of the moving object detection system 100 will be described. The control device 10 determines an area including the first moving object area and the second moving object area as the moving object area. Taking a pedestrian as an example, the first moving object region corresponding to the trunk part of the pedestrian and the second moving object region corresponding to the leg part of the pedestrian are combined and determined as a moving object region.

以上のとおり説明する第一移動物体領域の判定処理、第二移動物体領域の判定処理、及び移動物体の領域の判定処理を、図7A〜図7C、図8A〜図8C、図9A〜図9Cに基づいて具体的に説明する。   The first moving object area determination process, the second moving object area determination process, and the moving object area determination process described above will be described with reference to FIGS. 7A to 7C, FIGS. 8A to 8C, and FIGS. 9A to 9C. This will be described in detail.

図7Aは、移動物体が歩行者である場合であって、移動物体候補領域から移動物体の最下端位置を検出し、最下端位置の進行方向側に移動可能な空間が存在するか判定し、存在すれば移動物体の先端位置を検出する処理を説明するための図、図7Bは、移動物体が歩行者である場合であって、検出した先端位置から領域のグループ化を行い、後端位置を検出する処理を説明するための図、移動物体が歩行者である場合であって、後端位置の確定処理を説明するための図である。   FIG. 7A shows a case where the moving object is a pedestrian, detects the lowermost position of the moving object from the moving object candidate area, determines whether there is a movable space on the traveling direction side of the lowermost position, FIG. 7B is a diagram for explaining processing for detecting the tip position of a moving object if present, and FIG. 7B shows a case where the moving object is a pedestrian, and groups the areas based on the detected tip position, and the rear end position. The figure for demonstrating the process which detects this, It is a figure for the case where a moving object is a pedestrian, Comprising: The figure for demonstrating the rear end position determination process.

また、図8A〜Cは、移動物体が二輪車である場合であって、図7A〜Cにそれぞれ対応する図である。同様に、図9A〜Cは、移動物体が自動車である場合であって、図7A〜Cにそれぞれ対応する図である。   8A to 8C illustrate a case where the moving object is a two-wheeled vehicle and corresponds to FIGS. 7A to 7C, respectively. Similarly, FIGS. 9A to 9C are diagrams corresponding to FIGS. 7A to 7C, respectively, when the moving object is an automobile.

まず、図7Aに基づいて、移動物体候補が歩行者である場合を例にして、先端の検出手法の一例を説明する。   First, based on FIG. 7A, an example of a tip detection method will be described using a case where the moving object candidate is a pedestrian as an example.

図7Aに示すように、制御装置10は、移動物体候補の進行方向(図中矢印方向)側の下端(xl、yl)からさらに斜め下向き(画像下方向、x座標値が変化せずy座標値が増加する方向、乃至x座標値が変化しy座標値が増加する方向、以下同じ)に速度情報の有無を走査し、速度情報が画像の斜め下方向の隣接画素において検出されない場合の最下端(xl−1、yl+n)の画素を検出する。この最下端(xl−1、yl+n)は、移動物体候補と路面領域との境界である。   As shown in FIG. 7A, the control device 10 further moves diagonally downward from the lower end (xl, yl) on the traveling direction (arrow direction in the figure) side of the moving object candidate (the image downward direction, the x coordinate value does not change, and the y coordinate Scans for the presence or absence of velocity information in the direction in which the value increases or in the direction in which the x coordinate value changes and the y coordinate value increases (the same applies hereinafter), and the velocity information is not detected in the adjacent pixels in the diagonally downward direction of the image. The pixel at the lower end (xl−1, yl + n) is detected. This lowest end (xl-1, yl + n) is a boundary between the moving object candidate and the road surface area.

本例において、制御装置10は、移動物体の進行方向側に立体物の速度情報が無い領域(移動可能領域)が検出される場合は、自車両と接近する可能性が高いので、移動物体候補領域を、検出するべき移動物体候補(自車両に接近する移動物体候補)であると確定する。他方、移動物体の進行方向側に移動可能領域が検出されない場合には、自車両と接近する可能性が低いので、制御装置10は移動物体候補領域を、検出する必要の無い移動物体候補(自車両に接近しない移動物体候補)であると判断する。   In this example, when a region (movable region) where there is no speed information of the three-dimensional object is detected on the moving direction side of the moving object, the control device 10 has a high possibility of approaching the host vehicle. The region is determined to be a moving object candidate to be detected (moving object candidate approaching the host vehicle). On the other hand, when the movable area is not detected in the traveling direction side of the moving object, the control device 10 has a low possibility of approaching the host vehicle. It is determined that the object is a moving object candidate that does not approach the vehicle.

図7Aに示す例では、制御装置10は、路面領域との境界(xl−1、yl+n)から移動物体候補の進行方向(図中左側方向)に速度情報が検出されない移動可能領域(図中楕円図形で示す)が存在するため、移動物体候補領域OB6(t+1)を第一移動物体領域と判定する。   In the example shown in FIG. 7A, the control device 10 detects a movable area (ellipse in the figure) from which velocity information is not detected in the traveling direction (left side in the figure) of the moving object candidate from the boundary (xl−1, yl + n) with the road surface area. Therefore, the moving object candidate area OB6 (t + 1) is determined as the first moving object area.

さらに、制御装置10は、移動物体候補の最下端(xl−1、yl+n)と移動可能領域との間に存在する立体物を参照し、その立体物の下端位置が移動物体候補の最下端位置より上方の所定範囲内に存在し、移動物体候補の最下端位置を構成する立体物の速度情報との速度差が所定値以内であれば、同一移動物体としてグループ化を行い、グループ化された領域の移動物体候補の進行方向側の下端の画素を、移動物体候補の進行方向側の先端として検出する。   Furthermore, the control device 10 refers to a three-dimensional object existing between the lowest end (xl-1, yl + n) of the moving object candidate and the movable region, and the lower end position of the three-dimensional object is the lowest end position of the moving object candidate. If the speed difference with the speed information of the three-dimensional object that is within the predetermined range above the moving object candidate and constitutes the lowest end position of the moving object candidate is within the predetermined value, the same moving object is grouped and grouped. The pixel at the lower end on the moving direction side of the moving object candidate in the area is detected as the tip on the moving direction side of the moving object candidate.

ただし、図7Aの例では、最下端(xl−1、yl+n)と移動可能領域との間に立体物が存在しないため、先端の位置は変更されず、移動物体候補の最下端(xl−1、yl+n)を先端として検出する。   However, in the example of FIG. 7A, since there is no solid object between the lowermost end (xl−1, yl + n) and the movable region, the position of the tip is not changed, and the lowermost end (xl−1) of the moving object candidate. , Yl + n) as a tip.

また、図8Aに基づいて、移動物体候補が二輪車である場合を例にして、先端の検出手法の一例を説明する。   Further, based on FIG. 8A, an example of the tip detection method will be described by taking as an example the case where the moving object candidate is a two-wheeled vehicle.

図8Aに示す例において、移動物体候補領域はOB7(t+1)である。そして、移動物体候補領域OB7(t+1)の進行方向側の下端は(xl、yl)である。この移動物体候補領域の下端は(xl、yl)からさらに下方向乃至斜め下方向(本例ではx座標値が減少し、y座標値が増加する方向)の速度情報を走査し、速度情報が画像の下方向の隣接画素において検出されない場合の最下端の画素(xl−5、yl+n)を検出する。この最下端の画素(xl−5、yl+n)が移動物体候補と路面領域との境界である。   In the example shown in FIG. 8A, the moving object candidate region is OB7 (t + 1). The lower end of the moving object candidate area OB7 (t + 1) on the traveling direction side is (xl, yl). The lower end of this moving object candidate region scans the speed information from (xl, yl) further downward or diagonally downward (in this example, the direction in which the x coordinate value decreases and the y coordinate value increases). The lowermost pixel (xl-5, yl + n) when not detected in the adjacent pixel in the lower direction of the image is detected. The lowermost pixel (xl-5, yl + n) is the boundary between the moving object candidate and the road surface area.

さらに、図8Aに示す例では、制御装置10は、路面領域との境界(xl−5、yl+n)から移動物体候補の進行方向(図中左側方向)に速度情報が検出されない移動可能領域(図中楕円図形で示す)が存在するため、移動物体候補領域OB7(t+1)を第一移動物体領域と判定する。なお、図8Aの例では、最下端(xl−5、yl+n)と移動可能領域との間に立体物が存在しないため、先端の位置は変更されず、移動物体候補の最下端(xl−5、yl+n)を先端として検出する。   Further, in the example shown in FIG. 8A, the control device 10 has a movable region (FIG. 8) in which speed information is not detected in the traveling direction (left direction in the drawing) of the moving object candidate from the boundary (xl−5, yl + n) with the road surface region. Therefore, the moving object candidate area OB7 (t + 1) is determined as the first moving object area. In the example of FIG. 8A, since there is no solid object between the lowermost end (xl-5, yl + n) and the movable region, the position of the tip is not changed, and the lowermost end (xl-5 of the moving object candidate). , Yl + n) as a tip.

さらに、図9Aに基づいて、移動物体候補が自動車(四輪車)である場合を例にして、先端の検出手法の一例を説明する。   Furthermore, based on FIG. 9A, an example of a tip detection method will be described by taking as an example the case where the moving object candidate is an automobile (four-wheeled vehicle).

図9Aに示す例において、移動物体候補領域はOB8(t+1)である。そして、移動物体候補領域OB8(t+1)の進行方向側の下端は(xl、yl)である。この移動物体候補領域の下端は(xl、yl)からさらに下方向乃至斜め下方向(本例ではx座標値が減少し、y座標値が増加する方向)の速度情報を走査し、速度情報が画像の下方向の隣接画素において検出されない場合の最下端の画素(xl−2、yl+n)を検出する。この最下端の画素(xl−2、yl+n)が移動物体候補と路面領域との境界である。   In the example shown in FIG. 9A, the moving object candidate region is OB8 (t + 1). The lower end of the moving object candidate region OB8 (t + 1) on the traveling direction side is (xl, yl). The lower end of this moving object candidate region scans the speed information from (xl, yl) further downward or diagonally downward (in this example, the direction in which the x coordinate value decreases and the y coordinate value increases). The lowermost pixel (xl−2, yl + n) when not detected in the adjacent pixel in the lower direction of the image is detected. The lowermost pixel (xl-2, yl + n) is the boundary between the moving object candidate and the road surface area.

さらに、図9Aに示す例では、制御装置10は、路面領域との境界(xl−2、yl+n)から移動物体候補の進行方向(図中左側方向)に速度情報が検出されない移動可能領域(図中楕円図形で示す)が存在するため、移動物体候補領域OB8(t+1)を第一移動物体領域と判定する。   Further, in the example shown in FIG. 9A, the control device 10 detects a movable region (FIG. 9) in which speed information is not detected in the traveling direction (left direction in the drawing) of the moving object candidate from the boundary (xl−2, yl + n) with the road surface region. Therefore, the moving object candidate area OB8 (t + 1) is determined as the first moving object area.

また、図9Aの例では、移動物体候補の最下端の画素(xl−2、yl+n)と移動可能領域の間に立体物OB4(t+1)が存在する。この立体物OB4(t+1)の下端位置(xl−4、yl+n-m)は、最下端の画素(xl−2、yl+n)位置よりも上方(yが減少する方向)に位置し、最下端の画素(xl−2、yl+n)から所定距離範囲内に存在する。また、移動物体候補の最下端(xl−2、yl+n)が属する立体物OB6(t+1)との速度差も所定範囲内である。このため、同一物体としてグループ化を行い、立体物OB4(t+1)の進行方向側の下端(xl−4、yl+n-m)を移動物体候補の先端として検出する。   In the example of FIG. 9A, a three-dimensional object OB4 (t + 1) exists between the lowermost pixel (xl−2, yl + n) of the moving object candidate and the movable region. The lower end position (xl-4, yl + n−m) of the three-dimensional object OB4 (t + 1) is located above the lowermost pixel (xl-2, yl + n) position (in the direction in which y decreases), It exists within a predetermined distance range from the pixel (xl−2, yl + n). Further, the speed difference from the three-dimensional object OB6 (t + 1) to which the lowermost end (xl-2, yl + n) of the moving object candidate belongs is also within a predetermined range. For this reason, grouping is performed as the same object, and the lower end (xl−4, yl + n−m) on the traveling direction side of the three-dimensional object OB4 (t + 1) is detected as the tip of the moving object candidate.

ところで、図8A〜Cに示す移動する二輪車、及び図9A〜Cに示す自動車(四輪車)は進行方向に沿う移動物体の長さが長いため、移動物体の長さ方向の位置が異なる各部位において、異なる速度ベクトル(オプティカルフロー)が検出される場合がある。これは、以下の理由による。撮像領域に含まれる自車両の走行道路を移動物体が右から左に横断する場合、移動物体と自車両とが最も接近する最接近位置の速度はゼロである。この最接近位置の左側では左向きの速度が検出され、接近位置の右側では右向きの速度が検出される。このため、移動物体の物体幅(移動方向に沿う長さ)が大きいと、同一物体であるのに、異なる速度ベクトル(オプティカルフロー)の領域が検出され、異なる物体の領域として分割されてしまう場合がある。もっとも、これは画像上の動きであって、自車両(カメラ10)と移動物体の位置関係、自車両の移動速度及び移動方向、移動物体の移動速度及び移動方向の影響を受けるので、必ず生じるというものではないが、このような状況になった場合、同一の移動物体でありながら、別々の物体に分割されてしまうおそれがある。本実施形態の移動物体検出システム100によれば、同一の移動物体でありながら異なる速度ベクトル(オプティカルフロー)の領域が検出される移動物体の領域を高い精度で判定することができる。   By the way, since the moving two-wheeled vehicle shown in FIGS. 8A to 8C and the automobile (four-wheeled vehicle) shown in FIGS. 9A to 9C have a long moving object along the traveling direction, the moving objects have different positions in the length direction. Different velocity vectors (optical flow) may be detected at the site. This is due to the following reason. When the moving object crosses the traveling road of the own vehicle included in the imaging region from right to left, the speed of the closest approach position where the moving object and the own vehicle are closest to each other is zero. A leftward speed is detected on the left side of the closest approach position, and a rightward speed is detected on the right side of the approach position. For this reason, if the object width (length along the moving direction) of the moving object is large, the area of the different velocity vector (optical flow) is detected and divided as the area of the different object even though it is the same object. There is. However, this is a movement on the image, and is always generated because it is affected by the positional relationship between the own vehicle (camera 10) and the moving object, the moving speed and moving direction of the own vehicle, and the moving speed and moving direction of the moving object. However, in such a situation, there is a possibility of being divided into different objects even though they are the same moving object. According to the moving object detection system 100 of the present embodiment, it is possible to determine with high accuracy a region of a moving object in which different velocity vector (optical flow) regions are detected while being the same moving object.

ここで、図7Bに戻り、図7Bに基づいて、移動物体候補が歩行者である場合を例にして、後端の検出手法の一例を説明する。   Here, referring back to FIG. 7B, an example of the detection method of the rear end will be described based on FIG. 7B, taking as an example the case where the moving object candidate is a pedestrian.

図7Bに示すように、先端(xl−1、yl+n)から移動物体候補の進行方向とは反対方向に速度情報を走査し、予め求められた所定値域の速度情報の画素を、先端の画素(xl−1、yl+n)と順次グループ化する。そして、グループ化された領域G7Bの移動物体候補の進行方向と反対方向側の下端の画素(xl−1+m、yl+n)を、移動物体候補の後端として検出する。   As shown in FIG. 7B, the velocity information is scanned in the direction opposite to the moving direction of the moving object candidate from the tip (xl−1, yl + n), and the pixel of the velocity information in the predetermined value range obtained in advance is changed to the tip pixel ( xl-1, yl + n). Then, the pixel (xl−1 + m, yl + n) at the lower end on the side opposite to the traveling direction of the moving object candidate in the grouped region G7B is detected as the trailing end of the moving object candidate.

なお、後端の検出処理において用いられる予め設定された所定値域は、先述したように、画像に含まれる静止物の推定速度と、判定された第一移動物体領域の属する画素の速度情報の代表値との差の絶対値に基づいて求める。図7Bに示す例において、制御装置10は、第一移動物体領域としてのOB6(t+1)領域内の画素の速度情報の平均値を用いて、第一移動物体領域の属する画素の速度情報の代表値を求める。また、制御装置10は、上述した式1〜式4を用いて画像に含まれる静止物の推定速度を算出する。その際、x座標として、OB6(t+1)の水平中心座標xcを用い、y座標として、第一移動物体領域の下端ではなく、さらに下方に走査した体最下端のy位置(yl+n)をy座標として用いて静止物体の推定速度を計算する。   Note that the predetermined range set in advance used in the rear end detection process is, as described above, representative of the estimated speed of the stationary object included in the image and the speed information of the pixel to which the determined first moving object area belongs. Obtained based on the absolute value of the difference from the value. In the example shown in FIG. 7B, the control device 10 uses the average value of the speed information of the pixels in the OB6 (t + 1) area as the first moving object area to represent the speed information of the pixels to which the first moving object area belongs. Find the value. Moreover, the control apparatus 10 calculates the estimated speed of the stationary object contained in an image using Formula 1-Formula 4 mentioned above. At that time, the horizontal center coordinate xc of OB6 (t + 1) is used as the x coordinate, and the y position (y1 + n) at the lowest end of the body scanned further down, not the lower end of the first moving object region, is used as the y coordinate. Is used to calculate the estimated speed of a stationary object.

また、図7Bに示すように、制御装置10は、先端(xl−1、yl+n)の画素から移動物体候補の進行方向と反対方向の所定距離未満(図の物体幅上限未満)に位置する画素のみをグループ化する。所定距離は、予め設定された物体幅の上限とする。本例では、平均的な歩行者の歩幅に基づいて所定距離を決定する。   Further, as illustrated in FIG. 7B, the control device 10 is a pixel located less than a predetermined distance (less than the object width upper limit in the figure) in the direction opposite to the moving object candidate in the traveling direction from the tip (xl−1, yl + n) pixel. Group only. The predetermined distance is an upper limit of a preset object width. In this example, the predetermined distance is determined based on the average pedestrian stride.

このように、本例における後端検出のためのグループ化を行う際に、制御装置10は、速度情報を先端から進行方向と反対方向に走査し、速度情報が移動可能領域と路面領域とが接するコーナー部よりも鉛直上方でコーナー部からの高さ(y方向の高さ)が所定値以下かつ、代表値との速度差が設定したしきい値以下、かつ先端から物体幅が所定値以下の条件を満たす画素をグループ化する。   Thus, when performing grouping for detecting the trailing edge in this example, the control device 10 scans the speed information from the tip in the direction opposite to the traveling direction, and the speed information is divided into a movable area and a road surface area. The height from the corner (the height in the y direction) vertically above the corner that touches is less than a predetermined value, the speed difference from the representative value is less than a set threshold value, and the object width from the tip is less than a predetermined value Pixels that satisfy the condition are grouped.

図7Bに示す例において、制御装置10は、立体物OB5(t+1)及び立体物OB7(t+1)に属する画素をグループ化し、そのグループの進行方向の反対方向の下端(xl−1+m、yl+n)を、移動物体の後端として検出する。   In the example shown in FIG. 7B, the control device 10 groups pixels belonging to the three-dimensional object OB5 (t + 1) and the three-dimensional object OB7 (t + 1), and sets the lower end (xl-1 + m, yl + n) in the direction opposite to the traveling direction of the group. , Detected as the trailing edge of the moving object.

次に、図8Bに基づいて、移動物体候補が二輪車である場合を例にして、後端の検出手法の一例を説明する。   Next, based on FIG. 8B, an example of the detection method of the rear end will be described using a case where the moving object candidate is a two-wheeled vehicle as an example.

図8Bに示すように、先端(xl−5、yl+n)から移動物体候補の進行方向とは反対方向に速度情報を走査し、予め求められた所定値域の速度情報の画素を、先端の画素(xl−5、yl+n)と順次グループ化する。そして、グループ化された領域G8Bの移動物体候補の進行方向と反対方向側の下端の画素(xl−5+m、yl+n)を、移動物体候補の後端として検出する。   As shown in FIG. 8B, the speed information is scanned from the tip (xl-5, yl + n) in the direction opposite to the traveling direction of the moving object candidate, and the pixel of the speed information in the predetermined range obtained in advance is changed to the tip pixel ( xl-5, yl + n). Then, the pixel (xl−5 + m, yl + n) at the lower end on the side opposite to the traveling direction of the moving object candidate in the grouped region G8B is detected as the trailing end of the moving object candidate.

また、図8Bに示すように、制御装置10は、先端(xl−5、yl+n)の画素から移動物体候補の進行方向と反対方向の所定距離未満に位置する画素のみをグループ化する。所定距離は、予め設定された物体幅の上限とする。本例では、平均的な二輪車の長さ(走行方向に沿う幅に基づいて所定距離を決定する。   Further, as illustrated in FIG. 8B, the control device 10 groups only pixels that are located within a predetermined distance in the direction opposite to the moving direction of the moving object candidate from the pixel at the tip (xl−5, yl + n). The predetermined distance is an upper limit of a preset object width. In this example, the predetermined distance is determined based on the length of the average motorcycle (the width along the traveling direction).

本例におけるグループ化の手法は、図7Bにおいて説明した手法を用いる。図8Bに示す例において、制御装置10は、立体物OB4(t+1)、立体物OB5(t+1)及び立体物OB7(t+1)に属する画素をグループ化し、そのグループの進行方向の反対方向の下端(xl−5+m、yl+n)を、移動物体の後端として検出する。   The grouping method in this example uses the method described in FIG. 7B. In the example shown in FIG. 8B, the control device 10 groups pixels belonging to the three-dimensional object OB4 (t + 1), the three-dimensional object OB5 (t + 1), and the three-dimensional object OB7 (t + 1), and the lower end ( xl-5 + m, yl + n) is detected as the rear end of the moving object.

さらに、図9Bに基づいて、移動物体候補が自動車である場合を例にして、後端の検出手法の一例を説明する。   Further, based on FIG. 9B, an example of the rear end detection method will be described using a case where the moving object candidate is an automobile as an example.

図9Bに示すように、先端(xl−4、yl+n−m)から移動物体候補の進行方向とは反対方向に速度情報を走査し、予め求められた所定値域の速度情報の画素を、先端の画素(xl−4、yl+n−m)と順次グループ化する。そして、グループ化された領域G8Bの移動物体候補の進行方向と反対方向側の下端の画素(xl−4+p、yl+n−s)を、移動物体候補の後端として検出する。   As shown in FIG. 9B, the velocity information is scanned from the tip (xl−4, yl + n−m) in the direction opposite to the moving direction of the moving object candidate, and the pixel of the velocity information in the predetermined range obtained in advance is Grouped sequentially with pixels (xl−4, yl + n−m). Then, the lowermost pixel (xl−4 + p, yl + ns) on the opposite side of the moving direction of the moving object candidate in the grouped region G8B is detected as the trailing end of the moving object candidate.

また、図9Bに示すように、制御装置10は、先端(xl−4、yl+n−m)の画素から移動物体候補の進行方向と反対方向の所定距離未満に位置する画素のみをグループ化する。所定距離は、予め設定された物体幅の上限とする。本例では、平均的な二輪車の長さ(走行方向に沿う幅に基づいて所定距離を決定する。   Further, as illustrated in FIG. 9B, the control device 10 groups only pixels that are located within a predetermined distance in the direction opposite to the moving direction of the moving object candidate from the pixel at the tip (xl−4, yl + n−m). The predetermined distance is an upper limit of a preset object width. In this example, the predetermined distance is determined based on the length of the average motorcycle (the width along the traveling direction).

本例におけるグループ化の手法は、図7Bにおいて説明した手法を用いる。図9Bに示す例において、制御装置10は、立体物OB4(t+1)、立体物OB6(t+1)及び立体物OB8(t+1)に属する画素をグループ化し、そのグループの進行方向の反対方向の下端(xl−4+p、yl+n−s)を、移動物体の後端として検出する。   The grouping method in this example uses the method described in FIG. 7B. In the example illustrated in FIG. 9B, the control device 10 groups pixels belonging to the three-dimensional object OB4 (t + 1), the three-dimensional object OB6 (t + 1), and the three-dimensional object OB8 (t + 1), and the lower end ( xl−4 + p, yl + n−s) is detected as the rear end of the moving object.

ここで、図7Cに戻り、図7Cに基づいて、移動物体候補が歩行者である場合を例にして、後端の確定手法の一例を説明する。   Here, referring back to FIG. 7C, an example of a method for determining the rear end will be described based on FIG. 7C, taking as an example the case where the moving object candidate is a pedestrian.

制御装置10は、精度向上の観点から、後端から移動物体候補(歩行者)の進行方向と反対方向に速度情報の有無を走査し、速度情報が検出されない移動可能領域が存在する場合は、先に検出した後端を確定する。   From the viewpoint of improving accuracy, the control device 10 scans for the presence or absence of speed information from the rear end in the direction opposite to the traveling direction of the moving object candidate (pedestrian), and when there is a movable region where the speed information is not detected, The rear end detected first is determined.

先述したように、移動物体の先端側には移動空間が存在するとし、移動可能領域の存在に基づいて移動物体の境界を検出すれば、精度の高い検出が可能になる。他方、後端は背景と重なり部分が多く、精度の高い検出が難しい。しかし、車両が走行するに従い、後端位置も移動し、移動空間が出現する可能性がある。後端側に移動空間が出現するということは、移動物体を回避できる空間が存在することを示す。したがって、後端側に移動空間が存在し、移動可能領域が検出できれば、その外延を移動物体との境界と判断することができるので、後端も高い精度で検出できる。   As described above, it is assumed that there is a moving space on the front end side of the moving object, and if the boundary of the moving object is detected based on the presence of the movable region, detection with high accuracy is possible. On the other hand, the rear end has many overlapping portions with the background, and it is difficult to detect with high accuracy. However, as the vehicle travels, the rear end position also moves and a moving space may appear. The appearance of the moving space on the rear end side indicates that there is a space that can avoid the moving object. Therefore, if there is a moving space on the rear end side and a movable region can be detected, the extension can be determined as a boundary with the moving object, so that the rear end can also be detected with high accuracy.

制御装置10は、後端のさらに進行方向の反対方向側に移動可能領域が検出された場合は、後端から下向き乃至斜め下向き方向に速度情報を走査し、後端の移動速度と速度差が所定範囲内(移動速度が近似する)画素を、移動物体候補の後端として検出する。   When a movable region is detected further on the opposite side of the advancing direction at the rear end, the control device 10 scans the speed information from the rear end in a downward direction or a diagonally downward direction, and the difference between the movement speed and the speed of the rear end is detected. A pixel within a predetermined range (moving speed approximates) is detected as the trailing end of the moving object candidate.

図7Cに示す例では、後端(xr、yr)から、さらに斜め下向きに移動速度が共通する(近似する)画素を走査し、隣接する画素に速度情報が存在しない位置(xr+1、yr+n+p)を探索する。さらに、この位置で進行方向と反対方向に立体物の速度情報が存在しない領域(移動可能領域)が存在すれば、その位置(xr+1、yr+n+p)を最終的に後端として確定する。   In the example shown in FIG. 7C, pixels having a common (approximate) moving speed are scanned further diagonally downward from the rear end (xr, yr), and positions (xr + 1, yr + n + p) where no speed information exists in adjacent pixels are scanned. Explore. Furthermore, if there is a region (movable region) where the velocity information of the three-dimensional object does not exist in the direction opposite to the traveling direction at this position, the position (xr + 1, yr + n + p) is finally determined as the rear end.

制御装置10は、第一移動物体領域の下端、先端、後端を含む領域G7Cを第二移動物体領域として判定する。そして、制御装置10は、第一移動物体領域(OB6(t+1))と第二移動物体領域(G7C)を含む領域を、移動物体領域として判定する。   The control device 10 determines the region G7C including the lower end, the front end, and the rear end of the first moving object region as the second moving object region. Then, the control device 10 determines an area including the first moving object area (OB6 (t + 1)) and the second moving object area (G7C) as the moving object area.

以上の処理によれば、歩行者のように、胴体部分が一定に移動するが脚部は開脚動作により速度が変動する移動物体についても、一の移動物体が分割されることなく、一の移動物体として高い精度で検出することができる。   According to the above processing, as for a pedestrian, a moving body whose torso part moves constantly but whose leg fluctuates due to an opening leg movement is not divided into one moving object. It can be detected as a moving object with high accuracy.

次に、図8Cに基づいて、移動物体候補が二輪車である場合を例にして、後端の確定手法の一例を説明する。   Next, based on FIG. 8C, an example of a method for determining the rear end will be described using a case where the moving object candidate is a two-wheeled vehicle as an example.

本例における後端の確定手法は、図7Cにおいて説明した手法を用いる。   The method described in FIG. 7C is used as the method for determining the rear end in this example.

図8Cに示す例では、後端(xr、yr)から、さらに斜め下向きに移動速度が共通する(近似する)画素を走査し、隣接する画素に速度情報が存在しない位置(xr+2、yr+p)を探索する。さらに、この位置で進行方向と反対方向に立体物の速度情報が存在しない領域(移動可能領域)が存在すれば、その位置(xr+2、yr+p)を最終的に後端として確定する。   In the example shown in FIG. 8C, pixels having a common (approximate) moving speed are scanned further diagonally downward from the rear end (xr, yr), and positions (xr + 2, yr + p) where no speed information exists in adjacent pixels are scanned. Explore. Furthermore, if there is an area (movable area) where the velocity information of the three-dimensional object does not exist in the direction opposite to the traveling direction at this position, the position (xr + 2, yr + p) is finally determined as the rear end.

制御装置10は、第一移動物体領域の下端、先端、後端を含む領域G8Cを第二移動物体領域として判定する。そして、制御装置10は、第一移動物体領域(OB7(t+1))と第二移動物体領域(G8C)を含む領域を、移動物体領域として判定する。   The control device 10 determines the region G8C including the lower end, the front end, and the rear end of the first moving object region as the second moving object region. Then, the control device 10 determines an area including the first moving object area (OB7 (t + 1)) and the second moving object area (G8C) as the moving object area.

以上の処理によれば、二輪車のように、移動方向に沿う幅が大きく、部分によって異なる速度ベクトル(オプティカルフロー)が検出される場合がある移動物体についても、一の移動物体が分割されることなく、一の移動物体として高い精度で検出することができる。   According to the above processing, one moving object is divided even for a moving object that has a large width along the moving direction and may detect a different velocity vector (optical flow) depending on the part, such as a two-wheeled vehicle. And can be detected with high accuracy as one moving object.

さらに、図9Cに基づいて、移動物体候補が自動車である場合を例にして、後端の確定手法の一例を説明する。   Furthermore, based on FIG. 9C, an example of a method for determining the rear end will be described using a case where the moving object candidate is an automobile as an example.

本例における後端の確定手法は、図7Cにおいて説明した手法を用いる。   The method described in FIG. 7C is used as the method for determining the rear end in this example.

図9Cに示す例では、後端(xr、yr)から、さらに斜め下向きに移動速度が共通する(近似する)画素を走査し、隣接する画素に速度情報が存在しない位置(xr+v、yr+u)を探索する。さらに、この位置で進行方向と反対方向に立体物の速度情報が存在しない領域(移動可能領域)が存在すれば、その位置(xr+v、yr+u)を最終的に後端として確定する。   In the example shown in FIG. 9C, pixels having a common (approximate) moving speed are scanned obliquely downward from the rear end (xr, yr), and positions (xr + v, yr + u) where no speed information exists in adjacent pixels are scanned. Explore. Furthermore, if there is a region (movable region) where the velocity information of the three-dimensional object does not exist in the direction opposite to the traveling direction at this position, the position (xr + v, yr + u) is finally determined as the rear end.

制御装置10は、第一移動物体領域の下端、先端、後端を含む領域G9Cを第二移動物体領域として判定する。そして、制御装置10は、第一移動物体領域(OB8(t+1))と第二移動物体領域(G9C)を含む領域を、移動物体領域として判定する。   The control device 10 determines the region G9C including the lower end, the front end, and the rear end of the first moving object region as the second moving object region. Then, the control device 10 determines an area including the first moving object area (OB8 (t + 1)) and the second moving object area (G9C) as the moving object area.

以上の処理によれば、自動車のように、移動方向に沿う幅が大きく、部分によって異なる速度ベクトル(オプティカルフロー)が検出される場合がある移動物体についても、一の移動物体が分割されることなく、一の移動物体として高い精度で検出することができる。   According to the above processing, one moving object is divided even for a moving object that has a large width along the moving direction and may detect a different velocity vector (optical flow) depending on the part, such as an automobile. And can be detected with high accuracy as one moving object.

続いて、図10のフローチャート図に基づいて、本実施形態の移動物体検出システム100の制御手順を説明する。   Subsequently, a control procedure of the moving object detection system 100 of the present embodiment will be described based on the flowchart of FIG.

図10に示す処理は、不図示のイグニションスイッチがオンに呼応して起動する制御装置10により実行される。   The process shown in FIG. 10 is executed by the control device 10 that is activated in response to an ignition switch (not shown) being turned on.

まず、ステップS101において、制御装置10は、カメラ10により、所定の周期で撮像され、画像メモリ21に記憶された自車両前方の画像を取得する。   First, in step S <b> 101, the control device 10 acquires an image ahead of the host vehicle that is captured by the camera 10 at a predetermined cycle and stored in the image memory 21.

次に、ステップS102において、制御装置10は、撮像された画像に対してエッジ抽出処理を行い、撮像画像内に存在する物体の輪郭をエッジ画像として抽出するとともにエッジ画像の正規化を行う。   Next, in step S <b> 102, the control device 10 performs edge extraction processing on the captured image, extracts the outline of the object present in the captured image as an edge image, and normalizes the edge image.

また、ステップS103において、制御装置10は、エッジの速度情報を算出し、算出された移動情報を所定の階調で表された移動画像(図5参照)を作成する。   In step S103, the control device 10 calculates edge speed information, and creates a moving image (see FIG. 5) in which the calculated movement information is represented by a predetermined gradation.

次に、ステップS104において、制御装置10は、算出した移動画像に対して、画像下部から画像上部に順に走査し、速度情報を比較し、画像の縦方向(y方向)に連続して共通乃至近似する速度情報が存在する領域を立体物として抽出する。さらに隣接する立体物で共通乃至近似する速度情報を持つものは同一立体物として抽出する。   Next, in step S104, the control device 10 sequentially scans the calculated moving image from the lower part of the image to the upper part of the image, compares the speed information, and is continuously common in the vertical direction (y direction) of the image. A region in which approximate speed information exists is extracted as a three-dimensional object. Further, adjacent three-dimensional objects having speed information that is common or approximate are extracted as the same three-dimensional object.

続くステップS105において、制御装置10は、時間的に前に検出した立体物の位置情報と速度情報を比較し、速度差と水平位置差が小さく、下端位置が鉛直下方向に移動した立体物を自車両に接近する可能性のある立体物として、その領域を移動物体候補領域として抽出する。   In subsequent step S105, the control device 10 compares the position information and speed information of the three-dimensional object detected before in time, and the three-dimensional object in which the speed difference and the horizontal position difference are small and the lower end position is moved vertically downward. As a three-dimensional object that may approach the host vehicle, the region is extracted as a moving object candidate region.

さらに、ステップS106において、制御装置10は、全ての移動物体候補領域が抽出されたか否かを判断する。全ての移動物体候補領域が抽出された場合には、ステップS107に移行する。全ての移動物体候補領域の抽出されていないと判断された場合には、ステップS104に戻り、立体物の抽出を継続する。   Furthermore, in step S106, the control device 10 determines whether all moving object candidate regions have been extracted. If all moving object candidate regions have been extracted, the process proceeds to step S107. If it is determined that all the moving object candidate areas have not been extracted, the process returns to step S104, and extraction of the three-dimensional object is continued.

続いて、ステップS107において、制御装置10は、抽出された移動物体候補の進行方向側の下端位置から下向き乃至斜め下向きに速度情報の共通性を走査する。制御装置10は、下向き乃至斜め下向きに共通乃至近似する速度情報が存在しない最下端の位置を、画素を移動物体候補と路面領域との境界として検出する。   Subsequently, in step S107, the control device 10 scans the commonality of the speed information downward or obliquely downward from the lower end position on the traveling direction side of the extracted moving object candidate. The control device 10 detects a pixel as a boundary between the moving object candidate and the road surface area, at the position of the lowest end where there is no speed information that is common or approximated downward or obliquely downward.

さらに続いて、ステップS108において、制御装置10は、最下端位置の進行方向側に立体物の速度情報が存在するか否かを判断する。進行方向側に立体物の速度情報が無い移動可能領域が存在すれば、移動物体候補の進行方向側に移動可能な空間が存在すると判断できるので、移動物体候補が移動物体に対応する可能性が高いとして、移動物体候補領域を第一移動物体領域として確定する。他方、移動物体候補の進行方向側に立体物の速度情報が存在すれば、移動可能な空間は存在しないと判断し、移動物体候補から外し、ステップS116に移行する。   Subsequently, in step S108, the control device 10 determines whether or not the speed information of the three-dimensional object exists on the traveling direction side of the lowest end position. If there is a movable area where there is no speed information of the three-dimensional object on the traveling direction side, it can be determined that there is a movable space on the traveling direction side of the moving object candidate, so there is a possibility that the moving object candidate corresponds to the moving object. If it is high, the moving object candidate area is determined as the first moving object area. On the other hand, if the speed information of the three-dimensional object exists on the moving direction side of the moving object candidate, it is determined that there is no movable space, the moving object candidate is excluded, and the process proceeds to step S116.

次に、ステップS109において、制御装置10は、最下端位置と移動空間の間の立体物を探索し、立体物の下端位置の速度情報に基づいて、最下端とのグループ化処理を行う。そして、制御装置10は、グループ化された領域の移動物体候補の進行方向側の下端の画素を、移動物体候補の進行方向側の先端として検出する。   Next, in step S109, the control device 10 searches for a three-dimensional object between the lowest end position and the moving space, and performs a grouping process with the lowest end based on the velocity information of the lower end position of the three-dimensional object. Then, the control device 10 detects the pixel at the lower end on the traveling direction side of the moving object candidate in the grouped area as the tip on the traveling direction side of the moving object candidate.

さらに、ステップS110において、制御装置10は、先端位置から進行方向と反対方向側に速度情報を走査し、移動物体候補領域の代表値との速度差及び物体幅、物体高の条件に基づき、同一物体としてのグループ化処理を行う。   Further, in step S110, the control device 10 scans the speed information from the tip position in the direction opposite to the traveling direction, and the same based on the speed difference from the representative value of the moving object candidate area, the object width, and the object height. A grouping process as an object is performed.

また、ステップS111において、制御装置10は、同一物体としてのグループ化処理が行えたか否かを判断する。グループ化処理が完了したと判断する場合にはステップS112の処理に移行し、グループ化処理が完了していないと判断する場合には、ステップS110の処理に戻り、グループ化処理を継続する。   In step S111, the control device 10 determines whether the grouping process as the same object has been performed. If it is determined that the grouping process has been completed, the process proceeds to step S112. If it is determined that the grouping process has not been completed, the process returns to step S110 to continue the grouping process.

ステップS112では、同一物体としてのグループ化後の進行方向と反対側の端部を移動物体の後端として検出する。   In step S112, the end on the opposite side of the traveling direction after grouping as the same object is detected as the trailing end of the moving object.

また、ステップS113において、制御装置10は、後端が確定可能であるか否かを判断する。確定可能と判断された場合にはステップS114の処理に移行する。確定できない場合は、ステップS116の処理に移行する。   In step S113, the control device 10 determines whether or not the rear end can be determined. If it is determined that it can be confirmed, the process proceeds to step S114. If it cannot be determined, the process proceeds to step S116.

そして、ステップS114において、制御装置10は、検出された後端位置から画像の下向きに速度情報の共通性を走査し、共通乃至近似する速度情報が下方向に隣接する画素に存在しない画素を検出し、この位置において移動物体の進行方向と反対方向側に立体物の速度情報の存在領域(移動可能領域)が存在する場合は、その位置を最終的に移動物体の後端として確定する。   In step S <b> 114, the control device 10 scans the commonness of the speed information downward from the detected rear end position, and detects pixels in which the common or approximate speed information does not exist in the adjacent pixels in the downward direction. If there is an area (movable area) for the speed information of the three-dimensional object at the position opposite to the traveling direction of the moving object, the position is finally determined as the trailing end of the moving object.

最後に、ステップS115において、制御装置10は、第一移動物体領域の下端、先端、後端を含む領域を第二移動物体領域として判定する。さらに制御装置10は、第一移動物体領域と第二移動物体領域を含む領域を、移動物体領域として判定する。   Finally, in step S115, the control device 10 determines an area including the lower end, the front end, and the rear end of the first moving object area as the second moving object area. Furthermore, the control device 10 determines an area including the first moving object area and the second moving object area as the moving object area.

この後に、フローはステップS116に移行する。ステップS116において、制御装置10は、自車両のイグニションスイッチがオフされたか否かを判断し、オフされないと判断した場合には、ステップS1へ戻って処理を繰り返す。これに対して、自車両のイグニションスイッチがオフされたと判断した場合には、処理を終了する。   After this, the flow moves to step S116. In step S116, the control device 10 determines whether or not the ignition switch of the host vehicle is turned off. If it is determined that the ignition switch is not turned off, the control device 10 returns to step S1 and repeats the process. On the other hand, if it is determined that the ignition switch of the host vehicle has been turned off, the process is terminated.

移動物体の検出情報は、警報装置300、走行支援装置400、出力装置500へ送出される。警報装置300は、移動物体の検出情報に基づく警報情報を出力装置500を介して運転者に出力する。走行支援装置400は、移動物体の検出情報に基づく走行支援制御を実行する。   The detection information of the moving object is sent to the alarm device 300, the travel support device 400, and the output device 500. The alarm device 300 outputs alarm information based on the detection information of the moving object to the driver via the output device 500. The driving support device 400 executes driving support control based on the detection information of the moving object.

本実施形態の移動物体検出システム100は、以上のように構成され、作用するので以下の効果を奏する。   The moving object detection system 100 of the present embodiment is configured and operates as described above, and thus provides the following effects.

本実施形態の移動物体検出システム100によれば、各部位の移動速度が異なる移動物体の領域を高い精度で判定することができる。   According to the moving object detection system 100 of the present embodiment, it is possible to determine a region of a moving object with different moving speeds of each part with high accuracy.

すなわち、本実施形態の移動物体検出システム100は、画像から移動物体候補の少なくとも一部を含む移動物体候補領域の進行方向側の下端を検出するとともに、この下端からさらに下方向に速度情報の有無を走査し、速度情報が下方向の隣接画素において検出されない場合の最下端を含む路面領域と移動物体候補の進行方向側の速度情報が検出されない移動可能領域との境界に位置する画素を移動物体候補の進行方向側の先端として検出し、この先端から進行方向反対側に速度情報を走査したときに所定域値の速度情報が検出されない場合の画素を移動物体候補の進行方向側の後端として検出し、この下端、先端及び後端が属する領域と移動物体候補領域とを含む領域を移動物体領域として判定するので、同一の移動物体でありながら移動速度の異なる各部位を含む移動物体の領域を高い精度で判定することができる。   That is, the moving object detection system 100 according to the present embodiment detects the lower end of the moving object candidate area including at least a part of the moving object candidates from the image, and detects the presence or absence of speed information further downward from the lower end. , The pixel located at the boundary between the road surface area including the lowermost edge when the speed information is not detected in the downward adjacent pixel and the movable area where the speed information on the moving direction of the moving object candidate is not detected is the moving object. A pixel that is detected as a tip of the candidate in the direction of travel and when speed information of a predetermined range value is not detected when speed information is scanned from this tip to the opposite side of the direction of travel is defined as the rear end of the moving object candidate in the direction of travel The area including the area to which the lower end, the front end, and the rear end belong and the moving object candidate area is determined as the moving object area. It is possible to determine the area of a moving object including the parts having different speeds with high accuracy.

移動物体が歩行者などの部分ごとに速度が異なる場合に、オプティカルフローを算出すると、歩行者の部位に応じてオプティカルフローの値は異なる。歩行者が歩行する場合には、胴体部分が一定速度で移動しても、脚部は開脚動作により速度が小さい範囲で変動する。このように、検出される速度差が小さい場合に、この速度差に基づいて移動物体をグループ化すると、歩行者全体の存在領域を正しくグループ化できないということがあるが、本実施形態では同一の移動物体でありながら異なる速度で移動する他の一部の先端位置と後端位置を検出できるため、各部位の移動速度が異なる移動物体の領域を高い精度で判定することができる。   When the optical flow is calculated when the moving object has different speeds for each part such as a pedestrian, the value of the optical flow differs depending on the part of the pedestrian. When a pedestrian walks, even if the body part moves at a constant speed, the leg part varies in a range where the speed is small due to the leg opening operation. As described above, when the detected speed difference is small and the moving objects are grouped based on the speed difference, the existence area of the entire pedestrian may not be correctly grouped. Since other tip positions and rear end positions that are moving objects but move at different speeds can be detected, it is possible to determine the areas of moving objects with different moving speeds of the respective parts with high accuracy.

また、進行方向に沿う移動物体の長さが比較的長い二輪車及び自動車(四輪車)は、移動物体の長さ方向の位置が異なる各部位において、異なる速度ベクトル(オプティカルフロー)が検出される場合がある。このように、移動物体の物体幅(移動方向に沿う長さ)が大きいと、同一物体であるのに、異なる速度ベクトル(オプティカルフロー)の領域が検出され、異なる物体の領域として分割されてしまう場合がある。本実施形態の移動物体検出システム100は、下端、先端及び後端を適切に検出し、これらが属する領域と移動物体候補領域とを含む領域を移動物体領域として判定するので、同一の移動物体でありながら異なる速度ベクトル(オプティカルフロー)の領域が検出される移動物体の領域を高い精度で判定することができる。   In addition, for two-wheeled vehicles and automobiles (four-wheeled vehicles) having relatively long moving objects along the traveling direction, different velocity vectors (optical flows) are detected in the respective parts where the positions of the moving objects in the length direction are different. There is a case. As described above, when the object width (length along the moving direction) of the moving object is large, areas of different velocity vectors (optical flow) are detected even though they are the same object, and are divided as areas of different objects. There is a case. The moving object detection system 100 according to the present embodiment appropriately detects the lower end, the front end, and the rear end, and determines the area including the area to which these belong and the moving object candidate area as the moving object area. It is possible to determine with high accuracy the area of the moving object in which areas of different velocity vectors (optical flow) are detected.

また、本実施形態の移動物体検出システム100は、速度情報が予め設定された所定値未満である特徴点が含まれる領域を、移動物体候補の少なくとも一部を含む移動物体候補領域として抽出することにより、立体物の中から自車両に接近する可能性のある移動物体候補を抽出することができる。自車両に接近する可能性のある移動物体は、背景と同じ移動方向を持つものも存在するが、本実施形態では、背景の移動方向の差に基づいて判断するのではないので、背景と区別して自車両に接近する立体物(移動物体)を確実に検出することができる。   Further, the moving object detection system 100 according to the present embodiment extracts an area including a feature point whose speed information is less than a predetermined value set in advance as a moving object candidate area including at least a part of the moving object candidate. Thus, it is possible to extract a moving object candidate that may approach the host vehicle from the three-dimensional object. Some moving objects that may approach the host vehicle have the same moving direction as the background, but in this embodiment, the determination is not based on the difference in the moving direction of the background. Separately, a three-dimensional object (moving object) approaching the host vehicle can be reliably detected.

また、本実施形態の移動物体検出システム100は、路面領域との境界から移動物体候補の進行方向に速度情報の有無を走査し、速度情報が検出されない移動可能領域が存在する場合は、移動物体候補領域を第一移動物体領域と判定するので、速度情報が有る領域から無い領域に切り替わる位置を検出すれば、速度情報の差によるグループ化の手法を用いることなく、正確に移動物体の進行方向側の物体の端部(先端)を検出することができる。   Further, the moving object detection system 100 according to the present embodiment scans for the presence or absence of speed information in the traveling direction of the moving object candidate from the boundary with the road surface area, and when there is a movable area where the speed information is not detected, the moving object Since the candidate area is determined as the first moving object area, if the position where the speed information is switched from the area with the speed information is detected, the traveling direction of the moving object can be accurately determined without using the grouping method based on the speed information difference. The end (tip) of the side object can be detected.

さらにまた、本実施形態の移動物体検出システム100は、第一移動物体領域の下端、先端、後端を含む領域を第二移動物体領域として判定し、第一移動物体領域と第二移動物体領域を含む領域を、移動物体領域として判定するので、各部分で移動速度が異なる移動物体、たとえば、胴体部分が一定に移動するが脚部は開脚動作により速度が変動する歩行者のような移動物体についても、一の移動物体が分割されることなく、一の移動物体として高い精度で検出することができる。   Furthermore, the moving object detection system 100 according to the present embodiment determines a region including the lower end, the front end, and the rear end of the first moving object region as the second moving object region, and the first moving object region and the second moving object region. Is determined as a moving object area, so moving objects with different moving speeds in each part, for example, the body part moves constantly, but the legs move like a pedestrian whose speed changes due to the leg opening action. An object can also be detected as a single moving object with high accuracy without dividing the single moving object.

また、本実施形態の移動物体検出システム100は、移動物体の最下端から進行方向側に速度情報の有無を走査し、立体物の速度情報が存在しなければ、移動空間が存在すると判断し、移動物体候補を第一移動物体候補として確定する。このように、移動空間の検出を行うことにより、自車に接近する可能性の高い移動物体を確実に検出することができる。他方、移動空間が検出されなければ、移動物体は移動が不可能となり、自車に接近する可能性も低くなると判断できる。   Further, the moving object detection system 100 according to the present embodiment scans the moving object from the lowermost end of the moving object for the presence or absence of speed information, and determines that there is a moving space if the speed information of the three-dimensional object does not exist. The moving object candidate is determined as the first moving object candidate. Thus, by detecting the moving space, it is possible to reliably detect a moving object that is likely to approach the host vehicle. On the other hand, if the moving space is not detected, it can be determined that the moving object cannot move and the possibility of approaching the host vehicle becomes low.

本実施形態によれば、移動可能空間の存在に基づいて、自車両に接近する可能性のある移動物体を検出することができる。つまり、移動物体候補の先端から進行方向側の領域に速度情報が存在しない移動可能領域の存在を検出することにより、速度情報の比較によって同一物体をグループ化する処理を行うことなく、移動物体の先端を検出することができるため、移動物体の先端の検出精度を向上させることができる。   According to the present embodiment, it is possible to detect a moving object that may approach the host vehicle based on the presence of the movable space. In other words, by detecting the presence of a movable area in which no speed information exists in the area on the traveling direction side from the tip of the moving object candidate, the process of grouping the same objects by comparing the speed information is performed. Since the tip can be detected, the detection accuracy of the tip of the moving object can be improved.

また、本発明の実施の形態の移動物体システム100によれば、先端の画素とグループ化する際に用いられる所定値域を、画像に含まれる静止物の推定速度と、判定された第一移動物体領域の属する画素の速度情報の代表値との差の絶対値に基づいて求めるので、背景から移動物体を識別して、正確に移動物体の後端を検出することができる。   In addition, according to the moving object system 100 of the embodiment of the present invention, the predetermined range used when grouping with the tip pixel is the estimated speed of the stationary object included in the image, and the determined first moving object Since it is obtained based on the absolute value of the difference from the representative value of the velocity information of the pixel to which the region belongs, it is possible to identify the moving object from the background and accurately detect the rear end of the moving object.

また、本実施形態の移動物体検出システム100は、時系列に連続して検出される特徴点を含む領域の下端に位置する特徴点の移動方向が画像の下方向である場合は、領域を移動物体候補領域として抽出するので、自車両に接近する領域を自車両に接近する可能性がある移動物体候補領域として抽出することができる。   In addition, the moving object detection system 100 according to the present embodiment moves the region when the moving direction of the feature point located at the lower end of the region including the feature point continuously detected in time series is the downward direction of the image. Since the object candidate area is extracted, an area approaching the host vehicle can be extracted as a moving object candidate area that may approach the host vehicle.

また、本実施形態の移動物体検出システム100は、移動物体候補領域における移動物体候補の進行方向側の下端からさらに下方向に、速度情報の値が予め設定された所定値未満である速度情報の有無を走査し、下端に対応する画素の速度情報と所定値未満の速度情報が下方向に検出されない場合の最下端の画素を路面の画像との境界として検出するので、部分ごとに移動速度が異なる物体の下方部分(路面に接する部分)の先端を検出することができる。   In addition, the moving object detection system 100 according to the present embodiment has a speed information value whose speed information value is less than a predetermined value set in a further downward direction from the lower end of the moving object candidate in the moving direction in the moving object candidate area. Scan the presence / absence and detect the velocity information of the pixel corresponding to the lower end and the velocity information below the predetermined value as the boundary with the road image when the lowermost pixel is not detected in the downward direction. The tip of the lower part of the different object (the part in contact with the road surface) can be detected.

また、本実施形態の移動物体検出システム100は、路面境界検出手段により検出された路面領域との境界と第一移動物体領域判定手段により検出された移動可能領域との間の領域に立体物領域を抽出し、その立体物領域の最下端の画素が最下端の画素と所定の位置関係に位置するとともに、最下端の画素の速度情報との差が所定値未満である場合は、路面領域との境界と立体物領域とをグループ化し、グループ化された領域の移動物体候補の進行方向側の下端の画素を移動物体候補の進行方向側の先端として検出するので、上下の部分ごとに移動速度が異なる物体の下方部分(路面に接する部分)の先端を検出することができる。   In addition, the moving object detection system 100 according to the present embodiment includes a three-dimensional object region in a region between the boundary between the road surface region detected by the road surface boundary detection unit and the movable region detected by the first moving object region determination unit. When the lowermost pixel of the three-dimensional object region is positioned in a predetermined positional relationship with the lowermost pixel and the difference between the velocity information of the lowermost pixel is less than a predetermined value, the road surface region The boundary of the object and the three-dimensional object region are grouped, and the lower pixel on the moving direction side of the moving object candidate in the grouped region is detected as the tip on the moving direction side of the moving object candidate. It is possible to detect the tip of the lower part (the part in contact with the road surface) of an object with a different.

特に、移動物体が歩行者で有る場合には、胴体部と脚部で速度情報が異なる。脚部の速度情報は斜めの連続性を持つことから、下向きに速度情報の共通性を走査し、下向きに共通乃至近似する速度情報が存在しない位置を検出することにより、胴体と脚部のように部位毎に異なる速度を持つ歩行者の下端の先端位置を正確に検出することができる。   In particular, when the moving object is a pedestrian, the speed information is different between the trunk and the leg. Since the speed information of the legs has diagonal continuity, the commonality of the speed information is scanned downward, and the positions where there is no speed information that is common or approximate to the downward direction are detected. In addition, it is possible to accurately detect the tip position of the lower end of a pedestrian having a different speed for each part.

また、本実施形態の移動物体検出システム100は、検出された先端から移動物体候補の進行方向とは反対方向に速度情報の有無を走査し、予め設定された所定値域の速度情報の画素を、先端の画素とグループ化し、グループ化された領域の移動物体候補の進行方向と反対方向側の下端の画素を移動物体候補の後端として検出するので、左右端の部分ごとに移動速度が異なる物体の下方部分(路面に接する部分)の先端を検出することができる。   Further, the moving object detection system 100 of the present embodiment scans the detected tip for the presence or absence of speed information in a direction opposite to the traveling direction of the moving object candidate, and sets pixels of speed information in a predetermined range of preset values. Objects that are grouped with the leading edge pixels, and the lower end pixel on the opposite side of the moving direction of the moving object candidate in the grouped area is detected as the trailing end of the moving object candidate. The tip of the lower part (the part in contact with the road surface) can be detected.

また、本実施形態の移動物体検出システム100は、検出された先端の画素よりも画像上方向の所定高さ未満に位置する画素を、先端の画素とグループ化し、グループ化された領域の移動物体候補の進行方向と反対方向側の下端の画素を、移動物体候補の進行方向と反対方向側の後端として検出するので、左右端の部分ごとに移動速度が異なる物体の下方部分(路面に接する部分)の先端を正確に検出することができる。   In addition, the moving object detection system 100 according to the present embodiment groups the pixels located below the predetermined height in the image upper direction with respect to the detected leading end pixel with the leading end pixel, and moves the moving object in the grouped region. Since the pixel at the lower end on the side opposite to the direction of travel of the candidate is detected as the rear end on the side opposite to the direction of travel of the moving object candidate, the lower part of the object whose moving speed is different for each of the left and right end parts The tip of (part) can be detected accurately.

また、本実施形態の移動物体検出システム100は、検出された先端の画素から移動物体候補の進行方向と反対方向の所定距離未満に位置する画素を、先端の画素とグループ化し、グループ化された領域の移動物体候補の進行方向と反対方向側の下端の画素を、移動物体候補の進行方向と反対方向側の後端として検出するので、検出の対象とする移動物体の後端を正確に検出することができる。つまり、検出の対象とする移動物体の幅に基づいて所定距離を設定することにより、検出したい対象の後端を適切に検出することができる。たとえば、歩行者(人間)の歩幅の最大値に応じて、所定距離を設定することにより、歩行者の後端を適切に検出することができる。   In addition, the moving object detection system 100 according to the present embodiment groups pixels that are located within a predetermined distance in the direction opposite to the moving direction of the moving object candidate from the detected front end pixel and grouped with the front end pixel. The lower end pixel on the opposite side of the moving object candidate in the area is detected as the rear end of the moving object candidate in the opposite direction to the moving direction of the moving object candidate. can do. That is, by setting the predetermined distance based on the width of the moving object to be detected, the rear end of the target to be detected can be detected appropriately. For example, the rear end of the pedestrian can be detected appropriately by setting a predetermined distance according to the maximum value of the pedestrian (human) stride.

また、本発明の実施の形態の移動物体検出システム100によれば、後端を検出した後、当該後端から移動物体候補の進行方向と反対方向に速度情報の有無を走査し、速度情報が検出されない移動可能領域が存在する場合は、先に検出された後端を確定するので、後端を正確に検出することができる。   Further, according to the moving object detection system 100 of the embodiment of the present invention, after detecting the rear end, the speed information is scanned from the rear end in the direction opposite to the traveling direction of the moving object candidate. When there is a movable area that is not detected, the rear end detected first is determined, so that the rear end can be accurately detected.

つまり、進行方向の反対側の物体端は背景と重なり合う部分が多く、背景と区別が難しくなるが、片側の物体端が正確に検出できているため、同一物体と判定するためのグループ化のしきい値を厳しくしなくても、物体幅の制限を加えることで、背景とのグルーピングミスを低減することができる。自車と移動物体が移動を続ければ、進行方向を続ければ、背景との重なり合いが解消し、進行方向の反対側にも移動空間が出現する。その場合は、進行方向側の物体端検出方法を適用することで、正確に検出することができる。   In other words, the object edge on the opposite side of the traveling direction has many parts that overlap with the background, making it difficult to distinguish it from the background, but since the object edge on one side can be accurately detected, grouping to determine the same object is performed. Even if the threshold value is not strict, grouping errors with the background can be reduced by limiting the object width. If the vehicle and the moving object continue to move, if the traveling direction is continued, the overlap with the background is eliminated, and a moving space appears on the opposite side of the traveling direction. In that case, it is possible to detect accurately by applying the object end detection method on the traveling direction side.

また、本発明の実施の形態の移動物体検出システム100によれば、抽出された特徴部の位置に対応する画素のカウント値を所定周期でカウントアップし、カウント値の傾きに基づいて、特徴部に対応する画素の速度情報を算出するので、簡易な手法で画素の移動情報を取得することができる。また、このような画像処理により、速度情報の共通する画素が縦方向に連続する立体の特徴点を容易に導出し、撮像画像から立体物領域を簡単に抽出することができる。   Further, according to the moving object detection system 100 of the embodiment of the present invention, the count value of the pixel corresponding to the extracted position of the feature portion is counted up at a predetermined period, and the feature portion is based on the slope of the count value. Since the pixel velocity information corresponding to is calculated, the pixel movement information can be acquired by a simple method. Further, by such image processing, it is possible to easily derive a three-dimensional feature point in which pixels having common speed information are continuous in the vertical direction and easily extract a three-dimensional object region from the captured image.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

すなわち、本明細書では、本発明に係る移動物体検出装置の一態様として移動物体検出システム100を例にして説明するが、本発明はこれに限定されるものではない。   That is, in this specification, the moving object detection system 100 will be described as an example of the moving object detection device according to the present invention, but the present invention is not limited to this.

また、本明細書では、本発明に係る移動物体検出装置の一態様として、CPU11、ROM12、RAM13を含む制御装置10を備えた移動物体検出システム100を一例として説明するが、これに限定されるものではない。   In this specification, as an example of the moving object detection device according to the present invention, the moving object detection system 100 including the control device 10 including the CPU 11, the ROM 12, and the RAM 13 will be described as an example. However, the present invention is not limited thereto. It is not a thing.

また、本明細書では、本願発明に係る撮像手段と、速度情報算出手段と、移動物体候補領域抽出手段と、路面境界検出手段と、第一移動物体領域判定手段と、移動物体先端検出手段と、移動物体後端検出手段と、第二移動物体領域判定手段と、移動物体判定手段とを有する移動物体検出装置の一態様として、カメラ20と、速度情報算出機能と、移動物体候補領域抽出機能と、路面境界検出機能と、第一移動物体領域判定機能と、移動物体先端検出機能と、移動物体後端機能と、第二移動物体領域判定機能と移動物体判定機能とを実現する制御装置10とを備える移動物体検出システム100を例にして説明するが、本発明はこれに限定されるものではない。   Further, in this specification, the imaging means, speed information calculation means, moving object candidate area extraction means, road surface boundary detection means, first moving object area determination means, moving object tip detection means, As one aspect of the moving object detection device having the moving object rear end detection unit, the second moving object region determination unit, and the moving object determination unit, a camera 20, a speed information calculation function, and a moving object candidate region extraction function , A road surface boundary detection function, a first moving object area determination function, a moving object tip detection function, a moving object rear end function, a second moving object area determination function, and a moving object determination function However, the present invention is not limited to this.

100…移動物体検出システム
10…制御装置
11…CPU
12…ROM
13…RAM
20…カメラ
21…画像メモリ
200…車両コントローラ
300…警報装置
400…走行支援装置
500…出力装置
DESCRIPTION OF SYMBOLS 100 ... Moving object detection system 10 ... Control apparatus 11 ... CPU
12 ... ROM
13 ... RAM
DESCRIPTION OF SYMBOLS 20 ... Camera 21 ... Image memory 200 ... Vehicle controller 300 ... Alarm apparatus 400 ... Driving assistance apparatus 500 ... Output device

Claims (11)

車両に搭載され、前記車両の前方の画像を撮像する撮像手段と、
前記撮像手段により撮像された画像から特徴点を抽出し、前記特徴点の移動速度及び/又は移動方向を含む速度情報を算出する速度情報算出手段と、
前記速度情報が予め設定された所定値未満である特徴点が含まれる領域を、移動物体候補の少なくとも一部を含む移動物体候補領域として抽出する移動物体候補領域抽出手段と、
前記移動物体候補領域における前記移動物体候補の進行方向側の下端からさらに下方向の速度情報を走査し、前記速度情報が画像の下方向の隣接画素において検出されない場合の最下端の画素を前記移動物体候補と路面領域との境界として検出する路面境界検出手段と、
前記路面領域との境界から前記移動物体候補の進行方向に前記速度情報の有無を走査し、前記速度情報が検出されない移動可能領域が存在する場合は、前記移動物体候補領域を第一移動物体領域と判定する第一移動物体領域判定手段と、
前記路面領域と前記移動可能領域との境界に位置する画素を前記移動物体候補の進行方向側の先端として検出する移動物体先端検出手段と、
前記先端から前記移動物体候補の進行方向とは反対方向に前記速度情報を走査し、予め求められた所定域値内の速度情報が前記進行方向とは反対方向の隣接画素において検出されない場合の画素を前記移動物体候補の進行方向側の後端として検出する移動物体後端検出手段と、
前記第一移動物体領域の下端、前記先端、前記後端を含む領域を第二移動物体領域として判定する第二移動物体領域判定手段と、
前記第一移動物体領域と前記第二移動物体領域を含む領域を、移動物体領域として判定する移動物体判定手段と、を有する移動物体検出装置。
An imaging means mounted on a vehicle for capturing an image in front of the vehicle;
Speed information calculating means for extracting feature points from the image captured by the imaging means and calculating speed information including the moving speed and / or moving direction of the feature points;
Moving object candidate area extracting means for extracting an area including a feature point whose speed information is less than a preset predetermined value as a moving object candidate area including at least a part of the moving object candidate;
In the moving object candidate area, the speed information in the lower direction is scanned from the lower end on the moving direction side of the moving object candidate, and the lowermost pixel is moved when the speed information is not detected in the adjacent pixels in the lower direction of the image. Road surface boundary detecting means for detecting the boundary between the object candidate and the road surface area;
The presence or absence of the speed information is scanned in the traveling direction of the moving object candidate from the boundary with the road surface area, and when there is a movable area where the speed information is not detected, the moving object candidate area is defined as the first moving object area. First moving object region determination means for determining
Moving object tip detection means for detecting a pixel located at a boundary between the road surface region and the movable region as a tip on the traveling direction side of the moving object candidate;
The pixel when the speed information is scanned from the tip in the direction opposite to the moving direction of the moving object candidate, and the speed information within a predetermined threshold value obtained in advance is not detected in the adjacent pixel in the direction opposite to the moving direction Moving object rear end detection means for detecting the moving object candidate as a rear end on the moving direction side,
Second moving object region determination means for determining a region including the lower end, the front end, and the rear end of the first moving object region as a second moving object region;
A moving object detection apparatus comprising: a moving object determination unit that determines an area including the first moving object area and the second moving object area as a moving object area.
請求項1に記載の移動物体検出装置において、
前記移動物体候補領域抽出手段は、さらに、時系列に連続して検出される特徴点を含む領域の下端に位置する特徴点の移動方向が画像の下方向である場合は、前記領域を前記移動物体候補領域として抽出する移動物体検出装置。
The moving object detection device according to claim 1,
The moving object candidate region extraction means further moves the region when the moving direction of the feature point located at the lower end of the region including the feature point detected continuously in time series is the downward direction of the image. A moving object detection apparatus that extracts an object candidate area.
請求項1又は2に記載の移動物体検出装置において、
前記路面境界検出手段は、前記移動物体候補領域における前記移動物体候補の進行方向側の下端からさらに下方向の速度情報を走査し、前記移動物体候補の進行方向側の下端に対応する画素の速度情報との差が所定値未満の速度情報が下方向に検出されない場合の最下端の画素を前記移動物体候補と路面領域との境界として検出する移動物体検出装置。
In the moving object detection device according to claim 1 or 2,
The road surface boundary detection means scans further downward velocity information from the lower end of the moving object candidate in the moving direction in the moving object candidate region, and the velocity of the pixel corresponding to the lower end of the moving object candidate on the moving direction side A moving object detection apparatus that detects a lowermost pixel as a boundary between a moving object candidate and a road surface area when speed information whose difference from information is less than a predetermined value is not detected in a downward direction.
請求項1〜3の何れか一項に記載の移動物体検出装置において、
前記移動物体先端検出手段は、前記路面境界検出手段により検出された路面領域との境界と前記第一移動物体領域判定手段により検出された移動可能領域との間の領域にある、前記画像の縦方向に共通する速度情報が連続する立体物領域を抽出し、前記立体物領域の最下端の画素が前記路面境界検出手段により検出された最下端の画素と所定の位置関係に位置するとともに、前記立体物領域の最下端の画素の速度情報との差が所定値未満である場合は、前記最下端の画素と前記立体物領域とをグループ化し、前記グループ化された領域の前記移動物体候補の進行方向側の下端の画素を、前記移動物体候補の進行方向側の先端として検出する移動物体検出装置。
In the moving object detection device according to any one of claims 1 to 3,
The moving object front end detection means is a vertical portion of the image located in a region between a boundary between the road surface area detected by the road surface boundary detection means and a movable area detected by the first moving object area determination means. A three-dimensional object region in which velocity information common to the direction is continuous is extracted, and the lowermost pixel of the three-dimensional object region is positioned in a predetermined positional relationship with the lowermost pixel detected by the road surface boundary detection unit; When the difference between the velocity information of the lowermost pixel of the three-dimensional object area is less than a predetermined value, the lowermost pixel and the three-dimensional object area are grouped, and the moving object candidate in the grouped area is grouped. A moving object detection apparatus that detects a pixel at a lower end on a traveling direction side as a tip on a traveling direction side of the moving object candidate.
請求項1〜4の何れか一項に記載の移動物体検出装置において、
前記移動物体後端検出手段は、前記検出された先端から前記移動物体候補の進行方向とは反対方向の速度情報を走査し、前記先端の速度情報に対する所定域値内の速度情報の画素を前記先端の画素とグループ化し、前記グループ化された領域の前記移動物体候補の進行方向と反対方向側の下端の画素を、前記移動物体候補の後端として検出する移動物体検出装置。
In the moving object detection device according to any one of claims 1 to 4,
The moving object rear end detection means scans speed information in a direction opposite to the moving direction of the moving object candidate from the detected front end, and sets pixels of speed information within a predetermined range value with respect to the speed information of the front end. A moving object detection apparatus that groups with a front end pixel and detects a lower end pixel of the grouped region on a side opposite to a moving direction of the moving object candidate as a rear end of the moving object candidate.
請求項5に記載の移動物体検出装置において、
前記移動物体後端検出手段は、さらに、前記検出された先端の画素よりも画像上方向の所定高さ未満に位置する画素を前記先端の画素とグループ化する移動物体検出装置。
The moving object detection device according to claim 5,
The moving object rear end detection unit further groups a pixel located below a predetermined height in the image upper direction with respect to the detected front end pixel with the front end pixel.
請求項6に記載の移動物体検出装置において、
前記移動物体後端検出手段は、さらに、前記検出された先端の画素から前記移動物体候補の進行方向と反対方向の所定距離未満に位置する画素を前記先端の画素とグループ化する移動物体検出装置。
The moving object detection device according to claim 6,
The moving object rear end detection means further groups a pixel located within a predetermined distance in a direction opposite to the traveling direction of the moving object candidate from the detected front end pixel with the front end pixel. .
請求項1〜7の何れか一項に記載の移動物体検出装置において、
前記移動物体後端検出手段は、前記先端の画素とグループ化する際に用いる所定値域を、前記画像に含まれる静止物の推定速度と、前記判定された第一移動物体領域に属する画素の速度情報の代表値との差の絶対値に基づいて求める移動物体検出装置。
In the moving object detection device according to any one of claims 1 to 7,
The moving object trailing edge detecting means uses a predetermined range used when grouping with the leading pixel, an estimated speed of a stationary object included in the image, and a speed of a pixel belonging to the determined first moving object area. A moving object detection device obtained based on an absolute value of a difference from a representative value of information.
請求項1〜8の何れか一項に記載の移動物体検出装置において、
前記移動物体後端検出手段は、前記後端を検出した後、当該後端から前記移動物体候補の進行方向と反対方向に前記速度情報の有無を走査し、前記速度情報が検出されない移動可能領域が存在する場合は、先に検出した後端を確定する移動物体検出装置。
In the moving object detection device according to any one of claims 1 to 8,
The moving object rear end detection means detects the rear end, and then scans for the presence or absence of the speed information in a direction opposite to the moving direction of the moving object candidate from the rear end, and the movable area where the speed information is not detected. A moving object detection device that determines the rear end detected first.
前記請求項1〜9の何れかに記載の移動物体検出装置において、
前記速度情報算出手段は、前記抽出された特徴部の位置に対応する画素のカウント値を所定周期でカウントアップし、前記カウント値の傾きに基づいて、前記特徴部に対応する画素の速度情報を算出する移動物体検出装置。
In the moving object detection device according to any one of claims 1 to 9,
The speed information calculation means counts up the count value of the pixel corresponding to the extracted feature position at a predetermined period, and calculates the speed information of the pixel corresponding to the feature section based on the slope of the count value. A moving object detection device to calculate.
車両前方の撮像画像から抽出された特徴点の移動速度及び/又は移動方向を含む速度情報が予め設定された所定値未満である領域を、移動物体候補の少なくとも一部を含む移動物体候補領域として抽出し、
前記移動物体候補領域における前記移動物体候補の進行方向側の下端からさらに下方向の前記速度情報を走査し、前記速度情報が下方向の隣接画素において検出されない場合の最下端の画素を前記移動物体候補と路面領域との境界として検出し、
前記路面領域との境界から前記移動物体候補の進行方向に前記速度情報が検出されない移動可能領域と前記路面領域との境界に位置する画素を前記移動物体候補の進行方向側における先端として検出し、
前記先端から前記移動物体候補の進行方向とは反対方向に前記速度情報を走査し、予め求められた所定域値の速度情報が検出されない場合の画素を前記移動物体候補の進行方向側の後端として検出し、
前記第一移動物体領域と、前記第一移動物体領域の下端、前記先端、前記後端を含む領域を第二移動物体領域が同一物体に対応する領域であると判定する移動物体検出方法。
An area where speed information including the moving speed and / or moving direction of the feature point extracted from the captured image in front of the vehicle is less than a predetermined value is set as a moving object candidate area including at least a part of the moving object candidates. Extract and
In the moving object candidate area, the speed information in the lower direction is scanned from the lower end on the moving direction side of the moving object candidate, and the lowermost pixel is detected when the speed information is not detected in the adjacent pixels in the lower direction. Detect as the boundary between the candidate and the road surface area,
Detecting a pixel located at the boundary between the movable area where the speed information is not detected in the traveling direction of the moving object candidate from the boundary with the road surface area and the road surface area as a tip on the traveling direction side of the moving object candidate;
The speed information is scanned in the direction opposite to the moving direction of the moving object candidate from the front end, and the pixel in the case where speed information of a predetermined predetermined value is not detected is determined as the rear end of the moving object candidate in the moving direction. Detect as
A moving object detection method for determining that the first moving object area and an area including a lower end, a front end, and a rear end of the first moving object area are areas corresponding to the same object.
JP2009057735A 2009-03-11 2009-03-11 Moving object detection apparatus and moving object detection method Expired - Fee Related JP5141603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009057735A JP5141603B2 (en) 2009-03-11 2009-03-11 Moving object detection apparatus and moving object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009057735A JP5141603B2 (en) 2009-03-11 2009-03-11 Moving object detection apparatus and moving object detection method

Publications (2)

Publication Number Publication Date
JP2010211578A JP2010211578A (en) 2010-09-24
JP5141603B2 true JP5141603B2 (en) 2013-02-13

Family

ID=42971651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009057735A Expired - Fee Related JP5141603B2 (en) 2009-03-11 2009-03-11 Moving object detection apparatus and moving object detection method

Country Status (1)

Country Link
JP (1) JP5141603B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5935435B2 (en) * 2012-03-26 2016-06-15 富士通株式会社 Image processing apparatus and image processing method
JP5904925B2 (en) * 2012-10-25 2016-04-20 本田技研工業株式会社 Vehicle periphery monitoring device
JP6844235B2 (en) 2016-12-08 2021-03-17 富士通株式会社 Distance measuring device and distance measuring method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268097A (en) * 2005-03-22 2006-10-05 Nissan Motor Co Ltd On-vehicle object detecting device, and object detecting method
JP2007249257A (en) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd Apparatus and method for detecting movable element

Also Published As

Publication number Publication date
JP2010211578A (en) 2010-09-24

Similar Documents

Publication Publication Date Title
JP5145986B2 (en) Object detection apparatus and distance measuring method
JP4203512B2 (en) Vehicle periphery monitoring device
US9836657B2 (en) System and method for periodic lane marker identification and tracking
JP4811201B2 (en) Runway boundary line detection apparatus and runway boundary line detection method
JP4985306B2 (en) Obstacle determination device and method, and vehicle equipped with an obstacle determination device
JP2009288867A (en) Lane marking detection device and lane marking detection method
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
WO2010113239A1 (en) Image integration unit and image integration method
JP2006338272A (en) Vehicle behavior detector and vehicle behavior detection method
JP3562751B2 (en) Forward vehicle detection method and device
EP2936386B1 (en) Method for detecting a target object based on a camera image by clustering from multiple adjacent image cells, camera device and motor vehicle
JP2007249257A (en) Apparatus and method for detecting movable element
JP5369921B2 (en) Object detection apparatus and object detection method
JP6069938B2 (en) Pop-up detection device
JP5141603B2 (en) Moving object detection apparatus and moving object detection method
JP2010020476A (en) Object detection device and object detection method
JP2006047091A (en) Moving object detector
JP4321410B2 (en) Object detection apparatus and method
JP4645292B2 (en) On-vehicle object detection device and object detection method
JP5900021B2 (en) Pop-up detection device
JP5141275B2 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING METHOD
JP5464073B2 (en) Outside environment recognition device, outside environment recognition method
JP2004362334A (en) Device for detecting area of traveling object
JP2006314060A (en) Image processing apparatus and noise detecting method
KR20140076043A (en) Device and method for detecting pedestrian candidate

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121023

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121105

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151130

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5141603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees