JP2016081108A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2016081108A
JP2016081108A JP2014208820A JP2014208820A JP2016081108A JP 2016081108 A JP2016081108 A JP 2016081108A JP 2014208820 A JP2014208820 A JP 2014208820A JP 2014208820 A JP2014208820 A JP 2014208820A JP 2016081108 A JP2016081108 A JP 2016081108A
Authority
JP
Japan
Prior art keywords
image
optical flow
depth distance
object detection
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014208820A
Other languages
Japanese (ja)
Other versions
JP6466679B2 (en
Inventor
宏晃 伊藤
Hiroaki Ito
宏晃 伊藤
裕丈 石神
Hirotake Ishigami
裕丈 石神
白井 孝昌
Takamasa Shirai
孝昌 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2014208820A priority Critical patent/JP6466679B2/en
Publication of JP2016081108A publication Critical patent/JP2016081108A/en
Application granted granted Critical
Publication of JP6466679B2 publication Critical patent/JP6466679B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an object detection device capable of reducing a load of image processing while suppressing a deterioration in object detection accuracy in object detection using an image.SOLUTION: An object detection device 1 for using an image picked up by a camera 2 mounted on a vehicle to detect an object around the vehicle acquires depth distance information in each pixel region constituting an image (S12), groups a plurality of pixel regions by associating the plurality of pixel regions on the basis of the depth distance information (S14), acquires optical flow 85 of an object to be picked up on the image in each pixel region to the image (S18), associates the optical flow 85 (S20) while the nearer the depth distance of a group of pixel regions is to the grouped image regions, the less the number of associations of the optical flow 85 is reduced, and detects a moving state of an object around the vehicle by using the associated optical flow 85 (S22).SELECTED DRAWING: Figure 7

Description

本発明は、物体検出装置に関する。   The present invention relates to an object detection device.

従来、物体検出に関し、米国特許第8548229号明細書に記載されるように、撮像した画像をステレオ画像処理することにより視差画像を生成し、その視差画像に基づいて深度マップを生成する技術が知られている。この物体検出技術は、深度マップにおいて距離の近い画素を複数のセグメントにグループ化し、各セグメントについてオプティカルフローなどにより移動情報を取得し、そのようなセグメントの情報に基づいて車両周囲の物体を検出し、その物体が衝突するまでの時間を推定しようとするものである。   Conventionally, with respect to object detection, as described in US Pat. No. 8,548,229, a technique for generating a parallax image by performing stereo image processing on a captured image and generating a depth map based on the parallax image is known. It has been. This object detection technology groups pixels close to each other in a depth map into multiple segments, acquires movement information for each segment by optical flow, etc., and detects objects around the vehicle based on such segment information. The time until the object collides is to be estimated.

米国特許第8548229号明細書U.S. Pat. No. 8,548,229

上述した物体検出技術においては、距離情報に基づいてグループ化されたセグメントに対し移動情報を対応付ける処理について詳細な手法が記載されていないが、この対応付ける処理として、セグメントを構成する各画素についてそれぞれ移動情報を対応付けることが考えられる。   In the object detection technique described above, a detailed method for associating movement information with segments grouped based on distance information is not described. However, as this association process, each pixel constituting the segment is moved. It is possible to associate information.

そのように対応付け処理を行う場合、画素ごとに移動情報を対応付けようとすると、その対応付け処理の負荷が大きくなる。これに対し、複数の画素に対し一つの移動情報を間引いて対応付けることも考えられるが、画像全体に対する移動情報が減少するため、物体検出精度が低下することが懸念される。   When performing the association process in this way, if the movement information is associated with each pixel, the load of the association process increases. On the other hand, it is conceivable that one piece of movement information is thinned out and associated with a plurality of pixels, but there is a concern that the object detection accuracy is lowered because movement information for the entire image is reduced.

そこで、本技術分野において、物体検出精度の低下を抑制しつつ物体検出処理の負荷を低減できるような物体検出装置の開発が望まれている。   Therefore, in this technical field, it is desired to develop an object detection apparatus that can reduce the load of object detection processing while suppressing a decrease in object detection accuracy.

すなわち、本発明の一側面における物体検出装置は、車両に搭載されたカメラにより撮像された画像を用いて前記車両の周囲の物体を検出する物体検出装置において、前記画像を構成する画素領域ごとに、前記画像における奥行距離を含む奥行距離情報を取得する距離情報取得部と、前記奥行距離情報に基づいて複数の前記画素領域をグループ化するグループ化処理部と、前記画像に対し前記画素領域ごとに、前記画像上における被撮像体の移動方向および移動量の情報を含むオプティカルフローを取得する移動情報取得部と、前記グループ化処理部にてグループ化された前記画素領域に対し前記移動情報取得部にて取得された前記オプティカルフローを対応付ける対応付け部と、前記対応付け部により対応付けられた前記オプティカルフローを用いて前記車両の周囲の物体の移動状態を検出する物体検出部と、を備え、前記対応付け部は、前記奥行距離が近い前記画素領域のグループほど前記画像の単位面積当たりの前記オプティカルフローの対応付けの数を少なくして、前記オプティカルフローの対応付けを行うように構成される。   That is, the object detection device according to one aspect of the present invention is an object detection device that detects an object around the vehicle using an image captured by a camera mounted on the vehicle, and for each pixel region constituting the image. A distance information acquisition unit that acquires depth distance information including a depth distance in the image, a grouping processing unit that groups the pixel regions based on the depth distance information, and for each pixel region with respect to the image In addition, a movement information acquisition unit for acquiring an optical flow including information on the movement direction and movement amount of the imaging target on the image, and the movement information acquisition for the pixel areas grouped by the grouping processing unit An association unit that associates the optical flow acquired by the association unit, and the optical flow associated by the association unit An object detecting unit that detects a moving state of an object around the vehicle using the optical flow, and the associating unit includes the optical flow per unit area of the image as the group of the pixel regions having a shorter depth distance. The number of associations is reduced, and the optical flow is associated.

このような装置によれば、奥行距離が近い画素領域のグループほど画像の単位面積当たりのオプティカルフローの対応付け数を少なくしてオプティカルフローの対応付けが行われる。これにより、奥行距離の近い画素領域のグループほど画像処理の負荷が低減される。このとき、奥行距離の近い画素領域のグループは物体が画像上で大きく表示されるため、オプティカルフローの対応付け数を少なくしても物体の検出精度が大きく低下することはない。従って、奥行距離が近い画素領域のグループにおける物体検出精度の低下を抑制しつつ物体検出処理の負荷を低減させることが可能となる。   According to such an apparatus, optical flow association is performed by reducing the number of optical flow associations per unit area of an image for a group of pixel regions having a shorter depth distance. Thereby, the load of image processing is reduced as the group of pixel regions has a shorter depth distance. At this time, since the group of pixel areas with a close depth distance is displayed with a large object on the image, the detection accuracy of the object is not greatly reduced even if the number of optical flow associations is reduced. Accordingly, it is possible to reduce the load of the object detection process while suppressing a decrease in the object detection accuracy in the group of pixel regions having a short depth distance.

また、この物体検出装置において、対応付け部は、実空間において予め設定された間隔でオプティカルフローが対応付けられるように、画素領域に対しオプティカルフローを対応付けてもよい。この場合、実空間において予め設定された間隔でオプティカルフローが対応付けられるように画像上でオプティカルフローの対応付けを行うことにより、撮像される物体の奥行距離が近くなるほどその物体に対するオプティカルフローの対応付け数が少なくなる。これにより、奥行距離が近い物体の検出精度の低下を抑制しつつ物体検出処理の負荷を低減させることが可能となる。   In this object detection device, the associating unit may associate the optical flow with the pixel region so that the optical flows are associated with each other at a predetermined interval in the real space. In this case, by associating the optical flow on the image so that the optical flows are associated with each other at a preset interval in the real space, the optical flow corresponding to the object becomes closer as the depth distance of the imaged object becomes closer. The number of attachments is reduced. As a result, it is possible to reduce the load of the object detection process while suppressing a decrease in detection accuracy of an object with a short depth distance.

本発明によれば、画像を用いた物体検出において、物体検出精度の低下を抑制しつつ物体検出処理の負荷を低減できる。   ADVANTAGE OF THE INVENTION According to this invention, in the object detection using an image, the load of an object detection process can be reduced, suppressing the fall of object detection accuracy.

本発明の一実施形態に係る物体検出装置の構成概要を示すブロック図である。It is a block diagram which shows the structure outline | summary of the object detection apparatus which concerns on one Embodiment of this invention. 図1の物体検出装置の物体検出に用いられる画像の説明図である。It is explanatory drawing of the image used for the object detection of the object detection apparatus of FIG. 図1の物体検出装置におけるグループ化処理についての説明図である。It is explanatory drawing about the grouping process in the object detection apparatus of FIG. 図1の物体検出装置におけるオプティカルフローの取得についての説明図である。It is explanatory drawing about acquisition of the optical flow in the object detection apparatus of FIG. 図1の物体検出装置におけるオプティカルフローの対応付けに関する説明図である。It is explanatory drawing regarding the matching of the optical flow in the object detection apparatus of FIG. 図1の物体検出装置におけるオプティカルフローの対応付けに関する説明図である。It is explanatory drawing regarding the matching of the optical flow in the object detection apparatus of FIG. 図1の物体検出装置における物体検出処理のフローチャートである。It is a flowchart of the object detection process in the object detection apparatus of FIG.

以下、図面を参照して、本発明の実施形態について説明する。なお、以下の説明において、同一要素には同一符号を付し、重複する説明を省略する。   Embodiments of the present invention will be described below with reference to the drawings. In the following description, the same elements are denoted by the same reference numerals, and redundant description is omitted.

図1は、本発明の一実施形態に係る物体検出装置1の構成概要図である。図2は、物体検出装置1の物体検出に用いられる画像の説明図である。   FIG. 1 is a schematic configuration diagram of an object detection apparatus 1 according to an embodiment of the present invention. FIG. 2 is an explanatory diagram of an image used for object detection of the object detection apparatus 1.

図1に示されるように、物体検出装置1は、車両に搭載されたカメラ2により撮像された画像を用いて車両周囲の物体を検出する装置である。この物体検出装置1は、例えば、車両に搭載され、カメラ2、ECU(Electronic Control Unit)3を備えて構成される。   As shown in FIG. 1, the object detection device 1 is a device that detects an object around the vehicle using an image captured by a camera 2 mounted on the vehicle. The object detection device 1 is mounted on a vehicle, for example, and includes a camera 2 and an ECU (Electronic Control Unit) 3.

カメラ2は、車両の周囲を撮像する撮像部として機能するものであり、例えば車両の進行方向の周囲を撮影できるように取り付けられる。カメラ2としては、画像の輝度情報及び奥行距離情報を取得できるものが用いられる。すなわち、カメラ2としては、画像を構成する画素領域ごとの輝度情報及び画素領域ごとの奥行距離情報を取得できるものが用いられ、例えばステレオカメラが用いられる。この場合、カメラ2として、撮像方向に対し交差する方向に並べて配置された複数の撮像部を備えたものが用いられる。画素領域の詳細については、後述する。   The camera 2 functions as an imaging unit that images the surroundings of the vehicle, and is attached, for example, so that the surroundings in the traveling direction of the vehicle can be captured. As the camera 2, a camera that can acquire luminance information and depth distance information of an image is used. That is, as the camera 2, a camera that can acquire luminance information for each pixel area constituting the image and depth distance information for each pixel area is used. For example, a stereo camera is used. In this case, the camera 2 having a plurality of imaging units arranged in a direction intersecting the imaging direction is used. Details of the pixel region will be described later.

カメラ2により撮像される画像は、カラーでもモノクロであってもよい。また、撮像波長帯は、可視波長でも、近赤外波長であってもよく、車両周囲の物体が認識できる画像データが得られれば、いずれの波長帯であってもよい。また、カメラ2としては、画像の輝度情報及び奥行距離情報を取得できるものであれば、ステレオカメラ以外のセンサであってもよく、例えばTOF(Time of flight)カメラを用いてもよいし、輝度情報の画像を撮像するカメラと奥行距離情報を取得するセンサ、例えばレーザレーダセンサなどを組み合わせたものを用いてもよい。   The image captured by the camera 2 may be color or monochrome. The imaging wavelength band may be a visible wavelength or a near-infrared wavelength, and may be any wavelength band as long as image data capable of recognizing an object around the vehicle is obtained. The camera 2 may be a sensor other than a stereo camera as long as it can acquire image luminance information and depth distance information. For example, a TOF (Time of Flight) camera may be used. A combination of a camera that captures an image of information and a sensor that acquires depth distance information, such as a laser radar sensor, may be used.

ECU3は、物体検出装置1全体の制御を行う電子制御ユニットであり、例えばCPU、ROM、RAMを含むコンピュータを主体として構成されている。ECU3は、カメラ2と電気的に接続されており、カメラ2の撮像信号が入力される。ECU3は、距離情報取得部30、グループ化処理部31、移動情報取得部32、対応付け部33及び物体検出部34を備えている。   The ECU 3 is an electronic control unit that controls the entire object detection apparatus 1 and is configured mainly by a computer including a CPU, a ROM, and a RAM, for example. The ECU 3 is electrically connected to the camera 2 and receives an imaging signal of the camera 2. The ECU 3 includes a distance information acquisition unit 30, a grouping processing unit 31, a movement information acquisition unit 32, an association unit 33, and an object detection unit 34.

距離情報取得部30は、カメラ2により撮像された画像における奥行距離の情報を取得する。例えば、距離情報取得部30は、カメラ2により撮像された画像データを取得し、その画像データを用い、画像を構成する画素領域ごとに奥行距離情報を取得する。画像データは、画像の画素領域ごとの輝度情報及び奥行距離情報を取得可能なデータであり、所定周期で繰り返して取得され、その取得ごとに記録される。   The distance information acquisition unit 30 acquires depth distance information in an image captured by the camera 2. For example, the distance information acquisition unit 30 acquires image data captured by the camera 2, and acquires depth distance information for each pixel region constituting the image using the image data. The image data is data that can acquire luminance information and depth distance information for each pixel region of the image, is repeatedly acquired at a predetermined cycle, and is recorded for each acquisition.

画像を構成する画素領域は、一つの画素からなる領域であってもよいし、複数の画素からなる領域であってもよい。画素領域を複数の画素からなる領域として設定する場合、例えば2×2の四つの画素からなる領域、それ以上の数の画素からなる領域とされる。輝度情報は、例えば画素領域の輝度値である。画素領域が一つの画素からなる場合には、その画素の輝度値が画素領域の輝度情報となる。画素領域が複数の画素から構成される場合、複数の画素における輝度値の平均値、最高値、最低値又は所定の代表値が画素領域の輝度情報とされる。また、奥行距離情報は、画素領域に撮像される被撮像体の奥行距離に関する情報であり、奥行距離を含む情報である。例えば、奥行距離は、カメラ2の撮像方向における被撮像体までの距離である。カメラ2としてステレオカメラを用いる場合、奥行距離は複数のカメラの設置位置を結ぶ直線から被撮像体までの距離となる。被撮像体は、画像に撮像されるものであって、立体物である物体のほか、路面、空などの背景を含む。画素領域が一つの画素からなる場合には、その画素の奥行距離が画素領域の奥行距離情報となる。画素領域が複数の画素から構成される場合、複数の画素における奥行距離の平均値、最高値、最低値又は所定の代表値を画素領域の奥行距離情報として用いればよい。   The pixel area constituting the image may be an area composed of one pixel or an area composed of a plurality of pixels. When the pixel region is set as a region composed of a plurality of pixels, for example, a region composed of 4 × 2 × 2 pixels and a region composed of a larger number of pixels are used. The luminance information is, for example, the luminance value of the pixel area. When the pixel area is composed of one pixel, the luminance value of the pixel becomes the luminance information of the pixel area. When the pixel area is composed of a plurality of pixels, the average value, maximum value, minimum value, or predetermined representative value of the luminance values in the plurality of pixels is used as the luminance information of the pixel area. The depth distance information is information related to the depth distance of the imaging target imaged in the pixel area, and is information including the depth distance. For example, the depth distance is a distance to the imaging target in the imaging direction of the camera 2. When a stereo camera is used as the camera 2, the depth distance is a distance from a straight line connecting the installation positions of a plurality of cameras to the object to be imaged. The imaging target is captured in an image, and includes a background such as a road surface and sky in addition to an object that is a three-dimensional object. When the pixel area is composed of one pixel, the depth distance of the pixel is the depth distance information of the pixel area. When the pixel region is composed of a plurality of pixels, the average value, maximum value, minimum value, or predetermined representative value of the depth distance in the plurality of pixels may be used as the depth distance information of the pixel region.

なお、奥行距離情報は、奥行距離の値をそのまま用いてもよいが、奥行距離に対応する値であってもよい。例えば、奥行距離に対応した視差の値を奥行距離情報として用いてもよい。視差の値は、二つのカメラによって撮像される二つの画像における被撮像体ないし物体の視差の値であり、奥行距離が近いほど大きな値となる。   The depth distance information may use the value of the depth distance as it is, or may be a value corresponding to the depth distance. For example, a parallax value corresponding to the depth distance may be used as the depth distance information. The parallax value is the parallax value of the imaging object or object in the two images picked up by the two cameras, and becomes larger as the depth distance is shorter.

カメラ2としてステレオカメラが用いられる場合、距離情報取得部30は、二つの左右の画像について視差画像を生成する。そして、距離情報取得部30は、視差画像における画素領域の視差の値を奥行距離情報として用いる。また、画素領域ごとの視差に基づいて画素領域ごとの奥行距離を演算して、その奥行距離の値を奥行距離情報として用いてもよい。奥行距離情報の算出手法としては、例えばdense stereo技術が用いられ、より具体的にはSGM法やELAS法などが用いられる。   When a stereo camera is used as the camera 2, the distance information acquisition unit 30 generates parallax images for the two left and right images. And the distance information acquisition part 30 uses the value of the parallax of the pixel area | region in a parallax image as depth distance information. Further, the depth distance for each pixel area may be calculated based on the parallax for each pixel area, and the value of the depth distance may be used as the depth distance information. As a method for calculating the depth distance information, for example, a dense stereo technique is used, and more specifically, an SGM method, an ELAS method, or the like is used.

グループ化処理部31は、奥行距離情報を取得した画像について、その奥行距離情報に基づいて複数の画素領域をグループ化する。このグループ化処理部31は、三次元空間上において近接する画素領域を同一のグループとして設定しグループ化するものである。例えば、グループ化処理部31は、画像の縦方向において同一奥行距離範囲の画素領域が近接する場合に同一のグループとしてグループ化を行う。同一奥行距離範囲とは、同一奥行距離、及び、同一奥行距離に対し所定の奥行距離範囲内のほぼ同一距離を含む範囲である。また、グループ化処理部31は、画像の縦方向及び横方向において同一奥行距離範囲の画素領域が近接する場合に同一のグループとしてグループ化してもよい。   The grouping processing unit 31 groups a plurality of pixel regions based on the depth distance information for the image for which the depth distance information has been acquired. The grouping processing unit 31 sets adjacent pixel regions in the three-dimensional space as the same group and groups them. For example, the grouping processing unit 31 performs grouping as the same group when pixel regions within the same depth distance range are close to each other in the vertical direction of the image. The same depth distance range is a range including substantially the same distance within a predetermined depth distance range with respect to the same depth distance and the same depth distance. Further, the grouping processing unit 31 may perform grouping as the same group when pixel regions having the same depth distance range are close to each other in the vertical direction and the horizontal direction of the image.

グループ化処理部31におけるグループ化処理を具体的に説明する。図2に示す画像81は、物体検出装置1を搭載した自車両の進行方向を撮像した画像である。この図2の画像81に対し、距離情報取得部30は、画素領域ごとに視差を奥行距離情報として演算する。画像81の視差は、例えば、画像81と同時に撮像される左右の画像のうち他方側の画像を用いて演算される。そして、グループ化処理部31は、画像の縦方向において視差が所定範囲内で隣接する画素領域を一つのグループとしてグループ化する。所定範囲は、予めグループ化処理部31に設定される視差範囲を用いればよい。   The grouping process in the grouping processing unit 31 will be specifically described. An image 81 illustrated in FIG. 2 is an image obtained by capturing the traveling direction of the host vehicle on which the object detection device 1 is mounted. For the image 81 in FIG. 2, the distance information acquisition unit 30 calculates the parallax as depth distance information for each pixel region. The parallax of the image 81 is calculated using, for example, the image on the other side of the left and right images captured simultaneously with the image 81. Then, the grouping processing unit 31 groups adjacent pixel areas within a predetermined range in the vertical direction of the image as one group. As the predetermined range, a parallax range set in the grouping processing unit 31 in advance may be used.

また、このグループ化処理において、縦の位置に対する視差の変化状態を用いてグループ化を行ってもよい。図3(a)の画像82は、グループ化した画像の模式図である。画像82では、縦方向において同一奥行距離範囲で近接ないし隣接する画素が同一グループとして設定されている。例えば、グループ83a、83b、83cのように複数のグループが設定され、グループ化される。   In the grouping process, grouping may be performed using a parallax change state with respect to a vertical position. An image 82 in FIG. 3A is a schematic diagram of grouped images. In the image 82, adjacent or adjacent pixels in the same depth distance range in the vertical direction are set as the same group. For example, a plurality of groups such as groups 83a, 83b, and 83c are set and grouped.

図3(b)は、図3(a)のb−bにおける画像の縦の位置に対する視差を示すグラフである。図3(b)に示すように、画素の視差に基づいて三つのグループ83a、83b、83cが設定されている。グループ83aは、小さい視差で同一奥行距離範囲の画素からなるグループであり、視差が小さいことにより遠方の背景を表していると認識される。グループ83bは、同一奥行距離範囲の画素からなるグループであり、視差が小さくないことから、背景でなく立体物ないし検出対象となる物体であると認識される。グループ83cは、同一奥行距離範囲の画素が隣接するグループであり、視差が下方の位置に行くほど大きくなるように変化している。このため、グループ83cは、路面を表していると認識される。グループ化処理部31は、グループ化したグループ結果を記録し保存する。このため、グループ化処理部31は、グループ記録部としても機能する。グループ結果は、グループ化が行われるごとに記録される。記録されたグループ結果は、グループが表す物体の動きの検出に用いることができる。   FIG. 3B is a graph showing the parallax with respect to the vertical position of the image in bb in FIG. As shown in FIG. 3B, three groups 83a, 83b, and 83c are set based on the parallax of the pixels. The group 83a is a group made up of pixels in the same depth distance range with a small parallax, and is recognized as representing a distant background due to the small parallax. The group 83b is a group composed of pixels in the same depth distance range, and since the parallax is not small, it is recognized as a three-dimensional object or an object to be detected, not a background. The group 83c is a group in which pixels in the same depth distance range are adjacent to each other, and changes so that the parallax increases as it goes to a lower position. For this reason, the group 83c is recognized as representing a road surface. The grouping processing unit 31 records and stores the grouped group result. For this reason, the grouping processing unit 31 also functions as a group recording unit. The group result is recorded each time grouping is performed. The recorded group result can be used to detect the movement of the object represented by the group.

図1において、移動情報取得部32は、画像に対し画素領域ごとに、画像上における被撮像体の移動方向および移動量の情報を含むオプティカルフローを取得する。例えば、移動情報取得部32は、カメラ2により撮像された画像について画素領域ごとにオプティカルフローを算出し、移動情報として取得する。オプティカルフローは、画素領域の動きベクトルであり、画像上の被撮像体をベクトルで表したものである。このため、オプティカルフローは、画素領域に表示される被撮像体の移動方向及び移動量の情報を有している。画素領域は、上述したように、一つの画素からなる領域でもよいし、複数の画素からなる領域でもよい。画素領域が複数の画素からなる領域として設定される場合、例えば、複数の画素におけるオプティカルフローの平均値、最高値、最低値又は所定の代表値を画素領域のオプティカルフローとして用いればよい。オプティカルフローを取得する画素領域は、奥行距離情報を取得する画素領域と同じ大きさの領域として設定されるが、奥行距離情報を取得する画素領域と異なる大きさの領域として設定する場合もある。   In FIG. 1, the movement information acquisition unit 32 acquires an optical flow including information on the movement direction and movement amount of the imaging target on the image for each pixel region of the image. For example, the movement information acquisition unit 32 calculates an optical flow for each pixel area of the image captured by the camera 2 and acquires the optical flow as movement information. The optical flow is a motion vector of a pixel area, and represents an object to be imaged on an image as a vector. For this reason, the optical flow has information on the moving direction and moving amount of the imaging target displayed in the pixel area. As described above, the pixel region may be a region composed of one pixel or a region composed of a plurality of pixels. When the pixel area is set as an area composed of a plurality of pixels, for example, an average value, a maximum value, a minimum value, or a predetermined representative value of the optical flows in the plurality of pixels may be used as the optical flow of the pixel area. The pixel area for acquiring the optical flow is set as an area having the same size as the pixel area for acquiring the depth distance information, but may be set as an area having a size different from that of the pixel area for acquiring the depth distance information.

オプティカルフローの具体的な算出は、現在の画像に対し先に撮像した画像を用いて画素領域の移動を解析して行われ、マッチング法や勾配法などを用いて行えばよい。図4の画像84は、オプティカルフロー85を模式的に表したものである。なお、オプティカルフロー85の算出は、背景を表す領域を除いて行ってもよい。例えば、図4に示すように、予め設定された画像の上方領域86においてオプティカルフロー85の算出、すなわち移動情報の取得を省略してもよい。この処理の省略により、物体検出の処理負荷を低減することができる。   The specific calculation of the optical flow is performed by analyzing the movement of the pixel region using the image captured earlier with respect to the current image, and may be performed using a matching method or a gradient method. An image 84 in FIG. 4 schematically represents the optical flow 85. The optical flow 85 may be calculated excluding the area representing the background. For example, as shown in FIG. 4, the calculation of the optical flow 85 in the upper area 86 of the preset image, that is, the acquisition of the movement information may be omitted. By omitting this processing, the processing load for object detection can be reduced.

対応付け部33は、グループ化処理部31にてグループ化された画素領域に対し、移動情報取得部32にて取得されたオプティカルフローを対応付ける。例えば、グループ化処理部31にてグループとして設定された画素領域に対し、移動情報取得部32にて取得されたオプティカルフローが対応付けられる。その際、対応付け部33は、奥行距離が近い画素領域のグループほど画像の単位面積当たりのオプティカルフローの対応付けの数を少なくして、オプティカルフローの対応付けを行う。オプティカルフローの対応付けの数は、奥行距離が近くなるに連れて少なくなるように数式を用いて算出してもよいし、奥行距離に対応したオプティカルフローの対応付けのマップ又はテーブルを用いて演算してもよい。その際、オプティカルフローの対応付けの数が奥行距離に応じて連続的に変化するように設定されてもよいし、奥行距離に応じて段階的に変化するように設定されてもよい。具体的な対応付けの処理としては、例えば、グループとして設定された画素領域に対し、画像上において同じ座標位置のオプティカルフローのデータをその画素領域のオプティカルフローとして設定して行われる。   The associating unit 33 associates the optical flows acquired by the movement information acquiring unit 32 with the pixel areas grouped by the grouping processing unit 31. For example, the optical flow acquired by the movement information acquisition unit 32 is associated with the pixel region set as a group by the grouping processing unit 31. At this time, the associating unit 33 associates optical flows by reducing the number of optical flow associations per unit area of an image for a group of pixel regions having a shorter depth distance. The number of optical flow associations may be calculated using a mathematical formula so that the depth distance decreases as the depth distance decreases, or is calculated using a map or table of optical flow associations corresponding to the depth distance. May be. At this time, the number of optical flow associations may be set so as to change continuously according to the depth distance, or may be set so as to change stepwise according to the depth distance. The specific association processing is performed, for example, by setting the optical flow data at the same coordinate position on the image as the optical flow of the pixel region for the pixel region set as a group.

図5及び図6は、グループ化処理部31における対応付け処理の説明図である。図5(a)は、画素領域84aごとにオプティカルフロー85を取得した画像84を示している。図5(b)は、グループ化した画素領域87aに対しオプティカルフロー85を対応付けした画像87を示している。図6(a)は、図5(a)の画像84から所定の時間tを経過した画像84であって、画素領域84aごとにオプティカルフロー85を取得した画像84を示している。図6(b)は、図5(b)の画像87から所定の時間tを経過した画像87であって、グループ化した画素領域87aに対しオプティカルフロー85を対応付けした画像87を示している。図5(b)及び図6(b)の画像87におけるグループ83dは、車両を表す画像領域87aがグループ化されたものである。図5(b)の車両は遠方に位置しているが、図6(b)では時間tの経過によって車両が近接して表されている。なお、図5(b)及び図6(b)における車両の表示はイメージ表示であり、車両の表示の大きさと画素領域87aの大きさの比率は必ずしも実際のものと一致していない。   5 and 6 are explanatory diagrams of the association processing in the grouping processing unit 31. FIG. FIG. 5A shows an image 84 obtained by acquiring an optical flow 85 for each pixel region 84a. FIG. 5B shows an image 87 in which the optical flow 85 is associated with the grouped pixel region 87a. FIG. 6A shows an image 84 that has passed a predetermined time t from the image 84 in FIG. 5A and obtained an optical flow 85 for each pixel region 84a. FIG. 6B shows an image 87 in which a predetermined time t has elapsed from the image 87 in FIG. 5B, in which the optical flow 85 is associated with the grouped pixel region 87a. . A group 83d in the image 87 of FIGS. 5B and 6B is a group of image regions 87a representing vehicles. The vehicle in FIG. 5B is located far away, but in FIG. 6B, the vehicle is shown in close proximity as time elapses. The vehicle display in FIGS. 5B and 6B is an image display, and the ratio of the display size of the vehicle and the size of the pixel region 87a does not necessarily match the actual one.

図5(b)及び図6(b)において、それぞれグループ83dの画素領域87aに対しオプティカルフロー85が対応付けられている。図6(b)のグループ83dは、図5(b)のグループ83dに対し奥行距離が近い画素領域87aにより構成されているため、オプティカルフロー85が密に対応付けられており、単位面積当たりのオプティカルフロー85の対応付けの数が少なくなっている。言い換えれば、奥行距離が近いグループほど、オプティカルフロー85が対応付けられる間隔(飛ばし間隔)が大きくなっている。例えば、同じ物体が遠方から近づいてくる場合、物体が接近するほど物体が画像上で大きく表示されるが、その物体に対応付けられるオプティカルフロー85はそれに応じて増えるわけではない。   5B and 6B, the optical flow 85 is associated with the pixel region 87a of the group 83d. The group 83d in FIG. 6B is configured by a pixel region 87a that is closer in depth to the group 83d in FIG. 5B, and therefore the optical flow 85 is closely associated with each other. The number of associations of the optical flow 85 is reduced. In other words, the interval with which the optical flow 85 is associated (the skip interval) is larger as the group has a shorter depth distance. For example, when the same object approaches from a distance, the closer the object is, the larger the object is displayed on the image, but the optical flow 85 associated with the object does not increase accordingly.

対応付け部33は、撮像空間である実空間に予め設定された間隔でオプティカルフローが対応付けられるように、画像87上におけるオプティカルフローの対応付けを行ってもよい。例えば、実空間でH(例えば50cm)の間隔で移動情報であるオプティカルフロー85が対応付けられるように、画像87においてオプティカルフローを対応付けしてもよい。この場合、オプティカルフロー85の対応付けの間隔hは、例えば、h=f・H/Zの数式を用いて設定することができる。この数式において、hは画像上における対応付け間隔であり、fは画素換算した焦点距離である。Hは実空間における対応付け間隔距離であり、Zは奥行距離である。この数式を用いることにより、オプティカルフロー85を対応付けられる間隔は奥行距離が近いほど大きくなり、単位面積あたりのオプティカルフロー85の対応付け数が少なくなる。   The associating unit 33 may associate the optical flows on the image 87 so that the optical flows are associated with the real space, which is the imaging space, at a preset interval. For example, the optical flow may be associated with the image 87 so that the optical flow 85 that is the movement information is associated with an interval of H (for example, 50 cm) in the real space. In this case, the interval h for associating the optical flow 85 can be set using, for example, an equation h = f · H / Z. In this equation, h is an association interval on an image, and f is a focal length converted to a pixel. H is the associating interval distance in the real space, and Z is the depth distance. By using this mathematical formula, the interval with which the optical flow 85 is associated becomes larger as the depth distance is closer, and the number of associations of the optical flow 85 per unit area is reduced.

また、この数式に代えて、奥行距離に応じて対応付け間隔を設定するためのマップやテーブルを用いて、対応付け間隔、すなわち画像の単位面積当たりのオプティカルフロー85の対応付けの数を演算してもよい。例えば、奥行距離が5m未満の対応付け間隔、5m以上で30m未満の対応付け間隔、および30m以上の対応付け間隔をそれぞれ設定して、オプティカルフロー85の対応付けを行えばよい。この対応付け間隔の距離値は一例であり、その他の距離値であってよい。また、対応付け間隔の数は、三つに限らず、二つ又は四つ以上であってもよい。このように、奥行距離が近いほど対応付け間隔が大きくなるように設定することで、奥行距離が近いほど画像の単位面積当たりのオプティカルフロー85の対応付け数を少なくすることができる。   Further, instead of this mathematical formula, a map or table for setting the association interval according to the depth distance is used to calculate the association interval, that is, the number of associations of the optical flow 85 per unit area of the image. May be. For example, the optical flow 85 may be associated by setting an association interval whose depth distance is less than 5 m, an association interval of 5 m or more and less than 30 m, and an association interval of 30 m or more. The distance value of this association interval is an example, and may be other distance values. Further, the number of association intervals is not limited to three, but may be two or four or more. In this way, by setting the association interval to be larger as the depth distance is closer, the number of associations of the optical flow 85 per unit area of the image can be reduced as the depth distance is closer.

さらに、奥行距離のしきい値を設定し、奥行距離がしきい値未満の場合の対応付け間隔、奥行距離がしきい値以上の場合の対応付け間隔を設定して、オプティカルフロー85の対応付けを行ってもよい。このしきい値の設定は一例を示すものであり、しきい値の数は一つに限らず、複数であってもよい。このように、奥行距離がしきい値未満の場合の対応付け間隔を奥行距離がしきい値以上の場合の対応付け間隔より大きく設定することで、奥行距離が近いほど画像の単位面積当たりのオプティカルフロー85の対応付け数を少なくすることができる。   Further, a threshold value for the depth distance is set, an association interval when the depth distance is less than the threshold value, and an association interval when the depth distance is greater than or equal to the threshold value are set, and the optical flow 85 is associated. May be performed. The setting of the threshold value is an example, and the number of threshold values is not limited to one and may be plural. In this way, by setting the association interval when the depth distance is less than the threshold value to be larger than the association interval when the depth distance is greater than or equal to the threshold value, the closer the depth distance, the more optical per unit area of the image The number of associations of the flow 85 can be reduced.

なお、対応付け部33について、奥行距離が近い画素領域のグループほど画像の単位面積当たりのオプティカルフローの対応付けの数を少なくする場合について説明したが、奥行距離が近い画素領域のグループほど画像の単位面積当たりのオプティカルフローの対応付けの数を少なくしてオプティカルフローの対応付けを行う場合、対応付け部33は、奥行距離が遠い画素領域のグループほど画像の単位面積当たりのオプティカルフローの対応付けの数を多くしてオプティカルフローの対応付けを行うこととなる。   The association unit 33 has been described with respect to a case where the number of optical flow associations per unit area of the image is reduced as the group of pixel regions with a shorter depth distance. When performing the optical flow association by reducing the number of optical flow associations per unit area, the association unit 33 associates the optical flow per unit area of the image with a group of pixel regions having a greater depth distance. The optical flow is associated by increasing the number of.

図1において、物体検出部34は、対応付け部33により対応付けられたオプティカルフローを用いて車両の周囲の物体の移動状態を検出する。例えば、オプティカルフローを対応付けられたグループが車両周囲の物体と認識され、そのオプティカルフローに基づいてグループの移動状態が検出される。そのグループの移動状態に基づいて物体の三次元空間における相対速度が算出される。物体の移動状態としては、相対速度のほか、絶対速度であってもよいし、加減速度であってもよい。この物体の移動状態を検出結果に基づいて、自車両の走行の支障となる物体であるか否かを判定し、その判定結果を自車両の運転者に報知してもよい。   In FIG. 1, the object detection unit 34 detects the movement state of objects around the vehicle using the optical flow associated by the association unit 33. For example, a group associated with an optical flow is recognized as an object around the vehicle, and the movement state of the group is detected based on the optical flow. Based on the movement state of the group, the relative velocity of the object in the three-dimensional space is calculated. The moving state of the object may be an absolute speed or an acceleration / deceleration in addition to the relative speed. Based on the detection result of the moving state of the object, it may be determined whether or not the object is an obstacle to traveling of the host vehicle, and the determination result may be notified to the driver of the host vehicle.

上述した距離情報取得部30、グループ化処理部31、移動情報取得部32、対応付け部33及び物体検出部34は、それぞれの機能を実現するソフトウェア又はプログラムをECU3に導入することにより構成すればよい。また、それらの一部又は全部を個別の電子制御ユニットにより構成してもよい。   The distance information acquisition unit 30, the grouping processing unit 31, the movement information acquisition unit 32, the association unit 33, and the object detection unit 34 described above may be configured by introducing software or programs that realize the respective functions into the ECU 3. Good. Further, some or all of them may be configured by individual electronic control units.

ECU3には、出力部4が電気的に接続されている。出力部4は、物体の検出結果に基づいて作動するものであり、例えば運転者への報知装置、運転制御を実行する制御装置などが該当する。   An output unit 4 is electrically connected to the ECU 3. The output unit 4 operates based on the detection result of the object, and corresponds to, for example, a notification device for a driver, a control device that executes driving control, and the like.

次に、本実施形態に係る物体検出装置1の動作について説明する。   Next, the operation of the object detection apparatus 1 according to this embodiment will be described.

図7は、本実施形態に係る物体検出装置1における物体検出処理を示すフローチャートである。物体検出処理は、例えば、ECU3により行われ、所定の周期で繰り返して実行される。   FIG. 7 is a flowchart showing object detection processing in the object detection apparatus 1 according to the present embodiment. The object detection process is performed by the ECU 3, for example, and is repeatedly executed at a predetermined cycle.

図7のステップS10(以下、単に「S10」という。他のステップSについても同様とする。)に示すように、まず、画像の読み込み処理が行われる。画像の読み込み処理は、カメラ2により撮像された画像の画像データを読み込む処理である。カメラ2としてステレオカメラを用いる場合、複数の画像データが読み込まれる。そして、S12に処理が移行し、距離情報の取得処理が行われる。距離情報の取得処理は、カメラ2により撮像された画像における奥行距離の情報を取得する処理である。すなわち、この取得処理では、画像データを用い、画像を構成する画素領域ごとに奥行距離情報が取得される。この取得処理で取得された奥行距離情報は、所定周期で繰り返して取得され、取得されるごとに記録される。具体的な処理内容としては、例えば、カメラ2としてステレオカメラが用いられる場合、二つの左右の画像について視差画像を生成する処理が行われる。視差画像における画素領域ごとの視差の値が奥行距離情報として取得される。また、画素領域ごとの視差に基づいて画素領域ごとの奥行距離を演算して、その奥行距離の値を奥行距離情報として取得してもよい。   As shown in step S10 in FIG. 7 (hereinafter simply referred to as “S10”, the same applies to other steps S), first, an image reading process is performed. The image reading process is a process of reading image data of an image captured by the camera 2. When a stereo camera is used as the camera 2, a plurality of image data are read. And a process transfers to S12 and the acquisition process of distance information is performed. The distance information acquisition process is a process of acquiring depth distance information in an image captured by the camera 2. In other words, in this acquisition process, the depth distance information is acquired for each pixel area constituting the image using image data. The depth distance information acquired in this acquisition process is repeatedly acquired at a predetermined cycle, and is recorded every time it is acquired. As a specific processing content, for example, when a stereo camera is used as the camera 2, processing for generating parallax images for two left and right images is performed. A parallax value for each pixel area in the parallax image is acquired as depth distance information. Further, the depth distance for each pixel area may be calculated based on the parallax for each pixel area, and the value of the depth distance may be acquired as the depth distance information.

そして、S14に処理が移行し、グループ化処理が行われる。グループ化処理は、奥行距離情報を取得した画像について、その奥行距離情報に基づいて複数の画素領域を関連付けてグループ化を行う処理である。このグループ化処理では、三次元空間上において近接する画素領域を同一のグループとして設定する。例えば、図3(a)に示すように、画像の縦方向において同一奥行距離範囲の画素領域が近接する場合に、それらの画素領域が同一のグループとして設定される。同一奥行距離範囲は、同一奥行距離及び同一奥行距離に対し所定の奥行距離範囲内のほぼ同一奥行距離を含む範囲である。また、グループ化処理は、画像の縦方向及び横方向において同一距離範囲の画素領域が近接する場合に同一のグループとしてグループ化を行うものであってもよい。   Then, the process proceeds to S14, and a grouping process is performed. The grouping process is a process of grouping a plurality of pixel regions in association with an image from which the depth distance information has been acquired based on the depth distance information. In this grouping process, adjacent pixel regions in the three-dimensional space are set as the same group. For example, as illustrated in FIG. 3A, when pixel areas having the same depth distance range are close to each other in the vertical direction of the image, the pixel areas are set as the same group. The same depth distance range is a range including substantially the same depth distance within a predetermined depth distance range with respect to the same depth distance and the same depth distance. Further, the grouping process may be performed by grouping as the same group when pixel regions within the same distance range are close to each other in the vertical and horizontal directions of the image.

そして、S16に処理が移行し、グループ信頼度の設定処理が行われる。グループ信頼度の設定処理は、グループ設定された画素領域が立体物を表示するものであるかどうかの信頼度を設定する処理である。例えば、画素領域の奥行距離情報に基づいてグループ化された画素領域が立体物を示すものであるかどうかが判定される。立体物とは、背景や路面でなく、検出対象となる物体を含む立体的な物体である。図3(b)に示すように、グループ83a、83b、83cが設定されている場合、奥行距離情報である視差の値及び画像上の位置に応じた視差の変化状態に基づいて、グループ83a、83b、83cがそれぞれ立体物を表示するものであるかどうかが判定される。例えば、視差の値が所定以上の遠方を示す値でなく、画像上の位置に応じて視差の変化状態が所定以上でない場合に、立体物であると判定すればよい。これに対し、視差の値が所定以上の遠方を示す値であり、または、画像上の位置に応じて視差の値の変化状態が所定以上である場合、立体物でないと判定すればよい。グループ83aは、視差の値の変化状態が位置に応じて所定以上でないが、所定以上の遠方を示す値となっており、立体物でなく、背景を示すものであると判定される。グループ83bは、視差の値が所定以上の遠方を示す値となっておらず、かつ、視差の値の変化状態が位置に応じて所定以上でない。このため、立体物を示すものであると判定される。グループ83cは、視差の値が所定以上の遠方を示す値となっていないが、位置に対して視差の値が所定以上に傾斜しており、視差の値の変化状態が位置に応じて所定以上となっている。このため、立体物を示すものでなく、路面を示すものであると判定される。このように、グループ83a、83cは、グループ信頼度が所定以上でなく立体物を示すものでないと判定され、グループ83bはグループ信頼度が所定以上であり立体物を示すものであると判定される。   Then, the process proceeds to S16, and a group reliability setting process is performed. The group reliability setting process is a process for setting the reliability of whether or not the grouped pixel region is for displaying a three-dimensional object. For example, it is determined whether the pixel areas grouped based on the depth distance information of the pixel area indicate a three-dimensional object. A three-dimensional object is not a background or a road surface but a three-dimensional object including an object to be detected. As shown in FIG. 3B, when the groups 83a, 83b, and 83c are set, based on the parallax value that is the depth distance information and the parallax change state according to the position on the image, the groups 83a, It is determined whether or not 83b and 83c each display a three-dimensional object. For example, if the parallax value is not a value indicating a distant distance greater than or equal to a predetermined value, and the change state of the parallax is not equal to or greater than the predetermined value according to the position on the image, it may be determined as a three-dimensional object. On the other hand, if the parallax value is a value indicating a distant distance greater than or equal to the predetermined value, or the change state of the parallax value is equal to or greater than the predetermined value according to the position on the image, it may be determined that the object is not a solid object. The group 83a has a parallax value change state that is not greater than or equal to a predetermined value depending on the position, but is a value that indicates a distant distance that is greater than or equal to a predetermined value, and is determined not to be a three-dimensional object but to indicate a background. In the group 83b, the disparity value is not a value indicating a distant distance greater than or equal to a predetermined value, and the change state of the disparity value is not equal to or greater than the predetermined value depending on the position. For this reason, it determines with it showing a solid thing. In the group 83c, the parallax value is not a value indicating a distant distance greater than or equal to a predetermined value, but the parallax value is inclined more than a predetermined value with respect to the position, and the change state of the parallax value is equal to or greater than the predetermined value depending on the position It has become. For this reason, it is determined not to indicate a three-dimensional object but to indicate a road surface. Thus, it is determined that the groups 83a and 83c have a group reliability not higher than a predetermined value and do not indicate a solid object, and the group 83b has a group reliability higher than a predetermined value and indicates a solid object. .

そして、図7のS18に処理が移行し、移動情報の取得処理が行われる。移動情報の取得処理は、画像の画素領域ごとに、画像上における被撮像体の移動方向および移動量を含むオプティカルフローを取得する処理である。例えば、この取得処理では、カメラ2により撮像された画像について画素領域ごとにオプティカルフローを算出し、移動情報として取得する。オプティカルフローの具体的な算出は、上述したように、マッチング法や勾配法など公知の手法を用いることができる。   And a process transfers to S18 of FIG. 7, and the acquisition process of movement information is performed. The movement information acquisition process is a process of acquiring an optical flow including the movement direction and movement amount of the imaging target on the image for each pixel region of the image. For example, in this acquisition process, an optical flow is calculated for each pixel area of the image captured by the camera 2 and acquired as movement information. As described above, a known method such as a matching method or a gradient method can be used for specific calculation of the optical flow.

そして、S20に処理が移行し、移動情報の対応付け処理が行われる。移動情報の対応付け処理は、S14のグループ化処理にてグループ化された画素領域に対し、S18の移動情報取得処理にて取得されたオプティカルフローを対応付ける処理である。この対応付け処理は、画像において設定されたグループの全部に対して行ってもよいが、S16にて立体物を示すグループと判定されたグループのみに行ってもよい。グループ化処理としては、例えば、S14のグループ化処理にてグループとして設定された画素領域に対し、画像上で同じ位置のオプティカルフローが対応付けられる。その際、奥行距離が近い画素領域のグループほど画像の単位面積当たりのオプティカルフローの対応付けの数を少なくして、オプティカルフローの対応付けが行われる。オプティカルフローの対応付けの数は、上述したように、奥行距離が近くなるに連れて少なくなるように数式を用いて算出してもよいし、奥行距離に対応したオプティカルフローの対応付けのマップ又はテーブルを用いて演算してもよい。その際、オプティカルフローの対応付けの数が奥行距離に応じて連続的に変化するように設定されてもよいし、奥行距離に応じて段階的に変化するように設定されてもよい。さらに、S16にて算出されたグループ信頼度が高いほど、画像の単位面積当たりのオプティカルフローの対応付けの数を多くして、オプティカルフローの対応付けを行ってもよい。例えば、画像上の位置に対して視差の差の変化状態が所定の閾値より小さいグループについて、グループ信頼度が高いグループとして判定し、より密なオプティカルフローの対応付けを行うマップ又はテーブルを用いたり、対応付け数算出の数式に対し重みをかけてもよい。   And a process transfers to S20 and the matching process of movement information is performed. The movement information association process is a process of associating the optical flows acquired in the movement information acquisition process in S18 with the pixel areas grouped in the grouping process in S14. This association process may be performed for all the groups set in the image, or may be performed only for the group determined as a group indicating a three-dimensional object in S16. As the grouping process, for example, optical flows at the same position on the image are associated with the pixel areas set as a group in the grouping process of S14. At that time, optical flow association is performed by reducing the number of optical flow associations per unit area of an image for a group of pixel regions having a shorter depth distance. As described above, the number of optical flow associations may be calculated using a mathematical formula so that the depth distance decreases as the depth distance decreases, or an optical flow association map corresponding to the depth distance or You may calculate using a table. At this time, the number of optical flow associations may be set so as to change continuously according to the depth distance, or may be set so as to change stepwise according to the depth distance. Furthermore, as the group reliability calculated in S16 is higher, the number of optical flow associations per unit area of the image may be increased to perform optical flow association. For example, a group or table that determines a group with a high group reliability for a group in which the change state of the parallax difference with respect to the position on the image is smaller than a predetermined threshold and associates the optical flow more densely may be used. A weight may be applied to the mathematical formula for calculating the number of associations.

そして、S22に処理が移行し、グループの動きの算出処理が行われる。この算出処理は、グループ化された画素領域の動きを算出する処理であり、物体検出部34により行われる。例えば、S20の対応付け処理により対応付けられたオプティカルフローを用いて車両の周囲の物体の移動状態を検出する。すなわち、オプティカルフローを対応付けられたグループが物体と認識され、そのオプティカルフローに基づいてグループの移動状態が検出される。具体的には、グループの移動状態に基づいて物体の三次元空間における相対速度が算出される。物体の移動状態としては、相対速度のほか、絶対速度であってもよいし、加減速度であってもよい。この算出処理で検出されたグループのオプティカルフローは、記録保存され、次以降の周期で実行される算出処理で用いられる。   Then, the process proceeds to S22, and a group motion calculation process is performed. This calculation process is a process for calculating the movement of the grouped pixel regions, and is performed by the object detection unit 34. For example, the movement state of an object around the vehicle is detected using the optical flow associated by the association process of S20. That is, a group associated with an optical flow is recognized as an object, and the movement state of the group is detected based on the optical flow. Specifically, the relative velocity of the object in the three-dimensional space is calculated based on the moving state of the group. The moving state of the object may be an absolute speed or an acceleration / deceleration in addition to the relative speed. The optical flow of the group detected by this calculation process is recorded and saved and used in the calculation process executed in the next and subsequent cycles.

そして、S24に処理が移行し、出力処理が行われる。出力処理は、物体の検出結果を出力する処理である。例えば、運転者へ報知を行う報知装置、運転制御を実行する制御装置などの出力部4へ物体の検出結果が出力される。S24の処理を終えたら、一連の制御処理を終了する。   And a process transfers to S24 and an output process is performed. The output process is a process for outputting an object detection result. For example, the detection result of the object is output to the output unit 4 such as a notification device that notifies the driver and a control device that executes the driving control. When the process of S24 is finished, a series of control processes are finished.

なお、図7の一連の制御処理において、制御結果に影響を及ぼさなければ、制御処理の順番を入れ替えてもよいし、制御処理の一部の実行を省略してもよい。   In the series of control processes in FIG. 7, the order of the control processes may be changed or a part of the control processes may be omitted as long as the control result is not affected.

以上説明したように、本実施形態に係る物体検出装置1によれば、画像を用いた物体検出において、奥行距離が近い画素領域のグループほど画像の単位面積当たりのオプティカルフローの対応付け数を少なくしてオプティカルフローの対応付けが行われる。これにより、奥行距離の近い画素領域のグループほど画像処理の負荷が低減される。このとき、奥行距離の近い画素領域のグループは物体が画像上で大きく表示されるため、オプティカルフローの対応付け数を少なくしても物体の検出精度が大きく低下することはない。従って、奥行距離が近い画素領域のグループにおける物体検出精度の低下を抑制しつつ物体検出処理の負荷を低減させることが可能となる。   As described above, according to the object detection apparatus 1 according to the present embodiment, in object detection using an image, the number of optical flows associated per unit area of an image is smaller in a group of pixel regions having a shorter depth distance. Thus, optical flow is associated. Thereby, the load of image processing is reduced as the group of pixel regions has a shorter depth distance. At this time, since the group of pixel areas with a close depth distance is displayed with a large object on the image, the detection accuracy of the object is not greatly reduced even if the number of optical flow associations is reduced. Accordingly, it is possible to reduce the load of the object detection process while suppressing a decrease in the object detection accuracy in the group of pixel regions having a short depth distance.

例えば、図2の画像81に撮像される車両について物体検出を行う場合、この車両が遠くにいる場合には車両は小さく表示され、車両を表示する画素領域の数は少ないものとなる。一方、車両が近づくに連れて画像81上で大きく表示され、車両を表示する画素領域の数が多くなる。このとき、車両を表示する画素領域が同一のグループとして設定される場合、車両の遠近にかかわらず車両を表示する画素領域の全てに対しオプティカルフローを対応付けすると、車両が近くに来た際に車両を表示する画素領域が多数になり、オプティカルフローの対応付け処理が大きな負荷となる。しかも、車両を表示する画素領域にはほぼ同じオプティカルフローが対応付けられることとなり、物体検出の精度が大きく向上するわけではない。これに対し、本実施形態に係る物体検出装置1では、近くに表示される物体ほどオプティカルフローの対応付けの数を少なくすることにより、物体の検出精度の低下を抑制しつつ、物体検出処理の負荷を低減させることができるのである。これにより、メモリ量の少ない画像処理プロセッサを用いても物体検出処理が可能となる。また、画像処理を低減することによって、物体検出の迅速化が図れる。   For example, when object detection is performed on the vehicle imaged in the image 81 of FIG. 2, when the vehicle is far away, the vehicle is displayed small, and the number of pixel areas for displaying the vehicle is small. On the other hand, as the vehicle approaches, it is displayed larger on the image 81 and the number of pixel areas for displaying the vehicle increases. At this time, when the pixel areas for displaying the vehicle are set as the same group, when the optical flow is associated with all the pixel areas for displaying the vehicle regardless of the distance of the vehicle, when the vehicle comes close There are a large number of pixel areas for displaying a vehicle, and the process of associating optical flows becomes a heavy load. Moreover, substantially the same optical flow is associated with the pixel area displaying the vehicle, and the accuracy of object detection is not greatly improved. On the other hand, in the object detection apparatus 1 according to the present embodiment, the closer the object displayed, the smaller the number of optical flow associations, thereby suppressing the decrease in the object detection accuracy and the object detection processing. The load can be reduced. As a result, the object detection process can be performed even using an image processor with a small memory capacity. Further, the object detection can be speeded up by reducing the image processing.

また、本実施形態に係る物体検出装置1において、実空間において予め設定された間隔でオプティカルフローが対応付けられるように画素領域に対しオプティカルフローの対応付けが行われることにより、撮像される物体の奥行距離が近くなるほどオプティカルフローの対応付け数が少なくすることができる。従って、奥行距離が近い物体の検出精度の低下を抑制しつつ物体検出処理の負荷を低減させることが可能となる。   Further, in the object detection device 1 according to the present embodiment, the optical flow is associated with the pixel area so that the optical flows are associated with each other at a predetermined interval in the real space, whereby the object to be imaged is captured. The closer the depth distance is, the smaller the number of optical flow correspondences can be made. Therefore, it is possible to reduce the load of the object detection process while suppressing a decrease in detection accuracy of an object having a short depth distance.

なお、上述した実施形態は、本発明に係る物体検出装置の一実施形態を説明したものであり、本発明に係る物体検出装置は上記実施形態に記載されたものに限定されない。本発明に係る物体検出装置は、各請求項に記載した要旨を変更しないように上記実施形態に係る物体検出装置を変形し、又は他のものに適用したものであってもよい。   In addition, embodiment mentioned above demonstrates one Embodiment of the object detection apparatus which concerns on this invention, The object detection apparatus which concerns on this invention is not limited to what was described in the said embodiment. The object detection apparatus according to the present invention may be a modification of the object detection apparatus according to the above-described embodiment or application to other objects without changing the gist described in each claim.

1…物体検出装置、2…カメラ、3…ECU、4…出力部、30…距離情報取得部、31…グループ化処理部、32…移動情報取得部、33…対応付け部、34…物体検出部、85…オプティカルフロー。   DESCRIPTION OF SYMBOLS 1 ... Object detection apparatus, 2 ... Camera, 3 ... ECU, 4 ... Output part, 30 ... Distance information acquisition part, 31 ... Grouping process part, 32 ... Movement information acquisition part, 33 ... Association part, 34 ... Object detection Part, 85 ... Optical flow.

Claims (2)

車両に搭載されたカメラにより撮像された画像を用いて前記車両の周囲の物体を検出する物体検出装置において、
前記画像を構成する画素領域ごとに、前記画像における奥行距離を含む奥行距離情報を取得する距離情報取得部と、
前記奥行距離情報に基づいて複数の前記画素領域をグループ化するグループ化処理部と、
前記画像に対し前記画素領域ごとに、前記画像上における被撮像体の移動方向および移動量の情報を含むオプティカルフローを取得する移動情報取得部と、
前記グループ化処理部にてグループ化された前記画素領域に対し前記移動情報取得部にて取得された前記オプティカルフローを対応付ける対応付け部と、
前記対応付け部により対応付けられた前記オプティカルフローを用いて前記車両の周囲の物体の移動状態を検出する物体検出部と、を備え、
前記対応付け部は、前記奥行距離が近い前記画素領域のグループほど前記画像の単位面積当たりの前記オプティカルフローの対応付けの数を少なくして、前記オプティカルフローの対応付けを行う、
物体検出装置。
In an object detection device that detects an object around the vehicle using an image captured by a camera mounted on the vehicle,
A distance information acquisition unit that acquires depth distance information including a depth distance in the image, for each pixel region constituting the image;
A grouping processing unit that groups a plurality of the pixel regions based on the depth distance information;
A movement information acquisition unit that acquires an optical flow including information on a movement direction and a movement amount of the imaging target on the image for each pixel region with respect to the image;
An associating unit for associating the optical flows acquired by the movement information acquiring unit with the pixel regions grouped by the grouping processing unit;
An object detection unit that detects a moving state of an object around the vehicle using the optical flow associated by the association unit;
The association unit associates the optical flows by reducing the number of associations of the optical flows per unit area of the image as the group of the pixel regions having a shorter depth distance.
Object detection device.
前記対応付け部は、実空間において予め設定された間隔で前記オプティカルフローが対応付けられるように、前記画素領域に対し前記オプティカルフローの対応付けを行う請求項1に記載の物体検出装置。   The object detection device according to claim 1, wherein the association unit associates the optical flow with the pixel region so that the optical flow is associated with a predetermined interval in real space.
JP2014208820A 2014-10-10 2014-10-10 Object detection device Active JP6466679B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014208820A JP6466679B2 (en) 2014-10-10 2014-10-10 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014208820A JP6466679B2 (en) 2014-10-10 2014-10-10 Object detection device

Publications (2)

Publication Number Publication Date
JP2016081108A true JP2016081108A (en) 2016-05-16
JP6466679B2 JP6466679B2 (en) 2019-02-06

Family

ID=55956227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014208820A Active JP6466679B2 (en) 2014-10-10 2014-10-10 Object detection device

Country Status (1)

Country Link
JP (1) JP6466679B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067149A (en) * 2017-09-29 2019-04-25 株式会社デンソー Periphery monitoring device and periphery monitoring method of vehicle
WO2020036039A1 (en) * 2018-08-13 2020-02-20 日立オートモティブシステムズ株式会社 Stereo camera device
CN112015170A (en) * 2019-05-29 2020-12-01 北京市商汤科技开发有限公司 Moving object detection and intelligent driving control method, device, medium and equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006134035A (en) * 2004-11-05 2006-05-25 Fuji Heavy Ind Ltd Moving object detecting device and moving object detecting method
JP2007286724A (en) * 2006-04-13 2007-11-01 Hitachi Ltd Onboard information processing method, onboard information processing program, onboard information processor and onboard information processing system
JP2008171140A (en) * 2007-01-10 2008-07-24 Omron Corp Image processing apparatus, method and program
JP2013097392A (en) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp Warning display method and warning display program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006134035A (en) * 2004-11-05 2006-05-25 Fuji Heavy Ind Ltd Moving object detecting device and moving object detecting method
JP2007286724A (en) * 2006-04-13 2007-11-01 Hitachi Ltd Onboard information processing method, onboard information processing program, onboard information processor and onboard information processing system
JP2008171140A (en) * 2007-01-10 2008-07-24 Omron Corp Image processing apparatus, method and program
JP2013097392A (en) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp Warning display method and warning display program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067149A (en) * 2017-09-29 2019-04-25 株式会社デンソー Periphery monitoring device and periphery monitoring method of vehicle
US10776649B2 (en) 2017-09-29 2020-09-15 Denso Corporation Method and apparatus for monitoring region around vehicle
WO2020036039A1 (en) * 2018-08-13 2020-02-20 日立オートモティブシステムズ株式会社 Stereo camera device
JP2020027057A (en) * 2018-08-13 2020-02-20 日立オートモティブシステムズ株式会社 Stereo camera device
CN112513573A (en) * 2018-08-13 2021-03-16 日立汽车系统株式会社 Stereo camera device
CN112513573B (en) * 2018-08-13 2022-06-10 日立安斯泰莫株式会社 Stereo camera device
CN112015170A (en) * 2019-05-29 2020-12-01 北京市商汤科技开发有限公司 Moving object detection and intelligent driving control method, device, medium and equipment
WO2020238008A1 (en) * 2019-05-29 2020-12-03 北京市商汤科技开发有限公司 Moving object detection method and device, intelligent driving control method and device, medium, and apparatus
JP2021528732A (en) * 2019-05-29 2021-10-21 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. Moving object detection and smart driving control methods, devices, media, and equipment

Also Published As

Publication number Publication date
JP6466679B2 (en) 2019-02-06

Similar Documents

Publication Publication Date Title
CN107272021B (en) Object detection using radar and visually defined image detection areas
US9771080B2 (en) Road surface gradient detection device
JP6457278B2 (en) Object detection apparatus and object detection method
US10041791B2 (en) Object detection apparatus method
JP6561512B2 (en) Parallax value deriving device, moving body, robot, parallax value deriving method, parallax value producing method, and program
US9898669B2 (en) Traveling road surface detection device and traveling road surface detection method
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
JP6306735B2 (en) Stereo camera device and vehicle equipped with stereo camera device
US10776649B2 (en) Method and apparatus for monitoring region around vehicle
JP6466679B2 (en) Object detection device
WO2016151976A1 (en) Moving body detection device, image processing device, moving body detection method, and integrated circuit
JP2016062356A (en) Solid object detection device
JP5073700B2 (en) Object detection device
JP2005214914A (en) Traveling speed detecting device and traveling speed detection method
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP6458577B2 (en) Image ranging device
JP6699323B2 (en) Three-dimensional measuring device and three-dimensional measuring method for train equipment
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP2011180835A (en) Device for computing position of target
JP2018092603A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program
JP6561688B2 (en) DETECTING DEVICE, DETECTING METHOD, IMAGING DEVICE, DEVICE CONTROL SYSTEM, AND PROGRAM
JP6405141B2 (en) Imaging apparatus and determination method
JP6273156B2 (en) Pedestrian recognition device
JP2012098207A (en) Position measuring device, position measuring method and marker
JP6442911B2 (en) Parallax value deriving device, moving object, robot, parallax value deriving method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190110

R151 Written notification of patent or utility model registration

Ref document number: 6466679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250