JP2013161190A - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP2013161190A
JP2013161190A JP2012021212A JP2012021212A JP2013161190A JP 2013161190 A JP2013161190 A JP 2013161190A JP 2012021212 A JP2012021212 A JP 2012021212A JP 2012021212 A JP2012021212 A JP 2012021212A JP 2013161190 A JP2013161190 A JP 2013161190A
Authority
JP
Japan
Prior art keywords
dimensional object
change pattern
luminance change
image
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012021212A
Other languages
Japanese (ja)
Inventor
Masakazu Nishijima
征和 西嶋
Akihiro Watanabe
章弘 渡邉
Fumiya Ichino
史也 一野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2012021212A priority Critical patent/JP2013161190A/en
Publication of JP2013161190A publication Critical patent/JP2013161190A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an object recognition device capable of enhancing object recognition accuracy in a distant area.SOLUTION: An object recognition device 1 includes a stereo camera 17, and a processing device 20 that processes images acquired by the stereo camera. The processing device calculates parallax from the two images acquired by the stereo camera, detects a three-dimensional object on the basis of the calculated parallax, generates a luminance change pattern of the three-dimensional object along a horizontal line in one image of the two images acquired by the stereo camera, and executes the search of the luminance change pattern toward a more distant side than a detection position of the three-dimensional object.

Description

本発明は、ステレオカメラを用いる物体認識装置に関する。   The present invention relates to an object recognition apparatus using a stereo camera.

従来から、ステレオカメラから車線候補領域を検出し、視差から算出される立体物の実空間上の大きさが予め設定された閾値以内で、且つ立体物の上下方向の輝度変化が一定のパターンを有する場合にその立体物を走行誘導障害物として検出する技術が知られている(例えば、特許文献1参照)。   Conventionally, a lane candidate area is detected from a stereo camera, and the size of the three-dimensional object in real space calculated from the parallax is within a preset threshold value, and the luminance change in the vertical direction of the three-dimensional object is constant. When it has, the technique which detects the solid object as a driving | running | working guidance obstacle is known (for example, refer patent document 1).

特開2007−280132号公報JP 2007-280132 A

ところで、ステレオカメラで取得した画像における遠方側の領域では立体物であっても十分な視差が得られない場合がある。特に縁石や歩道帯などの高さが低い立体物については、遠方になるにつれて視差に基づく検出が困難となる。   By the way, there is a case where sufficient disparity cannot be obtained even in the case of a three-dimensional object in a far region in an image acquired by a stereo camera. In particular, for a three-dimensional object such as a curb or a sidewalk, the detection based on parallax becomes difficult as the distance increases.

そこで、本発明は、遠方領域における物体認識精度を高めることができる物体認識装置の提供を目的とする。   Accordingly, an object of the present invention is to provide an object recognition apparatus that can improve the object recognition accuracy in a far region.

上記目的を達成するため、本発明の一局面によれば、ステレオカメラと、
前記ステレオカメラにより取得した画像を処理する処理装置とを含み、
前記処理装置は、前記ステレオカメラにより取得した2つの画像から視差を算出し、前記算出した視差に基づいて立体物を検出すると共に、前記ステレオカメラにより取得した2つの画像のうちの一方の画像において、水平ラインに沿った前記立体物の輝度変化パターンを生成し、前記輝度変化パターンの検索を前記立体物の検出位置よりも遠方に向けて実行することを特徴とする、物体認識装置が提供される。
In order to achieve the above object, according to one aspect of the present invention, a stereo camera;
A processing device for processing an image acquired by the stereo camera,
The processing device calculates a parallax from two images acquired by the stereo camera, detects a three-dimensional object based on the calculated parallax, and in one of the two images acquired by the stereo camera. An object recognition device is provided, wherein a brightness change pattern of the three-dimensional object along a horizontal line is generated, and the search of the brightness change pattern is performed farther than a detection position of the three-dimensional object. The

本発明によれば、遠方領域における物体認識精度を高めることができる物体認識装置が得られる。   ADVANTAGE OF THE INVENTION According to this invention, the object recognition apparatus which can improve the object recognition precision in a distant area | region is obtained.

本発明の一実施例による物体認識装置1の要部構成を示した図である。It is the figure which showed the principal part structure of the object recognition apparatus 1 by one Example of this invention. 本実施例のステレオECU20により実現される主要処理の一例を示すフローチャートである。It is a flowchart which shows an example of the main processes implement | achieved by stereo ECU20 of a present Example. エッジ検出結果と立体物検出点の一例を示す図である。It is a figure which shows an example of an edge detection result and a solid-object detection point. 縁石候補領域の設定例を示す図である。It is a figure which shows the example of a setting of a curb candidate area | region. 輝度変化パターンの生成例を示す図である。It is a figure which shows the example of a production | generation of a luminance change pattern. 輝度変化パターンの探索領域の一例を示す図である。It is a figure which shows an example of the search area | region of a luminance change pattern.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明の一実施例による物体認識装置1の要部構成を示した図である。物体認識装置1は、撮像装置10とステレオECU(Electric Control Unit)20を備える。ECUは、中央処理演算装置(CPU)、プログラムを記憶するROM、データを一時的に記憶するRAM、入力インターフェース、出力インターフェースなどの複数の回路要素が一ユニットとして構成されたものである。   FIG. 1 is a diagram showing a main configuration of an object recognition apparatus 1 according to an embodiment of the present invention. The object recognition device 1 includes an imaging device 10 and a stereo ECU (Electric Control Unit) 20. The ECU includes a plurality of circuit elements such as a central processing unit (CPU), a ROM that stores programs, a RAM that temporarily stores data, an input interface, and an output interface as a unit.

撮像装置10は、撮像素子11,12やレンズ15,16を備えるステレオカメラ17を含む。また、撮像装置10は、カメラCPU13、画像出力部14等を有する。撮像素子11,12は、例えば、CCD(Charge Coupled Device)で構成されている。カメラCPU13は、ステレオECU20からの制御信号に基づいてカメラ側の露出等の制御を行う。カメラCPU13は、出力インターフェースである画像出力部14を介して、撮像素子11,12による撮像画像を画像信号としてステレオECU20に送信する。なお、撮像素子は2個に限らず、それ以上の数を有してもよい。また、撮像素子11,12やレンズ15,16は、必ずしも同一のカメラユニット内に配置される必要はなく、車両横方向に離間して配置されていればよい。   The imaging apparatus 10 includes a stereo camera 17 that includes imaging elements 11 and 12 and lenses 15 and 16. The imaging device 10 includes a camera CPU 13 and an image output unit 14. The image sensors 11 and 12 are constituted by, for example, a CCD (Charge Coupled Device). The camera CPU 13 controls the exposure and the like on the camera side based on a control signal from the stereo ECU 20. The camera CPU 13 transmits images captured by the imaging elements 11 and 12 to the stereo ECU 20 as image signals via the image output unit 14 that is an output interface. Note that the number of image pickup devices is not limited to two, and may be greater than that. Further, the imaging elements 11 and 12 and the lenses 15 and 16 are not necessarily arranged in the same camera unit, and may be arranged apart from each other in the vehicle lateral direction.

ステレオECU20は、入力インターフェースである画像入力部21、幾何変換LSI22、画像処理LSI24、各処理部を監督するSV−CPU23等を有する。   The stereo ECU 20 includes an image input unit 21, which is an input interface, a geometric conversion LSI 22, an image processing LSI 24, an SV-CPU 23 that supervises each processing unit, and the like.

撮像装置10の画像出力部14から出力された画像信号は、ステレオECU20の入力インターフェースである画像入力部21に送られる。画像出力部14と画像入力部21は、所定のデジタル伝送方式のインターフェースである。   The image signal output from the image output unit 14 of the imaging device 10 is sent to an image input unit 21 that is an input interface of the stereo ECU 20. The image output unit 14 and the image input unit 21 are predetermined digital transmission system interfaces.

画像信号を受けた画像入力部21は、画像信号の画像データを幾何変換LSI22に送る。幾何変換LSI22は、キャリブレーションデータを用いて、ステレオ演算処理等に使用されるステレオカメラ17の撮像画像から、撮像素子11,12やレンズ15,16等によるハード的な内部誤差要因(レンズ歪み、光軸ずれ、焦点距離ずれ及び撮像素子歪み等)の影響を取り除き、エピポーラ線を画像水平線にあわせる周知の処理を行う。幾何変換LSI22は、メモリ25に記憶された幾何変換用のLUT(Look Up Table)に基づき入力画像を変換する。   Upon receiving the image signal, the image input unit 21 sends image data of the image signal to the geometric transformation LSI 22. The geometric conversion LSI 22 uses the calibration data, and from the captured image of the stereo camera 17 used for the stereo calculation processing or the like, causes a hardware internal error factor (lens distortion, A known process for removing the influence of optical axis deviation, focal distance deviation, image pickup element distortion, etc.) and aligning the epipolar line with the image horizontal line is performed. The geometric conversion LSI 22 converts an input image based on a geometric conversion LUT (Look Up Table) stored in the memory 25.

画像処理LSI24は、幾何変換LSI22からの幾何変換された画像データに基づいて画像認識処理を行う。画像処理プログラムや処理すべき画像はメモリ26に記録され、画像処理LSI24は、それらを読み込んで画像認識処理を行う。画像認識処理は、視差画像(視差情報)に基づく物体認識処理と、輝度変化パターン探索処理とを含む。   The image processing LSI 24 performs image recognition processing based on the geometrically converted image data from the geometric conversion LSI 22. The image processing program and the image to be processed are recorded in the memory 26, and the image processing LSI 24 reads them and performs image recognition processing. The image recognition process includes an object recognition process based on a parallax image (parallax information) and a luminance change pattern search process.

視差画像に基づく物体認識処理は、例えば左右に配置された撮像素子11,12により撮像された一対の画像の相関を求め、同一物体に対する視差に基づいて三角測量の要領でその物体までの距離を算出するものである。つまり、画像処理LSI24は、撮像素子11,12により撮像された一組のステレオ画像から同一の撮像対象物が写っている部分を抽出し、一組のステレオ画像同士でその撮像対象物の同一点を対応づけ、対応づけられた点(対応点)のずれ量(視差)を求めることによって撮像対象物までの距離を算出する。撮像対象物が前方にある場合、撮像素子11による画像と撮像素子12による画像とを重ね合わせると、撮像対象物が左右横方向にずれる。そして、片方の画像を1画素ずつシフトしながら最も重なり合う位置を求める。このときシフトした画素数をnとする。レンズの焦点距離をf、光軸間の距離をm、画素ピッチをdとすると、撮像対象物までの距離Lは、L=(f・m)/(n・d)という関係式が成立する。この(n・d)の項が視差である。輝度変化パターン探索処理については後述する。   In the object recognition processing based on the parallax image, for example, a correlation between a pair of images captured by the imaging elements 11 and 12 arranged on the left and right is obtained, and the distance to the object is calculated in the manner of triangulation based on the parallax with respect to the same object. Is to be calculated. That is, the image processing LSI 24 extracts a portion in which the same imaging object is captured from a set of stereo images captured by the imaging elements 11 and 12, and the same point of the imaging object is detected between the pair of stereo images. Are calculated, and the distance to the imaging target is calculated by obtaining the shift amount (parallax) of the associated point (corresponding point). When the imaging object is in front, when the image by the imaging element 11 and the image by the imaging element 12 are overlapped, the imaging object is shifted in the horizontal direction. Then, the most overlapping position is obtained while shifting one image pixel by pixel. The number of pixels shifted at this time is n. Assuming that the focal length of the lens is f, the distance between the optical axes is m, and the pixel pitch is d, the distance L to the object to be imaged is L = (f · m) / (n · d). . This (n · d) term is parallax. The luminance change pattern search process will be described later.

SV−CPU23は、各処理部を監督(supervisor)するCPUである。画像処理LSI24が兼ねても可である。SV−CPU23は、画像処理LSI24の処理画像に基づいて算出されたカメラ制御値(例えば、露出調整のパラメータであるシャッタスピード情報)を撮像装置10内のカメラCPU13に送信・指示する。   The SV-CPU 23 is a CPU that supervises each processing unit. The image processing LSI 24 may be used as well. The SV-CPU 23 transmits and instructs a camera control value (for example, shutter speed information that is a parameter for exposure adjustment) calculated based on the processed image of the image processing LSI 24 to the camera CPU 13 in the imaging apparatus 10.

このような撮像装置10やステレオECU20を車両に搭載することによって、路上の障害物等の画像認識情報を利用する制御に使用することが可能である。例えば、SV−CPU23が、車内LANを介して、画像認識処理結果(障害物認識結果)を必要とする他のECUにその結果を送信すればよい。他のECUとは、例えば、ACC(オートクルーズコントロール)等の先行車追従システム、衝突回避・衝突軽減システムを制御するECU、車線維持支援システムや車線逸脱警報システムを制御するECU、車間ECU、ブレーキECU等である。   By mounting such an imaging device 10 or stereo ECU 20 on a vehicle, it can be used for control using image recognition information such as obstacles on the road. For example, the SV-CPU 23 may transmit the result to another ECU that requires the image recognition processing result (obstacle recognition result) via the in-vehicle LAN. Other ECUs include, for example, a preceding vehicle following system such as ACC (Auto Cruise Control), an ECU that controls a collision avoidance / collision reduction system, an ECU that controls a lane keeping support system and a lane departure warning system, an inter-vehicle ECU, a brake ECU etc.

図2は、本実施例のステレオECU20により実現される主要処理の一例を示すフローチャートである。図2に示す処理ルーチンは、車両のイグニッションスイッチがオンの間、所定周期毎に繰り返し実行されてもよい。   FIG. 2 is a flowchart showing an example of main processing realized by the stereo ECU 20 of the present embodiment. The processing routine shown in FIG. 2 may be repeatedly executed at predetermined intervals while the ignition switch of the vehicle is on.

ステップ200では、エッジ検出が行われる。エッジ検出は、ステレオカメラ17の撮像素子11,12のいずれかによる画像に対して実行されてよい。ここでは、ステレオカメラ17の撮像素子11よる画像が右側の画像(右画像)であり、撮像素子12よる画像が左側の画像(左画像)であり、右画像を基準画像とする。この場合、エッジ検出は、右画像において実行されてよい。図3(A)は、エッジ検出結果の一例を示す。図中において太線部分E1−E6は、検出されたエッジを示す。図3に示す例では、道路の白線と共に、道路脇の縁石がエッジ検出されている。即ち、図3においては、道路の白線に係るエッジが符合E5,E6で指示され、縁石に係るエッジが符合E1,E2,E3で指示されている。縁石は、エッジE1,E2に係る上縁を有し、エッジE3に係る縁部で道路に繋がっている。即ち、縁石は、エッジE1,E2に係る上縁間の幅を有して道路上に立設されている。   In step 200, edge detection is performed. The edge detection may be performed on an image by any one of the imaging elements 11 and 12 of the stereo camera 17. Here, the image by the imaging device 11 of the stereo camera 17 is the right image (right image), the image by the imaging device 12 is the left image (left image), and the right image is the reference image. In this case, edge detection may be performed on the right image. FIG. 3A shows an example of the edge detection result. In the figure, thick line portions E1-E6 indicate detected edges. In the example shown in FIG. 3, the edge of the roadside curb is detected along with the white line of the road. That is, in FIG. 3, the edges related to the white line of the road are indicated by symbols E5 and E6, and the edges related to the curb are indicated by symbols E1, E2 and E3. The curb has an upper edge related to the edges E1 and E2, and is connected to the road at the edge related to the edge E3. In other words, the curb is erected on the road with a width between the upper edges of the edges E1 and E2.

ステップ202では、ステレオカメラ17の左右の画素の水平方向のずれ量(即ち視差)が算出される。即ち、ステレオカメラ17の撮像素子11,12による各画像間の各対応点の視差が算出され、視差画像が生成される。具体的には、ステップ200でエッジ検出された画素に対応する画素を左画像上で探索して左右画素間の視差を算出する。次に視差の統計(局所領域における視差分布等)を用いて路面点を取り除き、立体物となる点(立体物検出点)のみを検出(抽出)する。図3(B)は、立体物検出点の一例を示す。図中において白い各点は、立体物検出点を示す。図3に示す例では、道路脇の縁石が立体物検出点として検出されている。即ち、縁石の上縁(両側)に沿って立体物検出点が出現している。   In step 202, a horizontal shift amount (that is, parallax) between the left and right pixels of the stereo camera 17 is calculated. That is, the parallax of each corresponding point between each image by the imaging elements 11 and 12 of the stereo camera 17 is calculated, and a parallax image is generated. Specifically, the pixel corresponding to the pixel whose edge is detected in step 200 is searched on the left image, and the parallax between the left and right pixels is calculated. Next, road surface points are removed using parallax statistics (parallax distribution in a local region, etc.), and only points (three-dimensional object detection points) that become solid objects are detected (extracted). FIG. 3B shows an example of a three-dimensional object detection point. Each white point in the figure indicates a three-dimensional object detection point. In the example shown in FIG. 3, a curb on the roadside is detected as a three-dimensional object detection point. That is, solid object detection points appear along the upper edge (both sides) of the curb.

ここで、ステップ202の立体物検出処理は、好ましくは、視差量が十分に大きくなる画素領域内でのみ実行される。例えば、立体物検出処理は、上記ステップ200で算出した視差が一定値以上である画素領域内(即ち近距離領域)でのみ実行される。一定値は、視差情報に基づいて障害物(立体物)を精度良く認識することができる視差の下限値に対応してよい。この一定値は、ステレオカメラ17の撮像素子11,12の性能や要求される精度等に応じて変化し、実験等により適合されてよい。図3に示す例では、近距離領域においてのみ道路脇の縁石が立体物検出点として検出されている。尚、視差が一定値未満の画素領域(遠距離領域)では、道路脇の縁石のような高さの低い立体物の検出は困難である。   Here, the three-dimensional object detection process in step 202 is preferably executed only in a pixel region where the amount of parallax is sufficiently large. For example, the three-dimensional object detection process is executed only in a pixel area (that is, a short distance area) where the parallax calculated in step 200 is a certain value or more. The constant value may correspond to a lower limit value of parallax that can accurately recognize an obstacle (a three-dimensional object) based on parallax information. This constant value changes according to the performance of the image pickup devices 11 and 12 of the stereo camera 17 and the required accuracy, and may be adapted by experiments or the like. In the example shown in FIG. 3, the curb on the roadside is detected as a three-dimensional object detection point only in the short distance region. It should be noted that it is difficult to detect a three-dimensional object having a low height, such as a curb on the side of a road, in a pixel region (a long distance region) where the parallax is less than a certain value.

ステップ204では、立体物検出点を結んだ線(一点鎖線)を中心として左右に広がる縁石候補領域が設定される。縁石候補領域の幅(左右に広がるピクセル数)は、固定値であってもよいし、各立体物検出点の距離に応じて可変されてもよい。後者の場合、立体物検出点の距離が遠くなるほど縁石候補領域の幅が小さくなる態様で可変されてもよい。図4は、縁石候補領域の設定例を示す図である。図4に示す例では、縁石候補領域は、符合70が付された枠内に設定されている。尚、図4に示す例では、立体物検出点を結んだ線(一点鎖線)は、縁石の上縁(両側)の幅方向中心に設定されている。この場合、縁石候補領域の幅(左右に広がるピクセル数)は、縁石の幅に応じた値であってよく、同様に、各立体物検出点の距離に応じて可変されてよい。尚、縁石候補領域の中心ライン(一点鎖線)の決め方は任意であり、縁石候補領域が、縁石候補となる立体物検出点を幅方向の中心付近に含むように設定されていればよい。   In step 204, a curb candidate area extending left and right around the line connecting the three-dimensional object detection points (one-dot chain line) is set. The width of the curb candidate area (the number of pixels extending to the left and right) may be a fixed value or may be varied according to the distance between the three-dimensional object detection points. In the latter case, the width of the curb candidate area may be reduced as the distance between the three-dimensional object detection points increases. FIG. 4 is a diagram illustrating a setting example of a curb candidate area. In the example shown in FIG. 4, the curb candidate area is set within a frame with a reference numeral 70. In the example shown in FIG. 4, the line connecting the three-dimensional object detection points (one-dot chain line) is set at the center in the width direction of the upper edge (both sides) of the curb. In this case, the width of the curb candidate area (the number of pixels spread to the left and right) may be a value corresponding to the width of the curb, and similarly may be varied according to the distance of each three-dimensional object detection point. The method for determining the center line (one-dot chain line) of the curb candidate area is arbitrary, and the curb candidate area only needs to be set so as to include the three-dimensional object detection point that becomes the curb candidate in the vicinity of the center in the width direction.

ステップ206では、上記ステップ204で設定した縁石候補領域内の水平ラインに沿った輝度値が計測され、上記ステップ204で設定した縁石候補領域内の水平ラインに沿った輝度変化パターンが生成され記録される。輝度値を計測する水平ラインの本数は、任意であってよい。例えば、輝度変化パターンは、上記ステップ204で設定した縁石候補領域の上下方向の中心に位置する水平ラインに基づくものであってもよいし、代表となる複数本の水平ラインを決めてそれらの統計値(平均、分散など)に基づくものであってもよい。図5は、輝度変化パターンの生成例を示す図であり、図5(A)は、水平ラインの一例を示し、図5(B)は、輝度変化パターンの一例を示す図である。図5(A)に示す例では、輝度変化パターンを生成するための水平ラインは、符合90を付された矢印で示されている。図5(B)には、横軸に水平ライン上の各画素のX座標(画像平面でのX座標)が示され、縦軸に水平ライン上の各画素の輝度値が示されている。   In step 206, the luminance value along the horizontal line in the curb candidate area set in step 204 is measured, and the luminance change pattern along the horizontal line in the curb candidate area set in step 204 is generated and recorded. The The number of horizontal lines for measuring the luminance value may be arbitrary. For example, the luminance change pattern may be based on a horizontal line positioned at the center in the vertical direction of the curb candidate area set in step 204 above, or a plurality of representative horizontal lines are determined and their statistics are calculated. It may be based on values (average, variance, etc.). FIG. 5 is a diagram illustrating an example of generation of a brightness change pattern, FIG. 5A illustrates an example of a horizontal line, and FIG. 5B illustrates an example of a brightness change pattern. In the example shown in FIG. 5A, a horizontal line for generating a luminance change pattern is indicated by an arrow with a reference numeral 90. In FIG. 5B, the horizontal axis represents the X coordinate of each pixel on the horizontal line (X coordinate on the image plane), and the vertical axis represents the luminance value of each pixel on the horizontal line.

ステップ208では、上記ステップ206で生成された輝度変化パターンに基づいて、同様の輝度変化パターンの存在が遠方に向かって探索される。これは、縁石が遠方まで延在する場合には、縁石に起因した同様の輝度変化パターンが遠方まで延在するはずであるためである。これにより、視差情報だけでは検出が困難な遠方の縁石についても検出することが可能となる。尚、遠方に向かうにつれて縁石の水平方向の画素数が少なくなるので、照合される輝度変化パターンは水平方向で縮小されてよい。尚、上記ステップ206で生成された輝度変化パターンと同様の輝度変化パターンを探索する際、上記ステップ206で生成された輝度変化パターンにおける中心ライン(図5の一点鎖線)付近のパターンが特に重要視されてもよい。即ち、立体物検出点付近の輝度変化パターンに重い重み付けを与える態様で、輝度変化パターンの探索が実行されてもよい。   In step 208, based on the luminance change pattern generated in step 206, the presence of a similar luminance change pattern is searched for far away. This is because when the curb extends far, a similar luminance change pattern due to the curb should extend far. Thereby, it is possible to detect a distant curb that is difficult to detect only by the parallax information. Since the number of pixels in the horizontal direction of the curb decreases with increasing distance, the brightness change pattern to be verified may be reduced in the horizontal direction. It should be noted that when searching for a luminance change pattern similar to the luminance change pattern generated in step 206, the pattern near the center line (the dashed line in FIG. 5) in the luminance change pattern generated in step 206 is particularly important. May be. That is, the search for the luminance change pattern may be performed in a manner in which a heavy weight is given to the luminance change pattern near the three-dimensional object detection point.

本ステップ208において、輝度変化パターンの探索は、輝度変化パターンの探索領域に限定して実行されてよい。図6は、輝度変化パターンの探索領域の一例を示す図である。図6に示す例では、輝度変化パターンの探索領域は、符合80を付された枠内に設定されている。輝度変化パターン探索領域80は、縁石候補領域70を基準に設定されてよい。輝度変化パターン探索領域80は、縁石候補領域70から連続する態様で、縁石候補領域70よりも遠方側の領域(視差が一定値未満である画素領域)に設定される。この際、輝度変化パターン探索領域80は、立体物検出点を結んだ線(図5(A)の一点鎖線参照)の延長線を含む範囲で延在してもよい。   In step 208, the search for the luminance change pattern may be executed only in the search region for the luminance change pattern. FIG. 6 is a diagram illustrating an example of a search region for luminance change patterns. In the example shown in FIG. 6, the search area for the luminance change pattern is set within a frame marked with reference numeral 80. The luminance change pattern search region 80 may be set with the curb candidate region 70 as a reference. The luminance change pattern search region 80 is set to a region farther than the curb candidate region 70 (a pixel region where the parallax is less than a certain value) in a manner that continues from the curb candidate region 70. At this time, the luminance change pattern search region 80 may extend within a range including an extension line of a line connecting the three-dimensional object detection points (refer to a one-dot chain line in FIG. 5A).

ステップ210では、上記ステップ202で検出された立体物(本例の場合、縁石)と、上記ステップ208で探索により検出された立体物とが、縁石領域として確定され、結果が出力される。即ち、上記ステップ206で生成された輝度変化パターンと同様の輝度変化パターンを有する画素領域が、上記ステップ202で検出された立体物検出点の領域と共に縁石領域として確定される。   In Step 210, the solid object detected in Step 202 (in this example, curbstone) and the solid object detected in the search in Step 208 are determined as a curb area, and the result is output. That is, a pixel area having a luminance change pattern similar to the luminance change pattern generated in step 206 is determined as a curb area together with the three-dimensional object detection point area detected in step 202.

以上説明した本実施例の物体認識装置1によれば、とりわけ、以下のような優れた効果が奏される。   According to the object recognition apparatus 1 of the present embodiment described above, the following excellent effects can be obtained.

本実施例によれば、上述の如く、視差量が十分得られない遠方領域においては、近距離領域で視差情報に基づいて検出された立体物の輝度変化パターンに基づいて、同立体物(正確には同立体物の連続部分)が検出されるので、視差量が十分得られない遠方領域においても精度良く立体物を検出することができる。特に縁石や歩道帯などの高さが低い立体物については、遠方になるにつれて視差に基づく検出が困難となるが、本実施例によれば、かかる高さが低い立体物についても、遠方領域において精度良く検出することができる。また、遠方領域における立体物の検出に用いる輝度変化パターンは、上述の如く、近距離領域で視差情報に基づいて検出された立体物の輝度測定値に基づいて生成されるので、立体物を表す輝度変化パターンとしての信頼性が高く、遠方領域において同立体物を高い信頼性で検出することができる。   According to the present embodiment, as described above, in a distant region where a sufficient amount of parallax is not obtained, the same three-dimensional object (accurately based on the luminance change pattern of the three-dimensional object detected based on the disparity information in the short-distance region. In this case, the three-dimensional object can be detected with high accuracy even in a remote area where a sufficient amount of parallax is not obtained. Especially for solid objects such as curbs and sidewalks that are low in height, it becomes difficult to detect based on parallax as the distance increases. It can be detected with high accuracy. In addition, the luminance change pattern used for detecting the three-dimensional object in the far region is generated based on the luminance measurement value of the three-dimensional object detected based on the parallax information in the short-distance region as described above, and thus represents the three-dimensional object. The reliability as a luminance change pattern is high, and the same three-dimensional object can be detected with high reliability in a distant region.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、上述した実施例では、輝度変化パターンを照合して検出される立体物は、縁石であったが、同様の検出方法は、縁石以外の立体物を検出するためにも有効に利用することができる。特に、上述した実施例による検出方法は、道路に沿って近距離から遠方へと連続的に延在する立体物を検出するのに好適である。かかる立体物としては、縁石以外のも、ガードレールや側壁、歩道(段差)等が存在する。尚、立体物が歩道である場合等、立体物検出点は、2本で遠方へと延びる縁石の場合(図3等参照)と異なり、1本で遠方に延びる態様で出現しうる。この場合、縁石候補領域70に相当する領域は、当該1本の立体物検出点を中心として所定の幅で設定されればよい。   For example, in the above-described embodiment, the three-dimensional object detected by collating the brightness change pattern is a curb, but the same detection method should be used effectively to detect a three-dimensional object other than the curb. Can do. In particular, the detection method according to the above-described embodiment is suitable for detecting a three-dimensional object continuously extending along a road from a short distance to a long distance. As such a three-dimensional object, there are a guard rail, a side wall, a sidewalk (step) and the like other than the curb. Note that, in the case where the three-dimensional object is a sidewalk, the three-dimensional object detection point may appear in a mode that extends far by one, unlike a curb that extends far by two (see FIG. 3 and the like). In this case, a region corresponding to the curb candidate region 70 may be set with a predetermined width around the one three-dimensional object detection point.

また、上述した実施例では、処理効率を高めるために、検出された立体物検出点に基づいてこれらの立体物検出点が主に含まれるように範囲を限定した縁石候補領域70を生成し、縁石候補領域70内の水平ラインで輝度変化パターンを生成しているが、画像の端から端までの水平ラインで輝度変化パターンを生成してもよい。   Moreover, in the Example mentioned above, in order to raise processing efficiency, based on the detected solid object detection point, the curb candidate area 70 which limited the range so that these solid object detection points are mainly included is generated, Although the luminance change pattern is generated on the horizontal line in the curb candidate area 70, the luminance change pattern may be generated on the horizontal line from the end to the end of the image.

また、上述した実施例では、処理効率を高めるために、検出された立体物検出点に基づいて、これらが遠方領域において存在する蓋然性が高い領域に、輝度変化パターン探索領域80を設定し、輝度変化パターン探索領域80内で探索を行っている。しかしながら、例えば視差が一定値未満の領域の全体に亘って探索を行ってもよい。即ち、輝度変化パターン探索領域80は任意の態様で設定されてもよい。   Further, in the above-described embodiment, in order to increase the processing efficiency, the luminance change pattern search region 80 is set in a region having a high probability that they exist in the far region based on the detected three-dimensional object detection points, and the luminance The search is performed in the change pattern search area 80. However, for example, the search may be performed over the entire region where the parallax is less than a certain value. That is, the luminance change pattern search area 80 may be set in an arbitrary manner.

また、図1には、特定のハードウェア構成を備える物体認識装置1が開示されているが、物体認識装置1のハードウェア構成は任意であってよい。また、図1に示すハードウェア構成において、カメラCPU13及びステレオECU20の機能分担も任意であり、一方の機能の一部又は全部が他方により実現されてもよい。   Moreover, although the object recognition apparatus 1 provided with a specific hardware configuration is disclosed in FIG. 1, the hardware configuration of the object recognition apparatus 1 may be arbitrary. In the hardware configuration shown in FIG. 1, the function sharing between the camera CPU 13 and the stereo ECU 20 is also arbitrary, and part or all of one function may be realized by the other.

1 物体認識装置
10 撮像装置
11,12 撮像素子
13 カメラCPU
14 画像出力部
15,16 レンズ
17 ステレオカメラ
20 ステレオECU
21 画像入力部
22 幾何変換LSI
23 SV−CPU
24 画像処理LSI
25,26 メモリ
28 EEPROM
70 縁石候補領域
80 輝度変化パターン探索領域
90 水平ライン
DESCRIPTION OF SYMBOLS 1 Object recognition apparatus 10 Imaging device 11, 12 Image sensor 13 Camera CPU
14 Image output unit 15, 16 Lens 17 Stereo camera 20 Stereo ECU
21 Image Input Unit 22 Geometric Transformation LSI
23 SV-CPU
24 Image processing LSI
25, 26 Memory 28 EEPROM
70 Curb candidate area 80 Brightness change pattern search area 90 Horizontal line

Claims (4)

ステレオカメラと、
前記ステレオカメラにより取得した画像を処理する処理装置とを含み、
前記処理装置は、前記ステレオカメラにより取得した2つの画像から視差を算出し、前記算出した視差に基づいて立体物を検出すると共に、前記ステレオカメラにより取得した2つの画像のうちの一方の画像において、水平ラインに沿った前記立体物の輝度変化パターンを生成し、前記輝度変化パターンの検索を前記立体物の検出位置よりも遠方に向けて実行することを特徴とする、物体認識装置。
A stereo camera,
A processing device for processing an image acquired by the stereo camera,
The processing device calculates a parallax from two images acquired by the stereo camera, detects a three-dimensional object based on the calculated parallax, and in one of the two images acquired by the stereo camera. An object recognition apparatus characterized by generating a luminance change pattern of the three-dimensional object along a horizontal line, and executing the search for the luminance change pattern farther than the detection position of the three-dimensional object.
前記処理装置は、算出した視差が所定値以上の近距離の画素領域において、前記立体物を検出し、
前記処理装置は、前記輝度変化パターンの検索を、算出した視差が所定値未満の画素領域において実行する、請求項1に記載の物体認識装置。
The processing device detects the three-dimensional object in a short-distance pixel region where the calculated parallax is a predetermined value or more,
The object recognition device according to claim 1, wherein the processing device executes the search for the luminance change pattern in a pixel region where the calculated parallax is less than a predetermined value.
前記処理装置は、前記輝度変化パターンの検索により、前記輝度変化パターンと同様の輝度変化パターンを有する部分を、前記立体物の連続部分として検出する、請求項1又は2に記載の物体認識装置。   The object recognition device according to claim 1, wherein the processing device detects a portion having a luminance change pattern similar to the luminance change pattern as a continuous portion of the three-dimensional object by searching for the luminance change pattern. 前記立体物は、道路に沿って遠方へと連続的に延在する立体物である、請求項1〜3のうちのいずれか1項に記載の物体認識装置。   The object recognition apparatus according to any one of claims 1 to 3, wherein the three-dimensional object is a three-dimensional object that continuously extends far along a road.
JP2012021212A 2012-02-02 2012-02-02 Object recognition device Pending JP2013161190A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012021212A JP2013161190A (en) 2012-02-02 2012-02-02 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012021212A JP2013161190A (en) 2012-02-02 2012-02-02 Object recognition device

Publications (1)

Publication Number Publication Date
JP2013161190A true JP2013161190A (en) 2013-08-19

Family

ID=49173400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012021212A Pending JP2013161190A (en) 2012-02-02 2012-02-02 Object recognition device

Country Status (1)

Country Link
JP (1) JP2013161190A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015053100A1 (en) * 2013-10-07 2015-04-16 日立オートモティブシステムズ株式会社 Object detection device and vehicle using same
EP2960829A2 (en) 2014-06-24 2015-12-30 Toyota Jidosha Kabushiki Kaisha Lane boundary estimation device and lane boundary estimation method
CN106203398A (en) * 2016-07-26 2016-12-07 东软集团股份有限公司 A kind of detect the method for lane boundary, device and equipment
US9676330B2 (en) 2012-06-19 2017-06-13 Toyota Jidosha Kabushiki Kaisha Roadside object detection apparatus
US11741718B2 (en) 2021-05-18 2023-08-29 Hitachi Astemo, Ltd. Light interference detection during vehicle navigation
WO2023224078A1 (en) * 2022-05-18 2023-11-23 株式会社小糸製作所 Automotive sensing system and method for detecting curb

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9676330B2 (en) 2012-06-19 2017-06-13 Toyota Jidosha Kabushiki Kaisha Roadside object detection apparatus
WO2015053100A1 (en) * 2013-10-07 2015-04-16 日立オートモティブシステムズ株式会社 Object detection device and vehicle using same
JP2015075800A (en) * 2013-10-07 2015-04-20 日立オートモティブシステムズ株式会社 Object detection device and vehicle using object detection device
US9886649B2 (en) 2013-10-07 2018-02-06 Hitachi Automotive Systems, Ltd. Object detection device and vehicle using same
EP2960829A2 (en) 2014-06-24 2015-12-30 Toyota Jidosha Kabushiki Kaisha Lane boundary estimation device and lane boundary estimation method
EP2960829A3 (en) * 2014-06-24 2016-01-20 Toyota Jidosha Kabushiki Kaisha Lane boundary estimation device and lane boundary estimation method
CN106203398A (en) * 2016-07-26 2016-12-07 东软集团股份有限公司 A kind of detect the method for lane boundary, device and equipment
JP2018018483A (en) * 2016-07-26 2018-02-01 東軟集団股▲分▼有限公司 Method, apparatus, and device for detecting lane boundary
US10133941B2 (en) 2016-07-26 2018-11-20 Neusoft Corporation Method, apparatus and device for detecting lane boundary
CN106203398B (en) * 2016-07-26 2019-08-13 东软集团股份有限公司 A kind of method, apparatus and equipment detecting lane boundary
US11741718B2 (en) 2021-05-18 2023-08-29 Hitachi Astemo, Ltd. Light interference detection during vehicle navigation
WO2023224078A1 (en) * 2022-05-18 2023-11-23 株式会社小糸製作所 Automotive sensing system and method for detecting curb

Similar Documents

Publication Publication Date Title
JP5829980B2 (en) Roadside detection device
JP6013884B2 (en) Object detection apparatus and object detection method
JP5863536B2 (en) Outside monitoring device
JP6787157B2 (en) Vehicle control device
JP5561064B2 (en) Vehicle object recognition device
WO2011080943A1 (en) Road-shoulder detecting device and vehicle using road-shoulder detecting device
JP6819281B2 (en) Collision detection device and collision detection system
JP2013161190A (en) Object recognition device
JP2013164351A (en) Stereo parallax calculation device
JP6837262B2 (en) Travelable area detection device and travel support system
US20210042945A1 (en) Stereo camera device
JP2012159469A (en) Vehicle image recognition device
US8160300B2 (en) Pedestrian detecting apparatus
JP2007264712A (en) Lane detector
JP2018060422A (en) Object detection device
JP4956099B2 (en) Wall detector
JP2008309637A (en) Obstruction measuring method, obstruction measuring apparatus, and obstruction measuring system
JP2008027046A (en) Lane recognition device
JP6044084B2 (en) Moving object position and orientation estimation apparatus and method
JP2014130429A (en) Photographing device and three-dimensional object area detection program
JP2017129543A (en) Stereo camera device and vehicle
JP2007310591A (en) Image processor and parking space determination method
JP2013161187A (en) Object recognition device
JP2006072757A (en) Object detection system
JP2019061314A (en) Object distance detection apparatus