JP2016062356A - Solid object detection device - Google Patents

Solid object detection device Download PDF

Info

Publication number
JP2016062356A
JP2016062356A JP2014190403A JP2014190403A JP2016062356A JP 2016062356 A JP2016062356 A JP 2016062356A JP 2014190403 A JP2014190403 A JP 2014190403A JP 2014190403 A JP2014190403 A JP 2014190403A JP 2016062356 A JP2016062356 A JP 2016062356A
Authority
JP
Japan
Prior art keywords
parallax
voting
unit
dimensional object
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014190403A
Other languages
Japanese (ja)
Other versions
JP6396729B2 (en
Inventor
暁彦 永田
Akihiko Nagata
暁彦 永田
裕丈 石神
Hirotake Ishigami
裕丈 石神
白井 孝昌
Takamasa Shirai
孝昌 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2014190403A priority Critical patent/JP6396729B2/en
Publication of JP2016062356A publication Critical patent/JP2016062356A/en
Application granted granted Critical
Publication of JP6396729B2 publication Critical patent/JP6396729B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a solid object detection device capable of detecting even a solid object low in height as a solid object with high accuracy, while maintaining a state in which the solid object and a road surface can be satisfactorily distinguished.SOLUTION: A solid object detection device increases a weight to voting by determining that the continuity of an approximate straight line on the predetermined two-dimensional plane is high and that the closer the inclination is to vertical the more likely the inclination appears to be a solid object, and a parallax calculation point is voted, by reflecting the weight, to each block of a plurality of parallax voting maps disposed with a plurality of predetermined blocks set so as to be long in side according as the parallax value increases, and in a parallax voting map, the number of votes of the parallax calculation point gives an attribute of the solid body exceeding a predetermined threshold value, and a position in a three-dimensional space of the solid body is obtained from information of the block given with the attribute of the solid body, thereby detecting the solid body.SELECTED DRAWING: Figure 1

Description

本発明は、立体物検出装置に関する。   The present invention relates to a three-dimensional object detection device.

従来、車両周辺の対象物が立体物であるか路面であるかを判定する車両用の対象物判定装置が報告されている(特許文献1等)。   Conventionally, an object determination device for a vehicle that determines whether an object around the vehicle is a three-dimensional object or a road surface has been reported (Patent Document 1, etc.).

例えば、特許文献1に記載の技術では、2台のカメラで異なる視点の各々から車両周辺の対象物を撮影することにより、視差を有する左右画像を取得し、左右画像の各々において対応した点における視差を演算する。そして、一方の辺が視差、他方の辺が画像の横方向の位置に各々対応し、かつ視差が大きくなるに従って視差に対応する辺及び横方向の位置に対応する辺が長くなるように定められたブロックを複数配列した視差投票マップを設定し、この視差投票マップの各々のブロックに、視差が演算された視差算出点に関する情報を投票する。そして、視差投票マップにおいて、視差算出点の投票数が閾値以上のブロックであって、投票された視差算出点の視差方向への分布が小さくかつ画像の縦方向への分布が大きい第1ブロックには立体物の属性を付与し、投票された視差算出点の視差方向への分布が大きくかつ画像の縦方向への分布が小さい第2ブロックには路面の属性を付与して、立体物か路面かを判定している。   For example, in the technique described in Patent Document 1, left and right images having parallax are obtained by photographing objects around a vehicle from each of different viewpoints with two cameras, and points corresponding to each of the left and right images are obtained. Calculate the parallax. One side corresponds to the parallax, the other side corresponds to the horizontal position of the image, and the side corresponding to the parallax and the side corresponding to the horizontal position become longer as the parallax increases. A parallax voting map in which a plurality of blocks are arranged is set, and information on the parallax calculation point where the parallax is calculated is voted for each block of the parallax voting map. Then, in the parallax voting map, a block having a parallax calculation point voting number equal to or greater than a threshold value, the distribution of the voted parallax calculation points being small in the parallax direction and having a large distribution in the vertical direction of the image Gives the attribute of a three-dimensional object, and assigns the attribute of the road surface to the second block having a large distribution in the parallax direction of the voted parallax calculation points and a small distribution in the vertical direction of the image. Judging.

ここで、立体物であれば、画像奥行方向の距離が変わらないので視差値がほぼ一定になり、路面であれば、画像奥行方向の距離が変わるので、視差値が変化する。そのため、立体物の視差算出点は、実空間座標において距離方向の広がりが小さくかつ高さ方向に大きく広がって分布する、すなわち、画像上で視差方向への分布が小さくかつ縦方向への分布が大きいという特性がある。一方、路面の視差算出点は、実空間座標において高さ方向の広がりが小さくかつ距離方向に大きく広がって分布する、すなわち、画像上で縦方向への分布が小さくかつ視差方向への分布が大きいという特性がある。   Here, in the case of a three-dimensional object, the distance in the image depth direction does not change, so that the parallax value is substantially constant. In the case of a road surface, the distance in the image depth direction changes, and thus the parallax value changes. For this reason, the parallax calculation points of the three-dimensional object are distributed with a small spread in the distance direction and a large spread in the height direction in the real space coordinates, that is, a small distribution in the parallax direction and a vertical distribution on the image. There is a characteristic that it is large. On the other hand, the parallax calculation points on the road surface have a small spread in the height direction and a large spread in the distance direction in real space coordinates, that is, a small distribution in the vertical direction and a large distribution in the parallax direction on the image. There is a characteristic.

このような特性に着目して、特許文献1に記載の従来の対象物判定装置では、視差投票マップにおいて、視差算出点の投票数が閾値以上のブロックであって、投票された視差算出点の視差方向への分布が小さくかつ画像の縦方向への分布が大きい第1ブロックには立体物の属性を付与することで、立体物を検出している。一方、投票された視差算出点の視差方向への分布が大きくかつ画像の縦方向への分布が小さい第2ブロックに路面の属性を付与することで、路面を検出している。なお、視差算出マップにおいて、視差算出点の投票数が閾値以上の場合、左右画像間で対応がとれた視差算出点の個数が多いことから立体物か路面かの判定が可能であるものの、視差算出点の投票数が閾値未満の場合、左右画像間で対応がとれた視差算出点の個数が少ないことから立体物か路面かの判定が困難なノイズとなる可能性が高い。   Focusing on such characteristics, in the conventional object determination device described in Patent Document 1, in the parallax voting map, the number of votes of the parallax calculation points is a block having a threshold value or more, and A solid object is detected by assigning a solid object attribute to the first block having a small distribution in the parallax direction and a large distribution in the vertical direction of the image. On the other hand, the road surface is detected by assigning the attribute of the road surface to the second block having a large distribution in the parallax direction of the voted parallax calculation points and a small distribution in the vertical direction of the image. In the parallax calculation map, when the number of votes of the parallax calculation points is equal to or greater than the threshold, it is possible to determine whether the object is a three-dimensional object or a road surface because there are a large number of parallax calculation points corresponding to the left and right images. When the number of votes of calculation points is less than the threshold value, there is a high possibility that it is difficult to determine whether the object is a three-dimensional object or a road surface because the number of parallax calculation points that correspond between the left and right images is small.

特開2006−236104号公報JP 2006-236104 A

しかしながら、従来技術(特許文献1等)においては、対象物のうち立体物と路面とを区別して検出可能であるものの、立体物のうち路肩や路上落下物等といった高さの低い立体物については検出精度が低くなるという改善点を有していた。   However, in the prior art (Patent Document 1 and the like), although it is possible to detect the solid object and the road surface among the objects, the three-dimensional object has a low height such as a road shoulder or a fallen object on the road. It had the improvement that detection accuracy became low.

ここで、高さの低い立体物を検出するためには、特許文献1に記載の従来の対象物判定装置では、立体物を検出するための条件を緩める処置が考えられる。例えば、視差算出マップにおいて、一定数以上の視差算出点が投票されたブロックであることを判定するための閾値を低く設定したり、立体物の属性を付与する第1ブロックを判定するための閾値が低くなるように調整するといった処置が考えられる。しかし、このような処置を行うと、高さの低い立体物を検出可能となるものの、同時にノイズを拾い易くなり、路面勾配自体を立体物として検出してしまう等といったような立体物の誤検出が増加してしまう。よって、高さの低い立体物を検出するために、立体物の検出条件を規定する各種閾値が低くなるように調整する処置を行うと、立体物の誤検出を増加させて立体物の検出精度を下げてしまうことになる。また、立体物の誤検出結果を含む対象物判定結果が、運転支援に利用されることは、安全上望ましくない。このように、従来の対象物判定装置おいては、立体物と路面とを区別可能であり、且つ、高さの低い立体物についても検出可能な技術が求められていた。   Here, in order to detect a three-dimensional object with a low height, in the conventional object determination device described in Patent Document 1, a measure for relaxing the condition for detecting a three-dimensional object can be considered. For example, in the parallax calculation map, a threshold for determining that a predetermined number or more of parallax calculation points are voted blocks is set low, or a threshold for determining a first block to which a solid object attribute is assigned. It is possible to take measures such as adjusting so as to be low. However, if such a procedure is performed, a three-dimensional object with a low height can be detected, but at the same time, it becomes easy to pick up noise, and the road surface gradient itself is detected as a three-dimensional object. Will increase. Therefore, in order to detect a three-dimensional object with a low height, if a procedure for adjusting various thresholds that define the detection condition of the three-dimensional object is performed, the detection accuracy of the three-dimensional object is increased by increasing false detection of the three-dimensional object. Will be lowered. Moreover, it is not desirable for safety that the object determination result including the erroneous detection result of the three-dimensional object is used for driving support. As described above, in the conventional object determination device, a technique capable of distinguishing a three-dimensional object from a road surface and capable of detecting a three-dimensional object having a low height has been demanded.

本発明は、上記の事情に鑑みてなされたものであって、立体物と路面とを良好に区別可能な状態を維持しつつ、高さの低い立体物についても立体物として高精度に検出可能な立体物検出装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and can detect a three-dimensional object having a low height as a three-dimensional object with high accuracy while maintaining a state in which the three-dimensional object and the road surface can be distinguished well. An object of the present invention is to provide a three-dimensional object detection device.

本発明の立体物検出装置は、ステレオカメラ撮像部と、前記ステレオカメラ撮像部によって取得された画像に基づいて、当該画像を構成する所定の画素領域ごとに視差値を算出する視差値算出部と、前記画像を縦方向に前記画素領域を含むように複数分割した所定の縦列領域を抽出し、当該縦列領域ごとに、前記画像の各画素領域の画素位置情報に含まれる縦座標を縦軸に投影し、且つ、当該縦座標に各々対応する前記視差値を横軸に投影した2次元平面を設定し、当該2次元平面上において、投影した前記縦座標及び前記視差値に基づいて直線近似を行うことで、投影した前記縦座標及び前記視差値からなる近似直線を生成する近似直線生成部と、前記2次元平面上において生成された前記近似直線について、当該近似直線の傾きと長さから投票による立体物判定に寄与する重みを算出する投票重み算出部と、前記視差値と前記画像の各画素領域の画素位置情報に含まれる横座標とによって定められたブロックを複数配列した視差投票マップを設定し、当該視差投票マップの各々のブロックに対して、視差算出点を、前記投票重み算出部で算出した前記重みを反映して投票する視差算出点投票部と、前記視差投票マップにおいて、前記視差算出点の投票数が所定の閾値以上のブロックの情報に基づいて立体物を検出する立体物検出部と、を備えることを特徴とする。   The three-dimensional object detection device of the present invention includes a stereo camera imaging unit, and a parallax value calculation unit that calculates a parallax value for each predetermined pixel region that constitutes the image, based on an image acquired by the stereo camera imaging unit. , Extracting a predetermined vertical region obtained by dividing the image so as to include the pixel region in the vertical direction, and for each vertical region, the vertical axis included in the pixel position information of each pixel region of the image A two-dimensional plane that is projected and the parallax values corresponding to the respective ordinates are projected on the horizontal axis is set, and linear approximation is performed on the two-dimensional plane based on the projected ordinates and the parallax values. By performing, an approximate straight line generating unit that generates an approximate straight line composed of the projected ordinate and the parallax value, and the approximate straight line generated on the two-dimensional plane, the inclination and length of the approximate straight line A voting weight calculation unit that calculates weights that contribute to solid object determination by voting, and a parallax voting map in which a plurality of blocks defined by the parallax values and abscissas included in pixel position information of each pixel area of the image are arranged A parallax calculation point voting unit that reflects the weight calculated by the voting weight calculation unit for each block of the parallax voting map, and the parallax voting map, And a three-dimensional object detection unit that detects a three-dimensional object based on information of a block whose number of votes of the parallax calculation point is equal to or greater than a predetermined threshold.

上記立体物検出装置において、前記投票重み算出部は、前記近似直線の長さが所定の閾値以上の場合に、前記近似直線の傾きを表す、視差の変化量に対する縦座標の変化量が大きいほど、前記重みを重くすることが好ましい。   In the above three-dimensional object detection device, the voting weight calculation unit increases the amount of change in the ordinate relative to the amount of change in parallax, which represents the slope of the approximate line when the length of the approximate line is equal to or greater than a predetermined threshold. It is preferable to increase the weight.

本発明にかかる立体物検出装置によれば、立体物と路面とを良好に区別可能な状態を維持しつつ、高さの低い立体物についても立体物として検出され易くなるようにすることができる。これにより、高さの低い立体物の検出精度を向上させることができ、その結果、より好適に立体物を検出できるという効果を奏する。   According to the three-dimensional object detection apparatus according to the present invention, it is possible to easily detect a three-dimensional object having a low height as a three-dimensional object while maintaining a state in which the three-dimensional object and the road surface can be distinguished well. . Thereby, the detection accuracy of a three-dimensional object with a low height can be improved, and as a result, there is an effect that a three-dimensional object can be detected more suitably.

図1は、実施形態に係る立体物検出装置の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a three-dimensional object detection device according to an embodiment. 図2は、実施形態に係る2次元平面上で生成される近似直線の一例を示す図である。FIG. 2 is a diagram illustrating an example of an approximate line generated on the two-dimensional plane according to the embodiment. 図3は、実施形態に係る視差投票マップの一例を示す図である。FIG. 3 is a diagram illustrating an example of a parallax voting map according to the embodiment. 図4は、実施形態に係る立体物検出装置の基本処理の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of basic processing of the three-dimensional object detection device according to the embodiment.

以下に、本発明にかかる立体物検出装置の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記の実施形態における構成要素には、当業者が容易に想定できるものあるいは実質的に同一のものが含まれる。   Hereinafter, embodiments of a three-dimensional object detection device according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment. In addition, constituent elements in the following embodiments include those that can be easily assumed by those skilled in the art or those that are substantially the same.

[実施形態]
図1〜図3を参照して、実施形態に係る立体物検出装置の構成について説明する。ここで、図1は、実施形態に係る立体物検出装置の構成の一例を示す図である。図2は、実施形態に係る2次元平面上で生成される近似直線の一例を示す図である。図3は、実施形態に係る視差投票マップの一例を示す図である。
[Embodiment]
With reference to FIGS. 1-3, the structure of the solid-object detection apparatus which concerns on embodiment is demonstrated. Here, FIG. 1 is a diagram illustrating an example of a configuration of the three-dimensional object detection device according to the embodiment. FIG. 2 is a diagram illustrating an example of an approximate line generated on the two-dimensional plane according to the embodiment. FIG. 3 is a diagram illustrating an example of a parallax voting map according to the embodiment.

本実施形態における立体物検出装置は、車両(自車両)に搭載され、典型的には、ステレオカメラ撮像部1と、車両運動量検出装置2と、ECU3と、アクチュエータ4と、を備える。   The three-dimensional object detection device in the present embodiment is mounted on a vehicle (host vehicle), and typically includes a stereo camera imaging unit 1, a vehicle momentum detection device 2, an ECU 3, and an actuator 4.

ステレオカメラ撮像部1は、車両の周囲環境を撮像する。本実施形態においては、ステレオカメラ撮像部1が2つのカメラから構成されている例を説明する。ステレオカメラ撮像部1は、撮像可能な右カメラ1aと左カメラ1bとから構成される。右カメラ1aは、車両前方右側に設置され、左カメラ1bは、車両前方左側に設置される。右カメラ1a及び左カメラ1bは、例えば、ステレオカメラである。右カメラ1aは、車両の進行方向を撮像した画像である輝度画像RをECU3へ出力する。左カメラ1bは、車両の進行方向を撮像した画像である輝度画像LをECU3へ出力する。なお、ステレオカメラ撮像部1は、2つのカメラを具備している例に限定されず、後述のECU3の処理により視差を算出可能であれば、2つ以上のカメラを具備してもよい。   The stereo camera imaging unit 1 images the surrounding environment of the vehicle. In the present embodiment, an example in which the stereo camera imaging unit 1 is composed of two cameras will be described. The stereo camera imaging unit 1 includes a right camera 1a and a left camera 1b that can be imaged. The right camera 1a is installed on the right side in front of the vehicle, and the left camera 1b is installed on the left side in front of the vehicle. The right camera 1a and the left camera 1b are, for example, stereo cameras. The right camera 1a outputs a luminance image R that is an image obtained by capturing the traveling direction of the vehicle to the ECU 3. The left camera 1b outputs a luminance image L, which is an image obtained by capturing the traveling direction of the vehicle, to the ECU 3. Note that the stereo camera imaging unit 1 is not limited to the example including two cameras, and may include two or more cameras as long as the parallax can be calculated by processing of the ECU 3 described later.

車両運動量検出装置2は、車両運動量を示す各種情報(車速やヨーレートや加速度等)を検出する。車両運動量検出装置2は、車速センサ2aとヨーレートセンサ2bと加速度センサ2cを少なくとも含んで構成される。車速センサ2aは、車輪毎に設けられ、夫々の車輪速度を検出する車輪速度検出装置である。各車速センサ2aは、各車輪の回転速度である車輪速度を検出する。各車速センサ2aは、検出した各車輪の車輪速度を示す車輪速信号をECU3へ出力する。ECU3は、各車速センサ2aから入力される各車輪の車輪速度に基づいて、車両の走行速度である車速を算出する。ECU3は、各車速センサ2aのうち少なくとも1つから入力される車輪速度に基づいて車速を算出してもよい。ECU3は、算出した車速を車両の運動情報として取得する。ヨーレートセンサ2bは、車両のヨーレートを検出するヨーレート検出装置である。ヨーレートセンサ2bは、検出したヨーレートを示すヨーレート信号をECU3へ出力する。ECU3は、入力されたヨーレート信号を車両の運動情報として取得する。加速度センサ2cは、車体にかかる加速度を検出する加速度検出装置である。加速度センサ2cは、検出した加速度を示す加速度信号をECU3へ出力する。ECU3は、入力された加速度信号を車両の運動情報として取得する。   The vehicle momentum detection device 2 detects various information (vehicle speed, yaw rate, acceleration, etc.) indicating the vehicle momentum. The vehicle momentum detection device 2 includes at least a vehicle speed sensor 2a, a yaw rate sensor 2b, and an acceleration sensor 2c. The vehicle speed sensor 2a is a wheel speed detection device that is provided for each wheel and detects each wheel speed. Each vehicle speed sensor 2a detects a wheel speed that is a rotational speed of each wheel. Each vehicle speed sensor 2a outputs a wheel speed signal indicating the detected wheel speed of each wheel to the ECU 3. The ECU 3 calculates the vehicle speed, which is the traveling speed of the vehicle, based on the wheel speed of each wheel input from each vehicle speed sensor 2a. The ECU 3 may calculate the vehicle speed based on the wheel speed input from at least one of the vehicle speed sensors 2a. The ECU 3 acquires the calculated vehicle speed as vehicle motion information. The yaw rate sensor 2b is a yaw rate detection device that detects the yaw rate of the vehicle. The yaw rate sensor 2b outputs a yaw rate signal indicating the detected yaw rate to the ECU 3. The ECU 3 acquires the input yaw rate signal as vehicle motion information. The acceleration sensor 2c is an acceleration detection device that detects acceleration applied to the vehicle body. The acceleration sensor 2c outputs an acceleration signal indicating the detected acceleration to the ECU 3. The ECU 3 acquires the input acceleration signal as vehicle motion information.

ECU3は、車両の各部の駆動を制御するものであり、CPU、ROM、RAM及びインターフェースを含む周知のマイクロコンピュータを主体とする電子制御ユニットである。ECU3は、ステレオカメラ撮像部1および車両運動量検出装置2と電気的に接続され、検出結果に対応した電気信号が入力される。そして、ECU3は、検出結果に対応した電気信号に応じて各種演算処理を行い、演算結果に対応した制御指令を出力することで、ECU3と電気的に接続されたアクチュエータ4の作動を制御する。例えば、ECU3は、この演算処理結果に基づいた制御信号をアクチュエータ4へ出力して、アクチュエータ4を作動させることで車両の挙動を制御する運転支援制御を行う。   The ECU 3 controls the driving of each part of the vehicle, and is an electronic control unit mainly composed of a known microcomputer including a CPU, a ROM, a RAM, and an interface. The ECU 3 is electrically connected to the stereo camera imaging unit 1 and the vehicle momentum detection device 2 and receives an electric signal corresponding to the detection result. The ECU 3 performs various arithmetic processes according to the electrical signal corresponding to the detection result, and outputs a control command corresponding to the calculation result, thereby controlling the operation of the actuator 4 electrically connected to the ECU 3. For example, the ECU 3 outputs a control signal based on the calculation processing result to the actuator 4 and performs driving support control for controlling the behavior of the vehicle by operating the actuator 4.

ECU3の各種処理部の詳細について説明する。ECU3は、輝度画像取得部3aと、視差値算出部3bと、近似直線生成部3cと、投票重み算出部3dと、視差算出点投票部3eと、立体物検出部3fと、車両制御部3iと、を少なくとも備える。ここで、立体物検出部3fは、属性付与部3gと、三次元位置算出部3h、とを更に備える。   Details of various processing units of the ECU 3 will be described. The ECU 3 includes a luminance image acquisition unit 3a, a parallax value calculation unit 3b, an approximate straight line generation unit 3c, a voting weight calculation unit 3d, a parallax calculation point voting unit 3e, a three-dimensional object detection unit 3f, and a vehicle control unit 3i. And at least. Here, the three-dimensional object detection unit 3f further includes an attribute assignment unit 3g and a three-dimensional position calculation unit 3h.

ECU3のうち、輝度画像取得部3aは、ステレオカメラ撮像部1の右カメラ1a及び左カメラ1bからそれぞれ出力される輝度画像Rおよび輝度画像Lを取得する。輝度画像取得部3aは、更に、画像歪補正処理として、右カメラ1aと左カメラ1bのレンズ歪みがなくなるように輝度画像Rおよび輝度画像Lを補正し、右カメラ1aと左カメラ1bの光軸が平行になるように輝度画像Rおよび輝度画像Lを補正する処理を行う機能も有する。輝度画像取得部3aにより取得されかつ歪みを補正された輝度画像Rおよび輝度画像Lは、視差値算出部3bの処理に用いられる。   In the ECU 3, the luminance image acquisition unit 3a acquires the luminance image R and the luminance image L output from the right camera 1a and the left camera 1b of the stereo camera imaging unit 1, respectively. The luminance image acquisition unit 3a further corrects the luminance image R and the luminance image L so as to eliminate lens distortion of the right camera 1a and the left camera 1b as image distortion correction processing, and the optical axes of the right camera 1a and the left camera 1b. Also has a function of performing a process of correcting the luminance image R and the luminance image L so that they are parallel to each other. The luminance image R and the luminance image L acquired by the luminance image acquisition unit 3a and corrected for distortion are used for processing of the parallax value calculation unit 3b.

視差値算出部3bは、車両の周囲環境を撮像した、ステレオカメラ撮像部1から得られた複数の輝度画像(例えば、輝度画像Rおよび輝度画像L)に基づいて、当該輝度画像を構成する所定の画素領域ごとに、視差値を算出する。   The parallax value calculation unit 3b captures a surrounding environment of the vehicle and based on a plurality of luminance images (for example, the luminance image R and the luminance image L) obtained from the stereo camera imaging unit 1, a predetermined luminance image is configured. A parallax value is calculated for each pixel region.

なお、本実施形態において、所定の画素領域は、単一画素であってもよいし、複数画素のまとまりであってもよい。また、所定の画素領域は、視差を算出する際に、複数の輝度画像間で共通の大きさとなる領域に設定されるものとする。例えば、輝度画像Lの画素領域を単一画素とした場合、輝度画像Rの画素領域も単一画素となる。また、輝度画像Lの画素領域を複数画素のまとまりとした場合、輝度画像Rの画素領域も輝度画像Lと同じ大きさとなる複数画像のまとまりとなる。例えば、輝度画像Lの画素領域を、2×2(x方向に2つの単一画素、y方向に2つの単一画素)の4個の複数画素のまとまりとする場合、輝度画像Rの画素領域も2×2の4個の複数画素のまとまりとなる。この他、画素領域は、例えば、3×3の9個の複数画素のまとまりであってもよいし、4×4の16個の複数画素のまとまりであってもよいし、5×5の25個の複数画素のまとまりであってもよい。   In the present embodiment, the predetermined pixel region may be a single pixel or a group of a plurality of pixels. The predetermined pixel area is set to an area having a common size among a plurality of luminance images when calculating the parallax. For example, when the pixel area of the luminance image L is a single pixel, the pixel area of the luminance image R is also a single pixel. When the pixel area of the luminance image L is a group of a plurality of pixels, the pixel area of the luminance image R is also a group of a plurality of images having the same size as the luminance image L. For example, when the pixel area of the luminance image L is a group of four pixels of 2 × 2 (two single pixels in the x direction and two single pixels in the y direction), the pixel area of the luminance image R Is a group of four 2 × 2 pixels. In addition, the pixel region may be, for example, a group of 9 × 3 × 3 pixels, a group of 16 × 4 × 4 pixels, or 5 × 5 × 25. It may be a group of a plurality of pixels.

ECU3のうち、視差値算出部3bは、当該技術分野で公知の視差算出手法(例えば、エピポーラ線に沿ったブロックマッチング法や、Semi−Global Matching法等)を用いて、視差値を算出する。本実施形態では、後述の連続性・傾き判定部3dにより、近似直線の連続性を判定することから、比較的画像の広い領域で滑らかな視差が算出されるSemi−Global Matching法を用いることが好ましい。   In the ECU 3, the parallax value calculation unit 3b calculates a parallax value by using a parallax calculation method known in the technical field (for example, a block matching method along an epipolar line, a Semi-Global Matching method, or the like). In this embodiment, since the continuity of the approximate straight line is determined by the continuity / tilt determination unit 3d described later, the Semi-Global Matching method in which smooth parallax is calculated in a relatively wide area of the image is used. preferable.

ここで、視差値算出部3bによる視差の算出処理の詳細について説明する。視差値算出部3bは、輝度画像取得部3aにより取得されかつ歪み補正された輝度画像Rおよび輝度画像Lに基づいて、視差を算出する。本実施形態において、視差値算出部3bは、輝度画像Lおよび輝度画像Rの何れか一方のみをベースとして視差を算出する。言い換えると、視差値算出部3bは、輝度画像Lおよび輝度画像Rの両方に基づいて輝度画像Lをベースとして視差を算出するか、又は、輝度画像Lおよび輝度画像Rの両方に基づいて輝度画像Rをベースとして視差を算出する。   Here, details of the parallax calculation processing by the parallax value calculation unit 3b will be described. The parallax value calculation unit 3b calculates the parallax based on the luminance image R and the luminance image L acquired by the luminance image acquisition unit 3a and subjected to distortion correction. In the present embodiment, the parallax value calculation unit 3b calculates the parallax based on only one of the luminance image L and the luminance image R. In other words, the parallax value calculation unit 3b calculates the parallax based on the luminance image L based on both the luminance image L and the luminance image R, or the luminance image based on both the luminance image L and the luminance image R. Parallax is calculated based on R.

具体的には、視差値算出部3bは、輝度画像Lと輝度画像Rの間で対応する画素領域を探索し、探索した対応する画素領域ごとに、対応する画素領域が輝度画像Lと輝度画像Rの間でどの程度ずれているかを示すズレ量を視差値D(x,y)として算出する。例えば、視差値算出部3bは、輝度画像Lをベースとして視差を算出する場合、対応する画素領域間で、輝度画像Lから輝度画像Rまでのズレ量を視差値D(x,y)として算出する。なお、輝度画像Rをベースとして視差を算出する場合、対応する画素領域間で、輝度画像Rから輝度画像Lまでのズレ量を視差値D(x,y)として算出すればよい。更に、視差値算出部3bは、算出した視差値D(x,y)を、輝度画像L及び輝度画像Rのうち一方の輝度画像(すなわち、視差算出のベースとした輝度画像)における画素領域の画素位置情報(x,y)(すなわち、視差値D(x,y)が算出された視差算出点(x,y))ごとに紐付ける処理を行う。   Specifically, the parallax value calculation unit 3b searches for a corresponding pixel area between the luminance image L and the luminance image R, and for each corresponding pixel area searched, the corresponding pixel area is the luminance image L and the luminance image. The amount of deviation indicating how much is deviated between R is calculated as the parallax value D (x, y). For example, when calculating the parallax based on the luminance image L, the parallax value calculation unit 3b calculates the amount of deviation from the luminance image L to the luminance image R as the parallax value D (x, y) between the corresponding pixel regions. To do. When calculating the parallax based on the luminance image R, the amount of deviation from the luminance image R to the luminance image L between the corresponding pixel regions may be calculated as the parallax value D (x, y). Further, the parallax value calculation unit 3b uses the calculated parallax value D (x, y) of the pixel area in one of the luminance image L and the luminance image R (that is, the luminance image based on the parallax calculation). A process of associating each pixel position information (x, y) (that is, the parallax calculation point (x, y) where the parallax value D (x, y) is calculated) is performed.

より具体的には、視差値算出部3bは、ステレオカメラ撮像部1によって取得された画像(輝度画像)の輝度値情報に基づいて、当該画像を構成する部分的な画素領域ごとに視差値を算出する過程で以下の処理を行う。視差値算出部3bは、当該部分的な画素領域における視差値を暫定的に算出する。そして、視差値算出部3bは、当該暫定的に算出された視差値である暫定視差値と、当該部分的な画素領域から所定の画像範囲内に位置する画素領域のうち少なくとも近接位置の画素領域において、当該視差値算出部3bによって既に算出された視差値である周辺視差値と、の比較に基づいて当該暫定視差値を補正することによって、当該部分的な画素領域における視差値を算出する。このように算出された視差値は、後述の近似直線生成部3cにより近似直線を生成する際等に用いられる。   More specifically, the parallax value calculation unit 3b calculates a parallax value for each partial pixel area constituting the image based on the luminance value information of the image (luminance image) acquired by the stereo camera imaging unit 1. The following processing is performed in the calculation process. The parallax value calculation unit 3b provisionally calculates the parallax value in the partial pixel region. Then, the parallax value calculation unit 3b includes a provisional parallax value, which is the provisionally calculated parallax value, and a pixel area at least in the vicinity of the pixel area located within the predetermined image range from the partial pixel area. The parallax value in the partial pixel region is calculated by correcting the temporary parallax value based on the comparison with the peripheral parallax value that has already been calculated by the parallax value calculation unit 3b. The parallax value calculated in this way is used when an approximate line is generated by an approximate line generation unit 3c described later.

ECU3のうち、近似直線生成部3cは、図2の上図に示すように、画像(すなわち、視差を算出した際にベースにした輝度画像L又は輝度画像R)を縦方向に画素領域を含むように複数分割した所定の縦列領域(図2において、画像の縦方向に引かれた黒線の領域)を抽出する。ここで、縦列領域は、所定幅を有する画像中の縦列に対応する領域が、画像中で等間隔おきに複数設定されるものとする。画像中で抽出される縦列領域の数は、当該縦列領域の所定幅と画像の幅に応じて決定される。   As shown in the upper diagram of FIG. 2, the approximate line generation unit 3 c of the ECU 3 includes a pixel region in the vertical direction of the image (that is, the luminance image L or the luminance image R based on the parallax calculation). In this way, a predetermined vertical region (a black line region drawn in the vertical direction of the image in FIG. 2) is extracted. Here, it is assumed that a plurality of regions corresponding to columns in an image having a predetermined width are set at regular intervals in the image. The number of column regions extracted in the image is determined according to the predetermined width of the column region and the width of the image.

そして、近似直線生成部3cは、図2の下図に示すように、当該縦列領域ごとに、画像の各画素領域の画素位置情報に含まれる縦座標(図2において、y座標)を縦軸に投影し、且つ、当該縦座標に各々対応する視差値を横軸に投影した2次元平面を設定する。ここで、2次元平面は、画像の一方の端(例えば、左端)から他方の端(例えば、右端)に向かう順で、各縦列領域に関して夫々設定される。図2の下図は、画像から複数抽出された縦列領域のうち、一例として、画像中の路面部分と立体物部分(図2において、対向車線を走行する相手車両)と背景部分とを跨ぐように設定された、画像の左端からカウントして23番目の縦列領域に関する2次元平面を示している。近似直線生成部3cは、縦列領域に沿って下から上に向かう順で、当該縦列領域内における画素領域の画素位置情報に含まれる縦座標と、当該縦座標に各々対応する視差値とを抽出しながら、これら縦座標と視差値を2次元平面上にプロットする。   Then, as shown in the lower diagram of FIG. 2, the approximate straight line generation unit 3 c uses the ordinate (y coordinate in FIG. 2) included in the pixel position information of each pixel region of the image as the vertical axis for each column region. A two-dimensional plane is set on which the parallax values corresponding to the ordinates are projected on the horizontal axis. Here, the two-dimensional plane is set for each column area in the order from one end (for example, the left end) of the image to the other end (for example, the right end). The lower diagram in FIG. 2 shows, as an example, a plurality of column regions extracted from the image so as to straddle the road surface portion, the three-dimensional object portion (the opponent vehicle traveling in the opposite lane in FIG. 2), and the background portion. The two-dimensional plane regarding the 23rd column area counted from the left end of the set image is shown. The approximate line generation unit 3c extracts the ordinates included in the pixel position information of the pixel area in the column area and the parallax values corresponding to the ordinates in the order from bottom to top along the column area. However, these ordinates and parallax values are plotted on a two-dimensional plane.

そして、近似直線生成部3cは、図2の下図に示すように、当該2次元平面上において、当該技術分野で公知の近似直線手法(例えば、Split−and−Merge手法等)を用いて、投影した縦座標及び視差値に基づいて直線近似を行うことで、投影した縦座標及び視差値からなる近似直線を生成する。近似直線生成部3cは、画像の縦列領域ごとに設定された各2次元平面において、プロットされた縦座標及び視差値に対応する点から近似直線を生成する。   Then, as shown in the lower diagram of FIG. 2, the approximate straight line generation unit 3c projects on the two-dimensional plane using an approximate straight line method known in the technical field (for example, a Split-and-Merge method). An approximate straight line composed of the projected ordinate and parallax value is generated by performing linear approximation based on the ordinate and parallax value. The approximate line generation unit 3c generates an approximate line from points corresponding to the plotted ordinates and parallax values in each two-dimensional plane set for each column region of the image.

ECU3のうち、投票重み算出部3dは、図2の下図に示すように、2次元平面上において生成された近似直線のうち、縦軸から横軸方向へ向かって所定距離以上離れている近似直線について、その傾きと長さに基づいて、当該近似直線に含まれる視差点が、後述する投票による立体物判定に寄与する重みを決定する。つまり、投票重み算出部3dは、2次元平面上において生成された近似直線について、当該近似直線の傾きと長さから投票による立体物判定に寄与する重みを算出する。   Among the ECUs 3, the voting weight calculation unit 3 d is an approximate straight line that is more than a predetermined distance from the vertical axis toward the horizontal axis among the approximate straight lines generated on the two-dimensional plane, as shown in the lower diagram of FIG. 2. , Based on the inclination and length, the parallax points included in the approximate line determine the weight that contributes to the three-dimensional object determination by voting described later. That is, the voting weight calculation unit 3d calculates a weight that contributes to the three-dimensional object determination by voting from the inclination and the length of the approximate line for the approximate line generated on the two-dimensional plane.

ここで、所定距離は、2次元平面上で、背景に対応する近似直線と、立体物及び路面に対応する近似直線とを区別可能な適切な値に設定されるものとする。2次元平面上においては、立体物や背景であれば、画像奥行方向の距離が変わらないので視差値がほぼ一定になる。例えば、図2の下図に示すように、視差値がほぼ一定になる背景と立体物については、縦座標の変化量に対して視差値の変化量が小さくなるため、縦軸に対する近似直線の傾きが両者ともに小さくなる。そのため、背景と立体物とを区別するには、視差値の大きさの違いで判定することになる。一般的に、背景は、実空間座標上で車両から進行方向に向かって遠方側に存在し、一方、立体物は、実空間座標上で少なくとも背景よりも車両寄りの近方側に存在する。そのため、背景に対応する画素領域で算出される視差値は小さくなり、立体物に対応する画素領域で算出される視差値は、背景よりも大きくなる傾向になる。そこで、本実施形態では、2次元平面上において生成された近似直線のうち、縦軸から横軸方向へ向かって所定距離未満の近似直線については、背景に対応すると判定して、近似直線の連続性と傾きの判定対象から除くものとする。   Here, it is assumed that the predetermined distance is set to an appropriate value capable of distinguishing between the approximate line corresponding to the background and the approximate line corresponding to the three-dimensional object and the road surface on the two-dimensional plane. On the two-dimensional plane, if the object is a three-dimensional object or background, the distance in the image depth direction does not change, so the parallax value is substantially constant. For example, as shown in the lower diagram of FIG. 2, for the background and the three-dimensional object in which the parallax value is almost constant, the change amount of the parallax value is small with respect to the change amount of the ordinate, so the inclination of the approximate straight line with respect to the vertical axis Are both smaller. Therefore, in order to distinguish between the background and the three-dimensional object, the determination is based on the difference in the parallax value. In general, the background exists on the far side from the vehicle in the traveling direction on the real space coordinates, while the three-dimensional object exists on the near side closer to the vehicle than the background on the real space coordinates. For this reason, the parallax value calculated in the pixel area corresponding to the background tends to be small, and the parallax value calculated in the pixel area corresponding to the three-dimensional object tends to be larger than that of the background. Therefore, in the present embodiment, among the approximate lines generated on the two-dimensional plane, the approximate lines that are less than a predetermined distance from the vertical axis toward the horizontal axis are determined to correspond to the background, and the approximate lines are continuous. It shall be excluded from the determination target of sex and inclination.

図2の下図に示すように、立体物に相当する領域の近似直線は、横軸に対しての傾きが大きくなる(垂直に近くなる)傾向がある。一方、走行路面は上述の傾きが幾分か小さくなる傾向がある。このため、近似直線の傾きから、ある程度立体物か路面かの当たりをつけることができる。   As shown in the lower diagram of FIG. 2, the approximate straight line of the region corresponding to the three-dimensional object tends to have a large inclination (close to vertical) with respect to the horizontal axis. On the other hand, the above-mentioned inclination of the traveling road surface tends to be somewhat reduced. For this reason, it is possible to hit a solid object or a road surface to some extent from the inclination of the approximate straight line.

また、視差誤差の影響が大きい領域では、安定した直線近似ができず、直線がこま切れとなる傾向がある。   Further, in a region where the influence of the parallax error is large, stable straight line approximation cannot be performed, and the straight line tends to be chopped.

上述の傾向を鑑みて、所定の長さ閾値以上の長さを持つ近似直線を判定し、その近似直線の横軸に対する傾きが所定の傾き閾値以上であれば、より立体物らしいと判断して、当該近似直線に含まれる視差点の、投票による立体物判定に寄与する重みを重くする。本実施形態において、例えば重みを2倍とする。また、近似直線の長さが所定の傾き閾値以上の場合に、近似直線の傾きを表す、視差の変化量に対する縦座標の変化量が大きいほど、重みを重くすることが好ましい。   In view of the above-mentioned tendency, an approximate straight line having a length equal to or greater than a predetermined length threshold is determined. The weight of the parallax points included in the approximate straight line that contributes to the three-dimensional object determination by voting is increased. In this embodiment, for example, the weight is doubled. In addition, when the length of the approximate line is equal to or greater than a predetermined inclination threshold value, it is preferable to increase the weight as the change amount of the ordinate relative to the change amount of parallax, which represents the inclination of the approximate line, is larger.

ここで、遠くの立体物ほど画像上では小さく映り、かつ、視差誤差の影響を受けやすいといった一般的な性質も合わせて考慮すると、上述の長さ閾値と傾き閾値は距離によってその値が変わる方が好ましい。   Here, considering the general property that farther three-dimensional objects appear smaller on the image and are more susceptible to parallax errors, the length threshold value and inclination threshold value change depending on the distance. Is preferred.

ECU3のうち、視差算出点投票部3eは、視差値と画像の各画素領域の画素位置情報に含まれる横座標とによって定められたブロックであって、当該ブロックの縦方向の辺が視差値、当該ブロックの横方向の辺が横座標に各々対応し、且つ、当該視差値が大きくなるに従って縦方向の辺及び横方向の辺が長くなるように定められたブロック、を複数配列した視差投票マップを設定する。   Among the ECUs 3, the parallax calculation point voting unit 3e is a block defined by the parallax value and the abscissa included in the pixel position information of each pixel area of the image, and the vertical side of the block is the parallax value, A parallax voting map in which a plurality of blocks in which the horizontal sides of the block correspond to the abscissa and the vertical sides and the horizontal sides become longer as the parallax value increases are arranged. Set.

ここで、図3を参照して、視差算出点投票部3eが視差算出点を投票する際に用いる視差投票マップの詳細について説明する。図3に示すように、視差投票マップは、横方向の辺を画像の横方向(x座標軸方向)の位置に対応させ、かつ縦方向の辺が視差値D(x,y)の大きさに対応するように定められた複数の矩形状のブロックを配列させて構成されている。各ブロックは、視差値が大きくなるに従って画像の横方向の長さを長くする(すなわち、横座標(図3において、x座標)に対応する辺の長さを長くする)と共に、視差値が大きくなるに従って視差値の解像度を大きくする(すなわち、視差値に対応する辺の長さを長くする)ことにより、視差値が大きくなるに従ってブロックの領域が大きくなるように定められている。   Here, with reference to FIG. 3, the details of the parallax voting map used when the parallax calculation point voting unit 3e votes the parallax calculation points will be described. As shown in FIG. 3, in the parallax voting map, the side in the horizontal direction corresponds to the position in the horizontal direction (x coordinate axis direction) of the image, and the side in the vertical direction has the size of the parallax value D (x, y). A plurality of rectangular blocks determined to correspond to each other are arranged. Each block increases the horizontal length of the image as the parallax value increases (that is, the length of the side corresponding to the abscissa (x coordinate in FIG. 3) increases) and the parallax value increases. By increasing the resolution of the parallax value as it becomes (that is, by increasing the length of the side corresponding to the parallax value), the block area is determined to increase as the parallax value increases.

本実施形態では、視差投票マップは平面1〜平面5の複数の領域の分割されており、複数の領域の各々は、所定の視差幅に対応するように定められている。実施形態では、視差値を8ビットで表した場合、平面1が視差値0〜15、平面2が視差値16〜31、平面3が視差値32〜63、平面4が視差値64〜127、平面5が視差128〜255に対応するように定められている。   In the present embodiment, the parallax voting map is divided into a plurality of areas of the planes 1 to 5, and each of the plurality of areas is determined to correspond to a predetermined parallax width. In the embodiment, when the parallax value is represented by 8 bits, the plane 1 has a parallax value 0 to 15, the plane 2 has a parallax value 16 to 31, the plane 3 has a parallax value 32 to 63, the plane 4 has a parallax value 64 to 127, The plane 5 is determined so as to correspond to the parallax 128 to 255.

また、平面1の各ブロックの大きさは横方向をN画素、縦方向(視差方向)を1画素の大きさ、平面2の各ブロックの大きさは横方向を2N画素、縦方向(視差方向)を2画素の大きさ、平面3の各ブロックの大きさは横方向を4N画素、縦方向(視差方向)を4画素の大きさ、平面4の各ブロックの大きさは横方向を8N画素、縦方向(視差方向)を8画素の大きさ、平面5の各ブロックの大きさは横方向を16N画素、縦方向(視差方向)を16画素の大きさになるように定められ、各平面のブロックは格子状に配列されている。なお、Nは、任意の整数である。Nは、例えば1とすることもでき、4とすることもできる。   The size of each block on the plane 1 is N pixels in the horizontal direction and the vertical direction (parallax direction) is 1 pixel, and the size of each block on the plane 2 is 2N pixels in the horizontal direction and the vertical direction (parallax direction). ) Is 2 pixels, the size of each block on the plane 3 is 4N pixels in the horizontal direction, the vertical direction (parallax direction) is 4 pixels, and the size of each block on the plane 4 is 8N pixels in the horizontal direction. The vertical direction (parallax direction) is 8 pixels in size, and the size of each block on the plane 5 is determined so that the horizontal direction is 16N pixels and the vertical direction (parallax direction) is 16 pixels. The blocks are arranged in a grid pattern. N is an arbitrary integer. N may be set to 1, for example, or may be set to 4.

そして、視差算出点投票部3eは、図3に示したような視差投票マップの各々のブロックに対して、投票重み算出部3dにより算出された重みを反映して視差算出点を投票する。具体的には、視差算出点投票部3eは、2次元平面上に含まれる近似直線上の視差値について、通常“1”としてカウントされる投票に対して、投票重み算出部3dにより算出された重みを乗算して、視差投票マップ上の対応するブロックに投票する。なお、2次元平面は、画像の縦列領域ごとに設定されるため、視差算出点投票部3eは、全ての2次元平面上の視差点について、投票重み算出部3により算出された重みを反映して、視差投票マップ上の対応するブロックに投票する。   Then, the parallax calculation point voting unit 3e votes the parallax calculation points for each block of the parallax voting map as illustrated in FIG. 3 by reflecting the weight calculated by the voting weight calculation unit 3d. Specifically, the parallax calculation point voting unit 3e is calculated by the voting weight calculation unit 3d for the voting that is normally counted as “1” for the parallax values on the approximate straight line included on the two-dimensional plane. Multiply the weights to vote for the corresponding block on the parallax voting map. Since the two-dimensional plane is set for each column region of the image, the parallax calculation point voting unit 3e reflects the weight calculated by the voting weight calculation unit 3 for all the parallax points on the two-dimensional plane. And vote for the corresponding block on the parallax voting map.

ECU3のうち、立体物検出部3fは、視差投票マップにおいて、視差算出点の投票数が所定の閾値以上のブロックの情報に基づいて立体物を検出する。ここで、立体物検出部3fは、属性付与部3gと三次元位置算出部3hを含んで構成される。   Of the ECU 3, the three-dimensional object detection unit 3 f detects a three-dimensional object based on information of blocks in which the number of votes of parallax calculation points is equal to or greater than a predetermined threshold in the parallax voting map. Here, the three-dimensional object detection unit 3f includes an attribute assignment unit 3g and a three-dimensional position calculation unit 3h.

属性付与部3gは、視差投票マップにおいて、視差算出点の投票数が所定の閾値以上のブロックに立体物の属性を付与する。具体的には、属性付与部3gは、視差算出点の投票数が平面毎に設定された所定の閾値以上か否かをブロックごとに判定することで、所定の閾値以上のブロックに立体物については、立体物の属性を付与する。また、属性付与部3gは、所定の閾値未満のブロックについては、路面の属性を付与する。ここで、距離が近いほど、左右画像の対応を取ることができ、視差算出点の個数が多くなるので、所定の閾値は、平面1から平面5に向かって徐々に大きくなるように設定される。また、所定の閾値は、平面1〜5毎に、予め実験等により路面と立体物とを区別可能であると確かめられた適切な値に設定されるものとする。   In the parallax voting map, the attribute assigning unit 3g gives the attribute of the three-dimensional object to a block in which the number of votes at the parallax calculation point is equal to or greater than a predetermined threshold. Specifically, the attribute assigning unit 3g determines whether or not the number of votes of the parallax calculation points is equal to or greater than a predetermined threshold set for each plane, so that a solid object is added to a block equal to or greater than the predetermined threshold. Gives the attribute of a solid object. Moreover, the attribute provision part 3g provides the attribute of a road surface about the block below a predetermined threshold value. Here, as the distance is shorter, the correspondence between the left and right images can be taken, and the number of parallax calculation points increases. Therefore, the predetermined threshold is set to gradually increase from the plane 1 toward the plane 5. . In addition, the predetermined threshold value is set to an appropriate value for each of the planes 1 to 5 that has been confirmed in advance by experiments or the like so that the road surface and the three-dimensional object can be distinguished.

三次元位置算出部3hは、立体物の属性が付与されたブロックの横座標、投票されている視差の平均値、投票される視差点の画像縦方向のばらつきから、車両の存在する三次元実空間中で、どの位置にどの程度の高さの立体物が存在するかを算出する。   The three-dimensional position calculation unit 3h calculates the three-dimensional actual position where the vehicle exists from the abscissa of the block to which the attribute of the three-dimensional object is assigned, the average value of the parallax being voted, and the vertical variation in the image of the parallax points to be voted. It is calculated how high a three-dimensional object exists at which position in the space.

ECU3のうち、車両制御部3iは、立体物検出部3fにより検出された立体物を車両が回避するように車両挙動を制御する運転支援制御を行う。車両制御部3iは、例えば、車両運動量検出装置2から取得した運動情報(車両の車速、ヨーレート、加速度)、車両が走行可能な領域を示す各種情報、及び、回避対象となる立体物の位置などに基づいて、車両が立体物を回避可能な走行軌跡や走行速度等を演算する。そして、車両制御部3iは、この演算処理結果に基づいた制御信号をアクチュエータ4へ出力して、アクチュエータ4を作動させることで回避制御を実行する。車両制御部3iは、回避制御として、例えば、EPS等のアクチュエータ4を介して車両の操舵輪の舵角を制御することで、車両が立体物を回避するように操舵支援を実行する。車両制御部3iは、立体物をより確実に回避できるように、回避制御として、操舵支援にブレーキ支援を組み合わせて実行してもよい。このようにして、車両制御部3iは、立体物の位置への車両の移動を回避する回避制御手段として機能する。   Of the ECU 3, the vehicle control unit 3i performs driving support control for controlling the vehicle behavior so that the vehicle avoids the three-dimensional object detected by the three-dimensional object detection unit 3f. The vehicle control unit 3i, for example, exercise information (vehicle speed, yaw rate, acceleration) acquired from the vehicle momentum detection device 2, various information indicating a region in which the vehicle can travel, the position of a three-dimensional object to be avoided, etc. Based on the above, a travel locus, a travel speed, and the like that the vehicle can avoid the three-dimensional object are calculated. And the vehicle control part 3i outputs the control signal based on this calculation process result to the actuator 4, and performs avoidance control by operating the actuator 4. As the avoidance control, the vehicle control unit 3i performs steering assistance so that the vehicle avoids the three-dimensional object by controlling the steering angle of the steering wheel of the vehicle via the actuator 4 such as EPS, for example. The vehicle control unit 3i may execute the steering support in combination with the brake support as the avoidance control so that the three-dimensional object can be avoided more reliably. In this manner, the vehicle control unit 3i functions as an avoidance control unit that avoids the movement of the vehicle to the position of the three-dimensional object.

続いて、上述のように構成される立体物検出装置の処理により実行される立体物検出方法について、図4を参照して説明する。ここで、図4は、実施形態に係る立体物検出装置の基本処理の一例を示すフローチャートである。   Next, a three-dimensional object detection method executed by the processing of the three-dimensional object detection device configured as described above will be described with reference to FIG. Here, FIG. 4 is a flowchart illustrating an example of basic processing of the three-dimensional object detection device according to the embodiment.

図4に示すように、輝度画像取得部3aは、ステレオカメラ撮像部1の右カメラ1a及び左カメラ1bからそれぞれ出力される輝度画像Rおよび輝度画像Lを取得する(ステップS10)。   As illustrated in FIG. 4, the luminance image acquisition unit 3a acquires the luminance image R and the luminance image L output from the right camera 1a and the left camera 1b of the stereo camera imaging unit 1, respectively (step S10).

そして、視差値算出部3bは、ステップS10にて輝度画像取得部3aの処理により取得された複数の輝度画像(例えば、輝度画像Rおよび輝度画像L)の輝度値情報に基づいて、当該輝度画像を構成する所定の画素領域ごとに、視差値を算出する(ステップS20)。   And the parallax value calculation part 3b is based on the luminance value information of the several luminance image (For example, the luminance image R and the luminance image L) acquired by the process of the luminance image acquisition part 3a in step S10, The said luminance image A parallax value is calculated for each predetermined pixel area that constitutes (step S20).

そして、近似直線生成部3cは、上述の図2に示すように、2次元平面上において、画像(すなわち、ステップS10にて輝度画像取得部3aの処理により取得された輝度画像Rおよび輝度画像Lのうち、ステップS20にて視差値算出部3bの処理により視差値の算出のベースとされた画像)を縦方向に画素領域を含むように複数分割した所定の縦列領域を抽出する。そして、近似直線生成部3cは、当該縦列領域ごとに、画像の各画素領域の画素位置情報に含まれる縦座標を縦軸に投影し、且つ、ステップS20にて視差値算出部3bの処理により算出した当該縦座標に各々対応する視差値を横軸に投影した2次元平面を設定する。そして、近似直線生成部3cは、当該2次元平面上において、投影した縦座標及び視差値に基づいて直線近似を行うことで、投影した縦座標及び視差値からなる近似直線を生成する(ステップS30)。   Then, as shown in FIG. 2 described above, the approximate straight line generation unit 3c is an image (that is, the luminance image R and the luminance image L acquired by the processing of the luminance image acquisition unit 3a in step S10) on the two-dimensional plane. In step S20, a predetermined column area obtained by dividing the image in the vertical direction so as to include a pixel area in the vertical direction by the process of the parallax value calculation unit 3b in step S20 is extracted. Then, the approximate straight line generation unit 3c projects the ordinate included in the pixel position information of each pixel region of the image on the vertical axis for each column region, and the processing of the parallax value calculation unit 3b in step S20. A two-dimensional plane in which the parallax values corresponding to the calculated ordinates are projected on the horizontal axis is set. Then, the approximate line generator 3c generates an approximate line composed of the projected ordinate and parallax value by performing linear approximation on the two-dimensional plane based on the projected ordinate and parallax value (step S30). ).

そして、投票重み算出部3dは、上述の図2に示すように、ステップS30にて近似直線生成部3cの処理により2次元平面上において生成された近似直線のうち、縦軸から横軸方向へ向かって所定距離以上離れている近似直線について、その長さと傾きに基づいて、当該近似直線に含まれる視差点が、後述する投票による立体物判定に寄与する重みを算出する(ステップS40)。   Then, as shown in FIG. 2 described above, the voting weight calculation unit 3d moves from the vertical axis to the horizontal axis among the approximate lines generated on the two-dimensional plane by the process of the approximate line generation unit 3c in step S30. Based on the length and inclination of the approximate straight line that is more than a predetermined distance toward the front, the parallax points included in the approximate straight line calculate the weight that contributes to the solid object determination by voting described later (step S40).

そして、視差算出点投票部3eは、上述の図3に示すように、視差値と画像の各画素領域の画素位置情報に含まれる横座標とによって定められたブロックであって、当該ブロックの縦方向の辺が視差値、当該ブロックの横方向の辺が横座標に各々対応し、且つ、当該視差値が大きくなるに従って縦方向の辺及び横方向の辺が長くなるように定められたブロック、を複数配列した視差投票マップを設定する。そして、視差算出点投票部3eは、視差投票マップの対象のブロックに対して、ステップS40にて投票重み算出部3dにより算出された重みを反映して視差算出点を投票する(ステップS50)。   The parallax calculation point voting unit 3e is a block defined by the parallax value and the abscissa included in the pixel position information of each pixel area of the image, as shown in FIG. A block defined such that the side in the direction corresponds to the parallax value, the side in the horizontal direction of the block corresponds to the abscissa, and the side in the vertical direction and the side in the horizontal direction become longer as the parallax value increases, A parallax voting map in which a plurality of are arranged is set. Then, the parallax calculation point voting unit 3e votes the parallax calculation points for the target block of the parallax voting map by reflecting the weight calculated by the voting weight calculation unit 3d in step S40 (step S50).

そして、属性付与部3gは、ステップS50にて視差算出点投票部3eの処理により視差算出点が投票された視差投票マップにおいて、対象のブロックの視差算出点の投票数が所定の閾値以上か否かを判定する(ステップS60)。   Then, in the parallax voting map in which the parallax calculation points are voted by the process of the parallax calculation point voting unit 3e in step S50, the attribute assigning unit 3g determines whether the number of votes of the parallax calculation points of the target block is equal to or greater than a predetermined threshold value. Is determined (step S60).

ここで、ステップS60において、属性付与部3gは、対象のブロックの視差算出点の投票数が所定の閾値以上であると判定した場合(ステップS60:Yes)、この対象のブロックに対して立体物の属性を付与する(ステップS70)。その後、ステップS90の処理へ移行する。   Here, in step S60, when the attribute assigning unit 3g determines that the number of votes of the parallax calculation point of the target block is equal to or greater than a predetermined threshold (step S60: Yes), the three-dimensional object with respect to the target block Is added (step S70). Thereafter, the process proceeds to step S90.

一方、ステップS60において、属性付与部3gは、対象のブロックの視差算出点の投票数が所定の閾値未満であると判定した場合(ステップS60:No)、この対象のブロックに対して路面の属性を付与する(ステップS80)。その後、ステップS90の処理へ移行する。   On the other hand, in step S60, when the attribute assigning unit 3g determines that the number of votes of the parallax calculation point of the target block is less than a predetermined threshold (step S60: No), the attribute of the road surface with respect to the target block. (Step S80). Thereafter, the process proceeds to step S90.

ステップS70及びステップS80の処理の後、属性付与部3gは、ステップS50にて視差算出点投票部3eの処理により視差算出点が投票された視差投票マップの全てのブロックについて、属性付与処理が終了したか否かを判定する(ステップS90)。   After the processing of step S70 and step S80, the attribute assigning unit 3g finishes the attribute providing processing for all blocks of the parallax voting map in which the parallax calculation points are voted by the processing of the parallax calculation point voting unit 3e in step S50. It is determined whether or not (step S90).

ここで、ステップS90において、属性付与部3gは、視差投票マップの全てのブロックについて、属性付与処理が終了していないと判定した場合(ステップS90:No)、ステップS60の処理に戻り、属性付与処理を終えたブロックの次のブロックを対象のブロックとして設定して、再度ステップS60の判定結果に基づいてステップS70の処理又はステップS80の処理を行う。   Here, in step S90, when the attribute assigning unit 3g determines that the attribute assigning process has not been completed for all blocks of the parallax voting map (step S90: No), the process returns to the process of step S60, and the attribute assigning is performed. The block next to the processed block is set as a target block, and the process of step S70 or the process of step S80 is performed again based on the determination result of step S60.

一方、ステップS90において、属性付与部3gは、視差投票マップの全てのブロックについて、属性付与処理が終了したと判定した場合(ステップS90:Yes)、次のステップS100の処理へ移行する。   On the other hand, when the attribute assigning unit 3g determines in step S90 that the attribute assigning process has been completed for all blocks of the parallax voting map (step S90: Yes), the process proceeds to the next step S100.

そして、三次元位置算出部3hは、ステップS70にて属性付与部3gの処理によって立体物の属性が付与されたブロックの横座標、投票されている視差の平均値、投票される視差点の画像縦方向のばらつきから、車両の存在する三次元実空間中で、どの位置にどの程度の高さの立体物が存在するかを算出する(ステップS100)。その後、本処理を終了する。   Then, the three-dimensional position calculation unit 3h, in step S70, the abscissa of the block to which the attribute of the three-dimensional object has been assigned by the processing of the attribute assigning unit 3g, the average value of the parallax that has been voted, and the image of the parallax point to be voted From the vertical variation, it is calculated at which position and how high a three-dimensional object exists in the three-dimensional real space where the vehicle exists (step S100). Thereafter, this process is terminated.

なお、本実施形態において、ステップS100の処理の後に、ECU3は、ステップS80にて属性付与部3gの処理によって路面の属性が付与されたブロックに対応する画像の画素領域に基づいて路面を検出してもよい。具体的には、ECU3は、属性付与部3gの処理によって路面の属性が付与されたブロックに投票された視差算出点が示す画像の画素領域の画素位置情報を集計し、当該集計された画素位置情報に対応する画素領域については、画像中で路面が存在する領域であると判定することで、路面を検出する。   In the present embodiment, after the process of step S100, the ECU 3 detects the road surface based on the pixel region of the image corresponding to the block to which the road surface attribute is given by the process of the attribute assigning unit 3g in step S80. May be. Specifically, the ECU 3 totals the pixel position information of the pixel area of the image indicated by the parallax calculation points voted for the block to which the road surface attribute is given by the process of the attribute giving unit 3g, and the totaled pixel position For the pixel area corresponding to the information, the road surface is detected by determining that the road surface exists in the image.

また、本実施形態において、ステップS100の処理の後に、車両制御部3iは、立体物検出部3fの処理により検出された立体物を車両が回避するように車両挙動を制御する運転支援制御を行ってもよい。この場合、車両制御部3iは、例えば、車両運動量検出装置2から取得した運動情報(車両の車速、ヨーレート、加速度)、車両が走行可能な領域を示す各種情報、及び、回避対象となる立体物の位置などに基づいて、車両が立体物を回避可能な走行軌跡や走行速度等を演算する。そして、車両制御部3iは、この演算処理結果に基づいた制御信号をアクチュエータ4へ出力して、アクチュエータ4を作動させることで回避制御を実行する。車両制御部3iは、回避制御として、例えば、EPS等のアクチュエータ4を介して車両の操舵輪の舵角を制御することで、車両が立体物を回避するように操舵支援を実行する。車両制御部3iは、立体物をより確実に回避できるように、回避制御として、操舵支援にブレーキ支援を組み合わせて実行してもよい。   In the present embodiment, after the process of step S100, the vehicle control unit 3i performs driving support control for controlling the vehicle behavior so that the vehicle avoids the three-dimensional object detected by the process of the three-dimensional object detection unit 3f. May be. In this case, the vehicle control unit 3i, for example, exercise information (vehicle speed, yaw rate, acceleration) acquired from the vehicle momentum detection device 2, various information indicating the region in which the vehicle can travel, and a three-dimensional object to be avoided. Based on the position of the vehicle, a travel locus, a travel speed, and the like that the vehicle can avoid the three-dimensional object are calculated. And the vehicle control part 3i outputs the control signal based on this calculation process result to the actuator 4, and performs avoidance control by operating the actuator 4. As the avoidance control, the vehicle control unit 3i performs steering assistance so that the vehicle avoids the three-dimensional object by controlling the steering angle of the steering wheel of the vehicle via the actuator 4 such as EPS, for example. The vehicle control unit 3i may execute the steering support in combination with the brake support as the avoidance control so that the three-dimensional object can be avoided more reliably.

以上説明したように、本実施形態の立体物検出装置によれば、立体物と路面とを良好に区別可能な状態を維持しつつ、高さの低い立体物についても立体物として検出され易くなるようにすることができる。これにより、高さの低い立体物の検出精度を向上させることができ、従来技術よりも、より好適に立体物を検出できる。   As described above, according to the three-dimensional object detection device of the present embodiment, a three-dimensional object with a low height is easily detected as a three-dimensional object while maintaining a state in which the three-dimensional object and the road surface can be distinguished well. Can be. Thereby, the detection accuracy of a three-dimensional object with a low height can be improved, and a three-dimensional object can be detected more suitably than the prior art.

1 ステレオカメラ撮像部
1a 右カメラ
1b 左カメラ
2 車両運動量検出装置
2a 車速センサ
2b ヨーレートセンサ
2c 加速度センサ
3 ECU
3a 輝度画像取得部
3b 視差値算出部
3c 近似直線生成部
3d 投票重み算出部
3e 視差算出点投票部
3f 立体物検出部
3g 属性付与部
3h 三次元位置算出部
3i 車両制御部
4 アクチュエータ
DESCRIPTION OF SYMBOLS 1 Stereo camera imaging part 1a Right camera 1b Left camera 2 Vehicle momentum detection apparatus 2a Vehicle speed sensor 2b Yaw rate sensor 2c Acceleration sensor 3 ECU
3a Luminance image acquisition unit 3b Parallax value calculation unit 3c Approximate line generation unit 3d Voting weight calculation unit 3e Parallax calculation point voting unit 3f Solid object detection unit
3g attribute assignment part
3h 3D position calculation unit 3i Vehicle control unit 4 Actuator

Claims (1)

ステレオカメラ撮像部と、
前記ステレオカメラ撮像部によって取得された画像に基づいて、当該画像を構成する所定の画素領域ごとに視差値を算出する視差値算出部と、
前記画像を縦方向に前記画素領域を含むように複数分割した所定の縦列領域を抽出し、当該縦列領域ごとに、前記画像の各画素領域の画素位置情報に含まれる縦座標を縦軸に投影し、且つ、当該縦座標に各々対応する前記視差値を横軸に投影した2次元平面を設定し、当該2次元平面上において、投影した前記縦座標及び前記視差値に基づいて直線近似を行うことで、投影した前記縦座標及び前記視差値からなる近似直線を生成する近似直線生成部と、
前記2次元平面上において生成された前記近似直線について、当該近似直線の傾きと長さから投票による立体物判定に寄与する重みを算出する投票重み算出部と、
前記視差値と前記画像の各画素領域の画素位置情報に含まれる横座標とによって定められたブロックを複数配列した視差投票マップを設定し、当該視差投票マップの各々のブロックに対して、視差算出点を、前記投票重み算出部で算出した前記重みを反映して投票する視差算出点投票部と、
前記視差投票マップにおいて、前記視差算出点の投票数が所定の閾値以上のブロックの情報に基づいて立体物を検出する立体物検出部と、
を備えることを特徴とする立体物検出装置。
A stereo camera imaging unit;
A parallax value calculation unit that calculates a parallax value for each predetermined pixel region that constitutes the image, based on the image acquired by the stereo camera imaging unit;
A predetermined vertical region obtained by dividing the image into a plurality of vertical regions so as to include the pixel region is extracted, and for each vertical region, the vertical coordinate included in the pixel position information of each pixel region of the image is projected on the vertical axis. In addition, a two-dimensional plane in which the parallax values respectively corresponding to the ordinates are projected on the horizontal axis is set, and linear approximation is performed on the two-dimensional plane based on the projected ordinates and the parallax values. Thus, an approximate line generation unit that generates an approximate line composed of the projected ordinates and the parallax value;
A voting weight calculating unit that calculates a weight that contributes to the determination of a three-dimensional object by voting from the inclination and length of the approximate line, with respect to the approximate line generated on the two-dimensional plane;
A parallax voting map in which a plurality of blocks determined by the parallax value and the abscissa contained in the pixel position information of each pixel area of the image is arranged is set, and the parallax calculation is performed for each block of the parallax voting map A parallax calculation point voting unit for voting a point reflecting the weight calculated by the voting weight calculation unit;
In the parallax voting map, a three-dimensional object detection unit that detects a three-dimensional object based on information of blocks in which the number of votes of the parallax calculation points is equal to or greater than a predetermined threshold;
A three-dimensional object detection device comprising:
JP2014190403A 2014-09-18 2014-09-18 Three-dimensional object detection device Active JP6396729B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014190403A JP6396729B2 (en) 2014-09-18 2014-09-18 Three-dimensional object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014190403A JP6396729B2 (en) 2014-09-18 2014-09-18 Three-dimensional object detection device

Publications (2)

Publication Number Publication Date
JP2016062356A true JP2016062356A (en) 2016-04-25
JP6396729B2 JP6396729B2 (en) 2018-09-26

Family

ID=55796034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014190403A Active JP6396729B2 (en) 2014-09-18 2014-09-18 Three-dimensional object detection device

Country Status (1)

Country Link
JP (1) JP6396729B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3336754A2 (en) 2016-11-25 2018-06-20 Ricoh Company Ltd. Information processing apparatus, photographing apparatus, moving object control system, moving object, information processing method, and program
JP2019114149A (en) * 2017-12-25 2019-07-11 株式会社Subaru Vehicle outside environment recognition device
US10430971B2 (en) 2017-02-15 2019-10-01 Toyota Jidosha Kabushiki Kaisha Parallax calculating apparatus
JP2020012692A (en) * 2018-07-17 2020-01-23 株式会社Soken Distance image generator
JP2020164045A (en) * 2019-03-29 2020-10-08 マツダ株式会社 Vehicle travel control device
WO2022208666A1 (en) * 2021-03-30 2022-10-06 日本電気株式会社 Image processing device, image processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09106500A (en) * 1995-10-12 1997-04-22 Fuji Heavy Ind Ltd Driving supporting device for vehicle
JP2006236104A (en) * 2005-02-25 2006-09-07 Toyota Central Res & Dev Lab Inc Object determining device
JP2009110172A (en) * 2007-10-29 2009-05-21 Fuji Heavy Ind Ltd Object detection device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09106500A (en) * 1995-10-12 1997-04-22 Fuji Heavy Ind Ltd Driving supporting device for vehicle
JP2006236104A (en) * 2005-02-25 2006-09-07 Toyota Central Res & Dev Lab Inc Object determining device
JP2009110172A (en) * 2007-10-29 2009-05-21 Fuji Heavy Ind Ltd Object detection device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MOHAMED EL ANSARI ET AL.: "Temporal Consistent Fast Stereo Matching for Advanced Driver Assistance Systems(ADAS)", 2010 IEEE INTELLIGENT VEHICLES SYMPOSIUM, JPN6018030053, June 2010 (2010-06-01), pages 825 - 831, XP031732215, ISSN: 0003852197 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3336754A2 (en) 2016-11-25 2018-06-20 Ricoh Company Ltd. Information processing apparatus, photographing apparatus, moving object control system, moving object, information processing method, and program
US10430971B2 (en) 2017-02-15 2019-10-01 Toyota Jidosha Kabushiki Kaisha Parallax calculating apparatus
JP2019114149A (en) * 2017-12-25 2019-07-11 株式会社Subaru Vehicle outside environment recognition device
US10803605B2 (en) 2017-12-25 2020-10-13 Subaru Corporation Vehicle exterior environment recognition apparatus
JP2020012692A (en) * 2018-07-17 2020-01-23 株式会社Soken Distance image generator
JP7133378B2 (en) 2018-07-17 2022-09-08 株式会社Soken Range image generator
JP2020164045A (en) * 2019-03-29 2020-10-08 マツダ株式会社 Vehicle travel control device
WO2022208666A1 (en) * 2021-03-30 2022-10-06 日本電気株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP6396729B2 (en) 2018-09-26

Similar Documents

Publication Publication Date Title
JP6396729B2 (en) Three-dimensional object detection device
US9771080B2 (en) Road surface gradient detection device
JP5958366B2 (en) In-vehicle image processing device
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
JP6707022B2 (en) Stereo camera
US9912933B2 (en) Road surface detection device and road surface detection system
JP6158779B2 (en) Image processing device
JP5867176B2 (en) Moving object position and orientation estimation apparatus and method
CN107850446A (en) Self-position estimating device and self-position presumption method
JP6377970B2 (en) Parallax image generation apparatus and parallax image generation method
JP6358160B2 (en) Traveling road surface detection device and traveling road surface detection method
JP2012159469A (en) Vehicle image recognition device
KR102020670B1 (en) Object detection apparatus, object detection method, and program
JP2014009975A (en) Stereo camera
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JP2012159470A (en) Vehicle image recognition device
JP6466679B2 (en) Object detection device
WO2014054124A1 (en) Road surface markings detection device and road surface markings detection method
JP5472137B2 (en) Boundary detection device and boundary detection program
JP2015215235A (en) Object detection device and object detection method
JP6561688B2 (en) DETECTING DEVICE, DETECTING METHOD, IMAGING DEVICE, DEVICE CONTROL SYSTEM, AND PROGRAM
JP6451544B2 (en) Road boundary detection device, self-position estimation device, and road boundary detection method
JP2017223578A (en) Road surface detection device
JP2013220729A (en) Mounting angle correcting device and method of correcting mounting angle of in-vehicle camera
JP6651877B2 (en) Three-dimensional object detection device for vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180830

R151 Written notification of patent or utility model registration

Ref document number: 6396729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250