JP2009186301A - Object detection device for vehicle - Google Patents

Object detection device for vehicle Download PDF

Info

Publication number
JP2009186301A
JP2009186301A JP2008025948A JP2008025948A JP2009186301A JP 2009186301 A JP2009186301 A JP 2009186301A JP 2008025948 A JP2008025948 A JP 2008025948A JP 2008025948 A JP2008025948 A JP 2008025948A JP 2009186301 A JP2009186301 A JP 2009186301A
Authority
JP
Japan
Prior art keywords
distance
vehicle
point
short
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008025948A
Other languages
Japanese (ja)
Inventor
Koji Iwase
耕二 岩瀬
Haruhisa Kore
治久 是
Satoru Matsuoka
悟 松岡
Takanori Kume
孝則 久米
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2008025948A priority Critical patent/JP2009186301A/en
Publication of JP2009186301A publication Critical patent/JP2009186301A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detection device for a vehicle capable of detecting accurately a continuous object continuing to a remote place. <P>SOLUTION: An ECU extracts a point constituting an object on a road surface based on a vertical direction distance from the road surface from among each point constituting an image imaged by a camera, maps the extracted point on a plane specified by a vehicle body front-to-back direction and a vehicle width direction based on a front-to-back direction distance and a vehicle width direction distance of each corresponding point, extracts a point row arranged approximately in the vehicle front-to-back direction from among each point whose front-to-back direction distance is a prescribed front-to-back distance or shorter, derives an approximate curve for specifying the point row on the mapped plane, extracts each point whose vehicle width direction distance between itself and the approximate curve is shorter than a prescribed vehicle width distance from among each point whose front-to-back direction distance is the prescribed front-to-back distance or longer as a remote distance continuous point row continuing to a short distance continuous point row, and estimates the short distance point row and the remote distance continuous point row as a continuous object extending in the vehicle body front-to-back direction. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両前方の物体を検出する車両用物体検出装置に関し、車両の安全技術の分野に属する。   The present invention relates to a vehicle object detection device that detects an object in front of a vehicle, and belongs to the field of vehicle safety technology.

従来より、撮像手段で取得された画像から、自車両の前方に存在する道路側壁やガードレール等の連続物体を検出する車両用物体検出装置が知られている。   2. Description of the Related Art Conventionally, an object detection apparatus for a vehicle that detects a continuous object such as a road side wall or a guard rail existing in front of the host vehicle from an image acquired by an imaging unit is known.

このような車両用物体検出装置として、例えば、特許文献1には、車両前方を撮像する撮像手段と、該撮像手段で撮像された画像を構成する各点について、該車両からの前後方向距離、車幅方向距離、及び路面からの上下方向距離をそれぞれ検出する三次元位置情報検出手段と、前記撮像手段で取得された各点の中から、該三次元位置情報検出手段で検出された路面からの上下方向距離に基づいて、路面上の物体を構成する点を抽出する物体構成点抽出手段と、該物体構成点抽出手段で抽出された点を、前記三次元位置情報検出手段で検出された前後方向距離及び車幅方向距離に基づいて、車体前後方向と車幅方向とで規定されるマッピング平面上にマッピングするマッピング手段と、前記三次元位置情報検出手段で検出された車幅方向距離が所定範囲内の点に基づいて連続物体(特許文献1では道路側壁)に対応する直線式を導出する手段とを有するものが開示されている。   As such a vehicle object detection device, for example, Patent Document 1 discloses an imaging unit that images the front of the vehicle and a distance in the front-rear direction from the vehicle for each point that constitutes an image captured by the imaging unit. From the three-dimensional position information detecting means for detecting the vehicle width direction distance and the vertical distance from the road surface, and from the road surface detected by the three-dimensional position information detecting means from among the points acquired by the imaging means. Based on the vertical distance of the object, the object constituent point extracting means for extracting the points constituting the object on the road surface, and the points extracted by the object constituent point extracting means are detected by the three-dimensional position information detecting means Mapping means for mapping on a mapping plane defined by the vehicle longitudinal direction and the vehicle width direction based on the longitudinal distance and the vehicle width direction distance, and the vehicle width direction distance detected by the three-dimensional position information detecting means Having a means for deriving a linear formula corresponding to a continuous object (road side wall in Patent Document 1) based on a point within a predetermined range is disclosed.

特開平6−266828号公報JP-A-6-266828

ところで、前記特許文献1に記載のものにおいては、道路側壁は直線的な物体と仮定されているが、カーブしている道路においては側壁も曲線的なものとなる。また、自車両から遠方では画像上における連続物体の大きさが小さくなると共に、前方車両等の障害物と画像上で重なる場合があり、その結果、遠方まで連続する連続物体を精度よく検出することが困難となっている。   By the way, in the thing of the said patent document 1, although the road side wall is assumed to be a linear object, in the road which curves, a side wall will also become a curve. In addition, the size of the continuous object on the image is small at a distance from the host vehicle, and an obstacle such as a preceding vehicle may overlap on the image. As a result, a continuous object that continues to a distance can be detected with high accuracy. Has become difficult.

そこで、本発明は、遠方まで連続する道路側壁等の連続物体を精度よく検出可能な車両用物体検出装置を提供することを課題とする。   Then, this invention makes it a subject to provide the vehicle object detection apparatus which can detect continuously objects, such as a road side wall which continues to a distant place, with sufficient precision.

前記課題を解決するために、本発明は、次のように構成したことを特徴とする。   In order to solve the above-described problems, the present invention is configured as follows.

まず、本願の請求項1に記載の発明は、車両前方の物体を検出する車両用物体検出装置であって、車両前方を撮像する撮像手段と、該撮像手段で撮像された画像を構成する各点について、該車両からの前後方向距離、車幅方向距離、及び路面からの上下方向距離をそれぞれ検出する三次元位置情報検出手段と、前記撮像手段で取得された各点の中から、該三次元位置情報検出手段で検出された路面からの上下方向距離に基づいて、路面上の物体を構成する点を抽出する物体構成点抽出手段と、該物体構成点抽出手段で抽出された点を、前記三次元位置情報検出手段で検出された車両からの前後方向距離及び車幅方向距離に基づいて、車体前後方向と車幅方向とで規定されるマッピング平面上にマッピングするマッピング手段と、該マッピング手段によりマッピングされた点のうち、前記三次元位置情報検出手段で検出された車両からの前後方向距離が所定前後距離以下で、かつ略車体前後方向に連続して並ぶ点の列を抽出する近距離点列抽出手段と、前記マッピング平面上において、該近距離点列抽出手段で抽出された点列に基づいて、前記所定前後距離位置よりも前方まで延び、該点列に対応する近似曲線を導出する近似曲線導出手段と、前記マッピング手段によりマッピングされた点のうち、前記三次元位置情報検出手段で検出された車両からの前後方向距離が所定前後距離よりも大きく、かつ前記近似曲線導出手段で導出された近似曲線との間の車幅方向の距離が所定車幅距離以下の点を、前記近距離点列抽出手段で抽出された近距離点列に連続する遠距離側の点として抽出する遠距離点抽出手段と、前記近距離点列抽出手段で抽出された近距離点列及び前記遠距離点抽出手段で抽出された遠距離側の点を、略車体前後方向に延びる連続物体と推定する連続物体推定手段とを有していることを特徴とする。   First, the invention according to claim 1 of the present application is a vehicle object detection device that detects an object in front of a vehicle, and includes an imaging unit that images the front of the vehicle, and an image that is captured by the imaging unit. A three-dimensional position information detecting means for detecting a longitudinal distance from the vehicle, a vehicle width direction distance, and a vertical distance from the road surface, and the third order from the points acquired by the imaging means. Based on the vertical distance from the road surface detected by the original position information detection means, the object constituent point extracting means for extracting points constituting the object on the road surface, and the points extracted by the object constituent point extracting means, Mapping means for mapping on a mapping plane defined by the vehicle longitudinal direction and the vehicle width direction based on the longitudinal distance and the vehicle width direction distance from the vehicle detected by the three-dimensional position information detecting means, and the mapping Among the points mapped by the steps, a proximity line is extracted in which the front-rear direction distance from the vehicle detected by the three-dimensional position information detecting means is equal to or less than a predetermined front-rear distance and is continuously arranged substantially in the front-rear direction of the vehicle body. Based on the point sequence extracted by the distance point sequence extraction unit and the short-range point sequence extraction unit on the mapping plane, an approximate curve corresponding to the point sequence extends forward from the predetermined longitudinal distance position. Of the points mapped by the mapping means, the approximate curve deriving means for deriving, and the distance in the front-rear direction from the vehicle detected by the three-dimensional position information detecting means is greater than a predetermined front-rear distance, and the approximate curve deriving means A point whose distance in the vehicle width direction from the approximate curve derived in step 2 is equal to or less than a predetermined vehicle width distance is extracted as a long-distance point continuous to the short-distance point sequence extracted by the short-distance point sequence extraction means Long-distance point extracting means, a short-distance point sequence extracted by the short-distance point sequence extracting means, and a long-distance side point extracted by the long-distance point extracting means, And continuous object estimation means for estimation.

また、請求項2に記載の発明は、前記請求項1に記載の車両用物体検出装置において、前記マッピング手段によりマッピングされた点のうち、前記近似曲線導出手段で導出された近似曲線との間の車幅方向の距離が前記所定車幅距離以上の第2所定車幅距離よりも大きい点を、車両前方に存在する障害物と推定する障害物推定手段を有していることを特徴とする。   According to a second aspect of the present invention, in the vehicle object detection device according to the first aspect, between the points mapped by the mapping unit and the approximate curve derived by the approximate curve deriving unit. The vehicle has an obstacle estimation means for estimating that the distance in the vehicle width direction is greater than the second predetermined vehicle width distance equal to or greater than the predetermined vehicle width distance as an obstacle existing in front of the vehicle. .

また、請求項3に記載の発明は、前記請求項1または請求項2に記載の車両用物体検出装置において、前記近似曲線導出手段は、近距離点列抽出手段で抽出された近距離点列を重回帰分析することにより、近似曲線を導出することを特徴とする。   According to a third aspect of the present invention, in the vehicle object detection device according to the first or second aspect, the approximate curve deriving unit is a short-distance point sequence extracted by a short-distance point sequence extraction unit. It is characterized in that an approximate curve is derived by performing multiple regression analysis.

また、請求項4に記載の発明は、前記請求項1から請求項3のいずれか1項に記載の車両用物体検出装置において、前記近距離点列抽出手段は、略車体前後方向に所定数以上連続して並ぶ点の列を近距離点列とすることを特徴とする。   According to a fourth aspect of the present invention, in the vehicle object detection device according to any one of the first to third aspects, the short-distance point sequence extracting means includes a predetermined number in a substantially longitudinal direction of the vehicle body. A sequence of points arranged continuously is a short-range point sequence.

また、請求項5に記載の発明は、前記請求項1から請求項4のいずれか1項に記載の車両用物体検出装置において、前記三次元位置情報検出手段は、車幅方向距離として当該車両の車幅中心からの距離を検出し、前記近距離点列抽出手段は、前記マッピング手段によりマッピングされた点のうち、前記三次元位置情報検出手段で検出された車幅中心からの距離が第3所定車幅距離以上の点を近距離点列として抽出することを特徴とする。   According to a fifth aspect of the present invention, in the vehicle object detection device according to any one of the first to fourth aspects of the present invention, the three-dimensional position information detection means is a vehicle width direction distance. The distance from the center of the vehicle width is detected, and the short-range point sequence extracting means determines the distance from the center of the vehicle width detected by the three-dimensional position information detecting means among the points mapped by the mapping means. 3. A point of a predetermined vehicle width distance or more is extracted as a short distance point sequence.

また、請求項6に記載の発明は、前記請求項1から請求項5のいずれか1項に記載の車両用物体検出装置において、車両前方の明るさを検出する明るさ検出手段と、該明るさ検出手段で検出された明るさが暗いほど、前記近距離点列抽出手段及び遠距離点抽出手段における前記所定前後距離を小さくする所定前後距離変更手段とが備えられていることを特徴とする。   The invention according to claim 6 is the vehicle object detection device according to any one of claims 1 to 5, wherein the brightness detection means for detecting the brightness in front of the vehicle, the brightness And a predetermined front-rear distance changing unit that decreases the predetermined front-rear distance in the short-distance point sequence extracting unit and the long-distance point extracting unit as the brightness detected by the height detecting unit decreases. .

また、請求項7に記載の発明は、前記請求項1から請求項6のいずれか1項に記載の車両用物体検出装置において、前記近距離点列抽出手段は、前記所定前後距離位置よりも前方において、近距離点列に略車体前後方向に連続して並ぶ点の列を抽出するように構成されており、前記近似曲線導出手段は、前記所定前後距離位置よりも前方に前記近距離点列に略車体前後方向に連続して並ぶ点の列が存在するときは、この点の列を含めて近似曲線を導出し、前記遠距離点抽出手段は、この点の列よりも前方の点の中から遠距離側の点を抽出することを特徴とする。   The invention according to claim 7 is the vehicle object detection device according to any one of claims 1 to 6, wherein the short-distance point sequence extraction means is more than the predetermined front-rear distance position. It is configured to extract a sequence of points that are continuously arranged in the front-rear direction of the vehicle body in the front-rear direction in the forward direction, and the approximate curve deriving unit is configured to extract the short-range point ahead of the predetermined front-rear distance position. When there is a sequence of points that are continuously arranged in the longitudinal direction of the vehicle in the sequence, an approximated curve is derived including the sequence of points, and the long-distance point extraction means includes a point in front of the sequence of points. It is characterized in that a point on the far side is extracted from the inside.

次に、本発明の効果について説明する。   Next, the effect of the present invention will be described.

まず、請求項1に記載の発明によれば、撮像手段により車両前方を撮像し、該撮像手段で撮像された画像を構成する各点について、該車両からの前後方向距離、車幅方向距離、及び路面からの上下方向距離が三次元位置情報検出手段によりそれぞれ検出され、前記撮像手段で取得された各点の中から、該三次元位置情報検出手段で検出された上下方向距離に基づいて、路面上の物体を構成する点が物体構成点抽出手段により抽出され、該物体構成点抽出手段で抽出された点が、マッピング手段により、前記三次元位置情報検出手段で検出された前後方向距離、車幅方向距離に基づいて、車体前後方向と車幅方向とで規定されるマッピング平面上にマッピングされる。   First, according to the first aspect of the present invention, the front of the vehicle is imaged by the imaging means, and for each point constituting the image captured by the imaging means, the longitudinal distance from the vehicle, the vehicle width direction distance, And the vertical distance from the road surface is respectively detected by the three-dimensional position information detecting means, and based on the vertical distance detected by the three-dimensional position information detecting means from among the points acquired by the imaging means, A point constituting the object on the road surface is extracted by the object component point extracting unit, and the point extracted by the object component point extracting unit is the distance in the front-rear direction detected by the three-dimensional position information detecting unit by the mapping unit, Based on the vehicle width direction distance, mapping is performed on a mapping plane defined by the vehicle body longitudinal direction and the vehicle width direction.

そして、本発明においては、該マッピング手段によりマッピングされた点のうち、前記三次元位置情報検出手段で検出された車両から前方への距離が所定前後距離以下で、かつ略車体前後方向に連続して並ぶ点の列が近距離点列抽出手段により抽出され、該近距離点列抽出手段で抽出された点列に基づいて、該点列よりも前方まで延び、該点列に対応する近似曲線が近似曲線導出手段により導出される。そして、前記マッピング手段によりマッピングされた点のうち、前記三次元位置情報検出手段で検出された車両からの前後方向距離が所定前後距離よりも大きく、かつ前記近似曲線導出手段で導出された近似曲線との間の車幅方向の距離が所定車幅距離以下の点が、遠距離点抽出手段により、前記近距離点列抽出手段で抽出された近距離点列に連続する遠距離側の点として抽出され、前記近距離点列抽出手段で抽出された近距離点列及び遠距離点抽出手段で抽出された遠距離側の点が、連続物体推定手段により車体前後方向に延びる連続物体として推定される。すなわち、連続物体における遠方の部分を、精度よく検出可能な近くの部分から精度よく推定することができる。なお、この連続物体としては、例えば道路側壁や、ガードレールや、大型トラック等が含まれる。   In the present invention, among the points mapped by the mapping means, the distance from the vehicle detected by the three-dimensional position information detecting means is not more than a predetermined longitudinal distance and is substantially continuous in the longitudinal direction of the vehicle body. A sequence of points arranged in a line is extracted by the short-range point sequence extraction unit, and based on the point sequence extracted by the short-range point sequence extraction unit, it extends to the front of the point sequence and corresponds to the point curve Is derived by the approximate curve deriving means. Of the points mapped by the mapping means, the front-rear direction distance from the vehicle detected by the three-dimensional position information detection means is larger than a predetermined front-rear distance, and the approximate curve derived by the approximate curve deriving means A point whose distance in the vehicle width direction is equal to or less than a predetermined vehicle width distance is a long-distance point continuous by the long-distance point extraction unit and the short-distance point sequence extracted by the short-distance point sequence extraction unit. The short-distance point sequence extracted by the short-distance point sequence extraction unit and the long-distance point extracted by the long-distance point extraction unit are estimated as continuous objects extending in the longitudinal direction of the vehicle body by the continuous object estimation unit. The That is, it is possible to accurately estimate a distant portion of a continuous object from a nearby portion that can be detected with high accuracy. In addition, as this continuous object, a road side wall, a guardrail, a large truck, etc. are contained, for example.

また、請求項2に記載の発明によれば、前記マッピング手段によりマッピングされた点のうち、前記近似曲線導出手段で導出された近似曲線との間の車幅方向の距離が前記所定車幅距離以上の第2所定車幅距離よりも大きい点が、車両前方に存在する障害物として障害物推定手段により推定される。すなわち、連続物体近傍に障害物等が存在している場合でも、該障害物を精度よく推定(検出)することができる。   According to a second aspect of the present invention, the distance in the vehicle width direction between the points mapped by the mapping means and the approximate curve derived by the approximate curve deriving means is the predetermined vehicle width distance. A point larger than the second predetermined vehicle width distance is estimated by the obstacle estimating means as an obstacle existing in front of the vehicle. That is, even when an obstacle or the like exists near the continuous object, the obstacle can be estimated (detected) with high accuracy.

また、請求項3に記載の発明によれば、近似曲線は、近距離点列抽出手段で抽出された近距離点列を重回帰分析することにより導出される。したがって、近似曲線を精度よく導出することができる。   According to the invention described in claim 3, the approximate curve is derived by performing multiple regression analysis on the short distance point sequence extracted by the short distance point sequence extraction means. Therefore, the approximate curve can be derived with high accuracy.

また、請求項4に記載の発明によれば、略車体前後方向に所定数以上並ぶ点列が、近距離点列として抽出される。その場合に、所定数を、例えば乗用車等を除外可能な数とすれば、例えば大型トラックや道路側壁、ガードレール等の車体前後方向に延びる連続物体を精度よく検出することができる。   According to the fourth aspect of the present invention, a sequence of a predetermined number or more of points arranged in the longitudinal direction of the vehicle body is extracted as a short-range point sequence. In this case, if the predetermined number is a number that can exclude passenger cars, for example, it is possible to accurately detect continuous objects extending in the longitudinal direction of the vehicle body, such as large trucks, road side walls, and guard rails.

また、請求項5に記載の発明によれば、当該車両の車幅中心からの距離が第3所定車幅距離以上の点の中から近距離点列が抽出される。したがって、例えば車幅中心付近に乗用車等の車両が存在する場合でも、該車両を連続物体として検出するのが防止される。換言すれば、例えば道路側壁やガードレール等、車体の側方において前後に延びる連続物体に対応する近距離点列を精度よく検出することができる。   According to the fifth aspect of the present invention, the short distance point sequence is extracted from the points whose distance from the vehicle width center of the vehicle is equal to or greater than the third predetermined vehicle width distance. Therefore, for example, even when a vehicle such as a passenger car exists near the center of the vehicle width, the vehicle is prevented from being detected as a continuous object. In other words, it is possible to accurately detect a short-distance point sequence corresponding to a continuous object extending forward and backward on the side of the vehicle body, such as a road side wall or a guard rail.

ところで、一般に、車両前方が暗くなると、撮像手段により取得された画像中にノイズ成分が増加し、近距離側点列抽出手段による点列抽出精度が遠距離側ほど低下する。すなわち、近似曲線導出の精度が低下することとなる。   By the way, in general, when the front of the vehicle becomes dark, noise components increase in the image acquired by the imaging unit, and the point sequence extraction accuracy by the short-distance side point sequence extraction unit decreases as the distance increases. That is, the accuracy of derivation of the approximate curve is reduced.

しかし、請求項6に記載の発明によれば、車両前方の明るさが明るさ検出手段により検出され、暗くなるほど、前記近距離点列抽出手段及び遠距離点抽出手段における前記所定前後距離が所定前後距離変更手段により小さくされる。したがって、例えば車両前方が暗くなってきても、近距離点列の抽出精度が大きく低下するのが防止されることとなる。   However, according to the sixth aspect of the invention, the predetermined front-rear distance in the short-distance point sequence extraction unit and the long-distance point extraction unit is predetermined as the brightness in front of the vehicle is detected by the brightness detection unit and becomes darker. It is reduced by the front-rear distance changing means. Therefore, for example, even if the front of the vehicle becomes dark, it is possible to prevent the extraction accuracy of the short-range point sequence from greatly decreasing.

また、請求項7に記載の発明によれば、前記近距離点列抽出手段により、前記所定前後距離位置よりも前方において、近距離点列に略車体前後方向に連続して並ぶ点の列が抽出され、存在するときは、前記近似曲線導出手段によりこの点の列を含めて近似曲線が導出される。したがって、近似曲線導出のための点列数が増加することとなり、近似曲線の導出精度が向上する。なお、この場合、遠距離側の点は、前記近距離点列に略車体前後方向に連続して並ぶ点の列よりも前方の(遠い)点の中から抽出すればよい。   According to the seventh aspect of the present invention, the short-distance point sequence extracting unit generates a sequence of points that are continuously arranged in the near-distance point sequence substantially in the vehicle longitudinal direction in front of the predetermined front-rear distance position. If it is extracted and exists, an approximate curve including this sequence of points is derived by the approximate curve deriving means. Therefore, the number of point sequences for deriving the approximate curve increases, and the accuracy of deriving the approximate curve is improved. In this case, the points on the long distance side may be extracted from the points ahead (far) from the line of points that are continuously arranged in the longitudinal direction in the vehicle front-rear direction.

以下、本発明の実施の形態に係る車両用物体検出装置について説明する。   Hereinafter, a vehicle object detection device according to an embodiment of the present invention will be described.

図1に示すように、本発明の実施形態に係る車両用物体検出装置10は、車両1に搭載されており、左右一対のカメラ(ステレオカメラ)11L,11Rと、照度センサ112と、ECU100とを備えている。また、車両1には、警報装置13が備えられている。   As shown in FIG. 1, a vehicle object detection device 10 according to an embodiment of the present invention is mounted on a vehicle 1, and includes a pair of left and right cameras (stereo cameras) 11L and 11R, an illuminance sensor 112, and an ECU 100. It has. The vehicle 1 is provided with an alarm device 13.

各カメラ11L,11Rは、車両1のルーフ部の前端部に、それぞれが図2に示すような当該車両1の前方の画像を取得可能なように、互いの撮像領域を重複させて、光軸を所定方向に向けて配設されている。なお、図2は左側カメラ11Lの画像例であるが、右側カメラ11Lの画像は左側カメラ11Lの画像に対して左右の視差分ずれを生じた画像として得られる。また、各カメラ11L,11Rは、CCD等の撮像素子を有するデジタルカメラにより構成され、取得した画像を信号化してECU100に送信する。   Each camera 11L, 11R overlaps each other's imaging region at the front end of the roof portion of the vehicle 1 so that an image ahead of the vehicle 1 as shown in FIG. Are arranged in a predetermined direction. FIG. 2 shows an example of the image of the left camera 11L, but the image of the right camera 11L is obtained as an image in which a left-right parallax shift occurs with respect to the image of the left camera 11L. Each of the cameras 11L and 11R is configured by a digital camera having an image sensor such as a CCD, and converts the acquired image into a signal and transmits it to the ECU 100.

照度センサ12は、車両1のフロントウインドガラス近傍に、自車両1の前方の照度を検知可能なように配設されている。この照度センサ12は、例えばCdS(硫化カドミウム)センサ等により構成され、車外の照度に対応する信号をECU100に送信する。   The illuminance sensor 12 is disposed in the vicinity of the front window glass of the vehicle 1 so that the illuminance in front of the host vehicle 1 can be detected. The illuminance sensor 12 is constituted by a CdS (cadmium sulfide) sensor, for example, and transmits a signal corresponding to the illuminance outside the vehicle to the ECU 100.

警報装置13は、運転席前方のインストルメントパネルに配設され、ECU100からの信号を受けて、警報音を発生し、または警報音ととともにディスプレー上に警報表示を行う。   The alarm device 13 is arranged on the instrument panel in front of the driver's seat, receives a signal from the ECU 100, generates an alarm sound, or displays an alarm on the display together with the alarm sound.

ECU100は、ROM及びRAM等の記憶部や、該記憶部に記憶されているデータに対して演算を行うCPU等を有しており、各カメラ11L,11Rから送信される画像信号を所定周期毎に受信(取得)して、受信した画像信号をデジタル画像データとして前記記憶部に記する。このデジタル画像データは、各カメラ画像GL,GRを構成する各画素の画像面上での座標(xi,yi)情報と、各画素の輝度値情報とからなり、ECU100は、このデジタル画像データを基に、照度センサ12の検出結果をふまえて後述する所定の処理を行う。そして、ECU100は、その演算結果に基づいて警報装置13に警報出力信号を出力する。   The ECU 100 includes a storage unit such as a ROM and a RAM, a CPU that performs an operation on data stored in the storage unit, and the image signal transmitted from each of the cameras 11L and 11R is transmitted at predetermined intervals. The received image signal is recorded in the storage unit as digital image data. This digital image data includes coordinate (xi, yi) information on the image plane of each pixel constituting each camera image GL, GR and luminance value information of each pixel. The ECU 100 converts the digital image data into the digital image data. Based on the detection result of the illuminance sensor 12, a predetermined process to be described later is performed. Then, ECU 100 outputs an alarm output signal to alarm device 13 based on the calculation result.

次に、前記ECU100により実行される物体検出処理制御の詳細について図3のフローチャートに基づいて説明する。なお、このフローチャートによる制御は、所定周期毎に繰り返し行われる。   Next, details of the object detection processing control executed by the ECU 100 will be described based on the flowchart of FIG. Note that the control according to this flowchart is repeatedly performed at predetermined intervals.

まず、ステップS1では、各カメラ11L,11Rから画像信号を取得して画像データとして記憶部に記憶する。また、照度センサ12から照度信号を入力する。   First, in step S1, image signals are acquired from the cameras 11L and 11R and stored as image data in a storage unit. An illuminance signal is input from the illuminance sensor 12.

ステップS2では、左側カメラ画像GLと右側カメラ画像GRとで対応する画素を検索(検出)する。ここで、対応する画素とは、画像中の種々の撮像対象における同一部位を構成する画素である。   In step S2, corresponding pixels are searched (detected) in the left camera image GL and the right camera image GR. Here, the corresponding pixels are pixels constituting the same part in various imaging targets in the image.

ここで、対応する画素の検出は、公知の方法であるArea-based matching手法に基づいて行われる。Area-based matching手法とは、一方の画像のある画素に対応する画素を、他方の画像から探す際にその画素の回りの局所的な輝度値(濃度)パターンを手がかりに探索しようとするものである。具体的には、図4(a),(b)に示すように、左側カメラ画像GLの一の画素回りに3×3ピクセルのウィンドを設定するとともに該ウィンドに囲まれた画像をテンプレート画像GTとして、右側カメラ画像GRのエピポーラ(epipolar line)線EL上に設定した探索範囲GS内でマッチングを行う。本実施形態では、このマッチング処理は、左側カメラ画像GLの全画素に対してそれぞれ実行され、このマッチングに使用するアルゴリズムとしては、SADアルゴリズム(Sum of Absolute Difference)を採用している。すなわち、前記左側カメラ画像GLに設定されたテンプレート画像GTと、マッチングを行う右側カメラ画像GR内の画像との間で対応する画素間の輝度差の合計値(SAD値)を次式(1)により算出して、この合計値が所定値以下である場合には対応する画素(対応点)が検出されたものとして、その画像面上での座標を記憶する。尚、前記マッチングに使用するアルゴリズムは、SADアルゴリズムに限ったものではなく、例えば、SSD(Sum of Squared Difference)アルゴリズムや、NCC(Normalized Cross Correlation)アルゴリズムを使用するようにしてもよい。なお、以後、対応する画素のことを対応点という。   Here, the detection of the corresponding pixel is performed based on an area-based matching method which is a known method. The area-based matching method is an attempt to search for a local luminance value (density) pattern around a pixel corresponding to a pixel in one image from the other image. is there. Specifically, as shown in FIGS. 4A and 4B, a 3 × 3 pixel window is set around one pixel of the left camera image GL, and an image surrounded by the window is set as a template image GT. As described above, matching is performed within the search range GS set on the epipolar line EL of the right camera image GR. In the present embodiment, this matching process is performed on all the pixels of the left camera image GL, and an SAD algorithm (Sum of Absolute Difference) is adopted as an algorithm used for this matching. That is, a total value (SAD value) of luminance differences between corresponding pixels between the template image GT set in the left camera image GL and an image in the right camera image GR to be matched is expressed by the following equation (1). When the total value is equal to or less than the predetermined value, the coordinates on the image plane are stored as the corresponding pixel (corresponding point) is detected. The algorithm used for the matching is not limited to the SAD algorithm. For example, an SSD (Sum of Squared Difference) algorithm or an NCC (Normalized Cross Correlation) algorithm may be used. Hereinafter, the corresponding pixel is referred to as a corresponding point.

:左側画像の画素の輝度値
:右側画像の画素の輝度値
M L : Luminance value of the pixel of the left image M R : Luminance value of the pixel of the right image

ステップS3〜S5では、ステップS2で検出された各対応点の三次元位置情を算出する。   In steps S3 to S5, the three-dimensional position information of each corresponding point detected in step S2 is calculated.

すなわち、ステップS3では、ステップS2で検出された各対応点について、自車両1からの車体前後方向距離Lziを、左右のカメラ画像GL,GR間での対応点の位置ずれ量(視差)を基に三角測量の原理によって算出する。なお、自車両1からの車体前後方向距離Lzi(以下、前後方向距離Lziという)は、カメラ11L,11Rの焦点位置からの距離である。図5は、ステップS2で検出された各対応点を、左側カメラ画像GLの対応点を構成する画素位置(座標位置)に、その前後方向距離Lzに応じた濃度で図示したものであり、道路側壁や自車両1の前方の車両や、路面の一部等が濃淡であらわれている。なお、この図4は、対応点の検出結果を視覚的に把握しやすいように一例として表示したものであり、本制御の処理中にこれらのものが表示されるわけではない。   That is, in step S3, for each corresponding point detected in step S2, the vehicle body longitudinal distance Lzi from the host vehicle 1 is used based on the positional deviation amount (parallax) of the corresponding point between the left and right camera images GL and GR. Calculated by the principle of triangulation. The vehicle body longitudinal distance Lzi from the host vehicle 1 (hereinafter referred to as the longitudinal distance Lzi) is a distance from the focal positions of the cameras 11L and 11R. FIG. 5 illustrates each corresponding point detected in step S2 at a pixel position (coordinate position) constituting the corresponding point of the left camera image GL with a density according to the front-rear direction distance Lz. The side walls, the vehicle in front of the host vehicle 1, a part of the road surface, and the like are shaded. Note that FIG. 4 is displayed as an example so that the detection results of corresponding points can be easily grasped visually, and these are not displayed during the process of this control.

ステップS4では、ステップS2で検出された各対応点について、自車両1の車幅中心からの距離Lxi(以下、車幅方向距離Lxiという)を算出する。この距離Lxiは、対応点の前後方向距離Lzi及び座標に基づいて算出される。   In step S4, for each corresponding point detected in step S2, a distance Lxi from the vehicle width center of the host vehicle 1 (hereinafter referred to as a vehicle width direction distance Lxi) is calculated. This distance Lxi is calculated based on the front-rear direction distance Lzi and the coordinates of the corresponding point.

ステップS5では、ステップS2で検出された各対応点の路面からの上下方向距離Lyi(路面からの高さ)を算出する。なお、この上下方向距離Lyiは、対応点の座標(x,y)、カメラ11L,11Rの路面からの高さ、及びカメラ11L,11Rの光軸方向等に基づいて算出される。   In step S5, the vertical distance Lyi (height from the road surface) of each corresponding point detected in step S2 from the road surface is calculated. The vertical distance Lyi is calculated based on the coordinates (x, y) of the corresponding point, the height of the cameras 11L and 11R from the road surface, the optical axis direction of the cameras 11L and 11R, and the like.

ステップS6では、ステップS5で検出された上下方向距離Lyiが所定値以上(例えば10cm)の対応点を抽出する。こうすることにより、対応点のうち、路面や、該路面上の比較的小さな物体等を構成する対応点が除外され、図3における道路側壁や車両等、比較的背の高い物体についての対応点のみが抽出されることとなる。   In step S6, a corresponding point whose vertical distance Lyi detected in step S5 is a predetermined value or more (for example, 10 cm) is extracted. By doing so, the corresponding points constituting the road surface and relatively small objects on the road surface are excluded from the corresponding points, and the corresponding points for relatively tall objects such as road side walls and vehicles in FIG. Only will be extracted.

ステップS7では、ステップS6で抽出された各対応点のうち、本車両1から所定距離m1,m2,m3,…(複数設定されている)に位置する対応点を抽出し、この抽出した対応点を、図6に示すように、ステップS3,S4で算出された各対応点の前後方向距離Lzi及び車幅方向距離Lziに基づいて、車体前後方向(Z方向)と車幅方向(X方向)とで規定される平面(以下、この平面をマッピング平面という)上にマッピングする。ここで、所定距離m1,m2,m3,…に位置する対応点のみを抽出する理由については後述する近距離点列の抽出の説明にあわせて説明する。   In step S7, among the corresponding points extracted in step S6, corresponding points located at predetermined distances m1, m2, m3,... (Set in plural) from the vehicle 1 are extracted, and the extracted corresponding points. 6, the vehicle longitudinal direction (Z direction) and the vehicle width direction (X direction) based on the longitudinal distance Lzi and the vehicle width direction distance Lzi of the corresponding points calculated in steps S3 and S4, as shown in FIG. Are mapped on a plane defined by the following (hereinafter, this plane is referred to as a mapping plane). Here, the reason why only the corresponding points located at the predetermined distances m1, m2, m3,... Are extracted will be described together with the description of the extraction of the short distance point sequence described later.

ステップS8では、前記マッピング平面上に近距離点列抽出領域を設定する。この近距離点列抽出領域は、車両1からの前後方向距離が所定前後距離Lzn以下、車幅方向距離が所定車幅距離Lxn以上の領域に設定される。その場合に、所定車幅距離Lxnは一定値だが、所定前後距離Lynは照度センサ12で検出された照度に基づいて設定されるようになっている。詳しくは、図7に示すように、照度センサ12で検出された照度が小さくなるほど、すなわち暗くなるほど、所定前後距離Lznが小さくされる。   In step S8, a short distance point sequence extraction region is set on the mapping plane. This short distance point sequence extraction region is set to a region where the distance in the front-rear direction from the vehicle 1 is equal to or less than the predetermined front-rear distance Lzn and the distance in the vehicle width direction is equal to or greater than the predetermined vehicle width distance Lxn. In this case, the predetermined vehicle width distance Lxn is a constant value, but the predetermined longitudinal distance Lyn is set based on the illuminance detected by the illuminance sensor 12. Specifically, as shown in FIG. 7, the smaller the illuminance detected by the illuminance sensor 12, that is, the darker the predetermined longitudinal distance Lzn is, the darker the illuminance is.

ステップS9では、これらのマッピングした対応点のうち、近距離点列抽出領域に属する対応点の中から、略車体前後方向に連続して並ぶ点の列を近距離点列として抽出する。   In step S9, among these mapped corresponding points, from the corresponding points belonging to the short-distance point sequence extraction region, a sequence of points lined up substantially in the longitudinal direction of the vehicle body is extracted as a short-distance point sequence.

この近距離点列抽出について図8を用いてその一例について説明すると、まず、自車両1からの前後方向距離Lziが最も小さい点P1とその次に距離が小さい点P2とを結んだ線L1の車体前後方向(Z方向)に対してなす角度θ1が、所定角度θ0よりも小さいか否かを判定し、小さくない場合は、点P1をP2に対して略車体前後方向に連続して並ぶ点とし、記憶部に記憶する。次に、前記点P2と自車両1からの距離が次に小さい点P3とを結んだ線L2の前記線L1に対してなす角度θ2が、前記所定角度θ0よりも小さいか否かを判定し、小さい場合は、点P3を点P2に対して略車体前後方向に連続して並ぶ点とし、記憶部に記憶する。次に、前記点P3と自車両1からの距離が次に小さい点P4とを結んだ線L3の前記線L2に対してなす角度θ3が、前記所定角度θ0よりも小さいか否かを判定する。そして、図8の場合においては、小さくないので、点P4については点P3に対して略車体前後方向に連続して並ぶ点とはしない。すなわち、近距離点列抽出領域に属する点について、略車体前後方向に並ばない点が検出されるまで、自車両1からの距離が小さい点から順に、前述のような処理を繰り返す。   An example of this short distance point sequence extraction will be described with reference to FIG. 8. First, a line L1 connecting a point P1 having the smallest distance Lzi in the front-rear direction from the own vehicle 1 and a point P2 having the next smallest distance. It is determined whether or not the angle θ1 formed with respect to the longitudinal direction of the vehicle body (Z direction) is smaller than the predetermined angle θ0. If not, the point P1 is continuously arranged substantially in the longitudinal direction of the vehicle body with respect to P2. And stored in the storage unit. Next, it is determined whether or not the angle θ2 formed with respect to the line L1 of the line L2 connecting the point P2 and the point P3 having the next smallest distance from the host vehicle 1 is smaller than the predetermined angle θ0. In the case of being small, the point P3 is regarded as a point that is continuously arranged substantially in the vehicle longitudinal direction with respect to the point P2, and is stored in the storage unit. Next, it is determined whether or not an angle θ3 formed with respect to the line L2 of the line L3 connecting the point P3 and the point P4 having the next smallest distance from the host vehicle 1 is smaller than the predetermined angle θ0. . In the case of FIG. 8, since it is not small, the point P4 is not a point that is continuously arranged substantially in the vehicle longitudinal direction with respect to the point P3. That is, for the points belonging to the short-distance point sequence extraction region, the above-described processing is repeated in order from the point having the smallest distance from the host vehicle 1 until a point that is not substantially aligned in the longitudinal direction of the vehicle body is detected.

ここで、前記ステップS7において所定距離m1,m2,m3,…に位置する対応点のみを抽出する理由について説明する。すなわち、近距離点列抽出領域内の全対応点を近距離点列の検討対象とすると、図4のように画素が格子状に配置されている場合、隣接する対応点間においては、角度θnは、車体前後方向(Z方向)と、該方向に対して略45度方向との2つしか存在しなくなり、略車体前後方向に並ぶか否かの判定が実質的にできない。そこで、角度θnを精度よく判定可能なように、所定距離m1,m2,m3,…に位置する対応点のみを抽出するようにしている。また、このように間引くことにより、演算量を削減することもできる。   Here, the reason why only the corresponding points located at the predetermined distances m1, m2, m3,. That is, if all the corresponding points in the short distance point sequence extraction region are considered for the short distance point sequence, when the pixels are arranged in a grid pattern as shown in FIG. 4, the angle θn is set between the adjacent corresponding points. The vehicle body longitudinal direction (Z direction) and the direction approximately 45 degrees with respect to this direction only exist, and it cannot be substantially determined whether or not they are aligned in the vehicle body longitudinal direction. Therefore, only corresponding points located at predetermined distances m1, m2, m3,... Are extracted so that the angle θn can be accurately determined. In addition, the amount of calculation can be reduced by thinning out in this way.

次に、ステップS10では、ステップS8で検出された略車体前後方向に連続して並ぶ点の総数が、所定数α以上か否かを判定する。ステップS9で略車体前後方向に連続して並ぶ点が検出されたとしても、点の総数が少ないときは、これらの点が側壁やガードレール等の略車体前後方向に延びる連続物体を構成する点でなく、他の物体を構成する点であると考えられるので、どちらの物体の可能性が高いかを判定するのである。   Next, in step S10, it is determined whether or not the total number of points continuously arranged in the substantially longitudinal direction detected in step S8 is equal to or greater than a predetermined number α. Even if the points continuously arranged in the front-rear direction of the vehicle body are detected in step S9, when the total number of points is small, these points constitute a continuous object extending in the front-rear direction of the vehicle body, such as a side wall or a guard rail. However, since it is considered that it is a point constituting another object, it is determined which object is more likely.

そして、この点の総数が所定数α以上のときは(YES)、これらの複数の点を、略車体前後方向に連続して並ぶ近距離点列として記憶部に記憶し、ステップS11に進む。一方、所定数α未満のときは(NO)、近距離点列と認めず、ENDに進む。   If the total number of points is equal to or greater than the predetermined number α (YES), the plurality of points are stored in the storage unit as a short-distance point sequence arranged substantially continuously in the longitudinal direction of the vehicle body, and the process proceeds to step S11. On the other hand, when the number is less than the predetermined number α (NO), it is not recognized as a short-distance point sequence, and proceeds to END.

ステップS11では、この近距離点列に基づいて、図9に示すように、前記マッピング平面上において、前記所定前後距離Lzn位置よりも前方に延び、前記近距離点列に対応する近似曲線C1を重回帰分析により導出する。本実施の形態においては、近似曲線C1は式2に示す二次関数により定める。その場合に、その係数a,b,cは、ステップS8で検出された近距離点列を構成する複数の点の座標値(xi,zi)を式2に代入して最小二乗法により求める。なお、近似式は、式3に示す三次関数により定めてもよく、この場合、二次関数の場合同様、その係数a,b,c,dは最小二乗法により求めればよい。また、二次関数、三次関数以外にも、適切に近似しうる関数を適用してもよい。
In step S11, based on this short distance point sequence, as shown in FIG. 9, on the mapping plane, an approximate curve C1 extending forward from the predetermined front-rear distance Lzn position and corresponding to the short distance point sequence is obtained. Derived by multiple regression analysis. In the present embodiment, the approximate curve C1 is determined by a quadratic function shown in Equation 2. In that case, the coefficients a, b, and c are obtained by the least square method by substituting the coordinate values (xi, zi) of a plurality of points constituting the short-distance point sequence detected in step S8 into Equation 2. The approximate expression may be determined by a cubic function shown in Expression 3. In this case, as in the case of the quadratic function, the coefficients a, b, c, and d may be obtained by the least square method. In addition to the quadratic function and the cubic function, a function that can be appropriately approximated may be applied.

ステップS12では、図10に示すように、前後方向距離Lziが所定前後距離Lznよりも大きい点のうち、前記近似曲線C1との間の車幅方向の距離が所定車幅距離Lx0以内にある点を、前記近距離点列に連続する遠距離側の点として抽出する。詳しくは、前後方向距離Lziが所定前後距離Lzn以上の各点について、近似曲線C1との間の車幅方向の距離を全て算出し、その距離が所定車幅距離Lx0以内か否かを各点について判定し、所定車幅距離Lx0以内と判定された点を抽出し、この抽出された点を遠距離側の点として記憶する。なお、本実施の形態においては、連続物体及び障害物の推定精度(検出精度)をさらに向上させるために、ステップS13以下において、抽出された遠距離側の点を利用して、再度、近似曲線を導出するが、本ステップS12までに抽出されたこれらの近距離点列及び遠距離側の点を、車体前後方向に延びる連続物体として推定することも可能である。   In step S12, as shown in FIG. 10, among the points where the longitudinal distance Lzi is greater than the predetermined longitudinal distance Lzn, the distance in the vehicle width direction to the approximate curve C1 is within the predetermined vehicle width distance Lx0. Are extracted as long-distance points that are continuous with the short-distance point sequence. Specifically, for each point where the longitudinal distance Lzi is equal to or greater than the predetermined longitudinal distance Lzn, all the distances in the vehicle width direction from the approximate curve C1 are calculated, and whether each distance is within the predetermined vehicle width distance Lx0 or not is calculated. The point determined to be within the predetermined vehicle width distance Lx0 is extracted, and the extracted point is stored as a point on the far side. In this embodiment, in order to further improve the estimation accuracy (detection accuracy) of the continuous object and the obstacle, the approximate curve is again used by using the extracted far-side point in step S13 and the subsequent steps. However, it is also possible to estimate these short-distance point sequences and far-distance points extracted up to step S12 as continuous objects extending in the longitudinal direction of the vehicle body.

ステップS13では、図11に示すように、前記マッピング平面上において、前述のようにして抽出された近距離点列及び遠距点側の点の両方に基づいて、これらの点に対応する近似曲線C2を重回帰分析により導出する。なお、これは、ステップS11同様に行えばよい。   In step S13, as shown in FIG. 11, on the mapping plane, on the basis of both the short-distance point sequence extracted as described above and the points on the long-distance point side, approximate curves corresponding to these points. C2 is derived by multiple regression analysis. This may be performed in the same manner as step S11.

ステップS14では、図12に示すように、自車両1からの前後方向距離Lziが所定前後距離Lzn以上の点のうち、ステップS13において再度算出された近似曲線C2との間の車幅方向の距離が所定車幅距離Lx0以内にある点を、前記近距離点列に連続する遠距離側の点として再抽出する。なお、この処理は、ステップS12同様に行えばよい。   In step S14, as shown in FIG. 12, the distance in the vehicle width direction between the approximate curve C2 calculated again in step S13 among the points where the longitudinal distance Lzi from the host vehicle 1 is equal to or greater than the predetermined longitudinal distance Lzn. Are within the predetermined vehicle width distance Lx0, and are re-extracted as long-distance points continuous with the short-distance point sequence. This process may be performed in the same manner as step S12.

ステップS15では、前述のようにして抽出された近距離点列及び遠距離点側の点を略車体前後方向に延びる連続物体と推定する。ここで、この連続物体には、例えば、道路側壁や、ガードレールや、自車両1の側方を走行する大型トラック等が含まれる。   In step S15, it is estimated that the short-distance point sequence and the points on the far-distance point side extracted as described above are continuous objects extending substantially in the longitudinal direction of the vehicle body. Here, the continuous object includes, for example, a road side wall, a guard rail, a large truck traveling on the side of the host vehicle 1, and the like.

ステップS16では、ステップS13において再度算出された近似曲線C2との間の車幅方向の距離が所定車幅距離Lx0以上の点を、自車両1の走行方向に存在する障害物を構成する点と推定する。なお、この場合、所定車幅距離Lx0以上の点のうち、隣接する点との距離が所定距離以内のもの同士をグループ化すれば、障害物が複数存在する場合でも、それらを分離して認識することができる。ここで、本ステップS16における所定車幅距離は、Lx0よりも大きな値としてもよい。   In step S16, a point in which the distance in the vehicle width direction between the approximate curve C2 calculated again in step S13 is a predetermined vehicle width distance Lx0 or more constitutes an obstacle existing in the traveling direction of the host vehicle 1 and presume. In this case, if points having a distance between adjacent points within the predetermined vehicle width distance Lx0 or more are grouped together, even if there are a plurality of obstacles, they are separated and recognized. can do. Here, the predetermined vehicle width distance in step S16 may be a value larger than Lx0.

そして、ECU100は、このように検出された連続物体及び障害物との位置関係等に応じて、警報装置13から警報音等を発生させる。   Then, the ECU 100 generates an alarm sound or the like from the alarm device 13 according to the positional relationship between the continuous object and the obstacle detected as described above.

以上のように、本実施の形態に係る車両用物体検出装置10によれば、カメラ11L,11Rにより自車両1の前方が撮像される。そして、ECU100により、撮像された画像を構成する各点について、該車両1からの前後方向距離Lzi、車幅方向距離Lxi、及び路面からの上下方向距離Lyiが検出され、カメラ11L,11Rで取得された各点の中から、前記上下方向距離Lyiに基づいて、路面上の物体を構成する点が抽出され、この抽出された点が、前後方向距離Lzi及び車幅方向距離Lxiに基づいて、図6に示すように、車体前後方向(z方向)と車幅方向(x方向)とで規定されるマッピング平面上にマッピングされる。   As described above, according to the vehicle object detection device 10 according to the present embodiment, the front of the host vehicle 1 is imaged by the cameras 11L and 11R. The ECU 100 detects the front-rear direction distance Lzi, the vehicle width direction distance Lxi, and the vertical distance Lyi from the road surface for each point constituting the captured image, and is acquired by the cameras 11L and 11R. The points constituting the object on the road surface are extracted from each of the points based on the vertical distance Lyi, and the extracted points are determined based on the longitudinal distance Lzi and the vehicle width direction distance Lxi. As shown in FIG. 6, mapping is performed on a mapping plane defined by the vehicle body longitudinal direction (z direction) and the vehicle width direction (x direction).

そして、本実施の形態においては、マッピングされた点のうち、前後方向距離Lziが所定前後距離Lzn以下で、かつ略車体前後方向に並ぶ近距離点列が抽出され、この抽出された近距離点列に基づいて、該近距離点列よりも前方まで延び、該点列に対応する近似曲線C1が導出される。そして、マッピングされた点のうち、前後方向距離Lziが所定前後距離Lznよりも大きく、かつ近似曲線C1との間の車幅方向の距離が所定車幅距離Lx0以下の点が、近距離点列に連続する遠距離側の点として抽出される。そして、これらの近距離点列及び遠距離側の点が、車体前後方向に延びる連続物体として推定される。すなわち、連続物体における遠方の部分を、精度よく検出可能な近くに存在する部分から精度よく推定することができる。なお、この連続物体としては、例えば大型トラックや道路側壁、ガードレール等がある。   In the present embodiment, among the mapped points, a short-distance point sequence in which the front-rear distance Lzi is equal to or smaller than the predetermined front-rear distance Lzn and is arranged substantially in the front-rear direction of the vehicle body is extracted. Based on the sequence, an approximate curve C1 extending forward from the short-range point sequence and corresponding to the point sequence is derived. Of the mapped points, a point where the front-rear direction distance Lzi is greater than the predetermined front-rear distance Lzn and the distance in the vehicle width direction to the approximate curve C1 is equal to or smaller than the predetermined vehicle width distance Lx0 is a short distance point sequence. Are extracted as long-distance points that are continuous with each other. These short-distance point sequences and long-distance points are estimated as continuous objects extending in the longitudinal direction of the vehicle body. That is, it is possible to accurately estimate a distant portion of a continuous object from a portion that exists in the vicinity that can be detected with high accuracy. Examples of the continuous object include a large truck, a road side wall, and a guardrail.

また、マッピングされた点のうち、近似曲線C2との間の車幅方向の距離が前記所定車幅距離Lx0よりも大きい点が、自車両1の前方に存在する障害物として推定(検出)される。すなわち、連続物体以外に障害物等が存在している場合でも、該障害物を精度よく推定(検出)することができる。   Further, among the mapped points, a point whose distance in the vehicle width direction from the approximate curve C2 is larger than the predetermined vehicle width distance Lx0 is estimated (detected) as an obstacle existing in front of the host vehicle 1. The That is, even when an obstacle or the like exists in addition to the continuous object, the obstacle can be accurately estimated (detected).

また、近似曲線C1,C2は、近距離点列を重回帰分析することにより導出される。したがって、近似曲線C1,C2を精度よく導出することができる。   The approximate curves C1 and C2 are derived by performing multiple regression analysis on the short distance point sequence. Therefore, the approximate curves C1 and C2 can be derived with high accuracy.

また、近距離点列を抽出する場合に、略車体前後方向に所定数α以上並んでいることを条件として、近距離点列として抽出される。その場合に、所定数αを、例えば乗用車等を除外可能な数とすれば、例えば大型トラックや道路側壁、ガードレール等の車体前後方向に延びる連続物体を精度よく検出することができる。   Further, when extracting a short-distance point sequence, it is extracted as a short-distance point sequence on the condition that a predetermined number α or more are arranged substantially in the longitudinal direction of the vehicle body. In this case, if the predetermined number α is set to a number that can exclude passenger cars, for example, it is possible to accurately detect continuous objects extending in the longitudinal direction of the vehicle body, such as large trucks, road side walls, and guard rails.

また、車幅中心からの距離Lxiが所定車幅距離Lxn(所定値)以上の点の中から近距離点列が抽出される。したがって、例えば車幅方向中央付近に乗用車等の車両が存在する場合でも、該車両を連続物体として検出するのが防止される。すなわち、道路側壁や、ガードレールや、大型トラック等、車体の側方において前後に延びる連続物体に対応する近距離点列を精度よく検出することができる。   Further, a short distance point sequence is extracted from points where the distance Lxi from the vehicle width center is equal to or greater than a predetermined vehicle width distance Lxn (predetermined value). Therefore, for example, even when a vehicle such as a passenger car exists near the center in the vehicle width direction, the vehicle is prevented from being detected as a continuous object. That is, it is possible to accurately detect a short-range point sequence corresponding to a continuous object extending in the front-rear direction on the side of the vehicle body, such as a road side wall, a guard rail, or a large truck.

また、一般に、車両前方が暗くなるほど、カメラ11L,11Rにより取得された画像中にノイズ成分が増加するが、本実施の形態においては、車両前方の明るさが照度センサ12により検出され、暗くなるほど、前記所定前後距離Lznが小さくされる。したがって、例えば車両前方が暗くなってきても、近距離点列の抽出精度が大きく低下するのが防止されることとなる。   In general, the noise component increases in the images acquired by the cameras 11L and 11R as the front of the vehicle becomes darker. In the present embodiment, the brightness in front of the vehicle is detected by the illuminance sensor 12 and becomes darker. The predetermined longitudinal distance Lzn is reduced. Therefore, for example, even if the front of the vehicle becomes dark, it is possible to prevent the extraction accuracy of the short-range point sequence from greatly decreasing.

ここで、ECU100による各ステップの処理と特許請求の範囲との対応について説明しておくと、ステップS3〜S5は三次元位置情報検出手段に対応し、ステップS6は物体構成点検出手段に対応しステップS7はマッピング手段に対応し、ステップS8は所定前後距離変更手段に対応し、ステップS9は近距離点列抽出手段に対応し、ステップS10は近距離点列抽出手段に対応し、ステップS11は近似曲線導出手段に対応し、ステップS12は遠距離点抽出手段に対応し、ステップS13は近似曲線導出手段に対応し、ステップS14は遠距離点抽出手段に対応し、ステップS15は連続物体推定手段に対応し、ステップS16は障害物推定手段に対応する。   Here, the correspondence between the processing of each step by the ECU 100 and the claims will be described. Steps S3 to S5 correspond to the three-dimensional position information detection means, and step S6 corresponds to the object composing point detection means. Step S7 corresponds to the mapping means, step S8 corresponds to the predetermined longitudinal distance changing means, step S9 corresponds to the short distance point sequence extracting means, step S10 corresponds to the short distance point sequence extracting means, and step S11 is performed. Corresponding to the approximate curve deriving means, Step S12 corresponds to the long distance point extracting means, Step S13 corresponds to the approximate curve deriving means, Step S14 corresponds to the long distance point extracting means, and Step S15 is the continuous object estimating means. Step S16 corresponds to the obstacle estimation means.

なお、図13に示すように、自車両1からの前後方向距離が所定前後距離Lznよりも大きい位置、すなわち近距離点列抽出領域よりも前方の位置においても、近距離点列に連続する点の列が存在する場合がある。そこで、これらの点の列を近距離点列に連続する点の列として検出し、この点列を含めて近似曲線C1′を導出するようにしてもよい。こうすることにより、近似曲線導出のための点数が増加することとなり、近似曲線の導出精度が向上する。なお、遠距離側の点は、近距離点列に連続する前記点の列のよりも前方に位置する点の中から抽出すればよい。なお、この構成は、特許請求の範囲における請求項7の構成に対応する。   Note that, as shown in FIG. 13, points that are continuous to the short-distance point sequence at a position where the distance in the front-rear direction from the vehicle 1 is larger than the predetermined front-rear distance Lzn, that is, at a position ahead of the short-range point sequence extraction region. There may be columns. Therefore, the sequence of these points may be detected as a sequence of points continuous to the short-range point sequence, and the approximate curve C1 ′ may be derived including this sequence of points. By doing this, the number of points for deriving the approximate curve increases, and the accuracy of deriving the approximate curve is improved. In addition, what is necessary is just to extract the point by the side of a long distance from the points located ahead rather than the row | line | column of the said point which continues in a short distance point sequence. This configuration corresponds to the configuration of claim 7 in the claims.

本発明は、遠方まで連続する連続物体を精度よく検出可能な車両用物体検出装置を提供することでき、自動車産業に広く利用することができる。   INDUSTRIAL APPLICABILITY The present invention can provide a vehicle object detection device that can accurately detect a continuous object extending far away, and can be widely used in the automobile industry.

本発明の実施形態に係る車両用物体検出装置が搭載された自動車の概略模式図である。1 is a schematic diagram of an automobile equipped with a vehicle object detection device according to an embodiment of the present invention. カメラにより撮像された画像の例である。It is an example of the image imaged with the camera. 本車両用物体検出装置のECUによる制御を示すフローチャートの一例である。It is an example of the flowchart which shows the control by ECU of the object detection apparatus for vehicles. 対応点検索に用いられるArea−based matching手法の説明図である。It is explanatory drawing of the Area-based matching technique used for a corresponding point search. 対応点として検出された画素を該対応点の前方距離に応じた濃度で表示して視覚化した画像である。It is the image which displayed and visualized the pixel detected as a corresponding point with the density | concentration according to the front distance of this corresponding point. 本ECUによる連続物体の検出制御の説明図である(その1。車体前後方向と車幅方向とで規定されるマッピング平面上に対応点をマッピングした状態を示している)。It is explanatory drawing of the detection control of the continuous object by this ECU (the 1. It shows the state which mapped the corresponding point on the mapping plane prescribed | regulated by the vehicle body front-back direction and a vehicle width direction). 近距離点列抽出領域の所定前後距離と照度との関係を示す特性図である。It is a characteristic view which shows the relationship between the predetermined front-rear distance of a short distance point sequence extraction area | region, and illumination intensity. 本ECUによる近距離点列抽出の説明図である。It is explanatory drawing of short distance point sequence extraction by this ECU. 本ECUによる連続物体の検出制御の説明図である(その2)。It is explanatory drawing of the detection control of the continuous object by this ECU (the 2). 同検出制御の説明図である(その3)。It is explanatory drawing of the same detection control (the 3). 同検出制御の説明図である(その4)。It is explanatory drawing of the same detection control (the 4). 同検出制御の説明図である(その5)。It is explanatory drawing of the same detection control (the 5). 本ECUによる連続物体の検出制御のその他の例の説明図である。It is explanatory drawing of the other example of detection control of the continuous object by this ECU.

符号の説明Explanation of symbols

1 車両
10 車両用物体検出装置
11L,11R カメラ(撮像手段)
12 照度センサ(明るさ検出手段)
13 警報装置
100 ECU(三次元位置検出手段、物体構成点抽出手段、マッピング手段、近距離点列抽出手段、近似曲線導出手段、遠距離点抽出手段、連続物体推定手段、障害物推定手段、所定前後距離変更手段)
Lzn 所定前後距離
Lxn 所定車幅距離(第3所定車幅距離)
Lx0 所定車幅距離(所定車幅距離、第2所定車幅距離)
DESCRIPTION OF SYMBOLS 1 Vehicle 10 Vehicle object detection apparatus 11L, 11R Camera (imaging means)
12 Illuminance sensor (brightness detection means)
13 alarm device 100 ECU (three-dimensional position detection means, object constituent point extraction means, mapping means, short distance point sequence extraction means, approximate curve derivation means, long distance point extraction means, continuous object estimation means, obstacle estimation means, predetermined Front / rear distance change means)
Lzn predetermined longitudinal distance Lxn predetermined vehicle width distance (third predetermined vehicle width distance)
Lx0 predetermined vehicle width distance (predetermined vehicle width distance, second predetermined vehicle width distance)

Claims (7)

車両前方の物体を検出する車両用物体検出装置であって、
車両前方を撮像する撮像手段と、
該撮像手段で撮像された画像を構成する各点について、該車両からの前後方向距離、車幅方向距離、及び路面からの上下方向距離をそれぞれ検出する三次元位置情報検出手段と、
前記撮像手段で取得された各点の中から、該三次元位置情報検出手段で検出された路面からの上下方向距離に基づいて、路面上の物体を構成する点を抽出する物体構成点抽出手段と、
該物体構成点抽出手段で抽出された点を、前記三次元位置情報検出手段で検出された車両からの前後方向距離及び車幅方向距離に基づいて、車体前後方向と車幅方向とで規定されるマッピング平面上にマッピングするマッピング手段と、
該マッピング手段によりマッピングされた点のうち、前記三次元位置情報検出手段で検出された車両からの前後方向距離が所定前後距離以下で、かつ略車体前後方向に連続して並ぶ点の列を抽出する近距離点列抽出手段と、
前記マッピング平面上において、該近距離点列抽出手段で抽出された点列に基づいて、前記所定前後距離位置よりも前方まで延び、該点列に対応する近似曲線を導出する近似曲線導出手段と、
前記マッピング手段によりマッピングされた点のうち、前記三次元位置情報検出手段で検出された車両からの前後方向距離が所定前後距離よりも大きく、かつ前記近似曲線導出手段で導出された近似曲線との間の車幅方向の距離が所定車幅距離以下の点を、前記近距離点列抽出手段で抽出された近距離点列に連続する遠距離側の点として抽出する遠距離点抽出手段と、
前記近距離点列抽出手段で抽出された近距離点列及び前記遠距離点抽出手段で抽出された遠距離側の点を、略車体前後方向に延びる連続物体と推定する連続物体推定手段とを有していることを特徴とする車両用物体検出装置。
A vehicle object detection device for detecting an object in front of a vehicle,
Imaging means for imaging the front of the vehicle;
Three-dimensional position information detection means for detecting the distance in the front-rear direction, the width in the vehicle width direction, and the distance in the vertical direction from the road surface for each point constituting the image imaged by the imaging means;
Object component point extraction means for extracting points constituting the object on the road surface from the points acquired by the imaging means based on the vertical distance from the road surface detected by the three-dimensional position information detection means When,
The points extracted by the object constituent point extracting means are defined in the vehicle longitudinal direction and the vehicle width direction based on the longitudinal distance and the vehicle width direction distance from the vehicle detected by the three-dimensional position information detecting means. Mapping means for mapping on a mapping plane;
From the points mapped by the mapping means, a sequence of points in which the front-rear direction distance from the vehicle detected by the three-dimensional position information detection means is equal to or less than a predetermined front-rear distance and is continuously arranged substantially in the front-rear direction of the vehicle body is extracted. Short-distance point sequence extracting means for
An approximate curve deriving unit for deriving an approximate curve corresponding to the point sequence extending forward from the predetermined longitudinal distance position on the mapping plane based on the point sequence extracted by the short distance point sequence extracting unit; ,
Of the points mapped by the mapping means, the front-rear direction distance from the vehicle detected by the three-dimensional position information detection means is larger than a predetermined front-rear distance, and the approximate curve derived by the approximate curve deriving means A long-distance point extracting means for extracting a point whose distance in the vehicle width direction is a predetermined vehicle width distance or less as a long-side point continuous with the short-distance point sequence extracted by the short-distance point sequence extracting means;
Continuous object estimation means for estimating a short distance point sequence extracted by the short distance point sequence extraction means and a long distance side point extracted by the long distance point extraction means as a continuous object extending substantially in the longitudinal direction of the vehicle body; An object detection apparatus for a vehicle, comprising:
前記請求項1に記載の車両用物体検出装置において、
前記マッピング手段によりマッピングされた点のうち、前記近似曲線導出手段で導出された近似曲線との間の車幅方向の距離が前記所定車幅距離以上の第2所定車幅距離よりも大きい点を、車両前方に存在する障害物と推定する障害物推定手段を有していることを特徴とする車両用物体検出装置。
In the vehicle object detection device according to claim 1,
Among the points mapped by the mapping means, a point in which the distance in the vehicle width direction between the approximate curve derived by the approximate curve deriving means is greater than a second predetermined vehicle width distance equal to or greater than the predetermined vehicle width distance. An object detection apparatus for a vehicle, comprising obstacle estimation means for estimating an obstacle present in front of the vehicle.
前記請求項1または請求項2に記載の車両用物体検出装置において、
前記近似曲線導出手段は、近距離点列抽出手段で抽出された近距離点列を重回帰分析することにより、近似曲線を導出することを特徴とする車両用物体検出装置。
In the vehicle object detection device according to claim 1 or 2,
The vehicle object detection device, wherein the approximate curve deriving unit derives an approximate curve by performing multiple regression analysis on the short distance point sequence extracted by the short distance point sequence extracting unit.
前記請求項1から請求項3のいずれか1項に記載の車両用物体検出装置において、
前記近距離点列抽出手段は、略車体前後方向に所定数以上連続して並ぶ点の列を近距離点列とすることを特徴とする車両用物体検出装置。
In the vehicle object detection device according to any one of claims 1 to 3,
The short-distance point sequence extracting means uses a sequence of a predetermined number of points arranged in the longitudinal direction of the vehicle body as a short-distance point sequence.
前記請求項1から請求項4のいずれか1項に記載の車両用物体検出装置において、
前記三次元位置情報検出手段は、車幅方向距離として当該車両の車幅中心からの距離を検出し、
前記近距離点列抽出手段は、前記マッピング手段によりマッピングされた点のうち、前記三次元位置情報検出手段で検出された車幅中心からの距離が第3所定車幅距離以上の点を近距離点列として抽出することを特徴とする車両用物体検出装置。
In the vehicle object detection device according to any one of claims 1 to 4,
The three-dimensional position information detecting means detects a distance from the vehicle width center of the vehicle as a vehicle width direction distance,
The short distance point sequence extracting unit is configured to select a point whose distance from the vehicle width center detected by the three-dimensional position information detecting unit is not less than a third predetermined vehicle width distance among the points mapped by the mapping unit. An object detection apparatus for a vehicle, characterized by being extracted as a point sequence.
前記請求項1から請求項5のいずれか1項に記載の車両用物体検出装置において、
車両前方の明るさを検出する明るさ検出手段と、
該明るさ検出手段で検出された明るさが暗いほど、前記近距離点列抽出手段及び遠距離点抽出手段における前記所定前後距離を小さくする所定前後距離変更手段とが備えられていることを特徴とする車両用物体検出装置。
In the vehicle object detection device according to any one of claims 1 to 5,
Brightness detection means for detecting brightness in front of the vehicle;
A predetermined front-rear distance changing unit that reduces the predetermined front-rear distance in the short-distance point sequence extracting unit and the long-distance point extracting unit as the brightness detected by the brightness detecting unit is darker. A vehicle object detection device.
前記請求項1から請求項6のいずれか1項に記載の車両用物体検出装置において、
前記近距離点列抽出手段は、前記所定前後距離位置よりも前方において、近距離点列に略車体前後方向に連続して並ぶ点の列を抽出するように構成されており、
前記近似曲線導出手段は、前記所定前後距離位置よりも前方に前記近距離点列に略車体前後方向に連続して並ぶ点の列が存在するときは、この点の列を含めて近似曲線を導出し、
前記遠距離点抽出手段は、この点の列よりも前方の点の中から遠距離側の点を抽出することを特徴とする車両用物体検出装置。
In the vehicle object detection device according to any one of claims 1 to 6,
The short-distance point sequence extracting means is configured to extract a sequence of points that are continuously arranged in the front-rear direction of the vehicle body in the short-range point sequence in front of the predetermined front-rear distance position,
The approximate curve deriving means includes an approximate curve including the sequence of points when there is a sequence of points continuously arranged in the vehicle longitudinal direction in the short distance point sequence ahead of the predetermined longitudinal distance position. Derived,
The vehicle object detection device, wherein the long distance point extracting means extracts a point on a long distance side from points ahead of the row of points.
JP2008025948A 2008-02-06 2008-02-06 Object detection device for vehicle Pending JP2009186301A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008025948A JP2009186301A (en) 2008-02-06 2008-02-06 Object detection device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008025948A JP2009186301A (en) 2008-02-06 2008-02-06 Object detection device for vehicle

Publications (1)

Publication Number Publication Date
JP2009186301A true JP2009186301A (en) 2009-08-20

Family

ID=41069695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008025948A Pending JP2009186301A (en) 2008-02-06 2008-02-06 Object detection device for vehicle

Country Status (1)

Country Link
JP (1) JP2009186301A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012081096A1 (en) * 2010-12-15 2012-06-21 トヨタ自動車株式会社 Travel assistance device, travel assistance method, and vehicle
WO2012133457A1 (en) * 2011-03-28 2012-10-04 トヨタ自動車株式会社 Object recognition device
JP2014120167A (en) * 2012-12-12 2014-06-30 Ricoh Co Ltd Method and apparatus for detecting parallax-directional continuous object by parallax diagram
WO2017115732A1 (en) * 2015-12-28 2017-07-06 株式会社リコー Image processing device, object recognition device, machinery control system, image processing method, and image processing program
JP2018197059A (en) * 2017-05-24 2018-12-13 トヨタ自動車株式会社 Collision avoidance control device
CN113506264A (en) * 2021-07-07 2021-10-15 北京航空航天大学 Road vehicle number identification method and device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012081096A1 (en) * 2010-12-15 2012-06-21 トヨタ自動車株式会社 Travel assistance device, travel assistance method, and vehicle
JP5672310B2 (en) * 2010-12-15 2015-02-18 トヨタ自動車株式会社 Driving support device, driving support method, and vehicle
WO2012133457A1 (en) * 2011-03-28 2012-10-04 トヨタ自動車株式会社 Object recognition device
JP2012203806A (en) * 2011-03-28 2012-10-22 Toyota Motor Corp Object recognition device
JP2014120167A (en) * 2012-12-12 2014-06-30 Ricoh Co Ltd Method and apparatus for detecting parallax-directional continuous object by parallax diagram
WO2017115732A1 (en) * 2015-12-28 2017-07-06 株式会社リコー Image processing device, object recognition device, machinery control system, image processing method, and image processing program
JPWO2017115732A1 (en) * 2015-12-28 2018-09-13 株式会社リコー Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program
US20180300562A1 (en) * 2015-12-28 2018-10-18 Yuu YAMADA Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
US10748014B2 (en) 2015-12-28 2020-08-18 Ricoh Company, Ltd. Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
JP2018197059A (en) * 2017-05-24 2018-12-13 トヨタ自動車株式会社 Collision avoidance control device
CN113506264A (en) * 2021-07-07 2021-10-15 北京航空航天大学 Road vehicle number identification method and device
CN113506264B (en) * 2021-07-07 2023-08-29 北京航空航天大学 Road vehicle number identification method and device

Similar Documents

Publication Publication Date Title
CN106463064B (en) Object recognition device and vehicle travel control device using same
CN107341454B (en) Method and device for detecting obstacles in scene and electronic equipment
US8611609B2 (en) Lane line estimating apparatus
JP4956452B2 (en) Vehicle environment recognition device
JP4420011B2 (en) Object detection device
JP4714104B2 (en) Object tilt detection device
TWI401175B (en) Dual vision front vehicle safety warning device and method thereof
JP5371725B2 (en) Object detection device
WO2016002405A1 (en) Parking space recognition device
KR101439052B1 (en) Apparatus and method for detecting obstacle
JP6565188B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
US9697421B2 (en) Stereoscopic camera apparatus
KR20150051735A (en) Parking Guide System and the Method
EP2642364B1 (en) Method for warning the driver of a motor vehicle about the presence of an object in the surroundings of the motor vehicle, camera system and motor vehicle
CN110088801B (en) Driving region detection device and driving assistance system
JP2009186301A (en) Object detection device for vehicle
JP2007280132A (en) Travel guide obstacle detector, and controller for vehicle
JP3961584B2 (en) Lane marking detector
CN110949254A (en) Vehicle running environment detection device and running control system
JP4721278B2 (en) Lane departure determination device, lane departure prevention device, and lane tracking support device
JP6455164B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JP6204782B2 (en) Off-road dump truck
KR101424636B1 (en) Automatic parking system for vehicle
JP2007310591A (en) Image processor and parking space determination method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090618