JP2016176736A - Image distance measuring device - Google Patents

Image distance measuring device Download PDF

Info

Publication number
JP2016176736A
JP2016176736A JP2015055610A JP2015055610A JP2016176736A JP 2016176736 A JP2016176736 A JP 2016176736A JP 2015055610 A JP2015055610 A JP 2015055610A JP 2015055610 A JP2015055610 A JP 2015055610A JP 2016176736 A JP2016176736 A JP 2016176736A
Authority
JP
Japan
Prior art keywords
image
area
distance
unit
shadow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015055610A
Other languages
Japanese (ja)
Other versions
JP6458577B2 (en
Inventor
エドガル芳男 モラレス寺岡
Yoshio Morales Teraoka Edgar
エドガル芳男 モラレス寺岡
信 田中
Makoto Tanaka
信 田中
慶介 秦
Keisuke Hata
慶介 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015055610A priority Critical patent/JP6458577B2/en
Publication of JP2016176736A publication Critical patent/JP2016176736A/en
Application granted granted Critical
Publication of JP6458577B2 publication Critical patent/JP6458577B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image distance measuring device for improving distance measuring accuracy in calculating a distance from a self vehicle to a target by using information where a coordinate position in an image is associated with a three-dimensional distance.SOLUTION: An image distance measuring device includes: a target detection section for detecting a target M in the circumference of a self vehicle N; an image acquisition section for acquiring an image 17 including the target M; a target area recognition section for recognizing a target area A1 being the area of the target M in the image 17; a shadow area recognition section for recognizing a shadow area A2 being the area having contact with the target area A1 in the image 17 and also the area of the shadow K of the target M in the image 17; a reference point setting section for setting a reference point P1 on a boundary L between the target area A1 and the shadow area A2; a storage section for storing information where a coordinate position in the image 17 is associated with a three-dimensional distance; and a distance calculation section for calculating a distance D from the self vehicle N to the target M.SELECTED DRAWING: Figure 2

Description

本発明は、画像測距装置に関する。   The present invention relates to an image ranging device.

車両の走行制御に利用されるパラメータとして、自車両と、自車両の周囲に存在する対象物との間の距離がある。例えば、特許文献1には、自車両の車載カメラの撮像した画像を利用して、自車両から対象物までの距離を算出する距離計測装置が記載されている。この装置は、2台のカメラにより同じタイミングでそれぞれ取得された2枚の画像を利用して、ステレオ処理によって対象物までの距離を算出する。画像内における対象物の領域である物体領域から算出可能な全ての点に対応する視差を演算すると、演算負荷が高く処理時間が掛かることから、この距離計測装置は、物体領域に対して予め設定された注目点に対応する視差のみを算出する。   As a parameter used for vehicle travel control, there is a distance between the host vehicle and an object existing around the host vehicle. For example, Patent Document 1 describes a distance measuring device that calculates a distance from a host vehicle to an object using an image captured by an in-vehicle camera of the host vehicle. This apparatus calculates the distance to an object by stereo processing using two images respectively acquired at the same timing by two cameras. If the parallax corresponding to all points that can be calculated from the object area that is the area of the object in the image is calculated, the calculation load is high and processing time is required. Only the parallax corresponding to the focused point of interest is calculated.

一方で、注目点の設定密度を一定にすると、画像に占める物体領域の面積が小さい場合に算出される視差の数が少なくなり、これらの視差から算出される当該物体領域の代表視差の精度が低下する。そこで、この距離計測装置は、画像に占める物体領域の面積が小さい場合には、画像に占める物体領域の面積が大きい場合よりも注目点の設定密度を高く設定する。   On the other hand, if the setting density of the attention points is constant, the number of parallaxes calculated when the area of the object region in the image is small decreases, and the accuracy of the representative parallax of the object region calculated from these parallaxes is reduced. descend. Therefore, this distance measurement device sets the attention point setting density higher when the area of the object region in the image is small than when the area of the object region in the image is large.

特開2009−180661号公報JP 2009-180661 A

ところで、画像を利用した測距の方法として、画像内の座標位置と三次元距離とを関連付けた情報を利用して、画像内における対象物に対して設定した基準点の座標位置を自車両から対象物までの距離(三次元距離)に換算する方法がある。この方法によれば、従来の距離計測装置のように複雑なステレオ処理を行うことが避けられる。しかしながら、従来の距離計測装置においても問題となったように、画像内における対象物の面積が小さい場合には、自車両から対象物までの距離の精度が低下してしまう。   By the way, as a distance measurement method using an image, the coordinate position of the reference point set for the object in the image is obtained from the own vehicle using information in which the coordinate position in the image is associated with the three-dimensional distance. There is a method for converting to a distance (three-dimensional distance) to an object. According to this method, it is possible to avoid performing complicated stereo processing as in a conventional distance measuring device. However, as has been a problem in the conventional distance measuring device, when the area of the object in the image is small, the accuracy of the distance from the host vehicle to the object decreases.

そこで、本発明の画像測距装置は、画像内の座標位置と三次元距離とを関連付けた情報を利用する自車両から対象物までの距離の算出において、測距精度の向上を図ることを目的とする。   Therefore, the image ranging apparatus of the present invention aims to improve the ranging accuracy in calculating the distance from the host vehicle to the object using information in which the coordinate position in the image is associated with the three-dimensional distance. And

本発明の一形態は、自車両に搭載されたレーダの検出結果又は自車両に搭載された車載カメラの撮像した画像を利用して、自車両の周囲の対象物を検出する対象物検出部と、自車両に搭載された車載カメラを利用して、対象物を含む画像を取得する画像取得部と、対象物検出部の検出結果を利用して、画像内における対象物の領域である対象物領域を認識する対象物領域認識部と、対象物領域認識部の認識結果を利用して、画像内において対象物領域と接する領域であって画像内における対象物の影の領域である影領域を認識する影領域認識部と、対象物領域認識部の認識結果及び影領域認識部の認識結果を利用して、対象物領域と影領域との境界上に基準点を設定する基準点設定部と、画像内の座標位置と三次元距離と関連付けた情報を記憶した記憶部と、画像内における基準点の座標位置と記憶部の記憶した情報とを利用して、自車両から対象物までの距離を算出する距離算出部と、を備える。   One aspect of the present invention is an object detection unit that detects an object around a host vehicle by using a detection result of a radar mounted on the host vehicle or an image captured by an in-vehicle camera mounted on the host vehicle. An image acquisition unit that acquires an image including an object using an in-vehicle camera mounted on the host vehicle, and an object that is a region of the object in the image using a detection result of the object detection unit Using the recognition result of the object area recognition unit and the object area recognition unit for recognizing the area, a shadow area that is in contact with the object area in the image and is a shadow area of the object in the image A shadow area recognizing unit for recognizing, a reference point setting unit for setting a reference point on a boundary between the object region and the shadow region using the recognition result of the object region recognizing unit and the recognition result of the shadow region recognizing unit; , Describe the information related to the coordinate position in the image and the 3D distance. Provided with a storage unit and, by using the stored information of the coordinate position and the storage unit of a reference point in the image, a distance calculating unit for calculating a distance from the vehicle to the object, the.

本発明の画像測距装置によれば、画像内の座標位置と三次元距離とを関連付けた情報を利用する自車両から対象物までの距離の算出において、測距精度の向上を図ることができる。   According to the image ranging device of the present invention, it is possible to improve the ranging accuracy in calculating the distance from the host vehicle to the object using information in which the coordinate position in the image is associated with the three-dimensional distance. .

本発明の一形態に係る画像測距装置を示すブロック図である。It is a block diagram which shows the image ranging apparatus which concerns on one form of this invention. (a)は自車両と対象物との関係を示す図であり、(b)は画像取得部において取得された画像の一例である。(A) is a figure which shows the relationship between the own vehicle and a target object, (b) is an example of the image acquired in the image acquisition part. 画像測距装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an image ranging apparatus. (a)は画像取得部において取得された画像の一例であり、(b)は対象物領域を認識した結果を示す画像の一例であり、(c)は影領域を認識した結果を示す画像の一例であり、(d)は基準点を設定した結果を示す画像の一例である。(A) is an example of an image acquired by the image acquisition unit, (b) is an example of an image showing a result of recognizing an object area, and (c) is an image of an image showing a result of recognizing a shadow area. It is an example and (d) is an example of an image showing a result of setting a reference point. 画像取得部において取得された画像の別の例を示す図である。It is a figure which shows another example of the image acquired in the image acquisition part.

以下、添付図面を参照しながら本発明を実施するための形態を詳細に説明する。図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

図1は、画像測距装置1を示すブロック図である。画像測距装置1は、例えば、自動車などの車両に搭載され、画像測距装置1が搭載された自車両と当該自車両の周囲に存在する対象物との間の距離を測定する。対象物とは、例えば、歩行者、自転車、動物、他車両などである。自車両の周囲には、例えば、自車両の前方領域、自車両の後方領域及び側方領域が含まれる。画像測距装置1が測定した自車両と対象物との距離は、例えば、自車両の運転を支援する運転支援装置において利用される。運転支援装置では、例えば、自車両と対象物との距離を自車両と対象物との衝突回避支援などに利用する。   FIG. 1 is a block diagram showing an image distance measuring apparatus 1. The image ranging device 1 is mounted on a vehicle such as an automobile, for example, and measures the distance between the host vehicle on which the image ranging device 1 is mounted and an object existing around the host vehicle. Examples of the object include pedestrians, bicycles, animals, and other vehicles. The periphery of the host vehicle includes, for example, a front region of the host vehicle, a rear region and a side region of the host vehicle. The distance between the host vehicle and the object measured by the image ranging device 1 is used, for example, in a driving support device that supports driving of the host vehicle. In the driving support device, for example, the distance between the host vehicle and the target is used for collision avoidance support between the host vehicle and the target.

画像測距装置1は、画像を利用した測距に関する処理を行うECU[Engine Control Unit]2を備える。ECU2は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]などからなる電子制御ユニットである。ECU2では、ROMに記憶されたプログラムをRAMにロードし、CPUで実行することで、測距に関する処理を実行する。ECU2は、複数の電子制御ユニットから構成されていてもよい。ECU2は、車両外部情報取得部3と、表示部5と、音声発生部6と、アクチュエータ7とに接続されている。   The image ranging apparatus 1 includes an ECU [Engine Control Unit] 2 that performs processing related to ranging using an image. The ECU 2 is an electronic control unit including a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like. The ECU 2 loads a program stored in the ROM into the RAM and executes it with the CPU, thereby executing processing related to distance measurement. The ECU 2 may be composed of a plurality of electronic control units. The ECU 2 is connected to the vehicle external information acquisition unit 3, the display unit 5, the sound generation unit 6, and the actuator 7.

車両外部情報取得部3は、自車両周囲の外部に関する情報を取得する機能を有する。具体的には、車両外部情報取得部3は、自車両周囲で死角領域を形成する構造物、他車両や歩行者や自転車などの移動する物体などの各種情報(物体情報)を取得する機能を有する。車両外部情報取得部3は、例えば、ステレオカメラや単眼カメラなどの車載カメラ3a、及び、ミリ波レーダなどのレーダ3bによって構成される。車両外部情報取得部3は、レーダ3bによって、他車両といった測距の対象物の有無を検出する。また、車両外部情報取得部3は、レーダ3bによって検出された対象物を含む画像を取得する。本実施形態において、車載カメラ3aによって撮像される範囲は、レーダ3bの探知範囲に含まれる。   The vehicle external information acquisition unit 3 has a function of acquiring information related to the outside around the host vehicle. Specifically, the vehicle external information acquisition unit 3 has a function of acquiring various types of information (object information) such as a structure that forms a blind spot area around the host vehicle, moving objects such as other vehicles, pedestrians, and bicycles. Have. The vehicle external information acquisition unit 3 includes, for example, an in-vehicle camera 3a such as a stereo camera or a monocular camera, and a radar 3b such as a millimeter wave radar. The vehicle external information acquisition unit 3 detects the presence / absence of a ranging object such as another vehicle by the radar 3b. Moreover, the vehicle external information acquisition part 3 acquires the image containing the target object detected by the radar 3b. In the present embodiment, the range imaged by the in-vehicle camera 3a is included in the detection range of the radar 3b.

表示部5は、例えばモニタやヘッドアップディスプレイなどによって構成され、運転支援のための情報を表示する機能を有する。音声発生部6は、スピーカーやブザーなどによって構成され、運転支援のための音声やブザー音を発する機能を有する。アクチュエータ7は、例えば、ブレーキアクチュエータと操舵アクチュエータ(電動パワーステアリングシステムアクチュエータ)とを有する。ブレーキアクチュエータは、自車両のブレーキ力をコントロールするアクチュエータであり、ECU2からの制御信号に応じてブレーキ力が制御される。操舵アクチュエータは、自車両の操舵トルクをコントロールする操舵アクチュエータであり、ECU2からの制御信号に応じて操舵トルクが制御される。   The display unit 5 includes, for example, a monitor or a head-up display, and has a function of displaying information for driving support. The sound generation unit 6 is configured by a speaker, a buzzer, and the like, and has a function of generating sound for driving support and a buzzer sound. The actuator 7 includes, for example, a brake actuator and a steering actuator (electric power steering system actuator). The brake actuator is an actuator that controls the braking force of the host vehicle, and the braking force is controlled according to a control signal from the ECU 2. The steering actuator is a steering actuator that controls the steering torque of the host vehicle, and the steering torque is controlled in accordance with a control signal from the ECU 2.

次に、ECU2の機能的構成について説明を行う。ECU2は、対象物検出部10と、画像取得部11と、対象物領域認識部12と、影領域認識部13と、基準点設定部14と、記憶部15と、距離算出部16と、を有する。以下に説明するECU2の機能の一部は、自車両と通信可能な情報管理センターなどの施設のコンピュータ又は携帯情報端末において実行されてもよい。   Next, the functional configuration of the ECU 2 will be described. The ECU 2 includes an object detection unit 10, an image acquisition unit 11, an object region recognition unit 12, a shadow region recognition unit 13, a reference point setting unit 14, a storage unit 15, and a distance calculation unit 16. Have. Some of the functions of the ECU 2 described below may be executed in a computer or portable information terminal of a facility such as an information management center that can communicate with the host vehicle.

対象物検出部10は、自車両Nの前方に存在する対象物Mを検出する(図2(a)参照)。ここで、以下の説明では、自転車Mb及び当該自転車Mbに乗車する人Maが対象物Mであるとする。対象物検出部10は、例えば、車載カメラ3aの撮像した画像、或いは、車両外部情報取得部3が有するレーダ3bの検出結果を利用して対象物Mの有無を検出する。   The object detection unit 10 detects the object M present in front of the host vehicle N (see FIG. 2A). Here, in the following description, it is assumed that the bicycle Mb and the person Ma who rides the bicycle Mb are the object M. The object detection unit 10 detects the presence or absence of the object M using, for example, an image captured by the in-vehicle camera 3a or a detection result of the radar 3b included in the vehicle external information acquisition unit 3.

画像取得部11は、車載カメラ3aを利用して、対象物検出部10において検出された対象物Mが含まれた画像17(図2(b)参照)を取得する。   The image acquisition part 11 acquires the image 17 (refer FIG.2 (b)) in which the target object M detected in the target object detection part 10 was contained using the vehicle-mounted camera 3a.

対象物領域認識部12は、対象物検出部10の検出結果と周知の画像処理とを利用して、対象物領域A1(図2(b)参照)を認識する。ここで、対象物領域A1とは画像取得部11において取得された画像17内において対象物Mが占める領域をいう。対象物領域認識部12は、例えば、画像17に対してエッジ抽出処理及びパターン認識といった周知の画像処理を行うことによって、画像17に含まれた立体物が占めると仮定される複数の候補領域を抽出する。そして、対象物検出部10の検出結果を利用して、抽出された複数の候補領域から、測距対象である対象物Mの領域を対象物領域A1として認識する。   The object area recognition unit 12 recognizes the object area A1 (see FIG. 2B) using the detection result of the object detection unit 10 and known image processing. Here, the object area A1 refers to an area occupied by the object M in the image 17 acquired by the image acquisition unit 11. The object area recognition unit 12 performs a plurality of candidate areas that are assumed to be occupied by a three-dimensional object included in the image 17 by performing known image processing such as edge extraction processing and pattern recognition on the image 17, for example. Extract. Then, using the detection result of the object detection unit 10, the area of the object M that is a distance measurement object is recognized as the object area A1 from the plurality of extracted candidate areas.

影領域認識部13は、対象物領域認識部12の認識結果を利用して、影領域A2(図2(b)参照)を認識する。ここで影領域A2とは、画像17内において対象物領域A1と接する領域であって画像17内における対象物Mの影Kの領域をいう。影領域認識部13は、画像17を構成する各ピクセルが有する輝度や色度を利用して、画像17における複数の影候補領域を認識する。そして、影領域認識部13は、対象物領域認識部12の認識結果を利用して、複数の影候補領域から対象物Mの影領域A2を認識する。例えば、影領域認識部13は、対象物領域認識部12の近傍に存在する影領域を、対象物Mの影領域A2として選択してもよい。また、影領域認識部13は、太陽や街路灯などの光源の位置を利用して、対象物領域認識部12の近傍であって、光源の位置から予想される範囲に存在する影領域を対象物Mの影領域A2として選択してもよい。影領域認識部13は、例えば、周知の画像処理によって光源の位置を認識する。   The shadow area recognition unit 13 recognizes the shadow area A2 (see FIG. 2B) using the recognition result of the object area recognition unit 12. Here, the shadow area A2 is an area in contact with the object area A1 in the image 17 and an area of the shadow K of the object M in the image 17. The shadow area recognition unit 13 recognizes a plurality of shadow candidate areas in the image 17 using the luminance and chromaticity of each pixel constituting the image 17. Then, the shadow area recognition unit 13 recognizes the shadow area A2 of the object M from the plurality of shadow candidate areas using the recognition result of the object area recognition unit 12. For example, the shadow area recognition unit 13 may select a shadow area that exists in the vicinity of the object area recognition unit 12 as the shadow area A2 of the object M. The shadow area recognition unit 13 uses a position of a light source such as the sun or a street light to target a shadow area that is in the vicinity of the object area recognition unit 12 and exists in an expected range from the position of the light source. The shadow area A2 of the object M may be selected. The shadow area recognition unit 13 recognizes the position of the light source by, for example, known image processing.

基準点設定部14は、対象物領域認識部12の認識結果及び影領域認識部13の認識結果を利用して、対象物領域A1と影領域A2との境界L上に基準点P1(図2(b)参照)を設定する。ここで、基準点P1とは、対象物Mまでの距離を得るための基準となる点である。   The reference point setting unit 14 uses the recognition result of the object region recognition unit 12 and the recognition result of the shadow region recognition unit 13 to use the reference point P1 (FIG. 2) on the boundary L between the object region A1 and the shadow region A2. (B) is set. Here, the reference point P1 is a point serving as a reference for obtaining a distance to the object M.

基準点設定部14は、対象物領域認識部12の認識結果及び影領域認識部13の認識結果を利用して、対象物領域A1と影領域A2の境界Lを認識する。境界Lは、例えば、対象物領域A1と影領域A2の複数の接点を通る直線である。境界Lは、対象物領域A1と影領域A2の接点が三箇所以上ある場合、各接点との距離が最小となる直線としてもよい。そして、基準点設定部14は、この境界L上における任意の位置に基準点P1を設定する。   The reference point setting unit 14 recognizes the boundary L between the object region A1 and the shadow region A2 using the recognition result of the object region recognition unit 12 and the recognition result of the shadow region recognition unit 13. The boundary L is, for example, a straight line passing through a plurality of contact points between the object area A1 and the shadow area A2. The boundary L may be a straight line that minimizes the distance to each contact point when there are three or more contact points between the object region A1 and the shadow region A2. Then, the reference point setting unit 14 sets the reference point P1 at an arbitrary position on the boundary L.

記憶部15は、画像17内の座標位置と三次元距離とを関連付けた情報を記憶する。ここで座標位置とは、画像17内において、2次元座標系に基づいて特定される位置を示す情報をいう。例えば、画像17内の位置は、画像17の横方向をX軸方向とし、画像の縦方向をY軸方向とすると共に、画像17の左辺の最下点を原点OPと設定した場合、x座標及びy座標によって示される。また、三次元距離とは、三次元空間(3次元座標系)における自車両N(車載カメラ3a)からの距離をいう。ここで、図2(a)に示す距離Dは、自車両Nの車載カメラ3aから対象物Mと路面Rが接触する点P1aまでの自車両Nの進行方向に沿った三次元距離である。点P1aは、三次元空間における路面R上の点であって、対象物Mと路面Rが接触する点のうち最も自車両Nに近い点である。   The storage unit 15 stores information in which the coordinate position in the image 17 is associated with the three-dimensional distance. Here, the coordinate position refers to information indicating a position specified based on a two-dimensional coordinate system in the image 17. For example, the position in the image 17 is the x coordinate when the horizontal direction of the image 17 is the X axis direction, the vertical direction of the image is the Y axis direction, and the lowest point on the left side of the image 17 is set as the origin OP. And y-coordinates. The three-dimensional distance refers to a distance from the host vehicle N (the in-vehicle camera 3a) in a three-dimensional space (three-dimensional coordinate system). Here, the distance D shown in FIG. 2A is a three-dimensional distance along the traveling direction of the host vehicle N from the in-vehicle camera 3a of the host vehicle N to the point P1a where the object M and the road surface R contact. The point P1a is a point on the road surface R in the three-dimensional space, and is the point closest to the host vehicle N among the points where the object M and the road surface R are in contact.

座標位置と三次元距離とを関連付けた情報とは、座標位置を三次元距離に換算するための情報をいう。換言すると、路面R上に設定された基準点P1の座標位置は、記憶部15に記録された情報によって、対象物Mが接触している路面R上の点P1aまでの路面Rに沿った三次元距離と対応付けられている。ここで、座標位置と三次元距離との関係について説明する。図2に示されるように、車載カメラ3aは、自車両Nに対して固定され、自車両Nの走行中において、路面Rを基準とした車載カメラ3aの高さと車載カメラ3aの画角とが維持される。そうすると、例えば、自車両Nと対象物Mとの相対位置が変化しない場合には、対象物Mは画像17中の同じ位置に存在する。従って、画像17における座標位置と自車両Nからの距離Dとの関係を実測又は設計により予め得ておけば、画像17における座標位置を利用して、自車両Nから対象物Mまでの距離Dを算出することが可能になる。座標位置と三次元距離とを関連付けた情報は、例えば、座標位置を独立変数とし、三次元距離を従属変数とした関数であってもよい。また、座標位置と三次元距離とを関連付けた情報は、例えば、座標位置に対応する三次元距離が組み合わされた変換テーブル等のデータベースであってもよい。   The information in which the coordinate position is associated with the three-dimensional distance is information for converting the coordinate position into the three-dimensional distance. In other words, the coordinate position of the reference point P1 set on the road surface R is a tertiary along the road surface R up to the point P1a on the road surface R with which the object M is in contact, based on the information recorded in the storage unit 15. It is associated with the original distance. Here, the relationship between the coordinate position and the three-dimensional distance will be described. As shown in FIG. 2, the in-vehicle camera 3 a is fixed to the host vehicle N, and the height of the in-vehicle camera 3 a relative to the road surface R and the angle of view of the in-vehicle camera 3 a are determined while the host vehicle N is traveling. Maintained. Then, for example, when the relative position between the host vehicle N and the object M does not change, the object M exists at the same position in the image 17. Therefore, if the relationship between the coordinate position in the image 17 and the distance D from the host vehicle N is obtained in advance by actual measurement or design, the distance D from the host vehicle N to the object M is used using the coordinate position in the image 17. Can be calculated. The information associating the coordinate position with the three-dimensional distance may be, for example, a function having the coordinate position as an independent variable and the three-dimensional distance as a dependent variable. The information that associates the coordinate position with the three-dimensional distance may be a database such as a conversion table in which the three-dimensional distance corresponding to the coordinate position is combined.

距離算出部16は、画像17内における基準点P1の座標位置と記憶部15の記憶した情報とを利用して、自車両Nから対象物Mまでの距離Dを算出する。距離算出部16は、基準点設定部14において設定された基準点P1の位置座標を取得する。次に、距離算出部16は、記憶部15を参照して、基準点P1の位置座標を三次元距離に変換する関数又は変換テーブルを取得する。そして、距離算出部16は、関数又は変換テーブルを利用して、位置座標から距離Dを算出する。   The distance calculation unit 16 calculates the distance D from the host vehicle N to the object M using the coordinate position of the reference point P1 in the image 17 and the information stored in the storage unit 15. The distance calculation unit 16 acquires the position coordinates of the reference point P1 set by the reference point setting unit 14. Next, the distance calculation unit 16 refers to the storage unit 15 and acquires a function or conversion table for converting the position coordinates of the reference point P1 into a three-dimensional distance. And the distance calculation part 16 calculates the distance D from a position coordinate using a function or a conversion table.

次に、画像測距装置1の動作について図3を参照しつつ説明する。図3は、一実施形態に係る画像測距装置1の動作を示すフローチャートである。図3に示されたフローチャートは、例えば、自車両Nの走行中に繰り返し実行される。また、運転者が自車両Nの運転を終了した場合には、図3に示されたフローチャートを終了する。   Next, the operation of the image ranging apparatus 1 will be described with reference to FIG. FIG. 3 is a flowchart showing the operation of the image ranging apparatus 1 according to the embodiment. The flowchart shown in FIG. 3 is repeatedly executed while the host vehicle N is traveling, for example. When the driver finishes driving the vehicle N, the flowchart shown in FIG.

画像測距装置1は、ステップS1において、車両外部情報取得部3により自車両Nの周囲の車両外部情報を取得する。次に、ECU2は、ステップS2において、車両外部情報を利用して、対象物検出部10により対象物Mの検出を行う。具体的には、対象物検出部10は、車両外部情報取得部3において取得された車両外部情報を利用して、対象物Mが検出されないと判定した場合(S2:NO)には、ステップS1,S2を再び実施する。対象物検出部10は、対象物Mが検出されたと判定した場合(S2:YES)には、次のステップS3に移行する。   In step S <b> 1, the image ranging device 1 acquires vehicle external information around the host vehicle N by the vehicle external information acquisition unit 3. Next, in step S2, the ECU 2 detects the object M by the object detection unit 10 using the vehicle external information. Specifically, when the object detection unit 10 determines that the object M is not detected using the vehicle external information acquired by the vehicle external information acquisition unit 3 (S2: NO), step S1 is performed. , S2 is performed again. If the object detection unit 10 determines that the object M has been detected (S2: YES), the object detection unit 10 proceeds to the next step S3.

画像測距装置1のECU2は、ステップS3において、画像取得部11により画像17の取得を行う(図4(a)参照)。続いて、ECU2は、ステップS4において、対象物領域認識部12により対象物領域A1の認識を行う(図4(b)参照)。具体的には、対象物領域認識部12は、車両外部情報を利用して、画像17における対象物領域A1を認識する。   In step S3, the ECU 2 of the image ranging device 1 acquires the image 17 by the image acquisition unit 11 (see FIG. 4A). Subsequently, in step S4, the ECU 2 recognizes the object area A1 by the object area recognition unit 12 (see FIG. 4B). Specifically, the object area recognition unit 12 recognizes the object area A1 in the image 17 using the vehicle external information.

画像測距装置1のECU2は、ステップS5において影領域認識部13により影領域A2の認識を行う(図4(c)参照)。具体的には、影領域認識部13は、対象物領域A1の認識結果を利用して、画像17における対象物Mの影領域A2の認識処理を実行する。そして、影領域認識部13が画像17における影領域A2を認識できた場合(S5:YES)には、次のステップS8に移行する。一方、影領域認識部13が画像17における影領域A2を認識できなかった場合(S5:NO)には、別の次のステップS6に移行する。   The ECU 2 of the image ranging apparatus 1 recognizes the shadow area A2 by the shadow area recognition unit 13 in step S5 (see FIG. 4C). Specifically, the shadow area recognition unit 13 executes a recognition process of the shadow area A2 of the object M in the image 17 using the recognition result of the object area A1. When the shadow area recognition unit 13 can recognize the shadow area A2 in the image 17 (S5: YES), the process proceeds to the next step S8. On the other hand, when the shadow area recognition unit 13 cannot recognize the shadow area A2 in the image 17 (S5: NO), the process proceeds to another next step S6.

まず、ステップS5の結果がNOであった場合、画像測距装置1のECU2は、ステップS6において、画像17内にて路面が占める路面領域を認識する。路面領域の認識は、例えば、周知の画像処理によって行うことができる。続いて、ECU2は、ステップS7において、基準点を設定する。具体的には、ECU2は、対象物領域A1と、路面領域とを利用して、周知の画像処理によって対象物領域A1と路面との境界を認識する。続いて、ECU2は、境界において、最も自車両Nに近い点(すなわち、境界線において画像17の下端に最も近い点)を基準点に設定する。   First, when the result of step S5 is NO, the ECU 2 of the image ranging apparatus 1 recognizes the road surface area occupied by the road surface in the image 17 in step S6. The road surface area can be recognized by, for example, known image processing. Subsequently, the ECU 2 sets a reference point in step S7. Specifically, the ECU 2 recognizes the boundary between the object area A1 and the road surface by known image processing using the object area A1 and the road surface area. Subsequently, the ECU 2 sets a point closest to the host vehicle N at the boundary (that is, a point closest to the lower end of the image 17 on the boundary line) as a reference point.

一方、ステップS5の結果がYESであった場合、画像測距装置1のECU2は、ステップS8において、基準点設定部14により対象物領域A1と影領域A2との境界L上に基準点P1を設定する。具体的には、基準点設定部14は、対象物領域A1と、影領域A2とを利用して、対象物領域A1と影領域A2との境界Lを認識する。続いて、ECU2は、境界Lにおいて、最も自車両Nに近い点(すなわち、境界線において画像17の下端に最も近い点)を基準点P1に設定する。画像測距装置1のECU2は、ステップS9において、距離算出部16により基準点P1の座標位置を取得する。なお、ステップS9では、基準点設定部14により基準点P1の座標位置を取得してもよい。   On the other hand, if the result of step S5 is YES, the ECU 2 of the image ranging apparatus 1 sets the reference point P1 on the boundary L between the object area A1 and the shadow area A2 by the reference point setting unit 14 in step S8. Set. Specifically, the reference point setting unit 14 recognizes the boundary L between the object area A1 and the shadow area A2 by using the object area A1 and the shadow area A2. Subsequently, the ECU 2 sets, on the boundary L, a point closest to the host vehicle N (that is, a point closest to the lower end of the image 17 on the boundary line) as the reference point P1. In step S <b> 9, the ECU 2 of the image ranging device 1 acquires the coordinate position of the reference point P <b> 1 by the distance calculation unit 16. In step S9, the reference point setting unit 14 may acquire the coordinate position of the reference point P1.

画像測距装置1のECU2は、ステップS10において、距離算出部16により自車両Nから対象物Mまでの距離Dを算出する。距離算出部16は、記憶部15に記録されている座標位置と三次元距離とを関連付けた情報を利用して、基準点P1の位置座標を三次元距離に変換することにより、自車両Nから対象物Mまでの距離Dを算出する。   In step S <b> 10, the ECU 2 of the image distance measuring device 1 calculates a distance D from the host vehicle N to the object M by the distance calculation unit 16. The distance calculation unit 16 uses the information in which the coordinate position recorded in the storage unit 15 and the three-dimensional distance are associated with each other to convert the position coordinate of the reference point P1 into the three-dimensional distance. A distance D to the object M is calculated.

上述した画像測距装置1では、距離算出部16が画像17内の座標位置と三次元距離とを関連付けた情報を利用して、基準点P1の座標位置を自車両N(車載カメラ3a)から対象物Mまでの距離Dに換算する。基準点P1は、画像17内における対象物領域A1及び影領域A2の境界L上に設定される。この境界Lは路面R上に形成されるので、基準点P1は路面R上に設定されているといえる。これにより、画像測距装置1では、路面R上に設定された基準点P1を利用することで、従来の測距方法により自転車Mbに乗った人Maの背中(対象物Mのうちカメラが認識しやすい広さの部位)に設定された基準点を利用するような場合、すなわち路面Rから離れて宙に浮いた基準点を利用する場合と比べて、自車両Nから対象物Mまでの距離Dを算出する精度を向上させることができる。従って、画像測距装置1によれば、画像17内の座標位置と三次元距離とを関連付けた情報を利用する自車両Nから対象物Mまでの距離の算出において、測距精度の向上を図ることができる。   In the image ranging device 1 described above, the distance calculation unit 16 uses the information in which the coordinate position in the image 17 is associated with the three-dimensional distance to determine the coordinate position of the reference point P1 from the own vehicle N (vehicle camera 3a). It is converted into a distance D to the object M. The reference point P1 is set on the boundary L between the object area A1 and the shadow area A2 in the image 17. Since this boundary L is formed on the road surface R, it can be said that the reference point P1 is set on the road surface R. Thereby, in the image ranging apparatus 1, by using the reference point P1 set on the road surface R, the camera of the back of the person Ma riding the bicycle Mb by the conventional ranging method (recognized by the camera of the object M). The distance from the vehicle N to the object M compared to the case of using a reference point set to an area that is easy to carry out), that is, the case of using a reference point floating away from the road surface R. The accuracy of calculating D can be improved. Therefore, according to the image ranging device 1, the ranging accuracy is improved in the calculation of the distance from the own vehicle N to the object M using the information that associates the coordinate position in the image 17 with the three-dimensional distance. be able to.

また、対象物の測距処理において、対象物が細い棒状の立体物や、比較的柔らかい立体物である場合には、ミリ波レーダなどのレーダでは、充分な測距精度が得られない場合があり得る。上述した画像測距装置1によれば、画像を利用して対象物までの測距を行うので、細い棒状の立体物や、比較的柔らかい立体物であっても測距精度の向上を図ることができる。例えば、図5に示されるように、細い脚と柔らかい胴体とを有する鹿などの動物19であっても、動物19が占める対象物領域19aと、動物19の影19bが占める影領域19cとを認識し、対象物領域19aと影領域19cとの境界に基準点P2を設定することにより、動物19までの測距精度の向上を図ることができる。   Also, in the object ranging process, if the object is a thin rod-shaped solid object or a relatively soft three-dimensional object, sufficient ranging accuracy may not be obtained with a radar such as a millimeter wave radar. possible. According to the image ranging device 1 described above, since ranging to an object is performed using an image, it is possible to improve the ranging accuracy even for a thin rod-shaped three-dimensional object or a relatively soft three-dimensional object. Can do. For example, as shown in FIG. 5, even in the case of an animal 19 such as a deer having thin legs and a soft torso, an object region 19a occupied by the animal 19 and a shadow region 19c occupied by a shadow 19b of the animal 19 are provided. By recognizing and setting the reference point P2 at the boundary between the object area 19a and the shadow area 19c, the ranging accuracy up to the animal 19 can be improved.

また、前述した特許文献1に示される従来の距離計測装置のように、画像に占める対象物の面積が小さい場合に注目点及び対応点の設定密度を高く設定するためには解像度の高い画像が要求される。解像度の高い画像を得るため構成及び当該画像を処理する構成は、高い性能が要求されるためコスト面において不利である。一方、画像測距装置1によれば、特許文献1の距離計測装置に要求されるような構成及び性能を必要としないので、製造コストの増加を抑制することができる。   In addition, as in the conventional distance measuring device disclosed in Patent Document 1 described above, when the area of the object in the image is small, an image with a high resolution is required to set the setting density of the attention point and the corresponding point high. Required. A configuration for obtaining an image with a high resolution and a configuration for processing the image are disadvantageous in cost because high performance is required. On the other hand, according to the image distance measuring device 1, since the configuration and performance required for the distance measuring device of Patent Document 1 are not required, an increase in manufacturing cost can be suppressed.

本発明は、前述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々の変形が可能である。   The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

例えば、上記画像測距装置1では、レーダ3bを利用して対象物Mの有無を検出していたが、対象物Mの有無は、車載カメラ3aによって撮像された画像を利用して検出してもよい。また、対象物Mを検出するための画像を取得するカメラと、対象物領域A1及び影領域A2を認識するための画像を取得するカメラとは、同一のカメラであってもよいし、別のカメラであってもよい。   For example, the image ranging device 1 detects the presence or absence of the object M using the radar 3b. However, the presence or absence of the object M is detected using an image captured by the in-vehicle camera 3a. Also good. In addition, the camera that acquires the image for detecting the object M and the camera that acquires the image for recognizing the object area A1 and the shadow area A2 may be the same camera, or different It may be a camera.

1…画像測距装置、2…ECU、3…車両外部情報取得部、3a…車載カメラ、3b…レーダ、10…対象物検出部、11…画像取得部、12…対象物領域認識部、13…影領域認識部、14…基準点設定部、15…記憶部、16…距離算出部、N…自車両、M…対象物、A1…対象物領域、A2…影領域、P1,P2…基準点。 DESCRIPTION OF SYMBOLS 1 ... Image ranging device, 2 ... ECU, 3 ... Vehicle external information acquisition part, 3a ... Car-mounted camera, 3b ... Radar, 10 ... Object detection part, 11 ... Image acquisition part, 12 ... Object area recognition part, 13 ... shadow area recognition section, 14 ... reference point setting section, 15 ... storage section, 16 ... distance calculation section, N ... own vehicle, M ... object, A1 ... object area, A2 ... shadow area, P1, P2 ... reference point.

Claims (1)

自車両に搭載されたレーダの検出結果又は前記自車両に搭載された車載カメラの撮像した画像を利用して、前記自車両の周囲の対象物を検出する対象物検出部と、
前記自車両に搭載された車載カメラを利用して、前記対象物を含む画像を取得する画像取得部と、
前記対象物検出部の検出結果を利用して、前記画像内における前記対象物の領域である対象物領域を認識する対象物領域認識部と、
前記対象物領域認識部の認識結果を利用して、前記画像内において前記対象物領域と接する領域であって前記画像内における前記対象物の影の領域である影領域を認識する影領域認識部と、
前記対象物領域認識部の認識結果及び前記影領域認識部の認識結果を利用して、前記対象物領域と前記影領域との境界上に基準点を設定する基準点設定部と、
前記画像内の座標位置と三次元距離と関連付けた情報を記憶した記憶部と、
前記画像内における前記基準点の座標位置と前記記憶部の記憶した前記情報とを利用して、前記自車両から前記対象物までの距離を算出する距離算出部と、
を備える、画像測距装置。
An object detection unit that detects an object around the host vehicle using a detection result of a radar mounted on the host vehicle or an image captured by an in-vehicle camera mounted on the host vehicle;
Using an in-vehicle camera mounted on the host vehicle, an image acquisition unit that acquires an image including the object;
Using the detection result of the object detection unit, an object region recognition unit that recognizes an object region that is the region of the object in the image;
A shadow area recognition unit that recognizes a shadow area that is in contact with the object area in the image and is a shadow area of the object in the image by using a recognition result of the object area recognition unit. When,
A reference point setting unit that sets a reference point on a boundary between the object region and the shadow region using the recognition result of the object region recognition unit and the recognition result of the shadow region recognition unit;
A storage unit storing information associated with a coordinate position and a three-dimensional distance in the image;
A distance calculation unit that calculates a distance from the host vehicle to the object using the coordinate position of the reference point in the image and the information stored in the storage unit;
An image distance measuring device.
JP2015055610A 2015-03-19 2015-03-19 Image ranging device Active JP6458577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015055610A JP6458577B2 (en) 2015-03-19 2015-03-19 Image ranging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015055610A JP6458577B2 (en) 2015-03-19 2015-03-19 Image ranging device

Publications (2)

Publication Number Publication Date
JP2016176736A true JP2016176736A (en) 2016-10-06
JP6458577B2 JP6458577B2 (en) 2019-01-30

Family

ID=57070993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015055610A Active JP6458577B2 (en) 2015-03-19 2015-03-19 Image ranging device

Country Status (1)

Country Link
JP (1) JP6458577B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028861A (en) * 2017-08-02 2019-02-21 ソニー株式会社 Signal processor, signal processing method, program, and moving object
US20190362512A1 (en) * 2017-02-20 2019-11-28 Continental Automotive Gmbh Method and Apparatus for Estimating a Range of a Moving Object
JP2021135061A (en) * 2020-02-21 2021-09-13 Jrcモビリティ株式会社 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program
WO2024024556A1 (en) * 2022-07-28 2024-02-01 株式会社小糸製作所 Data generation method, data generation system, control device, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05141919A (en) * 1991-11-01 1993-06-08 Aisin Seiki Co Ltd Corresponding point retrieving method for pickup image of right and left camera
JPH0935197A (en) * 1995-07-14 1997-02-07 Aisin Seiki Co Ltd Vehicle recognizing method
US20070154068A1 (en) * 2006-01-04 2007-07-05 Mobileye Technologies, Ltd. Estimating Distance To An Object Using A Sequence Of Images Recorded By A Monocular Camera
JP2011033594A (en) * 2009-08-06 2011-02-17 Panasonic Corp Distance calculation device for vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05141919A (en) * 1991-11-01 1993-06-08 Aisin Seiki Co Ltd Corresponding point retrieving method for pickup image of right and left camera
JPH0935197A (en) * 1995-07-14 1997-02-07 Aisin Seiki Co Ltd Vehicle recognizing method
US20070154068A1 (en) * 2006-01-04 2007-07-05 Mobileye Technologies, Ltd. Estimating Distance To An Object Using A Sequence Of Images Recorded By A Monocular Camera
JP2011033594A (en) * 2009-08-06 2011-02-17 Panasonic Corp Distance calculation device for vehicle

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190362512A1 (en) * 2017-02-20 2019-11-28 Continental Automotive Gmbh Method and Apparatus for Estimating a Range of a Moving Object
JP2020508501A (en) * 2017-02-20 2020-03-19 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH Method and apparatus for estimating the range of a moving object
US10832428B2 (en) * 2017-02-20 2020-11-10 Continental Automotive Gmbh Method and apparatus for estimating a range of a moving object
JP7107931B2 (en) 2017-02-20 2022-07-27 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for estimating range of moving objects
JP2019028861A (en) * 2017-08-02 2019-02-21 ソニー株式会社 Signal processor, signal processing method, program, and moving object
US11543532B2 (en) * 2017-08-02 2023-01-03 Sony Corporation Signal processing apparatus, signal processing method, program, and mobile object for map generation baded on LiDAR and image processing
JP2021135061A (en) * 2020-02-21 2021-09-13 Jrcモビリティ株式会社 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program
JP7461160B2 (en) 2020-02-21 2024-04-03 Jrcモビリティ株式会社 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program
WO2024024556A1 (en) * 2022-07-28 2024-02-01 株式会社小糸製作所 Data generation method, data generation system, control device, and program

Also Published As

Publication number Publication date
JP6458577B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
WO2017159382A1 (en) Signal processing device and signal processing method
EP2889641B1 (en) Image processing apparatus, image processing method, program and image processing system
JP5999127B2 (en) Image processing device
US20170203692A1 (en) Method and device for the distortion-free display of an area surrounding a vehicle
JP6565188B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6358160B2 (en) Traveling road surface detection device and traveling road surface detection method
JP4271720B1 (en) Vehicle periphery monitoring device
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
CN105006175B (en) The method and system of the movement of initiative recognition traffic participant and corresponding motor vehicle
JP6458577B2 (en) Image ranging device
US9870513B2 (en) Method and device for detecting objects from depth-resolved image data
US20210019860A1 (en) Processing device for object identification
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
JP4486997B2 (en) Vehicle periphery monitoring device
US10657392B2 (en) Object detection device, object detection method, and program
JPWO2017154389A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP2018092596A (en) Information processing device, imaging device, apparatus control system, mobile body, information processing method, and program
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JPWO2017099199A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP7081098B2 (en) Driving environment recognition device, driving environment recognition method, program
JP6674959B2 (en) Parallax calculating device, stereo camera device, vehicle, and parallax calculating method
JP2014006075A (en) Pedestrian detection device
WO2017154305A1 (en) Image processing device, apparatus control system, imaging device, image processing method, and program
JP5832850B2 (en) Lane monitoring system and lane monitoring method
JP2010071942A (en) Object detecting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R151 Written notification of patent or utility model registration

Ref document number: 6458577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151