JP4876676B2 - POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM - Google Patents

POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM Download PDF

Info

Publication number
JP4876676B2
JP4876676B2 JP2006095858A JP2006095858A JP4876676B2 JP 4876676 B2 JP4876676 B2 JP 4876676B2 JP 2006095858 A JP2006095858 A JP 2006095858A JP 2006095858 A JP2006095858 A JP 2006095858A JP 4876676 B2 JP4876676 B2 JP 4876676B2
Authority
JP
Japan
Prior art keywords
image
vertical edge
edge line
generated
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006095858A
Other languages
Japanese (ja)
Other versions
JP2007271386A (en
Inventor
悟 中西
芳樹 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2006095858A priority Critical patent/JP4876676B2/en
Publication of JP2007271386A publication Critical patent/JP2007271386A/en
Application granted granted Critical
Publication of JP4876676B2 publication Critical patent/JP4876676B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、位置計測装置、方法及びプログラム、並びに移動量検出装置、方法及びプログラムに係り、特に、複数の画像から現在位置と対象物との相対的な位置を計測する位置計測装置、方法及びプログラム、並びに移動量検出装置、方法及びプログラムに関する。   The present invention relates to a position measurement apparatus, method and program, and a movement amount detection apparatus, method and program, and more particularly to a position measurement apparatus, method and method for measuring a relative position between a current position and an object from a plurality of images. The present invention relates to a program, a movement amount detection apparatus, a method, and a program.

車載用の測距装置として、単眼カメラを用いるものが提案されている。この技術は、本質的には3次元情報を2次元情報として平面内に投影した物体の位置関係から距離を算定する。したがって、距離を算定するための前提となる幾何学的なパラメータが変化すると、測距の値が大きく変化するという問題がある。特に、車載用の測距装置においては、車両の挙動変化によって幾何学パラメータが大きく変化するので影響が大きい。   As a vehicle-mounted distance measuring device, one using a monocular camera has been proposed. This technique essentially calculates the distance from the positional relationship of an object projected on a plane as 3D information as 2D information. Therefore, there is a problem in that the distance measurement value changes greatly when the geometric parameter which is a precondition for calculating the distance changes. In particular, in a vehicle-mounted distance measuring device, the geometric parameter greatly changes due to a change in the behavior of the vehicle, so that the influence is great.

そこで、車両の姿勢変化があっても距離を正確に計測することの出来る車載用測距装置が開示されている(特許文献1を参照。)。特許文献1の技術は、車両に搭載された単眼の撮像手段と、自車両の車速を検出する車速センサと、前記撮像手段によって得られた画像内で、道路近傍に固定された構造体を検出する構造体検出手段と、前記構造体の画像変化の状態と前記自車両の車速とに基づいて、前記撮像手段から前記構造体までの距離を推定する構造体距離推定手段と、画像上で走行路上に存在する物体と前記構造体との画像上の位置関係に基づいて前記撮像手段から前記物体までの距離を推定する物体距離推定手段と、を備えたものである。   Therefore, an in-vehicle distance measuring device that can accurately measure the distance even when the posture of the vehicle changes is disclosed (see Patent Document 1). The technique of Patent Literature 1 detects a monocular imaging unit mounted on a vehicle, a vehicle speed sensor for detecting the vehicle speed of the host vehicle, and a structure fixed near a road in an image obtained by the imaging unit. A structure detecting means for detecting the structure, a structure distance estimating means for estimating a distance from the imaging means to the structure based on a state of image change of the structure and a vehicle speed of the host vehicle, and running on the image Object distance estimating means for estimating a distance from the imaging means to the object based on a positional relationship on the image between an object present on the road and the structure.

また、特徴領域として点を用いたもの、点と直線を用いたもの、直線のみを用いたものも開示されている(非特許文献1、2、3を参照。)。
特開2003−247824号公報 Richard I. Hartley,“In Defense of the Eight-Point Algorithm” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.19, No.6, June 1997 コーデリア・シュミット(Cordelia Schmid)ら, "Automatic Line Matching across Views" Computer Vision and Pattern Recognition, 1997 ペレジェロ O.A.(Pellejero O.A.)ら, "Automatic computation of the fundamental matrix from matched lines" Current Topics in Artificial Intelligence, April 2004
Also, those using points as feature regions, those using points and straight lines, and those using only straight lines are disclosed (see Non-Patent Documents 1, 2, and 3).
JP 2003-247824 A Richard I. Hartley, “In Defense of the Eight-Point Algorithm” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.19, No.6, June 1997 Cordelia Schmid et al., "Automatic Line Matching across Views" Computer Vision and Pattern Recognition, 1997 Peregero O. A. (Pellejero OA) et al., "Automatic computation of the fundamental matrix from matched lines" Current Topics in Artificial Intelligence, April 2004

しかし、特許文献1では、路側構造物の高さの変化を求めるために、路側構造物の上端と下端の両方が見える必要がある。このため、路側構造物以外の物体(例えば歩行者や駐車車両など)により上端や下端が隠されている場合は計測できない問題がある。   However, in patent document 1, in order to obtain | require the change of the height of a roadside structure, it is necessary to see both the upper end and lower end of a roadside structure. For this reason, there exists a problem which cannot be measured when the upper end and the lower end are hidden by objects (for example, a pedestrian, a parked vehicle, etc.) other than a roadside structure.

また、非特許文献1及び2では、画像間で対応する特徴点を用いて計算を行っている。1枚の画像からは、直線よりも特徴点の方が検出される数が多く、対応付けのための計算コストがかかる問題がある。また、特徴点は対応付けに使用できる特徴点の周囲の輝度情報が、直線よりも少ない。このため、ノイズの影響を受けやすく、対応間違いが起きやすい。さらに、どの特徴点が路側構造物を表すものなのかが分からない問題もある。   In Non-Patent Documents 1 and 2, calculation is performed using feature points corresponding to each other between images. From one image, the number of feature points detected is larger than that of a straight line, and there is a problem that the calculation cost for matching is high. Also, the feature point has less luminance information around the feature point that can be used for matching than the straight line. For this reason, it is easy to receive the influence of a noise and a correspondence mistake occurs easily. Furthermore, there is a problem that it is not known which feature points represent roadside structures.

非特許文献3では、直線のみを用いているが、3次元運動を想定しているため、撮像した空間中に(1)2枚以上の平面が必要になり、(2)その平面から4本以上の直線を検出することが必要となる。このため、家屋などの壁の位置測定などにしか使用できない問題がある。   In Non-Patent Document 3, only a straight line is used, but since three-dimensional motion is assumed, (1) two or more planes are required in the imaged space, and (2) four from the plane. It is necessary to detect the above straight lines. For this reason, there exists a problem which can be used only for the position measurement of walls, such as a house.

本発明は、上述した課題を解決するために提案されたものであり、計算コストをかけることなく、正確に対象物との相対的な位置を計測する位置計測装置、方法及びプログラム、並びに移動量検出装置、方法及びプログラムを提供することを目的とする。   The present invention has been proposed in order to solve the above-described problem, and a position measuring device, method, and program for accurately measuring a relative position with respect to an object without incurring calculation costs, and a moving amount. An object of the present invention is to provide a detection device, a method, and a program.

本発明に係る位置計測装置は、車両前方を撮像して複数の画像を生成する単眼カメラからなる撮像手段と、前記撮像手段により生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出する縦エッジ線検出手段と、前記縦エッジ線検出手段により検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定する対応縦エッジ線決定手段と、前記対応縦エッジ線決定手段により決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、前記縦エッジ線が表す対象物までの相対的な位置情報を計測する位置計測手段と、を備えている。 The position measuring device according to the present invention is picked up at three different positions among an imaging unit composed of a monocular camera that captures the front of a vehicle and generates a plurality of images, and a plurality of images generated by the imaging unit. Vertical edge line detection means for detecting vertical edge lines from the first image, the second image, and the third image , respectively , and the vertical edge lines of the respective images detected by the vertical edge line detection means. The corresponding vertical edge line determining means for determining the corresponding vertical edge line from the above, the horizontal position on the image of the corresponding vertical edge line determined by the corresponding vertical edge line determining means, and the first image are generated The yaw angle and the amount of movement of the vehicle that have changed from the time of the generation of the second image to the time of the generation of the second image and the time of the generation of the second image to the time of the generation of the third image Yaw angle and vehicle Based on the moving amount, and a, a position measuring means for measuring the relative position information to the object the longitudinal edge line represents.

撮像手段は、車両前方を撮像して、それぞれ異なる場所で複数の画像を生成する。縦エッジ線検出手段は、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出する。ここで検出された各縦エッジ線は、画像間で全く異なる対象物の縦エッジ線であったり、同一対象物の縦エッジ線であったりする。そこで、対応縦エッジ線決定手段は、各々の画像の縦エッジ線の中から対応する縦エッジ線を決定する。位置計測手段は、決定された対応する縦エッジ線の画像上の水平位置と、第1の画像が生成された時から第2の画像が生成された時までに変化したヨー角度および車両の移動量と、第2の画像が生成された時から第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、縦エッジ線が表す対象物までの相対的な位置情報を計測する。 The imaging means images the front of the vehicle and generates a plurality of images at different locations. The vertical edge line detection means detects vertical edge lines from the first image, the second image, and the third image captured at three different positions . Each vertical edge line detected here may be a vertical edge line of a completely different object between images or a vertical edge line of the same object. Therefore, the corresponding vertical edge line determination means determines a corresponding vertical edge line from among the vertical edge lines of each image. The position measuring means includes the determined horizontal position on the image of the corresponding vertical edge line, the yaw angle changed from the time when the first image is generated to the time when the second image is generated, and the movement of the vehicle. Relative to the object represented by the vertical edge line based on the amount, the yaw angle changed from the time when the second image is generated to the time when the third image is generated, and the amount of movement of the vehicle. Measure location information.

したがって、上記発明は、車両前方を撮像して複数の画像を生成し、複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出し、検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定し、前記決定された対応する縦エッジ線の画像上の水平位置と、第1の画像が生成された時から第2の画像が生成された時までに変化したヨー角度および車両の移動量と、第2の画像が生成された時から第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、前記縦エッジ線が表す対象物までの相対的な位置情報を計測することにより、計算コストをかけることなく、複数の画像から対象物の相対位置を正確に計測することができる。 Therefore, in the above invention, the front of the vehicle is imaged to generate a plurality of images , and the first image, the second image, and the third image captured at three different positions among the plurality of images. A vertical edge line is detected, a corresponding vertical edge line is determined from the detected vertical edge lines of each image, a horizontal position on the image of the determined corresponding vertical edge line, and a first The yaw angle and the amount of vehicle movement that have changed from the time when the image is generated to the time when the second image is generated, and the time from when the second image is generated to the time when the third image is generated By measuring the relative position information to the object represented by the vertical edge line based on the changed yaw angle and the amount of movement of the vehicle, the relative position of the object can be obtained from a plurality of images without incurring calculation costs. The position can be measured accurately.

なお、本発明は、位置計測方法及びプログラムにも適用可能である。   The present invention can also be applied to a position measurement method and program.

本発明は、対象物の相対位置を正確に検出することができる。   The present invention can accurately detect the relative position of an object.

以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
図1は、第1の実施形態に係る位置計測装置の構成を示しブロック図である。位置計測装置は、例えば車両に搭載され、この車両(以下「自車両」という。)と対象物との相対的な位置を計測する。
[First Embodiment]
FIG. 1 is a block diagram illustrating the configuration of the position measurement apparatus according to the first embodiment. The position measurement device is mounted on a vehicle, for example, and measures the relative position between the vehicle (hereinafter referred to as “own vehicle”) and the object.

位置計測装置は、車両前方を撮像するように設置された撮像部11と、撮像部11で生成された車両前方画像から縦エッジ線を検出する縦エッジ線検出部12と、複数の縦エッジ線の中から対応する縦エッジ線(以下「対応縦エッジ線」という。)を決定する対応縦エッジ線決定部13と、自車両と対象物との相対的な位置関係を計算する位置関係計算部16と、を備えている。   The position measurement device includes an imaging unit 11 installed so as to image the front of the vehicle, a vertical edge line detection unit 12 that detects a vertical edge line from a vehicle front image generated by the imaging unit 11, and a plurality of vertical edge lines. Corresponding vertical edge line determination unit 13 that determines a corresponding vertical edge line (hereinafter referred to as “corresponding vertical edge line”), and a positional relationship calculation unit that calculates a relative positional relationship between the vehicle and the object 16.

図2は、位置計測装置が搭載された車両の座標系(以下「車両座標系」という。)を示す図である。Z軸方向は車両の進行方向に対応し、X軸方向は車両の横方向(進行方向に直交する方向)に対応する。したがって、車両座標系において、静止物体の座標位置は、車両の移動に伴って変化する。   FIG. 2 is a diagram showing a coordinate system (hereinafter referred to as “vehicle coordinate system”) of a vehicle on which the position measuring device is mounted. The Z-axis direction corresponds to the traveling direction of the vehicle, and the X-axis direction corresponds to the lateral direction of the vehicle (a direction orthogonal to the traveling direction). Therefore, in the vehicle coordinate system, the coordinate position of the stationary object changes as the vehicle moves.

図3は、運動前の車両を基準にした車両座標系を示す図である。図4は、運動後の車両を基準にした車両座標系を示す図である。ここでは、基準ではない車両座標系のX軸及びZ軸に「’」が付されている。また、車両の移動量を表す車両運動変数は、並進移動量とヨー角とで表される。   FIG. 3 is a diagram illustrating a vehicle coordinate system based on a vehicle before exercise. FIG. 4 is a diagram illustrating a vehicle coordinate system based on a vehicle after exercise. Here, “′” is attached to the X axis and the Z axis of the vehicle coordinate system that is not the reference. A vehicle motion variable that represents the amount of movement of the vehicle is represented by a translational amount of movement and a yaw angle.

例えば図3の場合、運動前の車両は、並進移動量0、ヨー角0で表される。そして、運動後の車両は、並進移動量(+tz)、ヨー角(+θ)で表される。なお、ヨー角は鉛直軸周りの角度であり、反時計回り方向を正とする。図4の場合、運動後の車両は、並進移動量0、ヨー角0で表される。また、運動前の車両は、並進移動量(−tz)、ヨー角(−θ)で表される。   For example, in the case of FIG. 3, the vehicle before the exercise is represented by a translational movement amount 0 and a yaw angle 0. The vehicle after the exercise is represented by a translational movement amount (+ tz) and a yaw angle (+ θ). The yaw angle is an angle around the vertical axis, and the counterclockwise direction is positive. In the case of FIG. 4, the vehicle after exercise is represented by a translational movement amount 0 and a yaw angle 0. The vehicle before exercise is expressed by a translational movement amount (−tz) and a yaw angle (−θ).

以上のように構成された位置計測装置は、車両が移動するときに次のように処理を実行する。   The position measuring device configured as described above executes processing as follows when the vehicle moves.

撮像部11は、車両が移動すると、3箇所の異なる位置(視点1、視点2、視点3)で車両前方を撮像して、それぞれの位置において車両前方画像を生成する。本実施形態では、視点1は車両の運動前の位置とするが、視点1は移動中の所定の位置であってもよい。   When the vehicle moves, the imaging unit 11 images the front of the vehicle at three different positions (viewpoint 1, viewpoint 2, and viewpoint 3), and generates a vehicle forward image at each position. In the present embodiment, the viewpoint 1 is a position before the movement of the vehicle, but the viewpoint 1 may be a predetermined position during movement.

図5は、撮像部11により生成された車両前方画像と車両座標系との関係を示す図である。車両前方画像は、車両座標系のZ軸方向の画像である。なお、fは撮像部11のカメラ焦点距離を表し、Z=fの位置に投影面があるものとする。なお、車両前方画像には、路面と路側構造物が含まれている。   FIG. 5 is a diagram illustrating a relationship between the vehicle front image generated by the imaging unit 11 and the vehicle coordinate system. The vehicle front image is an image in the Z-axis direction of the vehicle coordinate system. Note that f represents the camera focal length of the imaging unit 11, and it is assumed that there is a projection plane at the position of Z = f. Note that the vehicle front image includes a road surface and a roadside structure.

縦エッジ線検出部12は、例えば縦方向に比べて横方向の輝度変化が大きいという縦エッジ線の特性を利用して、撮像部11で生成された視点1〜3における車両前方画像の路側構造物から縦エッジ線を検出する。縦エッジ線検出部12は、例えば、電柱であれば電柱の輪郭線、建造物であれば建造物の縦方向の輪郭線を検出する。これにより、視点1〜3の各車両前方画像から複数の縦エッジ線が検出される。   The vertical edge line detection unit 12 uses, for example, the characteristic of the vertical edge line that the luminance change in the horizontal direction is larger than that in the vertical direction, and the roadside structure of the vehicle front image at the viewpoints 1 to 3 generated by the imaging unit 11. Detect vertical edge lines from objects. The vertical edge line detection unit 12 detects, for example, the contour of a power pole if it is a power pole, or the vertical contour of a building if it is a building. Thereby, a plurality of vertical edge lines are detected from the vehicle front images of the viewpoints 1 to 3.

次に、縦エッジ線検出部12は、図5に示すように、各縦エッジ線のX座標を表す水平位置uを検出する。なお、本実施形態では、水平位置uは、車両座標系のX座標としたが、所定の基準位置(例えば車両前方画像の左端又は右端)から縦エッジ線までの水平方向の距離としてもよい。また、水平位置uの検出は、対応縦エッジ線決定部13による対応する縦エッジ線が決定されてからでもよい。   Next, as shown in FIG. 5, the vertical edge line detection unit 12 detects a horizontal position u representing the X coordinate of each vertical edge line. In the present embodiment, the horizontal position u is the X coordinate of the vehicle coordinate system, but may be a horizontal distance from a predetermined reference position (for example, the left end or the right end of the vehicle front image) to the vertical edge line. The horizontal position u may be detected after the corresponding vertical edge line is determined by the corresponding vertical edge line determination unit 13.

対応縦エッジ線決定部13は、縦エッジ線検出部12で検出された視点1〜3における各車両前方画像間で対応する縦エッジ線を決定する。具体的には、対応縦エッジ線決定部13は、車両前方画像間で対応する縦エッジ線とその周囲の点の輝度分布がほぼ一定である特性を利用して、対応する縦エッジ線を検出する。   The corresponding vertical edge line determination unit 13 determines the corresponding vertical edge line between the vehicle front images at the viewpoints 1 to 3 detected by the vertical edge line detection unit 12. Specifically, the corresponding vertical edge line determination unit 13 detects the corresponding vertical edge line using the characteristic that the luminance distribution of the corresponding vertical edge line between the front images of the vehicle and the surrounding points is substantially constant. To do.

例えば、対応縦エッジ線決定部13は、視点1〜3の各車両前方画像に電柱がある場合、車両前方画像間で電柱の同一部位の縦エッジ線を決定する。つまり、車両前方画像間の同一部位の縦エッジ線を決定する。   For example, the corresponding vertical edge line determination unit 13 determines the vertical edge line of the same part of the power pole between the vehicle front images when the vehicle front images of the viewpoints 1 to 3 have a power pole. That is, the vertical edge line of the same part between the vehicle front images is determined.

図6は、(a)視点3、(b)視点2、(c)視点1における車両前方画像と対応付けられた縦エッジ線p1、p2を示す図である。縦エッジ線p1は、右路側の構造物の同一部位の縦エッジ線である。縦エッジ線p2は、左路側の構造物の同一部位の縦エッジ線である。piの添え字iは、対応付けができた縦エッジ線の識別番号を表す。また、以下では水平位置uをuiaで表す。添え字aは、視点1〜3の番号を表す。すなわち、uiaは、視点aにおける識別番号iの縦エッジ線の水平位置を表す。 FIG. 6 is a diagram illustrating the vertical edge lines p 1 and p 2 associated with the vehicle front image at (a) viewpoint 3, (b) viewpoint 2, and (c) viewpoint 1. FIG. The vertical edge line p 1 is a vertical edge line of the same portion of the structure on the right road side. Vertical edge line p 2 is a vertical edge lines of the same part of the structure of the left roadside. The subscript i of pi represents the identification number of the vertical edge line that has been associated. In the following, the horizontal position u is represented by u i and a . The subscript a represents the numbers of the viewpoints 1 to 3. That is, u i and a represent the horizontal position of the vertical edge line of the identification number i at the viewpoint a.

位置関係計算部16は、対応縦エッジ線決定部13で決定された対応する縦エッジ線についての水平位置uia、焦点距離fに基づいて、視点3に対する縦エッジ線piの位置を計算する。 The positional relationship calculation unit 16 determines the position of the vertical edge line p i with respect to the viewpoint 3 based on the horizontal position u i , a , and the focal length f for the corresponding vertical edge line determined by the corresponding vertical edge line determination unit 13. calculate.

図7は、視点3での位置を基準とした車両座標系を示す図である。位置関係計算部16は、この車両座標系においてθ、tを計算し、これを用いて視点3に対する縦エッジ線pi(i=1又は2)の座標(Xi、Zi)を計算する。 FIG. 7 is a diagram illustrating a vehicle coordinate system based on the position at the viewpoint 3. The positional relationship calculation unit 16 calculates θ and t in this vehicle coordinate system, and uses these to calculate the coordinates (X i , Z i ) of the vertical edge line p i (i = 1 or 2) with respect to the viewpoint 3. .

ここで、θ、tは
θ1:視点1から視点2に移動したときのヨー角変化量
θ2:視点2から視点3に移動したときのヨー角変化量
z1:視点1から視点2に移動したときの並進移動量
z2:視点2から視点3に移動したときの並進移動量
である。また、視点aから縦エッジ線piまでの直線をliaで表す。例えば直線l2、3は、視点3から縦エッジ線p2までの直線を表す。
Here, θ and t are θ 1 : Yaw angle change amount when moving from viewpoint 1 to viewpoint 2 θ 2 : Yaw angle change amount when moving from viewpoint 2 to viewpoint 3 t z1 : From viewpoint 1 to viewpoint 2 Translational movement amount when moving t z2 : Translational movement amount when moving from viewpoint 2 to viewpoint 3 . Also, it represents the straight line from the viewpoint a to the vertical edge line p i l i, in a. For example, the straight lines l 2 and 3 represent straight lines from the viewpoint 3 to the vertical edge line p 2 .

ここで、直線li、1、li、2、li、3は、それぞれ次の式(1)から式(3)で表される。 Here, the straight lines l i , 1, l i , 2, l i , 3 are represented by the following equations (1) to (3), respectively.

Figure 0004876676
Figure 0004876676

ただし、u’=u/f(u’i,a=ui,a/f)であり、fは焦点距離である。そして、位置関係計算部16は、例えば直線li、1と直線li、3の交点、直線li、2と直線li、3の交点を計算し、2つの交点は同じであることを利用して、2つの交点の誤差が最小となるときのθ1、θ2、tz1、tz2を計算する。以下、θ、tの導出について説明する。 However, u ′ = u / f (u ′ i, a = u i, a / f), and f is a focal length. The positional relationship calculation unit 16 calculates, for example, the intersections of the straight lines l i and 1 and the straight lines l i and 3 and the intersections of the straight lines l i and 2 and the straight lines l i and 3, and the two intersections are the same. Utilizing this, θ 1 , θ 2 , t z1 , and t z2 when the error between the two intersections is minimized are calculated. Hereinafter, the derivation of θ and t will be described.

(θ、tの導出)
z1、tz2、θ1、θ2を未知のパラメータとする。視点1〜3から直線の式をベクトルで表す。まず、式(4)から式(7)のようにベクトルを定義する。
(Derivation of θ and t)
Let t z1 , t z2 , θ 1 , and θ 2 be unknown parameters. A straight line expression is expressed as a vector from the viewpoints 1 to 3. First, a vector is defined as shown in equations (4) to (7).

Figure 0004876676
Figure 0004876676

さらに、媒介変数rを導入すると、式(8)から式(10)が成り立つ。   Furthermore, when the parameter r is introduced, Expression (10) is established from Expression (8).

Figure 0004876676
Figure 0004876676

右肩の数値は、座標系の番号を表す。これらの式を視点3の座標系で表す。回転行列Rと並進ベクトルhを用いると、式(11)及び式(12)が成り立つ。   The number on the right shoulder represents the coordinate system number. These equations are expressed in the coordinate system of the viewpoint 3. When the rotation matrix R and the translation vector h are used, Expressions (11) and (12) are established.

Figure 0004876676
Figure 0004876676

ただし、式(13)から式(15)を満たす。   However, Expressions (13) to (15) are satisfied.

Figure 0004876676
Figure 0004876676

それぞれを成分表示すると、式(16)から式(18)となる。   When each component is displayed, the equations (16) to (18) are obtained.

Figure 0004876676
Figure 0004876676

x成分、z成分ごとに展開し、媒介変数rを消去してまとめると、上述した式(1)から式(3)が求められる。したがって、直線l1と直線l3の交点のx座標x13は式(19)となり、その交点のz座標z13は式(20)となる。 When the x component and the z component are expanded and the parametric variable r is deleted and summarized, the above equation (1) to equation (3) can be obtained. Therefore, the x coordinate x 13 of the intersection of the straight line l 1 and the straight line l 3 is expressed by equation (19), and the z coordinate z 13 of the intersection is expressed by equation (20).

Figure 0004876676
Figure 0004876676

Figure 0004876676
Figure 0004876676

また、直線l2と直線l3の交点のx座標x23は式(21)となり、その交点のz座標z23は式(22)となる。 Further, x coordinate x 23 at the intersection of the straight line l 2 and the straight line l 3 is the formula (21) and, z coordinate z 23 of the intersection will be equation (22).

Figure 0004876676
Figure 0004876676

そして直線の交点は等しいことを利用して、交点の誤差を定義する。誤差は、例えば式(23)から式(25)で定義される。   Then, using the fact that the intersection of the straight lines is equal, the error of the intersection is defined. The error is defined by, for example, Expression (23) to Expression (25).

Figure 0004876676
Figure 0004876676

そして、誤差が最小となるときのθ1、θ2、tz1、tz2を求めればよい。 Then, θ 1 , θ 2 , t z1 , and t z2 when the error is minimized may be obtained.

位置関係計算部16は、以上のようにしてθ1、θ2、tz1、tz2を計算した後、これらの値を式(18)、式(19)(又は(20)、式(21))に代入する。これにより、車両座標系における縦エッジの存在する座標が求められる。 The positional relationship calculation unit 16 calculates θ 1 , θ 2 , t z1 , and t z2 as described above, and then calculates these values using the equations (18), (19) (or (20), and (21) )). Thereby, the coordinate in which the vertical edge exists in a vehicle coordinate system is calculated | required.

以上のように、第1の実施形態に係る位置計測装置は、3箇所で撮影された車両前方画像から縦エッジ線を検出し、各々の車両前方画像で対応する縦エッジ線の水平位置を用いることによって、自車両に対する対象物の相対位置を複数の直線の交点から求めることができる。   As described above, the position measurement apparatus according to the first embodiment detects the vertical edge lines from the vehicle front images taken at three locations, and uses the horizontal positions of the corresponding vertical edge lines in the respective vehicle front images. Thus, the relative position of the object with respect to the host vehicle can be obtained from the intersection of a plurality of straight lines.

また、位置計測装置は、対象物の相対位置を求める際に、ヨーレイトセンサを用いることなく、複数の車両前方画像からヨー角を計算するので、ヨー角検出装置としても機能することができる。   Further, the position measuring device calculates a yaw angle from a plurality of vehicle front images without using a yaw rate sensor when determining the relative position of the object, and thus can function as a yaw angle detecting device.

なお、本実施形態では、4つの車両運動変数tz1、tz2、θ1、θ2を計算するために、2本以上の対応付けられた縦エッジ線が必要である。しかし、tz1=tz2、又はθ1=θ2の場合は、対応付けられた縦エッジ線は1本でよい。また、θ=0のときは、sinθ、cosθの計算が不要になるので、計算の高速化が可能になる。これらのことは、後述する第2及び第3の実施形態でも同様である。 In the present embodiment, two or more associated vertical edge lines are required to calculate the four vehicle motion variables t z1 , t z2 , θ 1 , and θ 2 . However, when t z1 = t z2 or θ 1 = θ 2 , the number of associated vertical edge lines is sufficient. Further, when θ = 0, it is not necessary to calculate sin θ and cos θ, so that the calculation speed can be increased. The same applies to the second and third embodiments described later.

[第2の実施形態]
つぎに、本発明の第2の実施形態について説明する。なお、第1の実施形態と同一の部位には同一の符号を付し、重複する説明は省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the site | part same as 1st Embodiment, and the overlapping description is abbreviate | omitted.

図8は、第2の実施形態に係る位置計測装置の構成を示すブロック図である。第2の実施形態に係る位置計測装置は、図1に示す構成に車速センサ14を追加したものである。   FIG. 8 is a block diagram illustrating a configuration of the position measurement apparatus according to the second embodiment. The position measuring device according to the second embodiment is obtained by adding a vehicle speed sensor 14 to the configuration shown in FIG.

車速センサ14は、車両に設けられた各々の車輪にそれぞれ設けられており、車輪の回転角速度に応じた信号を生成し、その信号を位置関係計算部16に供給する。   The vehicle speed sensor 14 is provided for each wheel provided in the vehicle, generates a signal corresponding to the rotational angular velocity of the wheel, and supplies the signal to the positional relationship calculation unit 16.

位置関係計算部16は、車速センサ14からの信号に基づいて車速を計算し、車速を時間積分することにより並進移動量tz1、tz2を計算する。そして、直線li、1と直線li、3の交点、直線li、2と直線li、3の交点を計算し、2つの交点は同じであることを利用して、2つの交点の誤差が最小となるときのθ1、θ2を計算する。 The positional relationship calculation unit 16 calculates the vehicle speed based on the signal from the vehicle speed sensor 14, and calculates the translational movement amounts t z1 and t z2 by integrating the vehicle speed over time. Then, the intersection of the straight line l i , 1 and the straight line l i , 3 and the intersection of the straight line l i , 2 and the straight line l i , 3 are calculated, and the fact that the two intersection points are the same, the two intersection points Θ 1 and θ 2 when the error is minimized are calculated.

ここで、第1の実施形態では、tz1、tz2、θ1、θ2を計算するために、2つの縦エッジ線p1、p2が必要であった。しかし、第2の実施形態では、θ1、θ2だけを計算すればよいので、1つの縦エッジ線だけでよい。 Here, in the first embodiment, two vertical edge lines p 1 and p 2 are necessary to calculate t z1 , t z2 , θ 1 , and θ 2 . However, in the second embodiment, since only θ 1 and θ 2 need be calculated, only one vertical edge line is required.

以上のように、第2の実施形態に係る位置計測装置は、車速センサ14で検出された信号から車速を計算し、車速を用いて対象物の相対位置を計測するので、演算負荷を軽減して、高速に対象物の相対位置を計測できる。   As described above, the position measuring device according to the second embodiment calculates the vehicle speed from the signal detected by the vehicle speed sensor 14 and measures the relative position of the object using the vehicle speed, thus reducing the calculation load. Thus, the relative position of the object can be measured at high speed.

[第3の実施形態]
つぎに、本発明の第3の実施形態について説明する。なお、第2の実施形態と同一の部位には同一の符号を付し、重複する説明は省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the site | part same as 2nd Embodiment, and the overlapping description is abbreviate | omitted.

図9は、第3の実施形態に係る位置計測装置の構成を示すブロック図である。第3の実施形態に係る位置計測装置は、図8に示す構成に路側構造物検出部15を追加したものである。   FIG. 9 is a block diagram illustrating a configuration of a position measurement apparatus according to the third embodiment. The position measuring device according to the third embodiment is obtained by adding a roadside structure detection unit 15 to the configuration shown in FIG.

路側構造物検出部15は、路側構造物の輝度パターンを表すテンプレートを記憶している。そして、路側構造物検出部15は、テンプレートの大きさを変えながら撮像部11で生成された車両前方画像を走査し、類似度を計算するパターンマッチング手法(例えばSVM、Viola&Jonesの手法)により、路側構造物の車両前方画像上での位置と大きさを検出する。   The roadside structure detection unit 15 stores a template representing the luminance pattern of the roadside structure. The roadside structure detection unit 15 scans the vehicle front image generated by the imaging unit 11 while changing the size of the template, and calculates the degree of similarity by using a pattern matching method (for example, SVM, Viola & Jones method). The position and size of the structure on the vehicle front image are detected.

縦エッジ線検出部12は、路側構造物検出部15で検出された車両前方画像上の路側構造物の部分のみ縦エッジ線の水平位置を検出する。検出する車両前方画像中の範囲を限定できるので、計算コストを抑制することができる。また、位置関係計算部16は、路側構造物から検出されたものではない縦エッジ線(例えば走行車両の縦エッジ線)を計算に使用することを避け、路側構造物から検出された縦エッジ線のみを用いて計算する。   The vertical edge line detection unit 12 detects the horizontal position of the vertical edge line only in the portion of the roadside structure on the vehicle front image detected by the roadside structure detection unit 15. Since the range in the vehicle front image to detect can be limited, calculation cost can be suppressed. Further, the positional relationship calculation unit 16 avoids using a vertical edge line (for example, a vertical edge line of a traveling vehicle) that is not detected from the roadside structure for calculation, and a vertical edge line detected from the roadside structure. Calculate using only.

以上のように、第3の実施形態に係る位置計測装置は、路側構造物検出部15を用いることにより、縦エッジ線検出部12の効率化、位置関係計算部16で使用する縦エッジ線の適正化を図ることができる。   As described above, the position measurement apparatus according to the third embodiment uses the roadside structure detection unit 15 to improve the efficiency of the vertical edge line detection unit 12 and the vertical edge line used in the positional relationship calculation unit 16. Optimization can be achieved.

なお、車速センサ14は、路上の実際の絶対量を検出するために用いられているが、他の手段が路上の実際の絶対量を検出できれば、省略可能である。例えば、電柱の直径は約30cmであり、路側構造物検出部15が電柱を検出した場合、縦エッジ線検出部12によって検出される電柱の輪郭を表す2本の縦エッジ線の距離が30cmと決定される。このとき、位置関係計算部16は、車両前方画像中の電柱の直径30cmを尺度に用いて他の縦エッジ線の絶対量も決定することができる。   The vehicle speed sensor 14 is used to detect the actual absolute amount on the road, but may be omitted if other means can detect the actual absolute amount on the road. For example, the diameter of the electric pole is about 30 cm, and when the roadside structure detection unit 15 detects the electric pole, the distance between the two vertical edge lines representing the outline of the electric pole detected by the vertical edge line detection unit 12 is 30 cm. It is determined. At this time, the positional relationship calculation unit 16 can also determine the absolute amount of other vertical edge lines using the diameter of the utility pole 30 cm in the vehicle front image as a scale.

なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。   Note that the present invention is not limited to the above-described embodiment, and it is needless to say that the present invention can also be applied to a design modified within the scope of the claims.

第1の実施形態に係る位置計測装置の構成を示しブロック図である。It is a block diagram which shows the structure of the position measuring device which concerns on 1st Embodiment. 車両座標系を示す図である。It is a figure which shows a vehicle coordinate system. 運動前の車両を基準にした車両座標系を示す図である。It is a figure which shows the vehicle coordinate system on the basis of the vehicle before exercise | movement. 運動後の車両を基準にした車両座標系を示す図である。It is a figure which shows the vehicle coordinate system on the basis of the vehicle after exercise | movement. 撮像部により生成された車両前方画像と車両座標系との関係を示す図である。It is a figure which shows the relationship between the vehicle front image produced | generated by the imaging part, and a vehicle coordinate system. (a)視点3、(b)視点2、(c)視点1における車両前方画像と対応付けられた縦エッジ線p1、p2を示す図である。(A) viewpoint 3 is a diagram showing a (b) the viewpoint 2, (c) vertical edge line p 1 associated with a vehicle front image at the viewpoint 1, p 2. 視点3での位置を基準とした車両座標系を示す図である。It is a figure which shows the vehicle coordinate system on the basis of the position in the viewpoint 3. FIG. 第2の実施形態に係る位置計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the position measuring device which concerns on 2nd Embodiment. 第3の実施形態に係る位置計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the position measuring device which concerns on 3rd Embodiment.

符号の説明Explanation of symbols

11 撮像部
12 縦エッジ線検出部
13 対応縦エッジ線決定部
14 車速センサ
15 路側構造物検出部
16 位置関係計算部
DESCRIPTION OF SYMBOLS 11 Image pick-up part 12 Vertical edge line detection part 13 Corresponding vertical edge line determination part 14 Vehicle speed sensor 15 Roadside structure detection part 16 Positional relationship calculation part

Claims (7)

車両前方を撮像して複数の画像を生成する単眼カメラからなる撮像手段と、
前記撮像手段により生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出する縦エッジ線検出手段と、
前記縦エッジ線検出手段により検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定する対応縦エッジ線決定手段と、
前記対応縦エッジ線決定手段により決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、前記縦エッジ線が表す対象物までの相対的な位置情報を計測する位置計測手段と、
を備えた位置計測装置。
Imaging means comprising a monocular camera that images the front of the vehicle and generates a plurality of images;
Vertical edge line detection means for detecting vertical edge lines from the first image, the second image, and the third image captured at three different positions among the plurality of images generated by the imaging means. When,
Corresponding vertical edge line determining means for determining a corresponding vertical edge line from among the vertical edge lines of each image detected by the vertical edge line detecting means;
The horizontal position on the image of the corresponding vertical edge line determined by the corresponding vertical edge line determination means , and the yaw changed from when the first image was generated to when the second image was generated. Based on the angle and the amount of movement of the vehicle, and the yaw angle and the amount of movement of the vehicle changed from when the second image is generated to when the third image is generated , the vertical edge line is Position measuring means for measuring relative position information to the object to be represented;
A position measuring device with
前記撮像手段により生成された画像と予め用意された対象物のパターンとに基づいて前記対象物を検出する対象物検出手段を更に備え、
前記縦エッジ線検出手段は、前記対象物検出手段により検出された対象物から縦エッジ線を検出する
請求項に記載の位置計測装置。
Further comprising object detection means for detecting the object based on an image generated by the imaging means and a pattern of the object prepared in advance.
The position measuring device according to claim 1 , wherein the vertical edge line detection unit detects a vertical edge line from the object detected by the object detection unit.
単眼カメラにより車両前方を撮像して複数の画像を生成し、
前記生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出し、
前記検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定し、
前記決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、前記縦エッジ線が表す対象物までの相対的な位置情報を計測する
位置計測方法。
Capture the front of the vehicle with a monocular camera to generate multiple images,
A vertical edge line is detected from each of the first image, the second image, and the third image captured at three different positions among the plurality of generated images,
Determining a corresponding vertical edge line from among the detected vertical edge lines of each image;
The determined horizontal position of the corresponding vertical edge line on the image, the yaw angle and the amount of vehicle movement that have changed from when the first image is generated to when the second image is generated; , Relative to the object represented by the vertical edge line based on the yaw angle and the amount of vehicle movement that have changed from when the second image is generated to when the third image is generated. Position measurement method that measures accurate position information.
コンピュータに、
単眼カメラにより車両前方を撮像して生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出させ、
前記検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定させ、
前記決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、前記縦エッジ線が表す対象物までの相対的な位置情報を計測させる
位置計測プログラム。
On the computer,
A vertical edge line is detected from each of a first image, a second image, and a third image captured at three different positions among a plurality of images generated by capturing the front of the vehicle with a monocular camera. ,
A corresponding vertical edge line is determined from the vertical edge lines of each detected image,
The determined horizontal position of the corresponding vertical edge line on the image, the yaw angle and the amount of vehicle movement that have changed from when the first image is generated to when the second image is generated; , Relative to the object represented by the vertical edge line based on the yaw angle and the amount of vehicle movement that have changed from when the second image is generated to when the third image is generated. Position measurement program that measures accurate position information.
車両前方を撮像して複数の画像を生成する単眼カメラからなる撮像手段と、
前記撮像手段により生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出する縦エッジ線検出手段と、
前記縦エッジ線検出手段により検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定する対応縦エッジ線決定手段と、
前記対応縦エッジ線決定手段により決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とを検出する検出手段と、
を備えた移動量検出装置。
Imaging means comprising a monocular camera that images the front of the vehicle and generates a plurality of images;
Vertical edge line detection means for detecting vertical edge lines from the first image, the second image, and the third image captured at three different positions among the plurality of images generated by the imaging means. When,
Corresponding vertical edge line determining means for determining a corresponding vertical edge line from among the vertical edge lines of each image detected by the vertical edge line detecting means;
The horizontal position on the image of the corresponding vertical edge line determined by the corresponding vertical edge line determination means , and the yaw changed from when the first image was generated to when the second image was generated. Detecting means for detecting an angle and a moving amount of the vehicle, and a yaw angle and a moving amount of the vehicle that have changed from when the second image is generated to when the third image is generated ;
A movement amount detection device comprising:
単眼カメラにより車両前方を撮像して複数の画像を生成し、
前記生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出し、
前記検出された各々の画像の縦エッジの中から対応する縦エッジ線を決定し、
前記決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とを検出する
移動量検出方法。
Capture the front of the vehicle with a monocular camera to generate multiple images,
A vertical edge line is detected from each of the first image, the second image, and the third image captured at three different positions among the plurality of generated images,
Determining a corresponding vertical edge line from among the detected vertical edges of each image;
The determined horizontal position of the corresponding vertical edge line on the image, the yaw angle and the amount of vehicle movement that have changed from when the first image is generated to when the second image is generated; A movement amount detection method for detecting a yaw angle and a movement amount of a vehicle that have changed between when the second image is generated and when the third image is generated .
コンピュータに、
単眼カメラにより車両前方を撮像して生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出させ、
前記検出された各々の画像の縦エッジの中から対応する縦エッジ線を決定させ、
前記決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とを検出させる
移動量検出プログラム。
On the computer,
A vertical edge line is detected from each of a first image, a second image, and a third image captured at three different positions among a plurality of images generated by capturing the front of the vehicle with a monocular camera. ,
A corresponding vertical edge line is determined from the vertical edges of each detected image,
The determined horizontal position of the corresponding vertical edge line on the image, the yaw angle and the amount of vehicle movement that have changed from when the first image is generated to when the second image is generated; A moving amount detection program for detecting a yaw angle and a moving amount of a vehicle that have changed from when the second image is generated to when the third image is generated .
JP2006095858A 2006-03-30 2006-03-30 POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM Expired - Fee Related JP4876676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006095858A JP4876676B2 (en) 2006-03-30 2006-03-30 POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006095858A JP4876676B2 (en) 2006-03-30 2006-03-30 POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2007271386A JP2007271386A (en) 2007-10-18
JP4876676B2 true JP4876676B2 (en) 2012-02-15

Family

ID=38674345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006095858A Expired - Fee Related JP4876676B2 (en) 2006-03-30 2006-03-30 POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP4876676B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7323339B2 (en) * 2019-05-31 2023-08-08 フォルシアクラリオン・エレクトロニクス株式会社 Vertical pole detection device and vertical pole detection method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2842005B2 (en) * 1992-02-03 1998-12-24 日産自動車株式会社 Obstacle detection device for vehicles
JP3269222B2 (en) * 1993-11-08 2002-03-25 株式会社豊田中央研究所 Distance measuring device
JPH11353565A (en) * 1998-06-09 1999-12-24 Yazaki Corp Method and device for alarm of collision for vehicle
JP4205825B2 (en) * 1999-11-04 2009-01-07 本田技研工業株式会社 Object recognition device
JP2003098424A (en) * 2001-09-25 2003-04-03 Fujitsu Ten Ltd Range finder based on image processing
JP3747863B2 (en) * 2002-02-22 2006-02-22 日産自動車株式会社 In-vehicle distance measuring device
JP2005173995A (en) * 2003-12-11 2005-06-30 Nippon Telegr & Teleph Corp <Ntt> Device and method for calculating depth, and program
JP4376147B2 (en) * 2004-07-28 2009-12-02 ダイハツ工業株式会社 Obstacle recognition method and obstacle recognition device

Also Published As

Publication number Publication date
JP2007271386A (en) 2007-10-18

Similar Documents

Publication Publication Date Title
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
JP4814669B2 (en) 3D coordinate acquisition device
JP3986360B2 (en) Camera calibration device
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
JP2009041972A (en) Image processing device and method therefor
JP6328327B2 (en) Image processing apparatus and image processing method
US11783507B2 (en) Camera calibration apparatus and operating method
EP3324359B1 (en) Image processing device and image processing method
JP2017083245A (en) Clearance limit determination device
JP6119225B2 (en) Intersection road boundary detection device and program
US8941732B2 (en) Three-dimensional measuring method
JP4694624B2 (en) Image correction apparatus and method, and computer program
JP5652239B2 (en) Motion estimation apparatus and program
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP2010066595A (en) Environment map generating device and environment map generating method
JP7145770B2 (en) Inter-Vehicle Distance Measuring Device, Error Model Generating Device, Learning Model Generating Device, Methods and Programs Therefor
JP4935769B2 (en) Plane region estimation apparatus and program
JP5981284B2 (en) Object detection device and object detection method
JP4978938B2 (en) Distance measuring apparatus and method, and computer program
JP2012159470A (en) Vehicle image recognition device
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
JP4876676B2 (en) POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM
JP5330341B2 (en) Ranging device using in-vehicle camera
JP2004038760A (en) Traveling lane recognition device for vehicle
JP4622889B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees