JP4814669B2 - 3D coordinate acquisition device - Google Patents

3D coordinate acquisition device Download PDF

Info

Publication number
JP4814669B2
JP4814669B2 JP2006087728A JP2006087728A JP4814669B2 JP 4814669 B2 JP4814669 B2 JP 4814669B2 JP 2006087728 A JP2006087728 A JP 2006087728A JP 2006087728 A JP2006087728 A JP 2006087728A JP 4814669 B2 JP4814669 B2 JP 4814669B2
Authority
JP
Japan
Prior art keywords
cameras
dimensional coordinate
feature points
estimating
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006087728A
Other languages
Japanese (ja)
Other versions
JP2007263669A (en
Inventor
英樹 白井
宏明 公文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2006087728A priority Critical patent/JP4814669B2/en
Publication of JP2007263669A publication Critical patent/JP2007263669A/en
Application granted granted Critical
Publication of JP4814669B2 publication Critical patent/JP4814669B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両に取り付けられた2台以上のカメラにより得られた画像を用いて、車両周辺の3次元座標を取得する3次元座標取得装置に係わり、特にカメラ間の相対的な位置関係を取得するキャリブレーション機能を有する3次元座標取得装置に関する。     The present invention relates to a three-dimensional coordinate acquisition apparatus that acquires three-dimensional coordinates around a vehicle using images obtained by two or more cameras attached to the vehicle. The present invention relates to a three-dimensional coordinate acquisition apparatus having a calibration function to acquire.

従来から、車両にカメラを搭載し、車両前方や後方の画像を撮影し、周辺の環境を3次元的に認識するシステムが開発されている。カメラで3次元座標(距離)を測定する方法としては、2台以上のカメラを利用するステレオ視(以後、複眼ステレオとする)が一般的である。例えば、特許文献1には車両に搭載したステレオカメラで撮像した画像を処理して車外の対象物の三次元位置を測定する技術が開示されている。     Conventionally, a system has been developed in which a camera is mounted on a vehicle, images of the front and rear of the vehicle are taken, and the surrounding environment is recognized three-dimensionally. As a method of measuring three-dimensional coordinates (distance) with a camera, stereo vision using two or more cameras (hereinafter referred to as compound eye stereo) is generally used. For example, Patent Document 1 discloses a technique for processing an image captured by a stereo camera mounted on a vehicle and measuring a three-dimensional position of an object outside the vehicle.

複眼ステレオの場合、空間的に離れた位置に置かれた複数台のカメラで画像を撮影し、物体の特徴的な点(コーナなど、以後「特徴点」とする)やテクスチャの視差を利用して、いわゆる三角測量の原理で3次元座標(距離)を計算することができる。その際には、カメラ間の相対的な幾何情報(カメラ間の並進位置ずれ量及びカメラ光軸の回転ずれ量)が必要となり、これらは事前にキャリブレーション(校正)して得られる。     In the case of compound-eye stereo, images are taken with multiple cameras placed at spatially separated positions, and object feature points (such as corners, hereinafter referred to as `` feature points '') and texture parallax are used. Thus, the three-dimensional coordinates (distance) can be calculated by the so-called triangulation principle. In that case, relative geometric information between the cameras (translational position shift amount between cameras and rotation amount of the camera optical axis) is required, and these are obtained by calibration in advance.

ステレオキャリブレーションの手法は従来から数多く提案されている。例えば、特許文献2では、距離が既知の調整用パターンを撮影して、カメラの取り付け位置のずれを調整する装置が開示されている。     Many methods of stereo calibration have been proposed. For example, Patent Document 2 discloses an apparatus that photographs an adjustment pattern with a known distance and adjusts the displacement of the camera mounting position.

特開平5−114099号公報Japanese Patent Laid-Open No. 5-114099 特開平10−115506号公報JP-A-10-115506

複眼ステレオでは、事前のキャリブレーションが必要で、これには一般的に手間がかかり、さらに例えば、特許文献2に示されるように、距離が既知のテストパターンが必要になる。     In compound eye stereo, prior calibration is required, which is generally time-consuming, and for example, as shown in Patent Document 2, a test pattern with a known distance is required.

そこで、本発明は、ハードウエア等の追加やテストパターンを必要とすることなく、ステレオカメラのキャリブレーションを行うことが出来る3次元座標取得装置を提供することを目的とする。尚、ここでキャリブレーションするのはカメラ間の相対幾何情報(並進位置ずれと回転ずれ)のみである。カメラ内部パラメータ(焦点距離や画角)は既知である必要がある。     Therefore, an object of the present invention is to provide a three-dimensional coordinate acquisition apparatus that can calibrate a stereo camera without requiring addition of hardware or the like or a test pattern. Note that only the relative geometric information between the cameras (translational position deviation and rotation deviation) is calibrated here. Camera internal parameters (focal length and angle of view) need to be known.

3次元座標取得装置を構成する2台のカメラで得られた画像中の特徴点の対応関係から、基礎行列(両カメラ間の相対的幾何情報を含んでいる)を導出し、カメラ間の位置ずれ量と回転ずれ量を推定することは可能である。しかし、その際に得られる位置ずれ量の大きさは、(例えば1に)正規化されたものとなり、そのままでは三角測量による距離測定はできない。そこで、この位置ずれ量の大きさ(スケール)を、単眼ステレオの結果を利用して推定する。     A basic matrix (including relative geometric information between the two cameras) is derived from the correspondence between the feature points in the images obtained by the two cameras constituting the three-dimensional coordinate acquisition device, and the position between the cameras It is possible to estimate the deviation amount and the rotational deviation amount. However, the magnitude of the positional deviation obtained at that time is normalized (for example, 1), and distance measurement by triangulation cannot be performed as it is. Therefore, the magnitude (scale) of this positional deviation amount is estimated using the result of monocular stereo.

ここで、単眼ステレオ(別称、モーションステレオ、SfM(Structure
from Motion))とは、1台のカメラで別時刻・別視点から撮影された複数枚の画像を利用することによりステレオ視が実現できる技術である。
Here, monocular stereo (also known as motion stereo, SfM (Structure
from Motion)) is a technology that can realize a stereo view by using a plurality of images taken from different times and different viewpoints with a single camera.

また路面(路面は平面であると仮定)に対するカメラの設置パラメータ(高さや俯角)が既知ならば、画像中の路面に属する特徴点を利用することにより、より演算負荷の軽い方法で、位置ずれ量の大きさ(スケール)を推定できる。また2台のカメラ間の相対位置関係が既知の場合には、同様の手法を、複眼ステレオと単眼ステレオを入れ替えて利用する、つまり複眼ステレオの結果を利用して単眼ステレオのキャリブレーションを行う、ことも可能である。     If the camera installation parameters (height and depression angle) for the road surface (assuming that the road surface is a flat surface) are known, the positional deviation can be achieved by using a feature point belonging to the road surface in the image in a method with a lighter computational load. The magnitude (scale) of the quantity can be estimated. When the relative positional relationship between the two cameras is known, the same method is used by exchanging the compound eye stereo and the monocular stereo, that is, the monocular stereo is calibrated using the result of the compound eye stereo. It is also possible.

尚、本発明ではカメラの内部パラメータ(焦点距離、画角など)は既知である必要がある。     In the present invention, the camera internal parameters (focal length, angle of view, etc.) need to be known.

ハードウエアの追加なく、単眼ステレオの結果を利用して、自動的に複眼ステレオカメラのキャリブレーション(2台のカメラ間の相対位置関係の取得)が可能となる。また、また路面に対するカメラの設置パラメータ(高さや俯角)が既知ならば、画像中の路面に属する特徴点を利用して、より演算負荷の軽い手法でキャリブレーションが可能となる。また上記とは逆に、2台のカメラ間の相対位置関係が既知の場合には、ハードウエアの追加なく、複眼ステレオの結果を利用して、自動的に単眼ステレオのキャリブレーション(1台のカメラの移動量の取得)を行うことも可能である。     It is possible to automatically calibrate a compound eye stereo camera (acquisition of relative positional relationship between two cameras) using the result of monocular stereo without adding hardware. Further, if the camera installation parameters (height and depression angle) with respect to the road surface are known, calibration can be performed by a method with a lighter calculation load by using feature points belonging to the road surface in the image. Contrary to the above, when the relative positional relationship between the two cameras is known, the monocular stereo calibration (one camera) is automatically performed using the result of compound eye stereo without adding hardware. It is also possible to acquire the movement amount of the camera).

以下、図面に基づき、本発明の実施例を説明する。     Embodiments of the present invention will be described below with reference to the drawings.

図1は、3次元座標取得装置の一例を示すブロック図、図2は、3次元座標取得装置の別の例を示すブロック図、図3は、図1の3次元座標取得装置における、処理の流れを示すフローチャート、図4は、3次元座標取得装置の車両への装着例を示す平面図、図5は、車両に取り付けられたカメラにより取得される画像の一例及びそれらから生成されたフローを示す図、図6は、カメラ座標系を示す図、図7は、3次元座標取得装置の車両への別の装着例を示す平面図、図8は、3次元座標取得装置の更に別の例を示すブロック図である。     FIG. 1 is a block diagram illustrating an example of a three-dimensional coordinate acquisition apparatus, FIG. 2 is a block diagram illustrating another example of the three-dimensional coordinate acquisition apparatus, and FIG. 3 is a flowchart of processing in the three-dimensional coordinate acquisition apparatus of FIG. FIG. 4 is a plan view showing an example of mounting a three-dimensional coordinate acquisition device on a vehicle, and FIG. 5 is an example of images acquired by a camera attached to the vehicle and a flow generated therefrom. FIG. 6 is a diagram showing the camera coordinate system, FIG. 7 is a plan view showing another example of mounting the three-dimensional coordinate acquisition device on the vehicle, and FIG. 8 is still another example of the three-dimensional coordinate acquisition device. FIG.

3次元座標取得装置1は、図4に示すように、カメラの視野が重なるように適当に配置された2台のカメラ3A、3Bを有している(なお、カメラの数は、2台以上であっても良いが、最低でも2台は必要である)。カメラ3A、3B間の設置距離等の相対的な位置関係は当然不明であるとする。     As shown in FIG. 4, the three-dimensional coordinate acquisition apparatus 1 has two cameras 3A and 3B that are appropriately arranged so that the fields of view of the cameras overlap (the number of cameras is two or more). But at least two are required). It is assumed that the relative positional relationship such as the installation distance between the cameras 3A and 3B is naturally unknown.

カメラ3Aには、図1に示すように、単眼ステレオ処理部5及び2眼ステレオ処理部6が接続しており、単眼ステレオ処理部5及び2眼ステレオ処理部6には、カメラ間距離スケール推定手段7が接続している。     As shown in FIG. 1, a monocular stereo processing unit 5 and a binocular stereo processing unit 6 are connected to the camera 3A, and the monocular stereo processing unit 5 and the binocular stereo processing unit 6 have an inter-camera distance scale estimation. Means 7 are connected.

単眼ステレオ処理部3は、カメラ3A(あるいは3B,あるいは両方、以後は3Aの場合で説明)に接続されたフロー推定手段9,自車運動量推定手段10及び、前述のカメラ間距離スケール推定手段7に接続された3次元座標推定手段11を有しており、2眼ステレオ処理部6は、カメラ3A、3Bに接続された対応点推定手段12、仮キャリブレーション手段13、仮3次元座標推定手段15及び3次元座標推定手段16を有している。仮3次元座標推定手段15及び3次元座標推定手段16は、前述のカメラ間距離スケール推定手段7に接続されている。     The monocular stereo processing unit 3 includes a flow estimation unit 9, a host vehicle momentum estimation unit 10 connected to the camera 3A (or 3B, or both, and will be described later for 3A), and the inter-camera distance scale estimation unit 7 described above. The binocular stereo processing unit 6 includes a corresponding point estimation unit 12, a temporary calibration unit 13, and a temporary three-dimensional coordinate estimation unit connected to the cameras 3A and 3B. 15 and three-dimensional coordinate estimation means 16. The temporary three-dimensional coordinate estimation unit 15 and the three-dimensional coordinate estimation unit 16 are connected to the above-described inter-camera distance scale estimation unit 7.

なお、図1のカメラ3A.3B以外の、フロー推定手段9,自車運動量推定手段10、3次元座標推定手段11、対応点推定手段12、仮キャリブレーション手段13、仮3次元座標推定手段15、3次元座標推定手段16及び、カメラ間距離スケール推定手段7は、CPUを有するコンピュータが、例えば図3に示す処理のフローチャートに基づいて作成されたプログラムを実行することにより、仮想的に実現される機能を模式的に表示したものであるが、各手段を半導体などの集積回路を用いたハードウエアとして構成しても良い。     Note that the camera 3A. Other than 3B, flow estimation means 9, own vehicle momentum estimation means 10, three-dimensional coordinate estimation means 11, corresponding point estimation means 12, provisional calibration means 13, provisional three-dimensional coordinate estimation means 15, three-dimensional coordinate estimation means 16 and The inter-camera distance scale estimation means 7 schematically displays functions virtually realized by a computer having a CPU executing, for example, a program created based on the process flowchart shown in FIG. However, each means may be configured as hardware using an integrated circuit such as a semiconductor.

3次元座標取得装置1は、以上のような構成を有するので、3次元座標取得装置1の車両2への搭載時又は、カメラ3A、3Bの配置位置変更等に伴って、3次元座標取得装置1のキャリブレーションを行ないながら、周囲物標の3次元座標を取得する場合には、まず、車両に取り付けられたカメラ3A,3Bで、一定時刻ごとに車外の周辺の状況を撮影する。カメラ3A,3Bにより捕捉された画像は所定のフレームレート(単位時間あたりに撮影する枚数)で記録され、図示しないメモリに格納される。     Since the three-dimensional coordinate acquisition apparatus 1 has the above-described configuration, the three-dimensional coordinate acquisition apparatus 1 is mounted when the three-dimensional coordinate acquisition apparatus 1 is mounted on the vehicle 2 or when the arrangement positions of the cameras 3A and 3B are changed. When acquiring the three-dimensional coordinates of the surrounding target while performing the calibration of 1, the camera 3A, 3B attached to the vehicle first captures the situation outside the vehicle at regular time intervals. Images captured by the cameras 3A and 3B are recorded at a predetermined frame rate (the number of images taken per unit time) and stored in a memory (not shown).

次に、1台のカメラ3Aで取得された時系列画像を利用して、画像中の特徴点の3次元座標を算出するために設けられている単眼ステレオ処理部5の、フロー推定手段9により、図3のステップS1に示すように、連続画像中の特徴点を追跡し、特徴点のフローを推定する処理を行う。     Next, the flow estimation unit 9 of the monocular stereo processing unit 5 provided for calculating the three-dimensional coordinates of the feature points in the image using the time series image acquired by one camera 3A. As shown in step S1 of FIG. 3, the process of tracking the feature points in the continuous image and estimating the flow of the feature points is performed.

フロー推定手段9は、公知の手法を用いてカメラ3Aで得られた撮影(取得)時刻の異なる2枚の画像(図5参照)を比較して、両方の画像で共通に表示されていると判断される点(画像の一部であり、画像中の特徴的な点、例えば、コーナ部、尖った先端部、明度、彩度の変化点など)を特徴点(任意の点で可)として多数抽出し、それらの特徴点を異なる画像間で互いに対応付けて両画像間の対応点と推定する処理からなる、対応点の推定処理を行う。これは一般的にオプティカルフロー推定(あるいは単にフロー推定)と呼ばれるものであり、KLT(Kanade Lucas-Tomashi)法がよく利用される。フローの例を、図5に示す。図5からも明らかであるが、フローは1時刻前の画像と現時刻における画像間で、特徴点が移動した軌跡である。     When the flow estimation means 9 compares two images (see FIG. 5) obtained by the camera 3A using different methods with different shooting (acquisition) times and is displayed in common in both images. A point to be judged (a part of the image and a characteristic point in the image, for example, a corner portion, a sharp tip portion, a change point of lightness, saturation, etc.) as a feature point (any point is acceptable) Corresponding point estimation processing is performed, which includes a process of extracting a large number and associating these feature points with each other between different images and estimating corresponding points between the two images. This is generally called optical flow estimation (or simply flow estimation), and the KLT (Kanade Lucas-Tomashi) method is often used. An example of the flow is shown in FIG. As is clear from FIG. 5, the flow is a trajectory in which the feature point has moved between the image one hour before and the image at the current time.

次に、自車運動量推定手段10において、図3のステップS2に示すように、カメラ3Aの移動量を推定する。カメラの移動量とは、移動前後のカメラ間のX,Y,Z軸方向の並進移動量、およびX,Y,Z軸周りの回転量である(図6参照)。カメラは車両に固定されているので、カメラ移動量と自車移動量は同じ意味で用いている。自車(カメラ)運動量の推定方法としては、車輪速センサ等のセンサを利用する方法(例えば、特開2001−187553公報参照)や、画像中のフローを利用する方法がある。この方法としては、例えば、路面に属する対応点の移動状態を示すフローを利用して、カメラを搭載した自車両の移動量を計算する方法などが知られている(例えば、T.Suzuki(Toyota),T.Kanade, 'Measurement of Vehicle Motion and
Orientation using Optical Flow', IEEE conference on ITS, 1999)。また、基礎行列を利用する方法としては、(山口(豊田中研) 他、‘車載単眼カメラによる前方車両の障害物検出’、情報処理学会研究報告、2005.11)などがある。なお、基礎行列から直接得られる並進移動量は1に正規化されており、別途その大きさ(スケール)を推定する必要がある。スケールを推定する方法としては、車輪速センサや車速センサ等のセンサからの出力を利用するものや、路面フローを使用する方法などが挙げられる。
Next, the own vehicle movement amount estimation means 10 estimates the movement amount of the camera 3A as shown in step S2 of FIG. The movement amount of the camera is a translational movement amount in the X, Y, and Z axis directions between the cameras before and after the movement, and a rotation amount around the X, Y, and Z axes (see FIG. 6). Since the camera is fixed to the vehicle, the camera movement amount and the own vehicle movement amount are used interchangeably. As a method for estimating the own vehicle (camera) momentum, there are a method using a sensor such as a wheel speed sensor (see, for example, JP-A-2001-187553) and a method using a flow in an image. As this method, for example, a method for calculating the amount of movement of the host vehicle equipped with the camera using a flow indicating the movement state of the corresponding point belonging to the road surface is known (for example, T. Suzuki (Toyota ), T. Kanade, 'Measurement of Vehicle Motion and
Orientation using Optical Flow ', IEEE conference on ITS, 1999). In addition, as a method using the basic matrix, there are (Yamaguchi (Toyota Chuken) et al., “Detection of obstacles in front vehicle with in-vehicle monocular camera”, Research report of Information Processing Society of Japan, 2005.11). Note that the translation amount directly obtained from the basic matrix is normalized to 1, and it is necessary to estimate its size (scale) separately. Examples of the method for estimating the scale include a method using output from sensors such as a wheel speed sensor and a vehicle speed sensor, and a method using road flow.

次に、図3のステップS4で、単眼ステレオ処理部9の3次元座標推定手段11において、フロー推定手段9で得られた特徴点のフローと、自車運動量推定手段10で得られた自車運動量、カメラ内部パラメータ(焦点距離や画角など(これらは既知とする))を用いて、特徴点までの3次元座標を公知の手法(例えば、金谷健一「画像理解-3次元認識の数理-」,森北出版,ISBN4-627-82140-9;に開示された手法)で求める。     Next, in step S4 of FIG. 3, in the three-dimensional coordinate estimation unit 11 of the monocular stereo processing unit 9, the flow of feature points obtained by the flow estimation unit 9 and the own vehicle obtained by the own vehicle momentum estimation unit 10 are obtained. Using the momentum and camera internal parameters (focal length, angle of view, etc. (these are known)), the three-dimensional coordinates to the feature point can be obtained by a known method (for example, Kenichi Kanaya “Image Understanding-Mathematical Science for Three-Dimensional Recognition- ", The method disclosed in Morikita Publishing, ISBN4-627-82140-9;).

一方、3次元座標取得装置1は、1台のカメラ2Aを用いた前述した単眼ステレオ処理部5による、車両周囲の対象物の3次元座標取得処理と並行して、2台のカメラ3A、3Bにより捕捉された画像から、2眼ステレオ処理部6により、車両周囲の対象物の3次元座標取得処理を実行する。     On the other hand, the three-dimensional coordinate acquisition apparatus 1 includes two cameras 3A and 3B in parallel with the three-dimensional coordinate acquisition processing of the object around the vehicle by the monocular stereo processing unit 5 using the single camera 2A. The two-lens stereo processing unit 6 executes a three-dimensional coordinate acquisition process for an object around the vehicle from the image captured by the above.

この処理は、まず、カメラ3A、3Bを用いて、車両周辺の状況を撮影する。これは、前述した単眼ステレオ処理部5によるカメラ3Aを介した画像取得動作と並行して行うことが出来る。即ち、カメラ3Aで取得された画像のデータは、同じデータが単眼ステレオ処理部5及び2眼ステレオ処理部6に、並行して出力され、単眼ステレオ処理部5では、カメラ3Aからの画像のみで車両周囲の対象物の3次元座標取得処理を行い、2眼ステレオ処理部6は、カメラ3Aに加えて、同時に動作しているカメラ3Bからの画像に基づいて車両周囲の対象物の3次元座標取得処理を行う。     In this process, first, the situation around the vehicle is photographed using the cameras 3A and 3B. This can be performed in parallel with the image acquisition operation via the camera 3A by the monocular stereo processing unit 5 described above. That is, the image data acquired by the camera 3A is output in parallel to the monocular stereo processing unit 5 and the binocular stereo processing unit 6, and the monocular stereo processing unit 5 uses only the image from the camera 3A. The two-dimensional stereo processing unit 6 performs a three-dimensional coordinate acquisition process of the object around the vehicle based on the image from the camera 3B operating simultaneously in addition to the camera 3A. Perform the acquisition process.

それには、まず、図3のステップS5で、2眼ステレオ処理部6の対応点推定手段12において、2台のカメラで同時刻に撮影(取得)された画像中の特徴点の対応付けを行う。例えばHarris法などのコーナ検出フィルタを用いて画像中の特徴的な点(特徴点)を抽出し、その点を中心にブロックを設定し、画像間でブロックマッチングなどの相関演算を行う手法などがある。なお、特徴点の選択方法は、前述した単眼ステレオ処理部5によるフロー推定手段9と同様である。     For this purpose, first, in step S5 of FIG. 3, the corresponding point estimation means 12 of the binocular stereo processing unit 6 associates feature points in images captured (acquired) at the same time by two cameras. . For example, there is a method of extracting characteristic points (feature points) in an image using a corner detection filter such as the Harris method, setting a block around the point, and performing a correlation operation such as block matching between the images. is there. Note that the feature point selection method is the same as the flow estimation means 9 by the monocular stereo processing unit 5 described above.

この際、単眼ステレオ処理部5のフロー推定手段9で選択された特徴点の少なくとも一部が、対応点抽出手段12で抽出された特徴点と一致するようにしておく。なお、特徴点の選択基準は、単眼ステレオ処理部5及び2眼ステレオ処理部6において、通常同一の基準を用いるので、結果的に選択される特徴点は、両処理部5,6において重複する点が多数存在することとなるので、それらを照合して、両処理部5,6において、一致する特徴点について、その画像上における位置などの特徴点情報を適宜なメモリに格納しておいても良い。     At this time, at least a part of the feature points selected by the flow estimation unit 9 of the monocular stereo processing unit 5 is made to coincide with the feature points extracted by the corresponding point extraction unit 12. Note that the feature point selection criteria are usually the same in the monocular stereo processing unit 5 and the binocular stereo processing unit 6, so that the feature points selected as a result overlap in both the processing units 5 and 6. Since there are a large number of points, the two processing units 5 and 6 collate them and store the feature point information such as the position on the image for the matching feature points in an appropriate memory. Also good.

なお、フロー推定手段9と対応点抽出手段12の間に、どちらか一方が選択した特徴点の少なくとも一部を他方の推定手段側に、当該他方の推定手段で使用する特徴点として出力する、特徴点出力手段(どちらかの推定手段9,12に内蔵)を設け、単眼ステレオ処理部5及び2眼ステレオ処理部6で、共通の特徴点を使用するように構成しても良い。すると、単眼ステレオ処理部5及び2眼ステレオ処理部6での共通の特徴点の演算を容易かつ確実に行うことが出来る。また、どちらか一方の推定手段9又は12で特徴点を抽出して、他方の推定手段12又は9では、当該抽出された特徴点をそのまま使用することが出来るので、特徴点の抽出演算を大幅に減らすことが出来、コンピュータの演算負荷を低減させることが出来る。     Note that, between the flow estimation unit 9 and the corresponding point extraction unit 12, at least a part of the feature points selected by either one is output to the other estimation unit side as feature points used by the other estimation unit. Feature point output means (built in either of the estimation means 9 and 12) may be provided, and the monocular stereo processing unit 5 and the binocular stereo processing unit 6 may be configured to use a common feature point. Then, the calculation of the common feature point in the monocular stereo processing unit 5 and the binocular stereo processing unit 6 can be performed easily and reliably. Further, since the feature point is extracted by one of the estimation means 9 or 12, and the extracted feature point can be used as it is by the other estimation means 12 or 9, the feature point extraction calculation is greatly increased. It is possible to reduce the calculation load of the computer.

次に、2眼ステレオ処理部6の仮キャリブレーション手段13において、2台のカメラ3A、3B間の仮の並進位置ずれ量t’と回転ずれ量rを推定する(t’とrはともに3つの要素をもつベクトル。詳細は後述)。ここで仮となっている理由は後述する。仮キャリブレーション手段13では、まず基礎行列Fを求め(図3のステップS6)、次に基本行列Eを求め、最後に基本行列Eを仮の並進位置ずれ量t’と回転ずれ量rに分解する(図6のステップ7)。     Next, the provisional calibration means 13 of the binocular stereo processing unit 6 estimates the provisional translational position displacement amount t ′ and the rotational displacement amount r between the two cameras 3A, 3B (both t ′ and r are 3). A vector with two elements (details below). The reason that is provisional here will be described later. In the temporary calibration means 13, first, the basic matrix F is obtained (step S6 in FIG. 3), then the basic matrix E is obtained, and finally the basic matrix E is decomposed into a provisional translational displacement amount t ′ and a rotational displacement amount r. (Step 7 in FIG. 6).

まず、図3のステップS6に示すように、基礎行列F(Fundamental Matrix)を推定する。基礎行列Fとは、2台のカメラ3A、3B間の並進位置ずれ量、回転ずれ量及び両カメラの内部パラメータから得られる3×3の行列であり、並進位置ずれ量を、t=[Tx,Ty,Tz]T(Tは転置を表す)、回転ずれ量をγ=[θ ψ φ] [rad]、カメラ内部行列をA(3×3の行列)とした場合、基礎行列Fは(1)式で計算できる。     First, as shown in step S6 of FIG. 3, a fundamental matrix F (Fundamental Matrix) is estimated. The basic matrix F is a 3 × 3 matrix obtained from the translational displacement amount, the rotational displacement amount and the internal parameters of the two cameras 3A and 3B, and the translational displacement amount is expressed as t = [Tx , Ty, Tz] T (T represents transposition), rotation deviation amount is γ = [θ ψ φ] [rad], and camera internal matrix is A (3 × 3 matrix), the basic matrix F is ( It can be calculated by formula (1).

Figure 0004814669

inv(・)は行列・の逆行列を求める演算である。ただし、
Figure 0004814669

inv (·) is an operation for obtaining an inverse matrix of a matrix. However,

Figure 0004814669
Figure 0004814669

Figure 0004814669


[数2]中の×は外積演算を表す。なお、Tx,Ty,TzはそれぞれX,Y,Z軸方向の並進位置ずれ量、θ、ψ、φはぞれぞれ、Y軸周り回転(ヨー回転)角[rad]、X軸周り回転(ピッチ回転)角[rad]、Z軸回り回転(ロール回転)角[rad]である(図6参照)。軸及び回転の向きは仮のものであり、任意の構成が可能である。
Figure 0004814669


X in [Expression 2] represents an outer product operation. Tx, Ty, and Tz are translational displacements in the X, Y, and Z axes, respectively. Θ, ψ, and φ are rotations about the Y axis (yaw rotation), an angle [rad], and rotations about the X axis. (Pitch rotation) angle [rad] and Z axis rotation (roll rotation) angle [rad] (see FIG. 6). The axis and the direction of rotation are temporary, and any configuration is possible.

このように、基礎行列Fはカメラ間の幾何情報を含んでおり、基礎行列が得られれば、逆にt,rを推定することができる。ただし、実際は(1)式を利用して基礎行列を直接求めることはできない(tおよびrは(当然)未知であるから)ので、別の手法を用いて基礎行列を求める。基礎行列Fを求める方法には、2画像間の8点の特徴点の対応関係を利用して線形方程式を解く8点アルゴリズムや、より多くの特徴点の対応関係を用いて最小2乗法を利用する方法などがある。     Thus, the basic matrix F includes the geometric information between the cameras. If the basic matrix is obtained, t and r can be estimated conversely. However, in reality, the basic matrix cannot be obtained directly using the equation (1) (since t and r are (of course) unknown), so the basic matrix is obtained using another method. As a method for obtaining the basic matrix F, an 8-point algorithm that solves a linear equation using the correspondence of 8 feature points between two images, or a least-squares method using more correspondences of feature points is used. There are ways to do it.

次に、ステップS7において、基礎行列Fから並進位置ずれ量tと回転ずれ量rを導出する。基礎行列を求める方法、基礎行列からtおよびrを導出する方法についての詳細は「金谷健一, '画像理解-3次元認識の数理-',森北出版,
ISBN4-627-82140-9」及び、「徐剛, '写真から作る3次元CG', 近代科学社, ISBN4-7649-0286-9等」などに譲る。ただし、上記手法で得られる並進位置ずれ量(仮にt’とする)は、その大きさが(1に)正規化されている。これが、先に<仮>と言った理由である。つまり、並進位置ずれ量の大きさ(スケール)は別途求める必要がある。本発明では、このスケール(Scとする)を単眼ステレオ視の結果を利用して推定する。
Next, in step S7, the translational displacement amount t and the rotational displacement amount r are derived from the basic matrix F. For details on how to find the fundamental matrix and how to derive t and r from the fundamental matrix, see Kenichi Kanaya, 'Image Understanding-Mathematics of 3D Recognition', Morikita Publishing,
"ISBN4-627-82140-9" and "Xugang, 'Three-dimensional CG from photos", Modern Science, ISBN4-7649-0286-9, etc. However, the amount of translational displacement (obtained as t ′) obtained by the above method is normalized (to 1). This is the reason why I said <provisional> earlier. That is, it is necessary to separately obtain the magnitude (scale) of the translational position shift amount. In the present invention, this scale (Sc) is estimated using the result of monocular stereo vision.

以下にスケールScを求める方法を説明する。仮キャリブレーション手段13で得られた仮のキャリブレーション値、即ち仮の並進位置ずれ量t’と回転ずれ量rと対応点推定手段12で得られた特徴点の対応関係(視差情報)を利用して、図3のステップS8に示すように、各特徴点までの仮の3次元座標を算出する。仮の3次元座標の計算は、単眼ステレオ処理部9の3次元座標推定手段11と同様の手法(公知)を利用する。     A method for obtaining the scale Sc will be described below. Using the temporary calibration value obtained by the temporary calibration means 13, that is, the correspondence between the temporary translational position deviation amount t ′ and the rotational deviation quantity r and the feature points obtained by the corresponding point estimation means 12 (disparity information). Then, as shown in step S8 of FIG. 3, provisional three-dimensional coordinates up to each feature point are calculated. For the calculation of the provisional three-dimensional coordinates, a method (known) similar to the three-dimensional coordinate estimation means 11 of the monocular stereo processing unit 9 is used.

次に、図3のステップS9に示すように、カメラ間距離スケール推定手段7は、単眼ステレオ処理部5で抽出された特徴点と、2眼ステレオ処理部6で抽出された特徴点のうち、互いに一致する同一の特徴点について、3次元座標推定手段11で得られた当該特徴点の3次元座標と、仮3次元座標推定手段15で得られた当該特徴点の仮3次元座標を比較し、スケールScを推定する。     Next, as shown in step S9 of FIG. 3, the inter-camera distance scale estimation unit 7 includes the feature points extracted by the monocular stereo processing unit 5 and the feature points extracted by the binocular stereo processing unit 6. For the same feature points that coincide with each other, the three-dimensional coordinates of the feature points obtained by the three-dimensional coordinate estimation means 11 are compared with the temporary three-dimensional coordinates of the feature points obtained by the provisional three-dimensional coordinate estimation means 15. The scale Sc is estimated.

即ち、単眼ステレオ処理部5で得られた、ある特徴点のカメラからの距離をDsとする。一方、当該特徴点について2眼ステレオ処理部6で得られた仮の距離がDmとなったとする。実際、DmとDsは等しいはずなので、カメラ間の実際のスケールはSc=Ds/Dmとなる。つまり正確なカメラ3A、3B間の並進位置ずれ量はt=Sc×t’となる。特徴点が複数ある場合は、まず全ての特徴点を利用してスケールを求め、それらの平均値や中央値、あるいは別途計算した信頼度(視差が大きい程信頼度大、距離が近いほど信頼度大など)によって重みを付けた、加重平均値などを最終的なスケールとする。以上で、2台のカメラ3A、3B間の正確な相対幾何関係(tとr)が求められ、キャリブレーションが完了する。     That is, the distance from the camera of a certain feature point obtained by the monocular stereo processing unit 5 is defined as Ds. On the other hand, it is assumed that the temporary distance obtained by the binocular stereo processing unit 6 for the feature point is Dm. In fact, since Dm and Ds should be equal, the actual scale between cameras is Sc = Ds / Dm. That is, the accurate translational displacement between the cameras 3A and 3B is t = Sc × t ′. When there are multiple feature points, the scale is first calculated using all feature points, and the average value, median value, or reliability calculated separately (the greater the parallax, the greater the reliability, the closer the distance, the more reliable The final scale is the weighted average value, etc., weighted by (eg, large). Thus, an accurate relative geometric relationship (t and r) between the two cameras 3A and 3B is obtained, and the calibration is completed.

次に、図3のステップS10で、3次元座標推定手段16は、前記得られたカメラ間距離スケールScを用いて、仮3次元座標推定手段15で得られた画像中の各特徴点の仮3次元座標を補正し実際の3次元座標を算出する。     Next, in step S10 of FIG. 3, the three-dimensional coordinate estimation unit 16 uses the obtained inter-camera distance scale Sc to temporarily store each feature point in the image obtained by the temporary three-dimensional coordinate estimation unit 15. The actual three-dimensional coordinates are calculated by correcting the three-dimensional coordinates.

図2に、3次元座標取得装置1の別の例を示す。図1に示したものと、同一の部分には同一の符号を付して当該部分の説明を省略する。     FIG. 2 shows another example of the three-dimensional coordinate acquisition apparatus 1. The same parts as those shown in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted.

図2の3次元座標取得装置1は、図1の装置と比して、フロー推定手段9と自車運動量推定手段10が、路面特徴点抽出手段17に代わっている。この路面特徴点抽出手段17では、カメラ3Aで得られた画像中から、路面に属する特徴点を抽出する。仮に路面に属する特徴点を捕捉したカメラ3Aの、路面(路面は平面と仮定)に対する設置パラメータ(カメラ高、カメラ俯角、ヨー角など)が既知であれば、1枚の静止画からでも特徴点の3次元座標(距離)を直ちに計算することができるので、単眼ステレオ処理(フロー推定手段9及び自車運動量推定手段10を用いて、特徴点の3次元座標を推定する処理)が不要となり、演算負荷が軽くなる。     In the three-dimensional coordinate acquisition apparatus 1 of FIG. 2, the flow estimation means 9 and the own vehicle momentum estimation means 10 replace the road surface feature point extraction means 17 as compared with the apparatus of FIG. 1. The road surface feature point extraction means 17 extracts feature points belonging to the road surface from the image obtained by the camera 3A. If the installation parameters (camera height, camera depression angle, yaw angle, etc.) with respect to the road surface (assuming that the road surface is a plane) of the camera 3A that has captured the feature points belonging to the road surface are known, the feature points can be obtained even from one still image. 3D coordinates (distance) can be calculated immediately, so that monocular stereo processing (processing for estimating the three-dimensional coordinates of feature points using the flow estimation means 9 and the own vehicle momentum estimation means 10) is unnecessary. The calculation load is reduced.

2眼ステレオ処理部6側での処理は、図1の場合と同様である。つまり上記の路面上の特徴点と同じ特徴点の仮3次元座標を、2眼ステレオ処理部6側でも求め、両者を比較することで、カメラ間距離スケールScを推定する。     The processing on the binocular stereo processing unit 6 side is the same as in the case of FIG. That is, the provisional three-dimensional coordinates of the same feature point as the feature point on the road surface are obtained on the binocular stereo processing unit 6 side, and the inter-camera distance scale Sc is estimated by comparing the two.

なお、カメラ間距離スケール推定手段7によるスケール推定処理は、即ち図3のステップS1から図ステップS9までの処理を、経時的に複数回行ない、その結果を統合することにより、より精度の高いキャリブレーションが可能となる。     Note that the scale estimation processing by the inter-camera distance scale estimation means 7, that is, the processing from step S 1 to step S 9 in FIG. 3 is performed a plurality of times over time, and the results are integrated to obtain a more accurate calibration. Is possible.

なお、ステレオカメラ3A、3Bのキャリブレーションは毎時刻行う必要はない。そこで、1度キャリブレーションが完了したら、以後、キャリブレーションは行わないようにすることも出来る。また、処理の過程で得られた基礎行列Fから得られるエピポーラ拘束を利用すれば、複眼ステレオにおける画像間の特徴点の対応推定の演算量を大幅に減らすことができる。     The calibration of the stereo cameras 3A and 3B need not be performed every time. Therefore, once the calibration is completed, the calibration can be prevented from being performed thereafter. In addition, if the epipolar constraint obtained from the basic matrix F obtained in the course of processing is used, the amount of computation for estimating the correspondence between feature points between images in compound eye stereo can be greatly reduced.

また、先の実施例とは全く逆のことも可能である。つまり2台のカメラ間の相対位置関係が既知(つまり複眼ステレオカメラがキャリブレーション済み)の場合には、複眼ステレオで計算した3次元座標値を利用して、単眼ステレオ視のキャリブレーション(自車移動量推定に当たる)を行うことが出来る(図8)。即ち、本明細書で言う、キャリブレーション処理は、複眼ステレオによる処理に際して、並設された2台のカメラ間の位置関係を求める場合にのみ適用されるものではない。単眼ステレオによる3次元座標推定処理に際して、(基礎行列から直接得られた)1に正規化されたカメラの仮の並進移動量の実際の大きさ(スケール)を推定する際にも、本手法を適用することが出来る。この場合、スケール推定のためだけに、車輪速センサなどの特別なハードウエアを用意する必要がなくなる利点がある。     Also, the opposite of the previous embodiment is possible. In other words, when the relative positional relationship between the two cameras is known (that is, the compound-eye stereo camera is already calibrated), the monocular stereo calibration is performed using the three-dimensional coordinate value calculated by the compound-eye stereo (the own vehicle). Equivalent to the movement amount estimation) (FIG. 8). That is, the calibration processing referred to in this specification is not applied only when obtaining the positional relationship between two cameras arranged side by side in the processing with compound eye stereo. This method is also used when estimating the actual size (scale) of the temporary translation of the camera normalized to 1 (obtained directly from the basic matrix) during 3D coordinate estimation processing using monocular stereo. It can be applied. In this case, there is an advantage that it is not necessary to prepare special hardware such as a wheel speed sensor only for scale estimation.

例えば図7のように、2台のカメラ3A、3Bのカメラの光軸3c,3dが互いに外向きとなるように、かつそれらカメラの視野が光軸3c,3dの前方で一部が重なる形で配置されるように、カメラ3A、3Bを設置し、車両進行方向は複眼ステレオ視(複眼ステレオ領域WS)、それ以外は単眼ステレオ視(単眼ステレオ領域SS)を行う場合を考える。この場合、複眼ステレオが可能な前方領域WSにおいて、相対的な設置位置関係(幾何位置関係)が判明しているカメラ3A,3Bを用いた複眼ステレオ処理部6で、対応点推定手段12により抽出された対応点、2台のカメラの幾何位置関係とカメラ内部パラメータから、3次元座標推定手段16で対応点、即ち物標の実際の3次元座標を推定し、同時に、単眼ステレオ処理部5で、フロー推定手段9及び仮自車運動量推定手段19で、カメラ3A(又はカメラ3B)の仮の運動量、即ち仮の並進位置ずれ量及び回転位置ずれ量を、基礎行列を利用して(車輪速センサなどを用いることなく)、演算推定する。この仮の運動量に基づいて、仮3次元座標推定手段20で、物体(特徴点)の仮の3次元座標値を推定する。     For example, as shown in FIG. 7, the optical axes 3c and 3d of the cameras of the two cameras 3A and 3B are facing each other, and the fields of view of these cameras partially overlap in front of the optical axes 3c and 3d. Suppose that the cameras 3A and 3B are installed such that the vehicle traveling direction is a compound eye stereo view (compound eye stereo region WS), and the other case is a monocular stereo view (monocular stereo region SS). In this case, in the front area WS where compound eye stereo is possible, the compound eye stereo processing unit 6 using the cameras 3A and 3B whose relative installation position relationship (geometric position relationship) is known is extracted by the corresponding point estimation unit 12. The corresponding points, that is, the actual three-dimensional coordinates of the target are estimated by the three-dimensional coordinate estimation means 16 from the geometrical positional relationship between the two cameras and the camera internal parameters, and at the same time, the monocular stereo processing unit 5 The flow estimation means 9 and the provisional vehicle momentum estimation means 19 use the basic matrix to calculate the provisional momentum of the camera 3A (or camera 3B), that is, the provisional translational displacement amount and the rotational displacement amount (wheel speed). Without using a sensor). Based on the provisional momentum, provisional three-dimensional coordinate estimation means 20 estimates a provisional three-dimensional coordinate value of the object (feature point).

次に、カメラ移動量スケール推定手段21は、フロー推定手段9の特徴点と対応点推定手段12で用いた特徴点のなかで、互いに一致する同一の特徴点について、仮の3次元座標演算推定手段20により演算された仮の3次元座標と2眼ステレオ処理部6の3次元座標推定手段16により演算された3次元座標とを比較して、カメラの移動量スケール(カメラの実際の移動量の大きさ)を推定する処理を行う。     Next, the camera movement amount scale estimation means 21 performs provisional three-dimensional coordinate calculation estimation for the same feature points that coincide with each other among the feature points of the flow estimation means 9 and the corresponding point estimation means 12. The provisional three-dimensional coordinates calculated by the means 20 and the three-dimensional coordinates calculated by the three-dimensional coordinate estimation means 16 of the binocular stereo processing unit 6 are compared, and the camera movement amount scale (actual movement amount of the camera) is compared. The size is estimated.

次に、単眼ステレオ処理部5の3次元座標推定手段11において、仮3次元座標推定手段20で求められた、カメラ3A(及びカメラ3B)の1に正規化された仮の並進移動量と回転量に基づく特徴点の仮の3次元座標を、実際の3次元座標値に補正する。これで、図7の車両前方以外(つまり単眼ステレオのみが可能な単眼ステレオ領域SS)の物体の3次元座標が求まる。これにより、ステレオ視によるより広い範囲の物標の3次元座標の取得が可能となる。     Next, in the three-dimensional coordinate estimation means 11 of the monocular stereo processing unit 5, the provisional translational movement amount and rotation normalized to 1 of the camera 3A (and the camera 3B) obtained by the provisional three-dimensional coordinate estimation means 20 are obtained. Temporary three-dimensional coordinates of feature points based on the quantities are corrected to actual three-dimensional coordinate values. Thus, the three-dimensional coordinates of the object other than the front of the vehicle in FIG. 7 (that is, the monocular stereo area SS capable of monocular stereo only) are obtained. As a result, it is possible to acquire the three-dimensional coordinates of the target in a wider range by stereo vision.

本発明は、車両に搭載され、2台以上のカメラを用いて車両周辺物の3次元座標を取得する3次元座標取得装置に利用することが出来る。     INDUSTRIAL APPLICABILITY The present invention can be used in a three-dimensional coordinate acquisition device that is mounted on a vehicle and acquires three-dimensional coordinates of a vehicle peripheral object using two or more cameras.

図1は、3次元座標取得装置の一例を示すブロック図。FIG. 1 is a block diagram illustrating an example of a three-dimensional coordinate acquisition apparatus. 図2は、3次元座標取得装置の別の例を示すブロック図。FIG. 2 is a block diagram illustrating another example of a three-dimensional coordinate acquisition apparatus. 図3は、図1の3次元座標取得装置における、処理の流れを示すフローチャート。FIG. 3 is a flowchart showing a flow of processing in the three-dimensional coordinate acquisition apparatus of FIG. 図4は、3次元座標取得装置の車両への装着例を示す平面図。FIG. 4 is a plan view showing an example of mounting the three-dimensional coordinate acquisition apparatus on a vehicle. 図5は、車両に取り付けられたカメラにより取得される画像の一例及びそれらから生成されたフローを示す図。FIG. 5 is a diagram illustrating an example of images acquired by a camera attached to a vehicle and a flow generated therefrom. 図6は、自車の並進移動量と回転移動量の座標上の関係を示す図。FIG. 6 is a diagram illustrating a relationship in coordinates between the translational movement amount and the rotational movement amount of the own vehicle. 図7は、3次元座標取得装置の車両への別の装着例を示す平面図。FIG. 7 is a plan view showing another example of mounting the three-dimensional coordinate acquisition apparatus on a vehicle. 図8は、3次元座標取得装置の更に別の例を示すブロック図。FIG. 8 is a block diagram showing still another example of the three-dimensional coordinate acquisition apparatus.

符号の説明Explanation of symbols

1……3次元座標取得装置
2……車両
3A、3B……カメラ
9……フロー推定手段
10……自車運動量推定手段
11……3次元座標推定手段
12……対応点推定手段
13……仮キャリブレーション手段
15、20……仮3次元座標推定手段
16……3次元座標推定手段
17……路面特徴点抽出手段
DESCRIPTION OF SYMBOLS 1 ... Three-dimensional coordinate acquisition apparatus 2 ... Vehicle 3A, 3B ... Camera 9 ... Flow estimation means 10 ... Own vehicle momentum estimation means 11 ... Three-dimensional coordinate estimation means 12 ... Corresponding point estimation means 13 ... Temporary calibration means 15, 20... Temporary three-dimensional coordinate estimation means 16... Three-dimensional coordinate estimation means 17.

Claims (6)

車両に搭載され、カメラの視野が重なるように配置された、少なくとも2台のカメラを有し、該少なくとも2台のカメラで取得された複数の画像を用いて、該車両周辺の物標の3次元座標を推定取得する3次元座標取得装置において、
前記少なくとも2台のカメラの内の1台のカメラが取得した画像から、複数の第1の特徴点を抽出する特徴点抽出手段、
該抽出された前記第1の特徴点の3次元座標を演算推定する第1の3次元座標演算手段、
前記第1の3次元座標演算手段は、前記1台のカメラが経時的に取得した2枚の画像に共通に表示されている前記第1の特徴点を抽出し、それら抽出された第1の特徴点を前記画像間で互いに対応付けて両画像間の対応点と推定する処理及び自車の運動量を推定する処理に基づいて前記第1の特徴点の3次元座標を演算推定し、
前記少なくとも2台のカメラの内の2台のカメラが同時に取得した2枚の画像から複数の第2の特徴点を、前記第1の特徴点と少なくともその一部の特徴点が一致するように抽出し、それら第2の特徴点を前記2枚の画像の中で対応付ける対応点推定手段、
前記第2の特徴点の対応関係から基礎行列を演算し、該基礎行列から前記2台のカメラ間の仮の並進位置ずれ量と回転ずれ量を仮のキャリブレーション値として推定演算する、仮キャリブレーション手段、
該仮のキャリブレーション値に基づいて、前記第2の特徴点の仮の3次元座標を推定演算する、仮3次元座標推定手段、
前記第1の特徴点と前記第2の特徴点のなかで、互いに一致する同一の特徴点について、前記第1の3次元座標演算手段と仮3次元座標推定手段によりそれぞれ演算された3次元座標を比較して、前記2台のカメラ間の距離スケールを推定する、カメラ間距離スケール推定手段、
前記推定された前記2台のカメラ間の距離スケール及び、前記仮3次元座標推定手段により推定演算された前記第2の特徴点の仮の3次元座標に基づいて、前記第2の特徴点の3次元座標を演算推定する、第2の3次元座標演算手段、
を有する、3次元座標取得装置。
3 of the target around the vehicle, using at least two cameras mounted on the vehicle and arranged so that the fields of view of the cameras overlap, and using a plurality of images acquired by the at least two cameras. In a three-dimensional coordinate acquisition apparatus that estimates and acquires dimensional coordinates,
Feature point extraction means for extracting a plurality of first feature points from an image acquired by one of the at least two cameras;
First three-dimensional coordinate calculation means for calculating and estimating the three-dimensional coordinates of the extracted first feature point;
The first three-dimensional coordinate calculation means extracts the first feature points that are displayed in common in two images acquired by the one camera over time, and the extracted first features Calculating and estimating the three-dimensional coordinates of the first feature point based on the process of estimating the corresponding point between the images by associating the feature point with each other between the images and the process of estimating the momentum of the own vehicle;
A plurality of second feature points from two images acquired simultaneously by two of the at least two cameras so that the first feature points coincide with at least some of the feature points. Corresponding point estimation means for extracting and associating these second feature points in the two images;
Temporary calibration is performed by calculating a basic matrix from the correspondence between the second feature points, and estimating and calculating a temporary translational position shift amount and a rotational shift amount between the two cameras from the basic matrix as temporary calibration values. Means,
A provisional three-dimensional coordinate estimation means for estimating and calculating a provisional three-dimensional coordinate of the second feature point based on the provisional calibration value;
Three-dimensional coordinates calculated by the first three-dimensional coordinate calculating means and the temporary three-dimensional coordinate estimating means for the same feature points that coincide with each other among the first feature points and the second feature points. And a distance scale estimation means between cameras for estimating a distance scale between the two cameras,
Based on the estimated distance scale between the two cameras and the provisional three-dimensional coordinates of the second feature point calculated by the provisional three-dimensional coordinate estimation means, the second feature point Second 3D coordinate calculation means for calculating and estimating 3D coordinates;
A three-dimensional coordinate acquisition apparatus.
前記第1の3次元座標演算手段はフロー推定手段を有し、該フロー推定手段が、抽出された第1の特徴点を前記画像間で互いに対応付けて両画像間の対応点と推定する処理を、前記第1の特徴点の前記画像間におけるフローを推定することで行い、
前記第1の特徴点の3次元座標は、該推定されたフローに基づいて演算推定することを特徴とする、請求項1記載の3次元座標取得装置。
The first three-dimensional coordinate calculation means includes flow estimation means, and the flow estimation means associates the extracted first feature points with each other between the images and estimates the corresponding points between the two images. Is performed by estimating a flow between the images of the first feature points,
The three-dimensional coordinate acquisition apparatus according to claim 1, wherein the three-dimensional coordinates of the first feature point are calculated and estimated based on the estimated flow.
車両に搭載され、カメラの視野が重なるように配置された、少なくとも2台のカメラを有し、該少なくとも2台のカメラで取得された複数の画像を用いて、該車両周辺の物標の3次元座標を推定取得する3次元座標取得装置において、3 of the target around the vehicle, using at least two cameras mounted on the vehicle and arranged so that the fields of view of the cameras overlap, and using a plurality of images acquired by the at least two cameras. In a three-dimensional coordinate acquisition apparatus that estimates and acquires dimensional coordinates,
前記少なくとも2台のカメラの内の1台のカメラが取得した画像から、路面に属する複数の特徴点を第1の特徴点として抽出する路面特徴点抽出手段、Road surface feature point extraction means for extracting a plurality of feature points belonging to the road surface as first feature points from an image acquired by one of the at least two cameras;
該抽出された前記第1の特徴点の3次元座標を演算推定する第1の3次元座標演算手段、First three-dimensional coordinate calculation means for calculating and estimating the three-dimensional coordinates of the extracted first feature point;
前記第1の3次元座標演算手段は、前記抽出された第1の特徴点と該第1の特徴点を捕捉したカメラの設置パラメータから、それら第1の特徴点の3次元座標を演算する、路面特徴点座標演算手段を有し、The first three-dimensional coordinate calculation means calculates the three-dimensional coordinates of the first feature points from the extracted first feature points and installation parameters of the camera that has captured the first feature points. Having road surface feature point coordinate calculation means,
前記少なくとも2台のカメラの内の2台のカメラが同時に取得した2枚の画像から複数の第2の特徴点を、前記第1の特徴点と少なくともその一部の特徴点が一致するように抽出し、それら第2の特徴点を前記2枚の画像の中で対応付ける対応点推定手段、A plurality of second feature points from two images acquired simultaneously by two of the at least two cameras so that the first feature points coincide with at least some of the feature points. Corresponding point estimation means for extracting and associating these second feature points in the two images;
前記対応点推定手段は、前記路面に属する第1の特徴点を第2の特徴点として抽出し、それら第2の特徴点を前記2枚の画像の中で対応付ける路面対応点推定手段を有し、The corresponding point estimation unit includes a road surface corresponding point estimation unit that extracts a first feature point belonging to the road surface as a second feature point and associates the second feature point in the two images. ,
前記第2の特徴点の対応関係から基礎行列を演算し、該基礎行列から前記2台のカメラ間の仮の並進位置ずれ量と回転ずれ量を仮のキャリブレーション値として推定演算する、仮キャリブレーション手段、Temporary calibration is performed by calculating a basic matrix from the correspondence between the second feature points, and estimating and calculating a temporary translational position shift amount and a rotational shift amount between the two cameras from the basic matrix as temporary calibration values. Means,
該仮のキャリブレーション値に基づいて、前記第2の特徴点の仮の3次元座標を推定演算する、仮3次元座標推定手段、A provisional three-dimensional coordinate estimation means for estimating and calculating a provisional three-dimensional coordinate of the second feature point based on the provisional calibration value;
前記第1の特徴点と前記第2の特徴点のなかで、互いに一致する同一の特徴点について、前記第1の3次元座標演算手段と仮3次元座標推定手段によりそれぞれ演算された3次元座標を比較して、前記2台のカメラ間の距離スケールを推定する、カメラ間距離スケール推定手段、Three-dimensional coordinates calculated by the first three-dimensional coordinate calculating means and the temporary three-dimensional coordinate estimating means for the same feature points that coincide with each other among the first feature points and the second feature points. And a distance scale estimation means between cameras for estimating a distance scale between the two cameras,
前記推定された前記2台のカメラ間の距離スケール及び、前記仮3次元座標推定手段により推定演算された前記第2の特徴点の仮の3次元座標に基づいて、前記第2の特徴点の3次元座標を演算推定する、第2の3次元座標演算手段、Based on the estimated distance scale between the two cameras and the provisional three-dimensional coordinates of the second feature point calculated by the provisional three-dimensional coordinate estimation means, the second feature point Second 3D coordinate calculation means for calculating and estimating 3D coordinates;
を有する、3次元座標取得装置。A three-dimensional coordinate acquisition apparatus.
前記フロー推定手段と対応点推定手段の間に、どちらか一方の推定手段が抽出した前記特徴点を他方の推定手段に、当該他方の推定手段で使用する前記特徴点として出力する特徴点出力手段を設けて、構成した、請求項2記載の3次元座標取得装置。     Feature point output means for outputting the feature point extracted by one of the estimation means to the other estimation means as the feature point used by the other estimation means between the flow estimation means and the corresponding point estimation means The three-dimensional coordinate acquisition apparatus according to claim 2, comprising: 車両に搭載され、カメラの視野が相互に重なるように、所定の相対的な幾何位置を保つ形で配置された少なくとも2台のカメラを有し、該少なくとも2台のカメラで取得された複数の画像を用いて、該車両周辺の物標の3次元座標を推定取得する3次元座標取得装置において、
前記少なくとも2台のカメラの内の1台のカメラが取得した画像から、複数の第1の特徴点を抽出する特徴点抽出手段、
前記車両の移動に伴って前記1台のカメラが並進位置ずれ量と回転ずれ量を伴って移動した際に、経時的に取得した2枚の画像に共通に表示されている前記第1の特徴点を抽出し、それら第1の特徴点の前記画像間におけるフローを推定するフロー推定手段、
前記推定されたフローに基づいて、前記抽出された前記第1の特徴点の仮の3次元座標を演算推定する仮3次元座標推定手段
前記少なくとも2台のカメラの内の2台のカメラが同時に取得した2枚の画像から複数の第2の特徴点を、前記第1の特徴点と少なくともその一部の特徴点が一致するように抽出し、それら第2の特徴点を前記2枚の画像の中で対応付ける対応点推定手段、
前記2台のカメラ間の、前記所定の相対的な幾何位置に基づいて、前記第2の特徴点の3次元座標を推定演算する、第1の3次元座標演算手段、
前記第1の特徴点と前記第2の特徴点のなかで、互いに一致する同一の特徴点について、前記仮の3次元座標演算推定手段により演算された仮の3次元座標と前記第1の3次元座標演算手段により演算された3次元座標とを比較してカメラの移動量スケールを推定する、スケール推定手段、
前記推定されたカメラの移動量スケール及び、前記仮の3次元座標推定手段により推定演算された前記第1の特徴点の仮の3次元座標に基づいて、前記第1の特徴点の3次元座標を演算推定する、第2の3次元座標演算手段、
を有する、3次元座標取得装置。
A plurality of cameras acquired by the at least two cameras, which are mounted on a vehicle and have at least two cameras arranged so as to maintain a predetermined relative geometric position so that the fields of view of the cameras overlap each other; In the three-dimensional coordinate acquisition apparatus that estimates and acquires the three-dimensional coordinates of the target around the vehicle using the image,
Feature point extraction means for extracting a plurality of first feature points from an image acquired by one of the at least two cameras;
The first feature that is commonly displayed in two images acquired over time when the one camera moves with a translational displacement amount and a rotational displacement amount as the vehicle moves. Flow estimation means for extracting points and estimating a flow between the images of the first feature points;
Temporary three-dimensional coordinate estimation means for computing and estimating temporary three-dimensional coordinates of the extracted first feature points based on the estimated flow. Two of the at least two cameras are simultaneously A plurality of second feature points are extracted from the two acquired images so that the first feature points coincide with at least some of the feature points, and the second feature points are extracted from the two images. Corresponding point estimation means to associate in
First three-dimensional coordinate calculation means for estimating and calculating three-dimensional coordinates of the second feature point based on the predetermined relative geometric position between the two cameras;
Among the first feature point and the second feature point, for the same feature point that coincides with each other, the temporary three-dimensional coordinates calculated by the temporary three-dimensional coordinate calculation estimation means and the first three A scale estimation means for estimating a moving amount scale of the camera by comparing with the three-dimensional coordinates calculated by the dimension coordinate calculation means;
Based on the estimated movement amount scale of the camera and the temporary three-dimensional coordinates of the first feature point calculated by the temporary three-dimensional coordinate estimation means, the three-dimensional coordinates of the first feature point A second three-dimensional coordinate calculation means for calculating and estimating
A three-dimensional coordinate acquisition apparatus.
前記少なくとも2台のカメラは、その光軸が互いに外向きとなるように、かつそれらのカメラの視野がその光軸の前方でその一部が重なる形で配置されている、
請求項1乃至5のうち、何れか1項記載の3次元座標取得装置。
The at least two cameras are arranged such that their optical axes are directed outward from each other, and the fields of view of these cameras are disposed in front of the optical axis and partially overlap each other.
The three-dimensional coordinate acquisition apparatus according to any one of claims 1 to 5.
JP2006087728A 2006-03-28 2006-03-28 3D coordinate acquisition device Expired - Fee Related JP4814669B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006087728A JP4814669B2 (en) 2006-03-28 2006-03-28 3D coordinate acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006087728A JP4814669B2 (en) 2006-03-28 2006-03-28 3D coordinate acquisition device

Publications (2)

Publication Number Publication Date
JP2007263669A JP2007263669A (en) 2007-10-11
JP4814669B2 true JP4814669B2 (en) 2011-11-16

Family

ID=38636812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006087728A Expired - Fee Related JP4814669B2 (en) 2006-03-28 2006-03-28 3D coordinate acquisition device

Country Status (1)

Country Link
JP (1) JP4814669B2 (en)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5171196B2 (en) 2007-10-09 2013-03-27 株式会社エヌ・ティ・ティ・ドコモ Wireless communication system, wireless communication method, and base station
JP2009186353A (en) * 2008-02-07 2009-08-20 Fujitsu Ten Ltd Object detecting device and object detecting method
JP5228614B2 (en) * 2008-05-15 2013-07-03 株式会社豊田中央研究所 Parameter calculation apparatus, parameter calculation system and program
JP2009294109A (en) * 2008-06-05 2009-12-17 Fujitsu Ltd Calibration apparatus
JP4702569B2 (en) * 2008-09-30 2011-06-15 マツダ株式会社 Image processing apparatus for vehicle
DE102009031650B4 (en) * 2009-07-03 2024-05-29 Volkswagen Ag Method for extending a camera system, camera system, driver assistance system and corresponding vehicle
JP5445069B2 (en) * 2009-11-26 2014-03-19 富士通株式会社 3D position measuring apparatus and 3D position measuring method
JP2011163900A (en) * 2010-02-09 2011-08-25 Casio Computer Co Ltd Image processor, image processing program, and image processing method
JP4865065B1 (en) 2010-07-14 2012-02-01 Bi2−Vision株式会社 Stereo imaging device control system
KR101733131B1 (en) 2010-12-14 2017-05-10 한국전자통신연구원 3D motion recognition method and apparatus
JP5762131B2 (en) * 2011-05-23 2015-08-12 三菱電機株式会社 CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM
EP2551819A1 (en) 2011-07-29 2013-01-30 BI2-Vision Co. Control system for stereo imaging device
JP5515018B2 (en) 2011-12-06 2014-06-11 本田技研工業株式会社 Environment recognition device
JP5865726B2 (en) * 2012-02-20 2016-02-17 日立マクセル株式会社 Video display device
WO2014002849A1 (en) 2012-06-29 2014-01-03 富士フイルム株式会社 Three-dimensional measurement method, apparatus, and system, and image processing device
WO2014002725A1 (en) 2012-06-29 2014-01-03 富士フイルム株式会社 3d measurement method, device, and system, and image processing device
JP6003673B2 (en) * 2013-01-23 2016-10-05 株式会社デンソー 3D position estimation apparatus, vehicle control apparatus, and 3D position estimation method
WO2014181581A1 (en) * 2013-05-07 2014-11-13 日立オートモティブシステムズ株式会社 Calibration device, calibration system, and imaging device
WO2014192061A1 (en) * 2013-05-27 2014-12-04 パイオニア株式会社 Image processing device, image processing method, and image processing program
KR101551026B1 (en) 2013-12-24 2015-09-07 현대자동차주식회사 Method of tracking vehicle
DE102014201271A1 (en) * 2014-01-24 2015-07-30 Robert Bosch Gmbh A method and controller for detecting a change in a relative yaw angle within a stereo video system for a vehicle
JP6247569B2 (en) * 2014-03-13 2017-12-13 ヤマハ発動機株式会社 Distance estimating device and vehicle equipped with the same
WO2015180758A1 (en) 2014-05-27 2015-12-03 Application Solutions (Electronics and Vision) Ltd. Determining scale of three dimensional information
JP6282377B2 (en) * 2015-02-24 2018-02-21 株式会社日立製作所 Three-dimensional shape measurement system and measurement method thereof
KR102299446B1 (en) * 2015-03-25 2021-09-08 현대모비스 주식회사 Apparatus and method for recognition fail diagnosis
JP6701532B2 (en) * 2015-06-17 2020-05-27 ソニー株式会社 Image processing apparatus and image processing method
JP2017139612A (en) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 On-vehicle camera calibration system
WO2017199352A1 (en) * 2016-05-17 2017-11-23 株式会社オプティム Entire celestial sphere camera imaging display system, entire celestial sphere camera imaging display method and program
JP6790998B2 (en) 2017-04-28 2020-11-25 株式会社Soken Obstacle detector and control device
JP6734994B2 (en) * 2017-06-23 2020-08-05 株式会社日立製作所 Stereo measuring device and system
JP7020844B2 (en) 2017-09-29 2022-02-16 株式会社デンソー In-vehicle camera device
JP6620175B2 (en) * 2018-01-19 2019-12-11 本田技研工業株式会社 Distance calculation device and vehicle control device
CN110120098B (en) * 2018-02-05 2023-10-13 浙江商汤科技开发有限公司 Scene scale estimation and augmented reality control method and device and electronic equipment
CN108437898B (en) * 2018-05-12 2019-04-30 吉林大学 A kind of environment sensing device based on eye-tracking
JP7042185B2 (en) * 2018-07-27 2022-03-25 日立Astemo株式会社 Distance calculation device
JP7358933B2 (en) * 2019-11-19 2023-10-11 株式会社アイシン camera calibration device
JP7371549B2 (en) 2020-03-19 2023-10-31 株式会社リコー Vehicle detection device, vehicle, vehicle detection method and program
CN112815848B (en) * 2021-02-02 2022-06-03 中国人民解放军陆军装甲兵学院 Binocular camera and mechanical arm coordinate system registration method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2993995B2 (en) * 1990-03-23 1999-12-27 マツダ株式会社 Mobile car image processing device
JPH0843055A (en) * 1994-07-29 1996-02-16 Canon Inc Method and apparatus for recognizing shape of three dimensional object
JP3436074B2 (en) * 1997-06-10 2003-08-11 トヨタ自動車株式会社 Car stereo camera
JP2001012946A (en) * 1999-06-30 2001-01-19 Toshiba Corp Dynamic image processor and processing method
JP2005024463A (en) * 2003-07-04 2005-01-27 Fuji Heavy Ind Ltd Stereo wide visual field image processing apparatus

Also Published As

Publication number Publication date
JP2007263669A (en) 2007-10-11

Similar Documents

Publication Publication Date Title
JP4814669B2 (en) 3D coordinate acquisition device
JP6603094B2 (en) Calibration apparatus, calibration method, and calibration program
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
US10762643B2 (en) Method for evaluating image data of a vehicle camera
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
US20170019657A1 (en) Stereo auto-calibration from structure-from-motion
JP4943034B2 (en) Stereo image processing device
US10645365B2 (en) Camera parameter set calculation apparatus, camera parameter set calculation method, and recording medium
JP2007263657A (en) Three-dimensional coordinates acquisition system
JP6328327B2 (en) Image processing apparatus and image processing method
JP2014074632A (en) Calibration apparatus of in-vehicle stereo camera and calibration method
JP2006053890A (en) Obstacle detection apparatus and method therefor
KR20160003776A (en) Posture estimation method and robot
JP5228614B2 (en) Parameter calculation apparatus, parameter calculation system and program
KR20220113781A (en) How to measure the topography of your environment
JP2023004964A (en) Sensor calibration method and apparatus
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
GB2513703B (en) Method and apparatus for three-dimensional imaging of at least a partial region of a vehicle environment
JP2009139324A (en) Travel road surface detecting apparatus for vehicle
JP2020118575A (en) Inter-vehicle distance measurement device, error model generation device, learning model generation device, and method and program thereof
CN111989541B (en) Stereo camera device
JP5425500B2 (en) Calibration apparatus and calibration method
JP7074546B2 (en) Image processing equipment and methods
JP2020035158A (en) Attitude estimation device and calibration system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110826

R150 Certificate of patent or registration of utility model

Ref document number: 4814669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees