JP4814669B2 - 3D coordinate acquisition device - Google Patents
3D coordinate acquisition device Download PDFInfo
- Publication number
- JP4814669B2 JP4814669B2 JP2006087728A JP2006087728A JP4814669B2 JP 4814669 B2 JP4814669 B2 JP 4814669B2 JP 2006087728 A JP2006087728 A JP 2006087728A JP 2006087728 A JP2006087728 A JP 2006087728A JP 4814669 B2 JP4814669 B2 JP 4814669B2
- Authority
- JP
- Japan
- Prior art keywords
- cameras
- dimensional coordinate
- feature points
- estimating
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、車両に取り付けられた2台以上のカメラにより得られた画像を用いて、車両周辺の3次元座標を取得する3次元座標取得装置に係わり、特にカメラ間の相対的な位置関係を取得するキャリブレーション機能を有する3次元座標取得装置に関する。 The present invention relates to a three-dimensional coordinate acquisition apparatus that acquires three-dimensional coordinates around a vehicle using images obtained by two or more cameras attached to the vehicle. The present invention relates to a three-dimensional coordinate acquisition apparatus having a calibration function to acquire.
従来から、車両にカメラを搭載し、車両前方や後方の画像を撮影し、周辺の環境を3次元的に認識するシステムが開発されている。カメラで3次元座標(距離)を測定する方法としては、2台以上のカメラを利用するステレオ視(以後、複眼ステレオとする)が一般的である。例えば、特許文献1には車両に搭載したステレオカメラで撮像した画像を処理して車外の対象物の三次元位置を測定する技術が開示されている。
Conventionally, a system has been developed in which a camera is mounted on a vehicle, images of the front and rear of the vehicle are taken, and the surrounding environment is recognized three-dimensionally. As a method of measuring three-dimensional coordinates (distance) with a camera, stereo vision using two or more cameras (hereinafter referred to as compound eye stereo) is generally used. For example,
複眼ステレオの場合、空間的に離れた位置に置かれた複数台のカメラで画像を撮影し、物体の特徴的な点(コーナなど、以後「特徴点」とする)やテクスチャの視差を利用して、いわゆる三角測量の原理で3次元座標(距離)を計算することができる。その際には、カメラ間の相対的な幾何情報(カメラ間の並進位置ずれ量及びカメラ光軸の回転ずれ量)が必要となり、これらは事前にキャリブレーション(校正)して得られる。 In the case of compound-eye stereo, images are taken with multiple cameras placed at spatially separated positions, and object feature points (such as corners, hereinafter referred to as `` feature points '') and texture parallax are used. Thus, the three-dimensional coordinates (distance) can be calculated by the so-called triangulation principle. In that case, relative geometric information between the cameras (translational position shift amount between cameras and rotation amount of the camera optical axis) is required, and these are obtained by calibration in advance.
ステレオキャリブレーションの手法は従来から数多く提案されている。例えば、特許文献2では、距離が既知の調整用パターンを撮影して、カメラの取り付け位置のずれを調整する装置が開示されている。
Many methods of stereo calibration have been proposed. For example,
複眼ステレオでは、事前のキャリブレーションが必要で、これには一般的に手間がかかり、さらに例えば、特許文献2に示されるように、距離が既知のテストパターンが必要になる。
In compound eye stereo, prior calibration is required, which is generally time-consuming, and for example, as shown in
そこで、本発明は、ハードウエア等の追加やテストパターンを必要とすることなく、ステレオカメラのキャリブレーションを行うことが出来る3次元座標取得装置を提供することを目的とする。尚、ここでキャリブレーションするのはカメラ間の相対幾何情報(並進位置ずれと回転ずれ)のみである。カメラ内部パラメータ(焦点距離や画角)は既知である必要がある。 Therefore, an object of the present invention is to provide a three-dimensional coordinate acquisition apparatus that can calibrate a stereo camera without requiring addition of hardware or the like or a test pattern. Note that only the relative geometric information between the cameras (translational position deviation and rotation deviation) is calibrated here. Camera internal parameters (focal length and angle of view) need to be known.
3次元座標取得装置を構成する2台のカメラで得られた画像中の特徴点の対応関係から、基礎行列(両カメラ間の相対的幾何情報を含んでいる)を導出し、カメラ間の位置ずれ量と回転ずれ量を推定することは可能である。しかし、その際に得られる位置ずれ量の大きさは、(例えば1に)正規化されたものとなり、そのままでは三角測量による距離測定はできない。そこで、この位置ずれ量の大きさ(スケール)を、単眼ステレオの結果を利用して推定する。 A basic matrix (including relative geometric information between the two cameras) is derived from the correspondence between the feature points in the images obtained by the two cameras constituting the three-dimensional coordinate acquisition device, and the position between the cameras It is possible to estimate the deviation amount and the rotational deviation amount. However, the magnitude of the positional deviation obtained at that time is normalized (for example, 1), and distance measurement by triangulation cannot be performed as it is. Therefore, the magnitude (scale) of this positional deviation amount is estimated using the result of monocular stereo.
ここで、単眼ステレオ(別称、モーションステレオ、SfM(Structure
from Motion))とは、1台のカメラで別時刻・別視点から撮影された複数枚の画像を利用することによりステレオ視が実現できる技術である。
Here, monocular stereo (also known as motion stereo, SfM (Structure
from Motion)) is a technology that can realize a stereo view by using a plurality of images taken from different times and different viewpoints with a single camera.
また路面(路面は平面であると仮定)に対するカメラの設置パラメータ(高さや俯角)が既知ならば、画像中の路面に属する特徴点を利用することにより、より演算負荷の軽い方法で、位置ずれ量の大きさ(スケール)を推定できる。また2台のカメラ間の相対位置関係が既知の場合には、同様の手法を、複眼ステレオと単眼ステレオを入れ替えて利用する、つまり複眼ステレオの結果を利用して単眼ステレオのキャリブレーションを行う、ことも可能である。 If the camera installation parameters (height and depression angle) for the road surface (assuming that the road surface is a flat surface) are known, the positional deviation can be achieved by using a feature point belonging to the road surface in the image in a method with a lighter computational load. The magnitude (scale) of the quantity can be estimated. When the relative positional relationship between the two cameras is known, the same method is used by exchanging the compound eye stereo and the monocular stereo, that is, the monocular stereo is calibrated using the result of the compound eye stereo. It is also possible.
尚、本発明ではカメラの内部パラメータ(焦点距離、画角など)は既知である必要がある。 In the present invention, the camera internal parameters (focal length, angle of view, etc.) need to be known.
ハードウエアの追加なく、単眼ステレオの結果を利用して、自動的に複眼ステレオカメラのキャリブレーション(2台のカメラ間の相対位置関係の取得)が可能となる。また、また路面に対するカメラの設置パラメータ(高さや俯角)が既知ならば、画像中の路面に属する特徴点を利用して、より演算負荷の軽い手法でキャリブレーションが可能となる。また上記とは逆に、2台のカメラ間の相対位置関係が既知の場合には、ハードウエアの追加なく、複眼ステレオの結果を利用して、自動的に単眼ステレオのキャリブレーション(1台のカメラの移動量の取得)を行うことも可能である。 It is possible to automatically calibrate a compound eye stereo camera (acquisition of relative positional relationship between two cameras) using the result of monocular stereo without adding hardware. Further, if the camera installation parameters (height and depression angle) with respect to the road surface are known, calibration can be performed by a method with a lighter calculation load by using feature points belonging to the road surface in the image. Contrary to the above, when the relative positional relationship between the two cameras is known, the monocular stereo calibration (one camera) is automatically performed using the result of compound eye stereo without adding hardware. It is also possible to acquire the movement amount of the camera).
以下、図面に基づき、本発明の実施例を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、3次元座標取得装置の一例を示すブロック図、図2は、3次元座標取得装置の別の例を示すブロック図、図3は、図1の3次元座標取得装置における、処理の流れを示すフローチャート、図4は、3次元座標取得装置の車両への装着例を示す平面図、図5は、車両に取り付けられたカメラにより取得される画像の一例及びそれらから生成されたフローを示す図、図6は、カメラ座標系を示す図、図7は、3次元座標取得装置の車両への別の装着例を示す平面図、図8は、3次元座標取得装置の更に別の例を示すブロック図である。 FIG. 1 is a block diagram illustrating an example of a three-dimensional coordinate acquisition apparatus, FIG. 2 is a block diagram illustrating another example of the three-dimensional coordinate acquisition apparatus, and FIG. 3 is a flowchart of processing in the three-dimensional coordinate acquisition apparatus of FIG. FIG. 4 is a plan view showing an example of mounting a three-dimensional coordinate acquisition device on a vehicle, and FIG. 5 is an example of images acquired by a camera attached to the vehicle and a flow generated therefrom. FIG. 6 is a diagram showing the camera coordinate system, FIG. 7 is a plan view showing another example of mounting the three-dimensional coordinate acquisition device on the vehicle, and FIG. 8 is still another example of the three-dimensional coordinate acquisition device. FIG.
3次元座標取得装置1は、図4に示すように、カメラの視野が重なるように適当に配置された2台のカメラ3A、3Bを有している(なお、カメラの数は、2台以上であっても良いが、最低でも2台は必要である)。カメラ3A、3B間の設置距離等の相対的な位置関係は当然不明であるとする。
As shown in FIG. 4, the three-dimensional
カメラ3Aには、図1に示すように、単眼ステレオ処理部5及び2眼ステレオ処理部6が接続しており、単眼ステレオ処理部5及び2眼ステレオ処理部6には、カメラ間距離スケール推定手段7が接続している。
As shown in FIG. 1, a monocular
単眼ステレオ処理部3は、カメラ3A(あるいは3B,あるいは両方、以後は3Aの場合で説明)に接続されたフロー推定手段9,自車運動量推定手段10及び、前述のカメラ間距離スケール推定手段7に接続された3次元座標推定手段11を有しており、2眼ステレオ処理部6は、カメラ3A、3Bに接続された対応点推定手段12、仮キャリブレーション手段13、仮3次元座標推定手段15及び3次元座標推定手段16を有している。仮3次元座標推定手段15及び3次元座標推定手段16は、前述のカメラ間距離スケール推定手段7に接続されている。
The monocular stereo processing unit 3 includes a flow estimation unit 9, a host vehicle
なお、図1のカメラ3A.3B以外の、フロー推定手段9,自車運動量推定手段10、3次元座標推定手段11、対応点推定手段12、仮キャリブレーション手段13、仮3次元座標推定手段15、3次元座標推定手段16及び、カメラ間距離スケール推定手段7は、CPUを有するコンピュータが、例えば図3に示す処理のフローチャートに基づいて作成されたプログラムを実行することにより、仮想的に実現される機能を模式的に表示したものであるが、各手段を半導体などの集積回路を用いたハードウエアとして構成しても良い。
Note that the
3次元座標取得装置1は、以上のような構成を有するので、3次元座標取得装置1の車両2への搭載時又は、カメラ3A、3Bの配置位置変更等に伴って、3次元座標取得装置1のキャリブレーションを行ないながら、周囲物標の3次元座標を取得する場合には、まず、車両に取り付けられたカメラ3A,3Bで、一定時刻ごとに車外の周辺の状況を撮影する。カメラ3A,3Bにより捕捉された画像は所定のフレームレート(単位時間あたりに撮影する枚数)で記録され、図示しないメモリに格納される。
Since the three-dimensional
次に、1台のカメラ3Aで取得された時系列画像を利用して、画像中の特徴点の3次元座標を算出するために設けられている単眼ステレオ処理部5の、フロー推定手段9により、図3のステップS1に示すように、連続画像中の特徴点を追跡し、特徴点のフローを推定する処理を行う。
Next, the flow estimation unit 9 of the monocular
フロー推定手段9は、公知の手法を用いてカメラ3Aで得られた撮影(取得)時刻の異なる2枚の画像(図5参照)を比較して、両方の画像で共通に表示されていると判断される点(画像の一部であり、画像中の特徴的な点、例えば、コーナ部、尖った先端部、明度、彩度の変化点など)を特徴点(任意の点で可)として多数抽出し、それらの特徴点を異なる画像間で互いに対応付けて両画像間の対応点と推定する処理からなる、対応点の推定処理を行う。これは一般的にオプティカルフロー推定(あるいは単にフロー推定)と呼ばれるものであり、KLT(Kanade Lucas-Tomashi)法がよく利用される。フローの例を、図5に示す。図5からも明らかであるが、フローは1時刻前の画像と現時刻における画像間で、特徴点が移動した軌跡である。
When the flow estimation means 9 compares two images (see FIG. 5) obtained by the
次に、自車運動量推定手段10において、図3のステップS2に示すように、カメラ3Aの移動量を推定する。カメラの移動量とは、移動前後のカメラ間のX,Y,Z軸方向の並進移動量、およびX,Y,Z軸周りの回転量である(図6参照)。カメラは車両に固定されているので、カメラ移動量と自車移動量は同じ意味で用いている。自車(カメラ)運動量の推定方法としては、車輪速センサ等のセンサを利用する方法(例えば、特開2001−187553公報参照)や、画像中のフローを利用する方法がある。この方法としては、例えば、路面に属する対応点の移動状態を示すフローを利用して、カメラを搭載した自車両の移動量を計算する方法などが知られている(例えば、T.Suzuki(Toyota),T.Kanade, 'Measurement of Vehicle Motion and
Orientation using Optical Flow', IEEE conference on ITS, 1999)。また、基礎行列を利用する方法としては、(山口(豊田中研) 他、‘車載単眼カメラによる前方車両の障害物検出’、情報処理学会研究報告、2005.11)などがある。なお、基礎行列から直接得られる並進移動量は1に正規化されており、別途その大きさ(スケール)を推定する必要がある。スケールを推定する方法としては、車輪速センサや車速センサ等のセンサからの出力を利用するものや、路面フローを使用する方法などが挙げられる。
Next, the own vehicle movement amount estimation means 10 estimates the movement amount of the
Orientation using Optical Flow ', IEEE conference on ITS, 1999). In addition, as a method using the basic matrix, there are (Yamaguchi (Toyota Chuken) et al., “Detection of obstacles in front vehicle with in-vehicle monocular camera”, Research report of Information Processing Society of Japan, 2005.11). Note that the translation amount directly obtained from the basic matrix is normalized to 1, and it is necessary to estimate its size (scale) separately. Examples of the method for estimating the scale include a method using output from sensors such as a wheel speed sensor and a vehicle speed sensor, and a method using road flow.
次に、図3のステップS4で、単眼ステレオ処理部9の3次元座標推定手段11において、フロー推定手段9で得られた特徴点のフローと、自車運動量推定手段10で得られた自車運動量、カメラ内部パラメータ(焦点距離や画角など(これらは既知とする))を用いて、特徴点までの3次元座標を公知の手法(例えば、金谷健一「画像理解-3次元認識の数理-」,森北出版,ISBN4-627-82140-9;に開示された手法)で求める。
Next, in step S4 of FIG. 3, in the three-dimensional
一方、3次元座標取得装置1は、1台のカメラ2Aを用いた前述した単眼ステレオ処理部5による、車両周囲の対象物の3次元座標取得処理と並行して、2台のカメラ3A、3Bにより捕捉された画像から、2眼ステレオ処理部6により、車両周囲の対象物の3次元座標取得処理を実行する。
On the other hand, the three-dimensional coordinate
この処理は、まず、カメラ3A、3Bを用いて、車両周辺の状況を撮影する。これは、前述した単眼ステレオ処理部5によるカメラ3Aを介した画像取得動作と並行して行うことが出来る。即ち、カメラ3Aで取得された画像のデータは、同じデータが単眼ステレオ処理部5及び2眼ステレオ処理部6に、並行して出力され、単眼ステレオ処理部5では、カメラ3Aからの画像のみで車両周囲の対象物の3次元座標取得処理を行い、2眼ステレオ処理部6は、カメラ3Aに加えて、同時に動作しているカメラ3Bからの画像に基づいて車両周囲の対象物の3次元座標取得処理を行う。
In this process, first, the situation around the vehicle is photographed using the
それには、まず、図3のステップS5で、2眼ステレオ処理部6の対応点推定手段12において、2台のカメラで同時刻に撮影(取得)された画像中の特徴点の対応付けを行う。例えばHarris法などのコーナ検出フィルタを用いて画像中の特徴的な点(特徴点)を抽出し、その点を中心にブロックを設定し、画像間でブロックマッチングなどの相関演算を行う手法などがある。なお、特徴点の選択方法は、前述した単眼ステレオ処理部5によるフロー推定手段9と同様である。
For this purpose, first, in step S5 of FIG. 3, the corresponding point estimation means 12 of the binocular stereo processing unit 6 associates feature points in images captured (acquired) at the same time by two cameras. . For example, there is a method of extracting characteristic points (feature points) in an image using a corner detection filter such as the Harris method, setting a block around the point, and performing a correlation operation such as block matching between the images. is there. Note that the feature point selection method is the same as the flow estimation means 9 by the monocular
この際、単眼ステレオ処理部5のフロー推定手段9で選択された特徴点の少なくとも一部が、対応点抽出手段12で抽出された特徴点と一致するようにしておく。なお、特徴点の選択基準は、単眼ステレオ処理部5及び2眼ステレオ処理部6において、通常同一の基準を用いるので、結果的に選択される特徴点は、両処理部5,6において重複する点が多数存在することとなるので、それらを照合して、両処理部5,6において、一致する特徴点について、その画像上における位置などの特徴点情報を適宜なメモリに格納しておいても良い。
At this time, at least a part of the feature points selected by the flow estimation unit 9 of the monocular
なお、フロー推定手段9と対応点抽出手段12の間に、どちらか一方が選択した特徴点の少なくとも一部を他方の推定手段側に、当該他方の推定手段で使用する特徴点として出力する、特徴点出力手段(どちらかの推定手段9,12に内蔵)を設け、単眼ステレオ処理部5及び2眼ステレオ処理部6で、共通の特徴点を使用するように構成しても良い。すると、単眼ステレオ処理部5及び2眼ステレオ処理部6での共通の特徴点の演算を容易かつ確実に行うことが出来る。また、どちらか一方の推定手段9又は12で特徴点を抽出して、他方の推定手段12又は9では、当該抽出された特徴点をそのまま使用することが出来るので、特徴点の抽出演算を大幅に減らすことが出来、コンピュータの演算負荷を低減させることが出来る。
Note that, between the flow estimation unit 9 and the corresponding
次に、2眼ステレオ処理部6の仮キャリブレーション手段13において、2台のカメラ3A、3B間の仮の並進位置ずれ量t’と回転ずれ量rを推定する(t’とrはともに3つの要素をもつベクトル。詳細は後述)。ここで仮となっている理由は後述する。仮キャリブレーション手段13では、まず基礎行列Fを求め(図3のステップS6)、次に基本行列Eを求め、最後に基本行列Eを仮の並進位置ずれ量t’と回転ずれ量rに分解する(図6のステップ7)。
Next, the provisional calibration means 13 of the binocular stereo processing unit 6 estimates the provisional translational position displacement amount t ′ and the rotational displacement amount r between the two
まず、図3のステップS6に示すように、基礎行列F(Fundamental Matrix)を推定する。基礎行列Fとは、2台のカメラ3A、3B間の並進位置ずれ量、回転ずれ量及び両カメラの内部パラメータから得られる3×3の行列であり、並進位置ずれ量を、t=[Tx,Ty,Tz]T(Tは転置を表す)、回転ずれ量をγ=[θ ψ φ] [rad]、カメラ内部行列をA(3×3の行列)とした場合、基礎行列Fは(1)式で計算できる。
First, as shown in step S6 of FIG. 3, a fundamental matrix F (Fundamental Matrix) is estimated. The basic matrix F is a 3 × 3 matrix obtained from the translational displacement amount, the rotational displacement amount and the internal parameters of the two
inv(・)は行列・の逆行列を求める演算である。ただし、
inv (·) is an operation for obtaining an inverse matrix of a matrix. However,
[数2]中の×は外積演算を表す。なお、Tx,Ty,TzはそれぞれX,Y,Z軸方向の並進位置ずれ量、θ、ψ、φはぞれぞれ、Y軸周り回転(ヨー回転)角[rad]、X軸周り回転(ピッチ回転)角[rad]、Z軸回り回転(ロール回転)角[rad]である(図6参照)。軸及び回転の向きは仮のものであり、任意の構成が可能である。
X in [Expression 2] represents an outer product operation. Tx, Ty, and Tz are translational displacements in the X, Y, and Z axes, respectively. Θ, ψ, and φ are rotations about the Y axis (yaw rotation), an angle [rad], and rotations about the X axis. (Pitch rotation) angle [rad] and Z axis rotation (roll rotation) angle [rad] (see FIG. 6). The axis and the direction of rotation are temporary, and any configuration is possible.
このように、基礎行列Fはカメラ間の幾何情報を含んでおり、基礎行列が得られれば、逆にt,rを推定することができる。ただし、実際は(1)式を利用して基礎行列を直接求めることはできない(tおよびrは(当然)未知であるから)ので、別の手法を用いて基礎行列を求める。基礎行列Fを求める方法には、2画像間の8点の特徴点の対応関係を利用して線形方程式を解く8点アルゴリズムや、より多くの特徴点の対応関係を用いて最小2乗法を利用する方法などがある。 Thus, the basic matrix F includes the geometric information between the cameras. If the basic matrix is obtained, t and r can be estimated conversely. However, in reality, the basic matrix cannot be obtained directly using the equation (1) (since t and r are (of course) unknown), so the basic matrix is obtained using another method. As a method for obtaining the basic matrix F, an 8-point algorithm that solves a linear equation using the correspondence of 8 feature points between two images, or a least-squares method using more correspondences of feature points is used. There are ways to do it.
次に、ステップS7において、基礎行列Fから並進位置ずれ量tと回転ずれ量rを導出する。基礎行列を求める方法、基礎行列からtおよびrを導出する方法についての詳細は「金谷健一, '画像理解-3次元認識の数理-',森北出版,
ISBN4-627-82140-9」及び、「徐剛, '写真から作る3次元CG', 近代科学社, ISBN4-7649-0286-9等」などに譲る。ただし、上記手法で得られる並進位置ずれ量(仮にt’とする)は、その大きさが(1に)正規化されている。これが、先に<仮>と言った理由である。つまり、並進位置ずれ量の大きさ(スケール)は別途求める必要がある。本発明では、このスケール(Scとする)を単眼ステレオ視の結果を利用して推定する。
Next, in step S7, the translational displacement amount t and the rotational displacement amount r are derived from the basic matrix F. For details on how to find the fundamental matrix and how to derive t and r from the fundamental matrix, see Kenichi Kanaya, 'Image Understanding-Mathematics of 3D Recognition', Morikita Publishing,
"ISBN4-627-82140-9" and "Xugang, 'Three-dimensional CG from photos", Modern Science, ISBN4-7649-0286-9, etc. However, the amount of translational displacement (obtained as t ′) obtained by the above method is normalized (to 1). This is the reason why I said <provisional> earlier. That is, it is necessary to separately obtain the magnitude (scale) of the translational position shift amount. In the present invention, this scale (Sc) is estimated using the result of monocular stereo vision.
以下にスケールScを求める方法を説明する。仮キャリブレーション手段13で得られた仮のキャリブレーション値、即ち仮の並進位置ずれ量t’と回転ずれ量rと対応点推定手段12で得られた特徴点の対応関係(視差情報)を利用して、図3のステップS8に示すように、各特徴点までの仮の3次元座標を算出する。仮の3次元座標の計算は、単眼ステレオ処理部9の3次元座標推定手段11と同様の手法(公知)を利用する。 A method for obtaining the scale Sc will be described below. Using the temporary calibration value obtained by the temporary calibration means 13, that is, the correspondence between the temporary translational position deviation amount t ′ and the rotational deviation quantity r and the feature points obtained by the corresponding point estimation means 12 (disparity information). Then, as shown in step S8 of FIG. 3, provisional three-dimensional coordinates up to each feature point are calculated. For the calculation of the provisional three-dimensional coordinates, a method (known) similar to the three-dimensional coordinate estimation means 11 of the monocular stereo processing unit 9 is used.
次に、図3のステップS9に示すように、カメラ間距離スケール推定手段7は、単眼ステレオ処理部5で抽出された特徴点と、2眼ステレオ処理部6で抽出された特徴点のうち、互いに一致する同一の特徴点について、3次元座標推定手段11で得られた当該特徴点の3次元座標と、仮3次元座標推定手段15で得られた当該特徴点の仮3次元座標を比較し、スケールScを推定する。
Next, as shown in step S9 of FIG. 3, the inter-camera distance
即ち、単眼ステレオ処理部5で得られた、ある特徴点のカメラからの距離をDsとする。一方、当該特徴点について2眼ステレオ処理部6で得られた仮の距離がDmとなったとする。実際、DmとDsは等しいはずなので、カメラ間の実際のスケールはSc=Ds/Dmとなる。つまり正確なカメラ3A、3B間の並進位置ずれ量はt=Sc×t’となる。特徴点が複数ある場合は、まず全ての特徴点を利用してスケールを求め、それらの平均値や中央値、あるいは別途計算した信頼度(視差が大きい程信頼度大、距離が近いほど信頼度大など)によって重みを付けた、加重平均値などを最終的なスケールとする。以上で、2台のカメラ3A、3B間の正確な相対幾何関係(tとr)が求められ、キャリブレーションが完了する。
That is, the distance from the camera of a certain feature point obtained by the monocular
次に、図3のステップS10で、3次元座標推定手段16は、前記得られたカメラ間距離スケールScを用いて、仮3次元座標推定手段15で得られた画像中の各特徴点の仮3次元座標を補正し実際の3次元座標を算出する。
Next, in step S10 of FIG. 3, the three-dimensional coordinate
図2に、3次元座標取得装置1の別の例を示す。図1に示したものと、同一の部分には同一の符号を付して当該部分の説明を省略する。
FIG. 2 shows another example of the three-dimensional coordinate
図2の3次元座標取得装置1は、図1の装置と比して、フロー推定手段9と自車運動量推定手段10が、路面特徴点抽出手段17に代わっている。この路面特徴点抽出手段17では、カメラ3Aで得られた画像中から、路面に属する特徴点を抽出する。仮に路面に属する特徴点を捕捉したカメラ3Aの、路面(路面は平面と仮定)に対する設置パラメータ(カメラ高、カメラ俯角、ヨー角など)が既知であれば、1枚の静止画からでも特徴点の3次元座標(距離)を直ちに計算することができるので、単眼ステレオ処理(フロー推定手段9及び自車運動量推定手段10を用いて、特徴点の3次元座標を推定する処理)が不要となり、演算負荷が軽くなる。
In the three-dimensional coordinate
2眼ステレオ処理部6側での処理は、図1の場合と同様である。つまり上記の路面上の特徴点と同じ特徴点の仮3次元座標を、2眼ステレオ処理部6側でも求め、両者を比較することで、カメラ間距離スケールScを推定する。 The processing on the binocular stereo processing unit 6 side is the same as in the case of FIG. That is, the provisional three-dimensional coordinates of the same feature point as the feature point on the road surface are obtained on the binocular stereo processing unit 6 side, and the inter-camera distance scale Sc is estimated by comparing the two.
なお、カメラ間距離スケール推定手段7によるスケール推定処理は、即ち図3のステップS1から図ステップS9までの処理を、経時的に複数回行ない、その結果を統合することにより、より精度の高いキャリブレーションが可能となる。
Note that the scale estimation processing by the inter-camera distance scale estimation means 7, that is, the processing from
なお、ステレオカメラ3A、3Bのキャリブレーションは毎時刻行う必要はない。そこで、1度キャリブレーションが完了したら、以後、キャリブレーションは行わないようにすることも出来る。また、処理の過程で得られた基礎行列Fから得られるエピポーラ拘束を利用すれば、複眼ステレオにおける画像間の特徴点の対応推定の演算量を大幅に減らすことができる。
The calibration of the
また、先の実施例とは全く逆のことも可能である。つまり2台のカメラ間の相対位置関係が既知(つまり複眼ステレオカメラがキャリブレーション済み)の場合には、複眼ステレオで計算した3次元座標値を利用して、単眼ステレオ視のキャリブレーション(自車移動量推定に当たる)を行うことが出来る(図8)。即ち、本明細書で言う、キャリブレーション処理は、複眼ステレオによる処理に際して、並設された2台のカメラ間の位置関係を求める場合にのみ適用されるものではない。単眼ステレオによる3次元座標推定処理に際して、(基礎行列から直接得られた)1に正規化されたカメラの仮の並進移動量の実際の大きさ(スケール)を推定する際にも、本手法を適用することが出来る。この場合、スケール推定のためだけに、車輪速センサなどの特別なハードウエアを用意する必要がなくなる利点がある。 Also, the opposite of the previous embodiment is possible. In other words, when the relative positional relationship between the two cameras is known (that is, the compound-eye stereo camera is already calibrated), the monocular stereo calibration is performed using the three-dimensional coordinate value calculated by the compound-eye stereo (the own vehicle). Equivalent to the movement amount estimation) (FIG. 8). That is, the calibration processing referred to in this specification is not applied only when obtaining the positional relationship between two cameras arranged side by side in the processing with compound eye stereo. This method is also used when estimating the actual size (scale) of the temporary translation of the camera normalized to 1 (obtained directly from the basic matrix) during 3D coordinate estimation processing using monocular stereo. It can be applied. In this case, there is an advantage that it is not necessary to prepare special hardware such as a wheel speed sensor only for scale estimation.
例えば図7のように、2台のカメラ3A、3Bのカメラの光軸3c,3dが互いに外向きとなるように、かつそれらカメラの視野が光軸3c,3dの前方で一部が重なる形で配置されるように、カメラ3A、3Bを設置し、車両進行方向は複眼ステレオ視(複眼ステレオ領域WS)、それ以外は単眼ステレオ視(単眼ステレオ領域SS)を行う場合を考える。この場合、複眼ステレオが可能な前方領域WSにおいて、相対的な設置位置関係(幾何位置関係)が判明しているカメラ3A,3Bを用いた複眼ステレオ処理部6で、対応点推定手段12により抽出された対応点、2台のカメラの幾何位置関係とカメラ内部パラメータから、3次元座標推定手段16で対応点、即ち物標の実際の3次元座標を推定し、同時に、単眼ステレオ処理部5で、フロー推定手段9及び仮自車運動量推定手段19で、カメラ3A(又はカメラ3B)の仮の運動量、即ち仮の並進位置ずれ量及び回転位置ずれ量を、基礎行列を利用して(車輪速センサなどを用いることなく)、演算推定する。この仮の運動量に基づいて、仮3次元座標推定手段20で、物体(特徴点)の仮の3次元座標値を推定する。
For example, as shown in FIG. 7, the
次に、カメラ移動量スケール推定手段21は、フロー推定手段9の特徴点と対応点推定手段12で用いた特徴点のなかで、互いに一致する同一の特徴点について、仮の3次元座標演算推定手段20により演算された仮の3次元座標と2眼ステレオ処理部6の3次元座標推定手段16により演算された3次元座標とを比較して、カメラの移動量スケール(カメラの実際の移動量の大きさ)を推定する処理を行う。
Next, the camera movement amount scale estimation means 21 performs provisional three-dimensional coordinate calculation estimation for the same feature points that coincide with each other among the feature points of the flow estimation means 9 and the corresponding point estimation means 12. The provisional three-dimensional coordinates calculated by the
次に、単眼ステレオ処理部5の3次元座標推定手段11において、仮3次元座標推定手段20で求められた、カメラ3A(及びカメラ3B)の1に正規化された仮の並進移動量と回転量に基づく特徴点の仮の3次元座標を、実際の3次元座標値に補正する。これで、図7の車両前方以外(つまり単眼ステレオのみが可能な単眼ステレオ領域SS)の物体の3次元座標が求まる。これにより、ステレオ視によるより広い範囲の物標の3次元座標の取得が可能となる。
Next, in the three-dimensional coordinate estimation means 11 of the monocular
本発明は、車両に搭載され、2台以上のカメラを用いて車両周辺物の3次元座標を取得する3次元座標取得装置に利用することが出来る。 INDUSTRIAL APPLICABILITY The present invention can be used in a three-dimensional coordinate acquisition device that is mounted on a vehicle and acquires three-dimensional coordinates of a vehicle peripheral object using two or more cameras.
1……3次元座標取得装置
2……車両
3A、3B……カメラ
9……フロー推定手段
10……自車運動量推定手段
11……3次元座標推定手段
12……対応点推定手段
13……仮キャリブレーション手段
15、20……仮3次元座標推定手段
16……3次元座標推定手段
17……路面特徴点抽出手段
DESCRIPTION OF
Claims (6)
前記少なくとも2台のカメラの内の1台のカメラが取得した画像から、複数の第1の特徴点を抽出する特徴点抽出手段、
該抽出された前記第1の特徴点の3次元座標を演算推定する第1の3次元座標演算手段、
前記第1の3次元座標演算手段は、前記1台のカメラが経時的に取得した2枚の画像に共通に表示されている前記第1の特徴点を抽出し、それら抽出された第1の特徴点を前記画像間で互いに対応付けて両画像間の対応点と推定する処理及び自車の運動量を推定する処理に基づいて前記第1の特徴点の3次元座標を演算推定し、
前記少なくとも2台のカメラの内の2台のカメラが同時に取得した2枚の画像から複数の第2の特徴点を、前記第1の特徴点と少なくともその一部の特徴点が一致するように抽出し、それら第2の特徴点を前記2枚の画像の中で対応付ける対応点推定手段、
前記第2の特徴点の対応関係から基礎行列を演算し、該基礎行列から前記2台のカメラ間の仮の並進位置ずれ量と回転ずれ量を仮のキャリブレーション値として推定演算する、仮キャリブレーション手段、
該仮のキャリブレーション値に基づいて、前記第2の特徴点の仮の3次元座標を推定演算する、仮3次元座標推定手段、
前記第1の特徴点と前記第2の特徴点のなかで、互いに一致する同一の特徴点について、前記第1の3次元座標演算手段と仮3次元座標推定手段によりそれぞれ演算された3次元座標を比較して、前記2台のカメラ間の距離スケールを推定する、カメラ間距離スケール推定手段、
前記推定された前記2台のカメラ間の距離スケール及び、前記仮3次元座標推定手段により推定演算された前記第2の特徴点の仮の3次元座標に基づいて、前記第2の特徴点の3次元座標を演算推定する、第2の3次元座標演算手段、
を有する、3次元座標取得装置。 3 of the target around the vehicle, using at least two cameras mounted on the vehicle and arranged so that the fields of view of the cameras overlap, and using a plurality of images acquired by the at least two cameras. In a three-dimensional coordinate acquisition apparatus that estimates and acquires dimensional coordinates,
Feature point extraction means for extracting a plurality of first feature points from an image acquired by one of the at least two cameras;
First three-dimensional coordinate calculation means for calculating and estimating the three-dimensional coordinates of the extracted first feature point;
The first three-dimensional coordinate calculation means extracts the first feature points that are displayed in common in two images acquired by the one camera over time, and the extracted first features Calculating and estimating the three-dimensional coordinates of the first feature point based on the process of estimating the corresponding point between the images by associating the feature point with each other between the images and the process of estimating the momentum of the own vehicle;
A plurality of second feature points from two images acquired simultaneously by two of the at least two cameras so that the first feature points coincide with at least some of the feature points. Corresponding point estimation means for extracting and associating these second feature points in the two images;
Temporary calibration is performed by calculating a basic matrix from the correspondence between the second feature points, and estimating and calculating a temporary translational position shift amount and a rotational shift amount between the two cameras from the basic matrix as temporary calibration values. Means,
A provisional three-dimensional coordinate estimation means for estimating and calculating a provisional three-dimensional coordinate of the second feature point based on the provisional calibration value;
Three-dimensional coordinates calculated by the first three-dimensional coordinate calculating means and the temporary three-dimensional coordinate estimating means for the same feature points that coincide with each other among the first feature points and the second feature points. And a distance scale estimation means between cameras for estimating a distance scale between the two cameras,
Based on the estimated distance scale between the two cameras and the provisional three-dimensional coordinates of the second feature point calculated by the provisional three-dimensional coordinate estimation means, the second feature point Second 3D coordinate calculation means for calculating and estimating 3D coordinates;
A three-dimensional coordinate acquisition apparatus.
前記第1の特徴点の3次元座標は、該推定されたフローに基づいて演算推定することを特徴とする、請求項1記載の3次元座標取得装置。 The first three-dimensional coordinate calculation means includes flow estimation means, and the flow estimation means associates the extracted first feature points with each other between the images and estimates the corresponding points between the two images. Is performed by estimating a flow between the images of the first feature points,
The three-dimensional coordinate acquisition apparatus according to claim 1, wherein the three-dimensional coordinates of the first feature point are calculated and estimated based on the estimated flow.
前記少なくとも2台のカメラの内の1台のカメラが取得した画像から、路面に属する複数の特徴点を第1の特徴点として抽出する路面特徴点抽出手段、Road surface feature point extraction means for extracting a plurality of feature points belonging to the road surface as first feature points from an image acquired by one of the at least two cameras;
該抽出された前記第1の特徴点の3次元座標を演算推定する第1の3次元座標演算手段、First three-dimensional coordinate calculation means for calculating and estimating the three-dimensional coordinates of the extracted first feature point;
前記第1の3次元座標演算手段は、前記抽出された第1の特徴点と該第1の特徴点を捕捉したカメラの設置パラメータから、それら第1の特徴点の3次元座標を演算する、路面特徴点座標演算手段を有し、The first three-dimensional coordinate calculation means calculates the three-dimensional coordinates of the first feature points from the extracted first feature points and installation parameters of the camera that has captured the first feature points. Having road surface feature point coordinate calculation means,
前記少なくとも2台のカメラの内の2台のカメラが同時に取得した2枚の画像から複数の第2の特徴点を、前記第1の特徴点と少なくともその一部の特徴点が一致するように抽出し、それら第2の特徴点を前記2枚の画像の中で対応付ける対応点推定手段、A plurality of second feature points from two images acquired simultaneously by two of the at least two cameras so that the first feature points coincide with at least some of the feature points. Corresponding point estimation means for extracting and associating these second feature points in the two images;
前記対応点推定手段は、前記路面に属する第1の特徴点を第2の特徴点として抽出し、それら第2の特徴点を前記2枚の画像の中で対応付ける路面対応点推定手段を有し、The corresponding point estimation unit includes a road surface corresponding point estimation unit that extracts a first feature point belonging to the road surface as a second feature point and associates the second feature point in the two images. ,
前記第2の特徴点の対応関係から基礎行列を演算し、該基礎行列から前記2台のカメラ間の仮の並進位置ずれ量と回転ずれ量を仮のキャリブレーション値として推定演算する、仮キャリブレーション手段、Temporary calibration is performed by calculating a basic matrix from the correspondence between the second feature points, and estimating and calculating a temporary translational position shift amount and a rotational shift amount between the two cameras from the basic matrix as temporary calibration values. Means,
該仮のキャリブレーション値に基づいて、前記第2の特徴点の仮の3次元座標を推定演算する、仮3次元座標推定手段、A provisional three-dimensional coordinate estimation means for estimating and calculating a provisional three-dimensional coordinate of the second feature point based on the provisional calibration value;
前記第1の特徴点と前記第2の特徴点のなかで、互いに一致する同一の特徴点について、前記第1の3次元座標演算手段と仮3次元座標推定手段によりそれぞれ演算された3次元座標を比較して、前記2台のカメラ間の距離スケールを推定する、カメラ間距離スケール推定手段、Three-dimensional coordinates calculated by the first three-dimensional coordinate calculating means and the temporary three-dimensional coordinate estimating means for the same feature points that coincide with each other among the first feature points and the second feature points. And a distance scale estimation means between cameras for estimating a distance scale between the two cameras,
前記推定された前記2台のカメラ間の距離スケール及び、前記仮3次元座標推定手段により推定演算された前記第2の特徴点の仮の3次元座標に基づいて、前記第2の特徴点の3次元座標を演算推定する、第2の3次元座標演算手段、Based on the estimated distance scale between the two cameras and the provisional three-dimensional coordinates of the second feature point calculated by the provisional three-dimensional coordinate estimation means, the second feature point Second 3D coordinate calculation means for calculating and estimating 3D coordinates;
を有する、3次元座標取得装置。A three-dimensional coordinate acquisition apparatus.
前記少なくとも2台のカメラの内の1台のカメラが取得した画像から、複数の第1の特徴点を抽出する特徴点抽出手段、
前記車両の移動に伴って前記1台のカメラが並進位置ずれ量と回転ずれ量を伴って移動した際に、経時的に取得した2枚の画像に共通に表示されている前記第1の特徴点を抽出し、それら第1の特徴点の前記画像間におけるフローを推定するフロー推定手段、
前記推定されたフローに基づいて、前記抽出された前記第1の特徴点の仮の3次元座標を演算推定する仮3次元座標推定手段
前記少なくとも2台のカメラの内の2台のカメラが同時に取得した2枚の画像から複数の第2の特徴点を、前記第1の特徴点と少なくともその一部の特徴点が一致するように抽出し、それら第2の特徴点を前記2枚の画像の中で対応付ける対応点推定手段、
前記2台のカメラ間の、前記所定の相対的な幾何位置に基づいて、前記第2の特徴点の3次元座標を推定演算する、第1の3次元座標演算手段、
前記第1の特徴点と前記第2の特徴点のなかで、互いに一致する同一の特徴点について、前記仮の3次元座標演算推定手段により演算された仮の3次元座標と前記第1の3次元座標演算手段により演算された3次元座標とを比較してカメラの移動量スケールを推定する、スケール推定手段、
前記推定されたカメラの移動量スケール及び、前記仮の3次元座標推定手段により推定演算された前記第1の特徴点の仮の3次元座標に基づいて、前記第1の特徴点の3次元座標を演算推定する、第2の3次元座標演算手段、
を有する、3次元座標取得装置。 A plurality of cameras acquired by the at least two cameras, which are mounted on a vehicle and have at least two cameras arranged so as to maintain a predetermined relative geometric position so that the fields of view of the cameras overlap each other; In the three-dimensional coordinate acquisition apparatus that estimates and acquires the three-dimensional coordinates of the target around the vehicle using the image,
Feature point extraction means for extracting a plurality of first feature points from an image acquired by one of the at least two cameras;
The first feature that is commonly displayed in two images acquired over time when the one camera moves with a translational displacement amount and a rotational displacement amount as the vehicle moves. Flow estimation means for extracting points and estimating a flow between the images of the first feature points;
Temporary three-dimensional coordinate estimation means for computing and estimating temporary three-dimensional coordinates of the extracted first feature points based on the estimated flow. Two of the at least two cameras are simultaneously A plurality of second feature points are extracted from the two acquired images so that the first feature points coincide with at least some of the feature points, and the second feature points are extracted from the two images. Corresponding point estimation means to associate in
First three-dimensional coordinate calculation means for estimating and calculating three-dimensional coordinates of the second feature point based on the predetermined relative geometric position between the two cameras;
Among the first feature point and the second feature point, for the same feature point that coincides with each other, the temporary three-dimensional coordinates calculated by the temporary three-dimensional coordinate calculation estimation means and the first three A scale estimation means for estimating a moving amount scale of the camera by comparing with the three-dimensional coordinates calculated by the dimension coordinate calculation means;
Based on the estimated movement amount scale of the camera and the temporary three-dimensional coordinates of the first feature point calculated by the temporary three-dimensional coordinate estimation means, the three-dimensional coordinates of the first feature point A second three-dimensional coordinate calculation means for calculating and estimating
A three-dimensional coordinate acquisition apparatus.
請求項1乃至5のうち、何れか1項記載の3次元座標取得装置。 The at least two cameras are arranged such that their optical axes are directed outward from each other, and the fields of view of these cameras are disposed in front of the optical axis and partially overlap each other.
The three-dimensional coordinate acquisition apparatus according to any one of claims 1 to 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006087728A JP4814669B2 (en) | 2006-03-28 | 2006-03-28 | 3D coordinate acquisition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006087728A JP4814669B2 (en) | 2006-03-28 | 2006-03-28 | 3D coordinate acquisition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007263669A JP2007263669A (en) | 2007-10-11 |
JP4814669B2 true JP4814669B2 (en) | 2011-11-16 |
Family
ID=38636812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006087728A Expired - Fee Related JP4814669B2 (en) | 2006-03-28 | 2006-03-28 | 3D coordinate acquisition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4814669B2 (en) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5171196B2 (en) | 2007-10-09 | 2013-03-27 | 株式会社エヌ・ティ・ティ・ドコモ | Wireless communication system, wireless communication method, and base station |
JP2009186353A (en) * | 2008-02-07 | 2009-08-20 | Fujitsu Ten Ltd | Object detecting device and object detecting method |
JP5228614B2 (en) * | 2008-05-15 | 2013-07-03 | 株式会社豊田中央研究所 | Parameter calculation apparatus, parameter calculation system and program |
JP2009294109A (en) * | 2008-06-05 | 2009-12-17 | Fujitsu Ltd | Calibration apparatus |
JP4702569B2 (en) * | 2008-09-30 | 2011-06-15 | マツダ株式会社 | Image processing apparatus for vehicle |
DE102009031650B4 (en) * | 2009-07-03 | 2024-05-29 | Volkswagen Ag | Method for extending a camera system, camera system, driver assistance system and corresponding vehicle |
JP5445069B2 (en) * | 2009-11-26 | 2014-03-19 | 富士通株式会社 | 3D position measuring apparatus and 3D position measuring method |
JP2011163900A (en) * | 2010-02-09 | 2011-08-25 | Casio Computer Co Ltd | Image processor, image processing program, and image processing method |
JP4865065B1 (en) | 2010-07-14 | 2012-02-01 | Bi2−Vision株式会社 | Stereo imaging device control system |
KR101733131B1 (en) | 2010-12-14 | 2017-05-10 | 한국전자통신연구원 | 3D motion recognition method and apparatus |
JP5762131B2 (en) * | 2011-05-23 | 2015-08-12 | 三菱電機株式会社 | CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM |
EP2551819A1 (en) | 2011-07-29 | 2013-01-30 | BI2-Vision Co. | Control system for stereo imaging device |
JP5515018B2 (en) | 2011-12-06 | 2014-06-11 | 本田技研工業株式会社 | Environment recognition device |
JP5865726B2 (en) * | 2012-02-20 | 2016-02-17 | 日立マクセル株式会社 | Video display device |
WO2014002849A1 (en) | 2012-06-29 | 2014-01-03 | 富士フイルム株式会社 | Three-dimensional measurement method, apparatus, and system, and image processing device |
WO2014002725A1 (en) | 2012-06-29 | 2014-01-03 | 富士フイルム株式会社 | 3d measurement method, device, and system, and image processing device |
JP6003673B2 (en) * | 2013-01-23 | 2016-10-05 | 株式会社デンソー | 3D position estimation apparatus, vehicle control apparatus, and 3D position estimation method |
WO2014181581A1 (en) * | 2013-05-07 | 2014-11-13 | 日立オートモティブシステムズ株式会社 | Calibration device, calibration system, and imaging device |
WO2014192061A1 (en) * | 2013-05-27 | 2014-12-04 | パイオニア株式会社 | Image processing device, image processing method, and image processing program |
KR101551026B1 (en) | 2013-12-24 | 2015-09-07 | 현대자동차주식회사 | Method of tracking vehicle |
DE102014201271A1 (en) * | 2014-01-24 | 2015-07-30 | Robert Bosch Gmbh | A method and controller for detecting a change in a relative yaw angle within a stereo video system for a vehicle |
JP6247569B2 (en) * | 2014-03-13 | 2017-12-13 | ヤマハ発動機株式会社 | Distance estimating device and vehicle equipped with the same |
WO2015180758A1 (en) | 2014-05-27 | 2015-12-03 | Application Solutions (Electronics and Vision) Ltd. | Determining scale of three dimensional information |
JP6282377B2 (en) * | 2015-02-24 | 2018-02-21 | 株式会社日立製作所 | Three-dimensional shape measurement system and measurement method thereof |
KR102299446B1 (en) * | 2015-03-25 | 2021-09-08 | 현대모비스 주식회사 | Apparatus and method for recognition fail diagnosis |
JP6701532B2 (en) * | 2015-06-17 | 2020-05-27 | ソニー株式会社 | Image processing apparatus and image processing method |
JP2017139612A (en) * | 2016-02-03 | 2017-08-10 | パナソニックIpマネジメント株式会社 | On-vehicle camera calibration system |
WO2017199352A1 (en) * | 2016-05-17 | 2017-11-23 | 株式会社オプティム | Entire celestial sphere camera imaging display system, entire celestial sphere camera imaging display method and program |
JP6790998B2 (en) | 2017-04-28 | 2020-11-25 | 株式会社Soken | Obstacle detector and control device |
JP6734994B2 (en) * | 2017-06-23 | 2020-08-05 | 株式会社日立製作所 | Stereo measuring device and system |
JP7020844B2 (en) | 2017-09-29 | 2022-02-16 | 株式会社デンソー | In-vehicle camera device |
JP6620175B2 (en) * | 2018-01-19 | 2019-12-11 | 本田技研工業株式会社 | Distance calculation device and vehicle control device |
CN110120098B (en) * | 2018-02-05 | 2023-10-13 | 浙江商汤科技开发有限公司 | Scene scale estimation and augmented reality control method and device and electronic equipment |
CN108437898B (en) * | 2018-05-12 | 2019-04-30 | 吉林大学 | A kind of environment sensing device based on eye-tracking |
JP7042185B2 (en) * | 2018-07-27 | 2022-03-25 | 日立Astemo株式会社 | Distance calculation device |
JP7358933B2 (en) * | 2019-11-19 | 2023-10-11 | 株式会社アイシン | camera calibration device |
JP7371549B2 (en) | 2020-03-19 | 2023-10-31 | 株式会社リコー | Vehicle detection device, vehicle, vehicle detection method and program |
CN112815848B (en) * | 2021-02-02 | 2022-06-03 | 中国人民解放军陆军装甲兵学院 | Binocular camera and mechanical arm coordinate system registration method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2993995B2 (en) * | 1990-03-23 | 1999-12-27 | マツダ株式会社 | Mobile car image processing device |
JPH0843055A (en) * | 1994-07-29 | 1996-02-16 | Canon Inc | Method and apparatus for recognizing shape of three dimensional object |
JP3436074B2 (en) * | 1997-06-10 | 2003-08-11 | トヨタ自動車株式会社 | Car stereo camera |
JP2001012946A (en) * | 1999-06-30 | 2001-01-19 | Toshiba Corp | Dynamic image processor and processing method |
JP2005024463A (en) * | 2003-07-04 | 2005-01-27 | Fuji Heavy Ind Ltd | Stereo wide visual field image processing apparatus |
-
2006
- 2006-03-28 JP JP2006087728A patent/JP4814669B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007263669A (en) | 2007-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4814669B2 (en) | 3D coordinate acquisition device | |
JP6603094B2 (en) | Calibration apparatus, calibration method, and calibration program | |
JP5926228B2 (en) | Depth detection method and system for autonomous vehicles | |
US10762643B2 (en) | Method for evaluating image data of a vehicle camera | |
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
US20170019657A1 (en) | Stereo auto-calibration from structure-from-motion | |
JP4943034B2 (en) | Stereo image processing device | |
US10645365B2 (en) | Camera parameter set calculation apparatus, camera parameter set calculation method, and recording medium | |
JP2007263657A (en) | Three-dimensional coordinates acquisition system | |
JP6328327B2 (en) | Image processing apparatus and image processing method | |
JP2014074632A (en) | Calibration apparatus of in-vehicle stereo camera and calibration method | |
JP2006053890A (en) | Obstacle detection apparatus and method therefor | |
KR20160003776A (en) | Posture estimation method and robot | |
JP5228614B2 (en) | Parameter calculation apparatus, parameter calculation system and program | |
KR20220113781A (en) | How to measure the topography of your environment | |
JP2023004964A (en) | Sensor calibration method and apparatus | |
JP6543935B2 (en) | PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
GB2513703B (en) | Method and apparatus for three-dimensional imaging of at least a partial region of a vehicle environment | |
JP2009139324A (en) | Travel road surface detecting apparatus for vehicle | |
JP2020118575A (en) | Inter-vehicle distance measurement device, error model generation device, learning model generation device, and method and program thereof | |
CN111989541B (en) | Stereo camera device | |
JP5425500B2 (en) | Calibration apparatus and calibration method | |
JP7074546B2 (en) | Image processing equipment and methods | |
JP2020035158A (en) | Attitude estimation device and calibration system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110802 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110826 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4814669 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140902 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140902 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |