JP2018205008A - Camera calibration device and camera calibration method - Google Patents

Camera calibration device and camera calibration method Download PDF

Info

Publication number
JP2018205008A
JP2018205008A JP2017107507A JP2017107507A JP2018205008A JP 2018205008 A JP2018205008 A JP 2018205008A JP 2017107507 A JP2017107507 A JP 2017107507A JP 2017107507 A JP2017107507 A JP 2017107507A JP 2018205008 A JP2018205008 A JP 2018205008A
Authority
JP
Japan
Prior art keywords
camera
calibration
distance
objects
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017107507A
Other languages
Japanese (ja)
Inventor
吾妻 健夫
Takeo Azuma
健夫 吾妻
登 一生
Kazuo Nobori
一生 登
信彦 若井
Nobuhiko Wakai
信彦 若井
佐藤 智
Satoshi Sato
智 佐藤
中田 幹也
Mikiya Nakada
幹也 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017107507A priority Critical patent/JP2018205008A/en
Publication of JP2018205008A publication Critical patent/JP2018205008A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)

Abstract

To realize highly accurate calibration over a wide depth range on a camera using a wide viewing angle optical system.SOLUTION: The present invention comprises a compound eye camera 101 for capturing an image, a range sensor 102 for acquiring distance information pertaining to substantially the same scene as the camera, a range data evaluation unit 103 for evaluating the distribution of the distance information, and a calibration unit 104 for executing calibration of the camera using the camera image, the distance information and the range data evaluation result and outputting a camera parameter, the calibration being executed by a camera model whose pupil position changes with each angle of incidence when the distance information contains information pertaining to a prescribed range of distance. The present constitution makes it possible to provide a camera parameter for stereo cameras for which calibration accuracy in a necessary range of distance is secured.SELECTED DRAWING: Figure 1

Description

本発明はステレオカメラをはじめとする複眼カメラのキャリブレーション装置、方法、およびプログラムに関するものである。   The present invention relates to a calibration apparatus, method, and program for a compound eye camera such as a stereo camera.

従来のステレオカメラキャリブレーション装置としては、市松模様を有する専用の被写体を用い、市松模様の交点を特徴点として検出し、各カメラのキャリブレーションを行うものがあった(例えば、特許文献1参照)。図8は、前記特許文献1に記載された従来のステレオカメラのキャリブレーション装置を示すものである。   As a conventional stereo camera calibration device, there is one that uses a dedicated subject having a checkered pattern, detects an intersection of the checkered pattern as a feature point, and calibrates each camera (see, for example, Patent Document 1). . FIG. 8 shows a conventional stereo camera calibration apparatus described in Patent Document 1. In FIG.

図8において、801A、801Bはカメラである。前記カメラで撮影された映像は、単眼ステレオ処理部と2眼ステレオ処理部で処理される。単眼ステレオ処理部では、フロー推定部802によりフレーム間のフロー(時間方向の動き)が推定され、自車運動量推定部803により車輪速センサ等の情報から自車の運動量(すなわちカメラの移動量)が推定され、3次元座標推定装置804において、フロー推定部802で検出された特徴点とそのフロー情報と、自車運動量推定部で推定された自車運動量から、特徴点の3次元座標を公知の手法により求める。また、2眼ステレオ処理部では、対応点推定部806でステレオ画像間の特徴点対応付けを行い、仮キャリブレーション部807では2台のカメラ801A、801B間の仮の併進位置ずれ量(大きさを1に正規化した位置ずれ量)と回転ずれ量を推定し、このキャリブレーション結果を用いて仮3次元座標推定部808において、対応点推定部806で対応付けを行った特徴点の3次元座標値を推定する。前記仮3次元座標推定部808における3次元座標値の推定では、前記2台のカメラ801A、801B間の仮の併進位置ずれ量の大きさを1に正規化して計算を行っているため、実際の3次元座標値とスケールが異なる3次元座標値が計算されている。これを補正するために、カメラ間距離スケール推定部805において、同一の特徴点に対して単眼ステレオ処理部と2眼ステレオ処理部によってそれぞれ推定された3次元座標値からカメラ間距離のスケール(すなわち正規化されていないカメラ間距離)を推定し、3次元座標推定部809において、前記カメラ間距離スケールを考慮した3次元座標値を推定する。   In FIG. 8, reference numerals 801A and 801B denote cameras. The video imaged by the camera is processed by a monocular stereo processing unit and a binocular stereo processing unit. In the monocular stereo processing unit, a flow between frames (movement in the time direction) is estimated by the flow estimation unit 802, and the amount of movement of the own vehicle (that is, the amount of movement of the camera) from information such as a wheel speed sensor by the own vehicle momentum estimation unit 803. In the three-dimensional coordinate estimation apparatus 804, the three-dimensional coordinates of the feature points are publicly known from the feature points detected by the flow estimation unit 802, the flow information thereof, and the own vehicle momentum estimated by the own vehicle momentum estimation unit. Obtained by the method of In the binocular stereo processing unit, the corresponding point estimation unit 806 performs feature point association between the stereo images, and the temporary calibration unit 807 has a provisional translational displacement amount (size) between the two cameras 801A and 801B. The positional deviation amount normalized to 1) and the rotational deviation amount are estimated, and the three-dimensional feature points associated with the corresponding point estimation unit 806 in the temporary three-dimensional coordinate estimation unit 808 using the calibration result. Estimate coordinate values. In the estimation of the three-dimensional coordinate value in the provisional three-dimensional coordinate estimation unit 808, since the calculation is performed by normalizing the amount of the provisional translational displacement between the two cameras 801A and 801B to 1, A three-dimensional coordinate value having a different scale from the three-dimensional coordinate value is calculated. In order to correct this, in the inter-camera distance scale estimation unit 805, the inter-camera distance scale (that is, the inter-camera distance scale estimation unit 805 estimated by the monocular stereo processing unit and the binocular stereo processing unit respectively for the same feature point) A non-normalized inter-camera distance) is estimated, and a three-dimensional coordinate estimation unit 809 estimates a three-dimensional coordinate value in consideration of the inter-camera distance scale.

車載カメラでは、車両周辺全域を撮影するために魚眼レンズ等の広視野角の光学系が用いられる。これら広視野角の光学系では撮影される画像の歪みが大きくなるため、専用のキャリブレーション方法が提案されている(例えば、非特許文献1参照)。   In-vehicle cameras use an optical system with a wide viewing angle, such as a fisheye lens, to capture the entire area around the vehicle. In such an optical system with a wide viewing angle, since a distortion of an image to be taken becomes large, a dedicated calibration method has been proposed (for example, see Non-Patent Document 1).

特許第4814669号公報Japanese Patent No. 4814669

森安亮太,中村遼平,金谷健一,“帯状パタンによる魚眼レンズカメラの高精度な校正”,情報処理学会研究会報告,コンピュータビジョンとイメージメディア(CVIM),Vol.2011−CVIM−176,2011Ryota Moriyasu, Shinpei Nakamura, Kenichi Kanaya, “Highly accurate calibration of fisheye lens camera with belt pattern”, Information Processing Society of Japan Report, Computer Vision and Image Media (CVIM), Vol. 2011-CVIM-176, 2011

しかしながら、前記従来の魚眼レンズのキャリブレーション装置では、瞳位置が入射角に応じて移動することを考慮していなかった。そのため、キャリブレーションを行った距離から離れた被写体については、キャリブレーション精度が低下するという課題があった。   However, the conventional fisheye lens calibration apparatus does not consider that the pupil position moves in accordance with the incident angle. For this reason, there is a problem that the calibration accuracy is lowered for a subject that is far from the distance for which calibration has been performed.

本発明は、前記従来の課題を解決するもので、ステレオカメラの視野内の距離情報の分布を評価し、前記距離情報が所定の距離範囲の情報を含んでいる場合に、入射角毎に瞳位置が変化するカメラモデルによりキャリブレーションを行うことで、必要な距離範囲におけるキャリブレーション精度を確保したステレオカメラのカメラパラメータを提供することを目的とする。   The present invention solves the above-described conventional problems. When the distribution of distance information in the field of view of a stereo camera is evaluated, and the distance information includes information of a predetermined distance range, the pupil for each incident angle. An object of the present invention is to provide a camera parameter of a stereo camera that ensures calibration accuracy in a necessary distance range by performing calibration using a camera model whose position changes.

前記従来の課題を解決するために、本発明におけるステレオカメラのキャリブレーション装置は、画像を撮影する複眼カメラと、前記カメラと概略同一のシーンの距離情報を取得するレンジセンサと、前記距離情報の分布を評価するレンジデータ評価部と、前記カメラ画像と前記距離情報と前記レンジデータ評価結果を用いて、前記カメラのキャリブレーションを行いカメラパラメータを出力するキャリブレーション部とを有し、前記距離情報が所定の距離範囲の情報を含んでいる場合に、入射角毎に瞳位置が変化するカメラモデルによりキャリブレーションを行う。   In order to solve the conventional problems, a stereo camera calibration apparatus according to the present invention includes a compound-eye camera that captures an image, a range sensor that acquires distance information of a scene that is substantially the same as the camera, and the distance information A range data evaluation unit that evaluates the distribution; a calibration unit that calibrates the camera and outputs camera parameters using the camera image, the distance information, and the range data evaluation result; and , Calibration is performed with a camera model in which the pupil position changes for each incident angle.

本構成によって、必要な距離範囲におけるキャリブレーション精度を確保したステレオカメラのカメラパラメータを提供することができる。   With this configuration, it is possible to provide a camera parameter of a stereo camera that ensures calibration accuracy in a necessary distance range.

本発明におけるステレオカメラのキャリブレーション装置によれば、前記距離情報が所定の距離範囲の情報を含んでいる場合に、入射角毎に瞳位置が変化するカメラモデルによりキャリブレーションを行うことで、必要な距離範囲におけるキャリブレーション精度を確保したステレオカメラのカメラパラメータを提供することができる。   According to the stereo camera calibration apparatus of the present invention, when the distance information includes information of a predetermined distance range, it is necessary to perform calibration using a camera model in which the pupil position changes for each incident angle. It is possible to provide camera parameters of a stereo camera that ensures calibration accuracy in a wide distance range.

本発明の実施の形態1におけるステレオカメラのキャリブレーション装置の構成図1 is a configuration diagram of a stereo camera calibration apparatus according to Embodiment 1 of the present invention. 入射角に応じて瞳位置が動く現象の説明図Illustration of the phenomenon that the pupil position moves according to the incident angle 入射角によらず瞳位置が固定のカメラモデルの説明図Illustration of camera model with fixed pupil position regardless of incident angle 本発明の実施の形態1の変形例における単眼カメラの構成図Configuration diagram of a monocular camera in a modification of the first embodiment of the present invention 本発明の実施の形態1の変形例における複眼カメラの構成図Configuration diagram of compound eye camera according to a modification of Embodiment 1 of the present invention 本発明の実施の形態2におけるステレオカメラのキャリブレーション装置の構成図Configuration diagram of a calibration apparatus for a stereo camera according to Embodiment 2 of the present invention 本発明の実施の形態3におけるステレオカメラのキャリブレーション装置の構成図Configuration diagram of stereo camera calibration apparatus according to Embodiment 3 of the present invention 従来のステレオキャリブレーション装置の構成図Configuration diagram of a conventional stereo calibration device

以下本発明の実施の形態について、図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
図1は、実施の形態1におけるステレオカメラキャリブレーション装置の構成図である。図1に示すステレオカメラキャリブレーション装置は、複眼カメラ101と、レンジセンサ102と、レンジデータ評価部103と、キャリブレーション部104を備える。複眼カメラ101は、異なる視点位置から被写体を撮影する。複眼カメラ101の一例は、広角レンズを有する。レンジセンサ102は、複眼カメラ101の視野を含む範囲の3次元形状情報を計測する。レンジデータ評価部103は、レンジセンサ102が計測したレンジデータについて、複数の距離範囲を含んでいるか否かを評価する。キャリブレーション部104は、メモリに記録されている所定の基準を参照して、複眼カメラ101のカメラパラメータをキャリブレーションする。例えば、レンジデータ評価部103、及びキャリブレーション部104は、制御回路により実現される。
(Embodiment 1)
FIG. 1 is a configuration diagram of a stereo camera calibration apparatus according to the first embodiment. The stereo camera calibration apparatus shown in FIG. 1 includes a compound eye camera 101, a range sensor 102, a range data evaluation unit 103, and a calibration unit 104. The compound eye camera 101 captures a subject from different viewpoint positions. An example of the compound eye camera 101 has a wide-angle lens. The range sensor 102 measures three-dimensional shape information in a range including the visual field of the compound eye camera 101. The range data evaluation unit 103 evaluates whether or not the range data measured by the range sensor 102 includes a plurality of distance ranges. The calibration unit 104 calibrates the camera parameters of the compound eye camera 101 with reference to a predetermined standard recorded in the memory. For example, the range data evaluation unit 103 and the calibration unit 104 are realized by a control circuit.

レンジデータ評価部103による評価の必要性について、以下に説明する。車載用のカメラは、広範囲に障害物を撮影するために、魚眼レンズ等の広視野角の光学系を用いている。図2に、光学系を用いた撮影の状況を示す。   The necessity for evaluation by the range data evaluation unit 103 will be described below. In-vehicle cameras use an optical system with a wide viewing angle such as a fisheye lens in order to photograph obstacles over a wide range. FIG. 2 shows a situation of photographing using the optical system.

図2に示すように、トップレンズ(最も対物側のレンズ)の対物側曲面201であり、光学系の中心軸202、及び撮像面203とが規定される。図2において、被写体空間中の3次元座標値((X1n,Y1n,Z1n),(X1f,Y1f,Z1f),(X2n,Y2n,Z2n),及び(X2f,Y2f,Z2f))、撮像面上の2次元座標値((x1,y1),(x2,y2))と示す。ここでは、(X1n,Y1n,Z1n),(X1f,Y1f,Z1f)は、(x1,y1)に撮影される。(X2n,Y2n,Z2n),(X2f,Y2f,Z2f)は、(x2,y2)に撮影される。魚眼レンズ等の広角レンズは、複数のレンズを組み合わせすることにより構成される。被写体からの光は複数のレンズの各面において、複数回の屈折した後、撮像面に到達する。ここでは光学系全体の動作を説明するために、トップレンズの対物側曲面を直進した光が光軸と交わる位置を入射瞳位置と考え、また、同じ位置を射出瞳位置と考える。   As shown in FIG. 2, it is an objective-side curved surface 201 of the top lens (the most objective-side lens), and a central axis 202 of the optical system and an imaging surface 203 are defined. In FIG. 2, the three-dimensional coordinate values ((X1n, Y1n, Z1n), (X1f, Y1f, Z1f), (X2n, Y2n, Z2n), and (X2f, Y2f, Z2f)) in the subject space on the imaging surface Of the two-dimensional coordinates ((x1, y1), (x2, y2)). Here, (X1n, Y1n, Z1n) and (X1f, Y1f, Z1f) are photographed at (x1, y1). (X2n, Y2n, Z2n) and (X2f, Y2f, Z2f) are photographed at (x2, y2). A wide-angle lens such as a fisheye lens is configured by combining a plurality of lenses. The light from the subject reaches the imaging surface after being refracted a plurality of times on each surface of the plurality of lenses. Here, in order to explain the operation of the entire optical system, the position where the light traveling straight on the objective-side curved surface of the top lens intersects the optical axis is considered as the entrance pupil position, and the same position is considered as the exit pupil position.

上記瞳位置は、図2に示す様に、入射角θが小さい(θ=θ1)場合と大きい場合(θ=θ2)で、位置が変化する。しかしながら、キャリブレーションに用いられている既存のカメラモデルではこの瞳位置の変動を考慮しているものがない。   As shown in FIG. 2, the position of the pupil changes depending on whether the incident angle θ is small (θ = θ1) or large (θ = θ2). However, there is no existing camera model used for calibration that takes this pupil position variation into consideration.

図3は、その様な既存のカメラモデルによるキャリブレーションについての説明図である。図3において、図2と同一の構成要素については図2と同一の符号を付し、説明を省略する。図3では、入射角θによらず瞳位置301が変化しない。そのため、(X1n,Y1n,Z1n),(X2n,Y2n,Z2n)の光軸に対する入射角θ’1,θ’2は、図2における入射角θ1,θ2とは異なっている。ただし、(X1n,Y1n,Z1n),(X2n,Y2n,Z2n)の撮像位置は、図2の場合と同じくそれぞれ(x1,y1),(x2,y2)になっている。しかしながら、(X1n,Y1n,Z1n),(X2n,Y2n,Z2n)よりもレンズから離れた(X1f,Y1f,Z1f),(X2f,Y2f,Z2f)は、瞳位置301と(X1n,Y1n,Z1n),(X2n,Y2n,Z2n)を結ぶ直線から離れており、このことは、(X1f,Y1f,Z1f),(X2f,Y2f,Z2f)の撮像位置がそれぞれ(x1,y1),(x2,y2)と異なる位置になっていることを示す。   FIG. 3 is an explanatory diagram of calibration using such an existing camera model. 3, the same components as those in FIG. 2 are denoted by the same reference numerals as those in FIG. In FIG. 3, the pupil position 301 does not change regardless of the incident angle θ. Therefore, the incident angles θ′1 and θ′2 with respect to the optical axes of (X1n, Y1n, Z1n) and (X2n, Y2n, Z2n) are different from the incident angles θ1 and θ2 in FIG. However, the imaging positions of (X1n, Y1n, Z1n) and (X2n, Y2n, Z2n) are (x1, y1) and (x2, y2), respectively, as in the case of FIG. However, (X1f, Y1f, Z1f) and (X2f, Y2f, Z2f) that are further from the lens than (X1n, Y1n, Z1n), (X2n, Y2n, Z2n) are the pupil position 301 and (X1n, Y1n, Z1n). ), (X2n, Y2n, Z2n) away from the straight line, which means that the imaging positions of (X1f, Y1f, Z1f), (X2f, Y2f, Z2f) are (x1, y1), (x2, It shows that the position is different from y2).

以上のことから、瞳位置の変動を考慮していない既存のキャリブレーション方法では、キャリブレーションに使用した被写体の奥行き(キャリブレーション面)付近では正しくキャリブレーションできるが、キャリブレーション面から離れた位置の被写体についてはキャリブレーション精度が低下する。そのため、キャリブレーション精度を高めるためには、あらゆる方向について異なる距離の被写体がある状況が最も望ましい。その様な例としては、雪や落ち葉等が舞うシーンがあげられる。また、その様なシーンに準じて好ましいシーンとしては、特定の方向(角度範囲)について、異なる距離の被写体がある状況が望ましい。その様な例としては、街路樹、高層ビルを含むシーンがあげられる。   Based on the above, with existing calibration methods that do not consider pupil position fluctuations, calibration can be performed correctly near the depth of the subject used for calibration (calibration plane), but at positions away from the calibration plane. For the subject, the calibration accuracy decreases. Therefore, in order to increase the calibration accuracy, it is most desirable to have a subject with different distances in all directions. An example of this is a scene where snow, fallen leaves, etc. dance. Further, as a preferable scene according to such a scene, a situation where there are subjects at different distances in a specific direction (angle range) is desirable. Such examples include scenes that include street trees and high-rise buildings.

複数の距離範囲を含むかどうかについては、角度範囲毎の距離データの分散もしくは頻度分布によって評価できる。具体的には、画像内のブロック毎、もしくは、着目画素を中心に設定した窓領域毎に、距離データの分散もしくは頻度分布を評価することで、これらの数値を得ることができる。すなわち、レンジデータ評価部103は、視野角内の各角度範囲毎の距離データの分散が所定の閾値より大きい場合、もしくは、距離データの頻度分布のばらつきが所定の閾値より大きい場合に、前記角度範囲について高い評価値を出力する。   Whether or not a plurality of distance ranges are included can be evaluated by the distribution or frequency distribution of distance data for each angle range. Specifically, these numerical values can be obtained by evaluating the dispersion or frequency distribution of distance data for each block in the image or for each window region set around the pixel of interest. In other words, the range data evaluation unit 103 determines that the angle is greater when the variance of the distance data for each angle range within the viewing angle is greater than a predetermined threshold, or when the variation in the frequency data frequency distribution is greater than the predetermined threshold. Output a high evaluation value for the range.

図1に戻って、キャリブレーション部104は、レンジデータ評価部103が複数の距離範囲を含んでいると判断した場合に、入射角毎に瞳位置が変化するカメラモデルによるキャリブレーションを行う。キャリブレーション部104におけるキャリブレーションについて、以下に説明する。   Returning to FIG. 1, when the range data evaluation unit 103 determines that the range data evaluation unit 103 includes a plurality of distance ranges, the calibration unit 104 performs calibration using a camera model in which the pupil position changes for each incident angle. The calibration in the calibration unit 104 will be described below.

まず、世界座標系における3次元座標値(Xw,Yw,Zw)と、各カメラを基準とする座標系(各カメラの光軸をZ軸とするカメラ座標系)における3次元座標値(Xc,Yc,Zc)との関係は(数1)で表される。   First, a three-dimensional coordinate value (Xw, Yw, Zw) in the world coordinate system and a three-dimensional coordinate value (Xc, Y) in a coordinate system based on each camera (a camera coordinate system in which the optical axis of each camera is the Z axis). Yc, Zc) is represented by (Equation 1).

Figure 2018205008
Figure 2018205008

(数1)においてr11〜r33は3次元空間中での回転を表す回転マトリックスの各要素であり、Tx,Ty,Tzは3次元空間中での併進移動を表す。これらのパラメータは、外部パラメータと呼ばれる。   In (Equation 1), r11 to r33 are elements of a rotation matrix representing rotation in the three-dimensional space, and Tx, Ty, and Tz represent translational movement in the three-dimensional space. These parameters are called external parameters.

次に、カメラの光軸への入射角θとカメラ座標系における3次元座標値(Xc,Yc,Zc)との関係は、(数2)で表される。   Next, the relationship between the incident angle θ to the optical axis of the camera and the three-dimensional coordinate values (Xc, Yc, Zc) in the camera coordinate system is expressed by (Equation 2).

Figure 2018205008
Figure 2018205008

本発明で対象とする広視野角のカメラにおける入射角θと像高rの関係としては、等距離射影、立体射影、等立体角射影等、複数のものがあるが、ここでは、等距離射影の場合について説明する。等距離射影での入射角θと像高rの関係は、(数3)で表される。   As the relationship between the incident angle θ and the image height r in the wide viewing angle camera that is the subject of the present invention, there are a plurality of relations such as equidistant projection, stereoscopic projection, and equisolid angle projection. The case will be described. The relationship between the incident angle θ and the image height r in equidistant projection is expressed by (Equation 3).

Figure 2018205008
Figure 2018205008

撮影ざれる画像の画素座標値は、上記像高rと方位角γによって、(数4)の形で表される。   The pixel coordinate value of the image that is not photographed is expressed in the form of (Formula 4) by the image height r and the azimuth angle γ.

Figure 2018205008
Figure 2018205008

(数4)においてkは1画素の大きさを表す(ここでは、x方向とy方向で大きさの等しい正方画素を考える)。(数3)(数4)におけるf,kは内部パラメータと呼ばれる。   In (Expression 4), k represents the size of one pixel (here, a square pixel having the same size in the x direction and the y direction is considered). F and k in (Equation 3) and (Equation 4) are called internal parameters.

以上、(数1)から(数4)の関係により、世界座標系における3次元座標値(Xw,Yw,Zw)が画素座標値(x,y)に対応付けられる。キャリブレーションでは、世界座標系における3次元座標値(Xw,Yw,Zw)が既知の点を複数撮影し、それらの撮像位置(xtrue,ytrue)との組(Xw,Yw,Zw,xtrue,ytrue)をキャリブレーションデータとして用意し、これら複数の組における(Xw,Yw,Zw)と(xtrue,ytrue)の関係を最も精度よく表す様に、カメラパラメータ(内部パラメータと外部パラメータ)を計算する。 As described above, the three-dimensional coordinate values (Xw, Yw, Zw) in the world coordinate system are associated with the pixel coordinate values (x, y) by the relationship of (Equation 1) to (Equation 4). In the calibration, a plurality of points with known three-dimensional coordinate values (Xw, Yw, Zw) in the world coordinate system are photographed, and a set (Xw, Yw, Zw, x) with their imaging positions (x true , y true ). true , y true ) are prepared as calibration data, and the camera parameters (internal parameters and external parameters) are expressed so as to most accurately represent the relationship between (Xw, Yw, Zw) and (x true , y true ) in these sets. Parameter).

その計算について、以下に説明する。   The calculation will be described below.

(数1)から(数4)に示した(Xw,Yw,Zw)と(x,y)の関係を、

Figure 2018205008
と表すと、gx(),gy()を用いて関係式から計算した画素座標(x,y)と実際の撮像位置(xtrue,ytrue)との差異は以下の再投影誤差として評価できる。 The relationship between (Xw, Yw, Zw) and (x, y) shown in (Equation 1) to (Equation 4) is
Figure 2018205008
In other words, the difference between the pixel coordinates (x, y) calculated from the relational expression using gx () and gy () and the actual imaging position (x true , y true ) can be evaluated as the following reprojection error. .

Figure 2018205008
Figure 2018205008

カメラパラメータの計算は、(数7)に示す様に(数6)の評価値を最小にするカメラパラメータ(r11〜r33,T,T,T,f,k)を求めることにより行う。 The camera parameters are calculated by obtaining camera parameters (r11 to r33, T X , T Y , T Z , f, k) that minimize the evaluation value of (Equation 6) as shown in (Equation 7). .

Figure 2018205008
Figure 2018205008

上記の計算は、非線形最適化問題となり、Levenberg−Merquardt法やグリッドサーチ等の公知の最適化計算手法によって実施される。   The above calculation becomes a non-linear optimization problem, and is performed by a known optimization calculation method such as the Levenberg-Merquardt method or grid search.

ここで、既存の広角カメラ、魚眼カメラのキャリブレーションにおいては、図3に示す様に焦点距離fが入射角θによらず一定であったが、本発明では例えばLUT(ルックアップテーブル)等を用いることにより、入射角に応じて変化することを許す。これにより、図3で示したキャリブレーション面から離れ位置において既存のキャリブレーション法で生じるキャリブレーション誤差の発生を低減することができる。   Here, in the calibration of the existing wide-angle camera and fish-eye camera, the focal length f is constant regardless of the incident angle θ as shown in FIG. 3, but in the present invention, for example, an LUT (Look Up Table) or the like is used. Is allowed to change according to the incident angle. Thereby, it is possible to reduce the occurrence of calibration errors caused by the existing calibration method at a position away from the calibration plane shown in FIG.

図4は、キャリブレーション部104の動作を説明する構成図である。図4において、3次元座標−2次元座標対応付け部401は、レンジデータに含まれる反射率データと複眼カメラ画像の対応付けから3次元座標値と2次元座標値の対応付けを行い、上記(Xw,Yw,Zw,xtrue,ytrue)の組を得る。評価値最小化部402は、入射角に応じて変化する焦点距離fのカメラモデルについて(数7)の計算を行うことによりカメラパラメータを計算し出力する。 FIG. 4 is a configuration diagram for explaining the operation of the calibration unit 104. In FIG. 4, a 3D coordinate-2D coordinate association unit 401 associates a 3D coordinate value with a 2D coordinate value from the association between reflectance data included in range data and a compound-eye camera image. Xw, Yw, Zw, x true , y true ). The evaluation value minimizing unit 402 calculates and outputs camera parameters by calculating (Equation 7) for a camera model having a focal length f that changes according to the incident angle.

なお、本実施の形態において、投影モデルとして等距離射影の場合について説明したが、本発明はこれに限るものではなく立体射影、等立体角射影等、他の投影モデルを用いてもよい。   In the present embodiment, the case of equidistant projection has been described as the projection model. However, the present invention is not limited to this, and other projection models such as stereoscopic projection and equisolid angle projection may be used.

(実施の形態1の変形例)
実施の形態1においては、ステレオカメラのキャリブレーションについて述べたが、カメラの台数は2台である必要はない。図5はカメラが3台以上の場合のキャリブレーション装置の構成を示す。図5において、図1と同一の構成要素には図1と同一の符号を付し、説明を省略する。図5においてカメラ501は3眼以上の複眼カメラであり、対応点推定部502は複眼カメラから選んだ複数のステレオペア(2眼ペア)について対応点推定を行う。3次元座標推定部503は、前記複眼カメラの各カメラについての初期カメラパラメータを用いて、前記複数の対応点推定結果から3次元座標値を推定する。3次元座標評価部504は、前記複数の対応点推定結果から推定した3次元座標値の分布から、各ステレオペアのカメラパラメータを評価する。すなわち、全てのカメラについてカメラパラメータが正しければ、各ステレオペアから推定された3次元座標値は同じ位置に集中するが、カメラパラメータが正しくないカメラを含むステレオペアでは3次元座標値を正しく推定できないため、他のステレオペアによる推定値から離れた位置に3次元座標値を推定することになる。このことから、大半のカメラのカメラパラメータが正確な場合、カメラパラメータが正確でないカメラを3次元座標値の分布から判断することができる。
(Modification of Embodiment 1)
In the first embodiment, the calibration of the stereo camera has been described. However, the number of cameras is not necessarily two. FIG. 5 shows the configuration of the calibration apparatus when there are three or more cameras. In FIG. 5, the same components as those in FIG. 1 are denoted by the same reference numerals as those in FIG. In FIG. 5, a camera 501 is a compound eye camera having three or more eyes, and a corresponding point estimation unit 502 performs corresponding point estimation for a plurality of stereo pairs (two-eye pairs) selected from the compound eye camera. A three-dimensional coordinate estimation unit 503 estimates a three-dimensional coordinate value from the plurality of corresponding point estimation results using initial camera parameters for each camera of the compound eye camera. The three-dimensional coordinate evaluation unit 504 evaluates the camera parameters of each stereo pair from the distribution of three-dimensional coordinate values estimated from the plurality of corresponding point estimation results. That is, if the camera parameters are correct for all cameras, the three-dimensional coordinate values estimated from each stereo pair are concentrated at the same position, but the three-dimensional coordinate values cannot be estimated correctly in a stereo pair including a camera with incorrect camera parameters. Therefore, the three-dimensional coordinate value is estimated at a position away from the estimated value by the other stereo pair. From this, when the camera parameters of most cameras are accurate, a camera whose camera parameters are not accurate can be determined from the distribution of the three-dimensional coordinate values.

キャリブレーション部505では、3次元座標評価部504により信頼性が低いとされたカメラのパラメータを、3次元座標評価部504により信頼性が低いとされたカメラによる3次元座標推定値を用いてキャリブレーションを行う。また、実施の形態1と同様に、推定された3次元座標値が一様でなく、複数の距離範囲を含んでいる時に、優先的にキャリブレーションを行うことで、視野角に応じて焦点距離fが変動するカメラモデルによるキャリブレーションを行う。   The calibration unit 505 calibrates the parameters of the camera whose reliability is low by the three-dimensional coordinate evaluation unit 504 using the three-dimensional coordinate estimation value obtained by the camera whose reliability is low by the three-dimensional coordinate evaluation unit 504. Perform Similarly to the first embodiment, when the estimated three-dimensional coordinate value is not uniform and includes a plurality of distance ranges, the focal length is determined according to the viewing angle by performing calibration preferentially. Calibration is performed using a camera model in which f varies.

以上の構成により、初期状態で3眼以上の複眼カメラの全カメラのキャリブレーションを行えば、レンジセンサを用いずに複眼カメラのキャリブレーションを行うことができる。   With the above configuration, if all the cameras of the compound eye camera having three or more eyes are calibrated in the initial state, the compound eye camera can be calibrated without using the range sensor.

(実施の形態2)
図6は、本発明の実施の形態2のステレオカメラの構成図である。図6において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
(Embodiment 2)
FIG. 6 is a configuration diagram of the stereo camera according to the second embodiment of the present invention. In FIG. 6, the same components as those in FIG.

図6において、静止領域抽出部601はシーン中から静止領域を抽出する。エンジン動作センサは、複眼カメラを搭載した車両のエンジン動作をセンシングする。キャリブレーション部603は、エンジン停止時に静止領域の情報を用いて複眼カメラのキャリブレーションを行う。   In FIG. 6, a still area extraction unit 601 extracts a still area from the scene. The engine operation sensor senses the engine operation of a vehicle equipped with a compound eye camera. The calibration unit 603 calibrates the compound eye camera using information on the still area when the engine is stopped.

以上の構成により、本実施形態によれば、複眼カメラとレンジセンサのフレームレートが異なる場合にも、複眼カメラのキャリブレーションを実施できる。   With the above configuration, according to the present embodiment, calibration of a compound eye camera can be performed even when the frame rates of the compound camera and the range sensor are different.

(実施の形態3)
図7は、本発明の実施の形態3のステレオカメラの構成図である。図7において図1、図6と同じ構成要素については同じ符号を用い、説明を省略する。
(Embodiment 3)
FIG. 7 is a configuration diagram of the stereo camera according to the third embodiment of the present invention. In FIG. 7, the same components as those in FIGS. 1 and 6 are denoted by the same reference numerals, and description thereof is omitted.

図7において、経路推薦部701は、実世界形状データベース702を参照し、到着時間が概略同一の場合、キャリブレーションにより適したルート(街路樹や構想ビル等、一様でない複数の距離情報を含むコース)を優先的に案内する。   In FIG. 7, the route recommendation unit 701 refers to the real world shape database 702, and if the arrival times are approximately the same, the route recommender includes a route suitable for calibration (a plurality of non-uniform distance information such as street trees and concept buildings). Course) is given priority.

以上の構成により、本実施形態によれば、車載複眼カメラのキャリブレーションを走行中にも精度よく行うことができる。   With the above configuration, according to the present embodiment, calibration of the in-vehicle compound eye camera can be performed with high accuracy even while traveling.

本発明にかかるステレオカメラのキャリブレーション装置は、入射角毎に瞳位置が変化するカメラモデルと、角度範囲毎の距離データの分散もしくは頻度分布を評価するレンジデータ評価部を有し、あらゆる方向について異なる距離の被写体がある雪や落ち葉等が舞うシーンや、これらに準ずるものとして、特定の方向(角度範囲)について、異なる距離の被写体がある街路樹、高層ビルを含むシーンにおいて、魚眼レンズ等の広角カメラのキャリブレーションを行う装置として有用である。   The stereo camera calibration apparatus according to the present invention has a camera model in which the pupil position changes for each incident angle, and a range data evaluation unit that evaluates the distribution or frequency distribution of distance data for each angle range, and for all directions. Wide angle of fish-eye lens etc. in scenes with snow and fallen leaves with different distance subjects, and street scenes with different distance subjects and skyscrapers in a specific direction (angle range) It is useful as a device for camera calibration.

101 複眼カメラ
102 レンジセンサ
103 レンジデータ評価部
104 キャリブレーション部
502 対応点推定部
503 3次元座標推定部
504 3次元座標評価部
DESCRIPTION OF SYMBOLS 101 Compound eye camera 102 Range sensor 103 Range data evaluation part 104 Calibration part 502 Corresponding point estimation part 503 3D coordinate estimation part 504 3D coordinate evaluation part

Claims (6)

複数の対象物を含むカメラ画像を取得するカメラと、
前記複数の対象物までの距離を取得するレンジセンサと、
制御回路とを備え、
前記制御回路は、
(a1)前記複数の対象物の距離値の分布を算出し、
(a2)前記カメラの複数のカメラパラメータを取得し、
(a3)前記距離値の分布が第1の条件を満たしている場合に、所定の基準を参照して、前記カメラのカメラパラメータをキャリブレーションし、ここで、前記第1の条件は、前記複数の対象物の距離値が、第1の閾値以上の距離範囲に分布している、
カメラキャリブレーション装置。
A camera for acquiring a camera image including a plurality of objects;
A range sensor for acquiring distances to the plurality of objects;
A control circuit,
The control circuit includes:
(A1) calculating a distribution of distance values of the plurality of objects,
(A2) obtaining a plurality of camera parameters of the camera;
(A3) When the distribution of the distance values satisfies the first condition, the camera parameter of the camera is calibrated with reference to a predetermined criterion, where the first condition is the plurality of the conditions The distance value of the object is distributed in a distance range equal to or greater than the first threshold value.
Camera calibration device.
前記制御回路は、
前記(a1)において、前記カメラの複数の視野方向毎に、前記複数の対象物の距離の分布を算出し、
前記(a3)において、前記視野方向毎に、前記第1の条件を満たしている場合に、所定の基準を参照して、前記カメラのカメラパラメータをキャリブレーションする、
請求項1に記載のカメラキャリブレーション装置。
The control circuit includes:
In (a1), for each of a plurality of viewing directions of the camera, a distance distribution of the plurality of objects is calculated,
In (a3), when the first condition is satisfied for each visual field direction, the camera parameters of the camera are calibrated with reference to a predetermined standard.
The camera calibration device according to claim 1.
前記第1の条件は、前記複数の対象物の距離値の分散値が第2の閾値以上であり、または前記複数の対象物の距離値に関する区間毎の頻度の分散値が第3の閾値以上である、
請求項1に記載のカメラキャリブレーション装置。
The first condition is that a variance value of distance values of the plurality of objects is greater than or equal to a second threshold value, or a variance value of frequency for each section related to the distance values of the plurality of objects is greater than or equal to a third threshold value. Is,
The camera calibration device according to claim 1.
(b1)カメラで撮像された複数の対象物を含むカメラ画像を取得し、
(b2)レンジセンサにより取得された前記複数の対象物までの距離を取得し、
(b3)前記複数の対象物の距離値の分布を算出し、
(b4)前記カメラの複数のカメラパラメータを取得し、
(b5)前記距離値の分布が第1の条件を満たしている場合に、所定の基準を参照して、前記カメラのカメラパラメータをキャリブレーションし、ここで、前記第1の条件は、前記複数の対象物の距離値が、第1の閾値以上の距離範囲に分布しており、
前記(b1)〜前記(b5)の少なくとも1つを制御回路により実行する、
カメラキャリブレーション方法。
(B1) obtaining a camera image including a plurality of objects imaged by the camera;
(B2) acquiring distances to the plurality of objects acquired by the range sensor;
(B3) calculating a distribution of distance values of the plurality of objects;
(B4) obtaining a plurality of camera parameters of the camera;
(B5) When the distribution of the distance values satisfies the first condition, the camera parameter of the camera is calibrated with reference to a predetermined criterion, where the first condition is the plural The distance value of the object of is distributed over a distance range equal to or greater than the first threshold,
Executing at least one of (b1) to (b5) by a control circuit;
Camera calibration method.
前記(b3)において、前記カメラの複数の視野方向毎に、前記複数の対象物の距離の分布を算出し、
前記(b5)において、前記視野方向毎に、前記第1の条件を満たしている場合に、所定の基準を参照して、前記カメラのカメラパラメータをキャリブレーションする、
請求項4に記載のカメラキャリブレーション方法。
In (b3), for each of a plurality of viewing directions of the camera, a distance distribution of the plurality of objects is calculated,
In (b5), when the first condition is satisfied for each visual field direction, the camera parameters of the camera are calibrated with reference to a predetermined standard.
The camera calibration method according to claim 4.
前記第1の条件は、前記複数の対象物の距離値の分散値が第2の閾値以上であり、または前記複数の対象物の距離値に関する区間毎の頻度の分散値が第3の閾値以上である、
請求項4に記載のカメラキャリブレーション方法。
The first condition is that a variance value of distance values of the plurality of objects is greater than or equal to a second threshold value, or a variance value of frequency for each section related to the distance values of the plurality of objects is greater than or equal to a third threshold value. Is,
The camera calibration method according to claim 4.
JP2017107507A 2017-05-31 2017-05-31 Camera calibration device and camera calibration method Pending JP2018205008A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017107507A JP2018205008A (en) 2017-05-31 2017-05-31 Camera calibration device and camera calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017107507A JP2018205008A (en) 2017-05-31 2017-05-31 Camera calibration device and camera calibration method

Publications (1)

Publication Number Publication Date
JP2018205008A true JP2018205008A (en) 2018-12-27

Family

ID=64955580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017107507A Pending JP2018205008A (en) 2017-05-31 2017-05-31 Camera calibration device and camera calibration method

Country Status (1)

Country Link
JP (1) JP2018205008A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112782201A (en) * 2021-01-26 2021-05-11 中国科学院上海技术物理研究所 Lobster eye optical device calibration method based on X-ray focusing image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112782201A (en) * 2021-01-26 2021-05-11 中国科学院上海技术物理研究所 Lobster eye optical device calibration method based on X-ray focusing image

Similar Documents

Publication Publication Date Title
JP6585006B2 (en) Imaging device and vehicle
JP4852591B2 (en) Stereoscopic image processing apparatus, method, recording medium, and stereoscopic imaging apparatus
TWI555379B (en) An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof
CN106960454B (en) Depth of field obstacle avoidance method and equipment and unmanned aerial vehicle
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
TWI521255B (en) Automatic focusing method, and automatic focusing device, image capturing device using the same
JP7018566B2 (en) Image pickup device, image processing method and program
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JP2017108387A (en) Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof
US8144974B2 (en) Image processing apparatus, method, and program
CN113196007B (en) Camera system applied to vehicle
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
CN107809610B (en) Camera parameter set calculation device, camera parameter set calculation method, and recording medium
WO2011125937A1 (en) Calibration data selection device, method of selection, selection program, and three dimensional position measuring device
US20200134789A1 (en) System and method for correcting image through estimation of distortion parameter
JP7378219B2 (en) Imaging device, image processing device, control method, and program
KR101482645B1 (en) Distortion Center Correction Method Applying 2D Pattern to FOV Distortion Correction Model
JP7195801B2 (en) Image processing device and its control method, distance detection device, imaging device, program
JP5987584B2 (en) Image processing apparatus, video projection system, and program
JP7489253B2 (en) Depth map generating device and program thereof, and depth map generating system
KR20220121533A (en) Method and device for restoring image obtained from array camera
JP2016114445A (en) Three-dimensional position calculation device, program for the same, and cg composition apparatus
JP2018205008A (en) Camera calibration device and camera calibration method
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
KR101142279B1 (en) An apparatus for aligning images in stereo vision system and the method thereof