JP2018044942A - Camera parameter calculation device, camera parameter calculation method, program and recording medium - Google Patents

Camera parameter calculation device, camera parameter calculation method, program and recording medium Download PDF

Info

Publication number
JP2018044942A
JP2018044942A JP2017057505A JP2017057505A JP2018044942A JP 2018044942 A JP2018044942 A JP 2018044942A JP 2017057505 A JP2017057505 A JP 2017057505A JP 2017057505 A JP2017057505 A JP 2017057505A JP 2018044942 A JP2018044942 A JP 2018044942A
Authority
JP
Japan
Prior art keywords
camera
dimensional
camera parameter
cameras
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017057505A
Other languages
Japanese (ja)
Other versions
JP7038315B2 (en
Inventor
信彦 若井
Nobuhiko Wakai
信彦 若井
登 一生
Kazuo Nobori
一生 登
吾妻 健夫
Takeo Azuma
健夫 吾妻
佐藤 智
Satoshi Sato
智 佐藤
亜矢子 丸山
Ayako Maruyama
亜矢子 丸山
中田 幹也
Mikiya Nakada
幹也 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to CN201710573597.2A priority Critical patent/CN107808398B/en
Priority to US15/687,761 priority patent/US10664995B2/en
Publication of JP2018044942A publication Critical patent/JP2018044942A/en
Priority to US16/242,291 priority patent/US10769814B2/en
Application granted granted Critical
Publication of JP7038315B2 publication Critical patent/JP7038315B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a camera parameter calculation device that can use a stereo camera or multi-eye camera without using a calibration index having a three-dimensional structure known.SOLUTION: A camera parameter calculation device comprises: a point group acquisition unit 107 that acquires three-dimensional point group data representing a three-dimensional position of each of a plurality of three-dimensional points included in shooting space of one or more cameras 102 and 103; a camera parameter calculator 108 that obtains a corresponding point in an individual image shot by the one or more cameras about each of the plurality of three-dimensional points on the basis of the three-dimensional point group data and an initial camera parameter of each camera, and calculates a camera parameter of each camera on the basis of the initial camera parameter of each camera and a pixel value in the corresponding point in the individual image; and a camera parameter output unit 109 that outputs the calculated camera parameter of each camera.SELECTED DRAWING: Figure 1

Description

本発明は、カメラパラメータを算出する技術に関する。   The present invention relates to a technique for calculating camera parameters.

カメラパラメータの算出、すなわちカメラの校正を行うために、3次元空間中の3次元座標と2次元画像中の画素位置を対応づける必要がある。この目的のために、従来、形状が既知のチェッカーパタンなどの校正指標を撮影し、チェッカーパタンの交点を検出することで、3次元座標と2次元画像中の画素位置を対応付けることが行われている(例えば、特許文献1、2、及び非特許文献1、2を参照)。   In order to calculate camera parameters, that is, to calibrate the camera, it is necessary to associate the three-dimensional coordinates in the three-dimensional space with the pixel positions in the two-dimensional image. For this purpose, conventionally, a three-dimensional coordinate and a pixel position in a two-dimensional image are associated with each other by photographing a calibration index such as a checker pattern with a known shape and detecting an intersection of the checker patterns. (For example, see Patent Documents 1 and 2 and Non-Patent Documents 1 and 2.)

特許4681856号公報Japanese Patent No. 4681856 特許5580164号公報Japanese Patent No. 5580164

Roger Y. Tsai. A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses. IEEE Journal of Robotics and Automation. Vol. 3, pp.323-344, 1987Roger Y. Tsai.A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses.IEEE Journal of Robotics and Automation.Vol. 3, pp.323-344, 1987 Zhengyou Zhang. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence. Vol. 22, pp.1330-1334, 2000Zhengyou Zhang.A flexible new technique for camera calibration.IEEE Transactions on Pattern Analysis and Machine Intelligence.Vol. 22, pp.1330-1334, 2000

従来のカメラ校正では、3次元構造が既知の校正指標を使用する。このため、加工精度の高い校正指標と広い撮影空間を必要とする。また、このような広角カメラの校正においては、校正指標を視野全体に配置するために、大掛かりな校正設備が必要となる。   In the conventional camera calibration, a calibration index whose three-dimensional structure is known is used. For this reason, a calibration index with high processing accuracy and a wide photographing space are required. In such a wide-angle camera calibration, a large-scale calibration facility is required in order to arrange the calibration index in the entire field of view.

本発明は、上記課題に鑑みて創案されたもので、3次元構造が既知なる校正指標を使用せずに、単眼カメラ、及び、ステレオカメラや多眼カメラを校正することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to calibrate a monocular camera, a stereo camera, and a multi-lens camera without using a calibration index with a known three-dimensional structure.

上記目的を達成するために、開示される一態様に係るカメラパラメータ算出装置は、1又は複数のカメラに共通の撮影空間に含まれる複数の3次元点の3次元座標を表す3次元点群データを取得する点群取得器と、前記3次元点群データと前記1又は複数のカメラの1又は複数の初期カメラパラメータとに基づいて、前記複数の3次元点の各々について前記1又は複数のカメラで撮影した1又は複数の画像における対応点の画像座標を算出し、前記1又は複数の画像における前記画像座標における画素値とに基づいて、前記1又は複数のカメラの前記1又は複数のカメラパラメータを算出するカメラパラメータ算出器と、前記1又は複数のカメラパラメータを出力するカメラパラメータ出力器を含み、前記1又は複数のカメラ、前記1又は複数の初期カメラパラメータ、前記1又は複数の個々の画像、前記1又は複数のカメラパラメータは1対1対応する。   In order to achieve the above object, a camera parameter calculation device according to an aspect disclosed is three-dimensional point group data representing three-dimensional coordinates of a plurality of three-dimensional points included in an imaging space common to one or a plurality of cameras. The one or more cameras for each of the plurality of three-dimensional points on the basis of the point cloud acquisition unit for acquiring the three-dimensional points, and the one or more initial camera parameters of the one or more cameras The image coordinates of corresponding points in one or a plurality of images photographed in Step 1 are calculated, and the one or more camera parameters of the one or more cameras are calculated based on the pixel values in the image coordinates in the one or more images. A camera parameter calculator that calculates the one or more camera parameters, and a camera parameter output device that outputs the one or more camera parameters. The initial camera parameters, the one or more individual images, the one or more camera parameters are one-to-one correspondence.

本開示に係るカメラ校正技術によれば、3次元座標をカメラパラメータで画像上に投影した画素座標の画素値に基づいてカメラパラメータを評価することにより、3次元構造が既知なる校正指標を使用せずに、カメラパラメータを算出すること、すなわちカメラを校正することができる。このため、3次元空間中の3次元座標と2次元画像中の画素位置の対応付けを行わずに、カメラを校正することができる。   According to the camera calibration technique according to the present disclosure, a calibration index with a known three-dimensional structure is used by evaluating camera parameters based on pixel values of pixel coordinates obtained by projecting three-dimensional coordinates onto an image with camera parameters. Without calculating the camera parameters, the camera can be calibrated. For this reason, the camera can be calibrated without associating the three-dimensional coordinates in the three-dimensional space with the pixel positions in the two-dimensional image.

実施の形態1に係るカメラパラメータ算出装置の構成の一例を示すブロック図。FIG. 3 is a block diagram illustrating an example of a configuration of a camera parameter calculation apparatus according to the first embodiment. 実施の形態1に係るカメラパラメータ算出装置の動作の一例を示すフローチャート。5 is a flowchart showing an example of the operation of the camera parameter calculation device according to the first embodiment. 実施の形態1に係るCG(コンピュータグラフィクス)画像の一例を示す図。3 is a diagram illustrating an example of a CG (computer graphics) image according to Embodiment 1. FIG. Cxの正しいカメラパラメータ近傍での評価値を示す図。The figure which shows the evaluation value in the camera parameter vicinity of the correct Cx. Cyの正しいカメラパラメータ近傍での評価値を示す図。The figure which shows the evaluation value in the camera parameter vicinity with the correct Cy. fの正しいカメラパラメータ近傍での評価値を示す図。The figure which shows the evaluation value in the right camera parameter vicinity of f. d’xの正しいカメラパラメータ近傍での評価値を示す図。The figure which shows the evaluation value in the camera parameter vicinity of d'x correct. Rxの正しいカメラパラメータ近傍での評価値を示す図。The figure which shows the evaluation value in the right camera parameter vicinity of Rx. Ryの正しいカメラパラメータ近傍での評価値を示す図。The figure which shows the evaluation value in the camera parameter vicinity with the correct Ry. Rzの正しいカメラパラメータ近傍での評価値を示す図。The figure which shows the evaluation value in the camera parameter vicinity with the correct Rz. Txの正しいカメラパラメータ近傍での評価値を示す図。The figure which shows the evaluation value in the camera parameter vicinity of the correct Tx. Tyの正しいカメラパラメータ近傍での評価値を示す図。The figure which shows the evaluation value in the camera parameter vicinity with the correct Ty. Tzの正しいカメラパラメータ近傍での評価値を示す図。The figure which shows the evaluation value in the camera parameter vicinity with the correct Tz. 実施の形態2に係るカメラパラメータ算出装置の動作の一例を示すフローチャート。9 is a flowchart showing an example of the operation of the camera parameter calculation device according to the second embodiment. 実施の形態3に係るカメラパラメータ算出処理の一例を示すフローチャート。10 is a flowchart illustrating an example of camera parameter calculation processing according to Embodiment 3. 実施の形態4に係るカメラパラメータ算出処理の一例を示すフローチャート。10 is a flowchart showing an example of camera parameter calculation processing according to Embodiment 4. 実施の形態5に係るカメラパラメータ算出処理の一例を示すフローチャート。10 is a flowchart illustrating an example of camera parameter calculation processing according to the fifth embodiment. 実施の形態6に係るカメラパラメータ算出処理の一例を示すフローチャート。18 is a flowchart showing an example of camera parameter calculation processing according to Embodiment 6. 実施の形態7に係るカメラパラメータ算出処理の一例を示すフローチャート。18 is a flowchart showing an example of camera parameter calculation processing according to Embodiment 7. 実施の形態8に係るカメラパラメータ算出処理の一例を示すフローチャート。18 is a flowchart illustrating an example of camera parameter calculation processing according to Embodiment 8. 実施の形態9に係るカメラパラメータ算出処理の一例を示すフローチャート。10 is a flowchart showing an example of camera parameter calculation processing according to Embodiment 9. 実施の形態10に係るカメラパラメータ算出装置のブロック図。FIG. 18 is a block diagram of a camera parameter calculation device according to Embodiment 10. 実施の形態10に係るカメラパラメータ算出処理の一例を示すフローチャート。18 is a flowchart showing an example of camera parameter calculation processing according to Embodiment 10. 実施の形態11に係るカメラパラメータ算出処理の一例を示すフローチャート。18 is a flowchart showing an example of camera parameter calculation processing according to Embodiment 11. 実施の形態11に係る点群選択マスク作成処理の一例を示すフローチャート。18 is a flowchart showing an example of a point group selection mask creation process according to the eleventh embodiment. 魚眼カメラによるチェッカーパタンの撮影画像。An image of a checker pattern taken with a fisheye camera.

(本開示の基礎となった知見)
本発明者は、背景技術の欄において記載したカメラ校正に関し、以下の問題が生じることを見出した。
(Knowledge that became the basis of this disclosure)
The present inventor has found that the following problems occur with respect to the camera calibration described in the background art section.

カメラ校正を行うために、カメラが存在する3次元空間中の着目点の3次元座標と、前記カメラで前記3次元空間を撮影して得た2次元画像中の前記着目点が投影される画素位置(以下、対応点と言う)を対応づける必要がある。この目的のために、従来、形状が既知のチェッカーパタンなどの校正指標を撮影し、チェッカーパタンの交点を検出することで、3次元座標と2次元画像中の画素位置を対応付けることが行われている。ここで、前記3次元空間中の3次元座標を世界座標と言い、前記2次元画像中の2次元座標を画像座標と言う。   In order to perform camera calibration, the pixel on which the three-dimensional coordinates of the point of interest in the three-dimensional space where the camera exists and the point of interest in the two-dimensional image obtained by photographing the three-dimensional space with the camera are projected It is necessary to associate positions (hereinafter referred to as corresponding points). For this purpose, conventionally, a three-dimensional coordinate and a pixel position in a two-dimensional image are associated with each other by photographing a calibration index such as a checker pattern with a known shape and detecting an intersection of the checker patterns. Yes. Here, three-dimensional coordinates in the three-dimensional space are referred to as world coordinates, and two-dimensional coordinates in the two-dimensional image are referred to as image coordinates.

例えば、図26は、箱状の被写体の内側に一定間隔でチェッカーパタンを描画した校正指標である。2次元画像中の画素位置については、図26に示すように、例えば画像の左上を原点とした画像座標系の交点位置をオペレータが読み取る。対応する3次元座標については、撮影に使用したチェッカーパタンから得る。具体的には、特定の位置に世界座標の原点とX、Y、Zの3軸を定め、着目交点が原点から何番目のチェッカーパタン交点になっているかによって3次元座標を同定できる。   For example, FIG. 26 shows a calibration index in which checker patterns are drawn at regular intervals inside a box-shaped subject. As for the pixel position in the two-dimensional image, as shown in FIG. 26, for example, the operator reads the intersection position of the image coordinate system with the upper left corner of the image as the origin. The corresponding three-dimensional coordinates are obtained from the checker pattern used for photographing. Specifically, the origin of the world coordinates and three axes of X, Y, and Z are defined at a specific position, and the three-dimensional coordinates can be identified by the number of checker pattern intersections from the origin.

カメラパラメータに基づく座標変換により、世界座標上の点を画像座標上に投影できる。言い換えれば、カメラパラメータを用いて世界座標上の点に対応するカメラ画像上の計算上の対応点を求めることができる。逆に、現に対応している世界座標(X,Y,Z)と画像座標(x,y)との組から、カメラパラメータを算出できる。ピンホールカメラを例として、カメラパラメータによる世界座標から画像座標への投影を式1に示す。   A point on the world coordinates can be projected on the image coordinates by coordinate transformation based on the camera parameters. In other words, the calculation corresponding point on the camera image corresponding to the point on the world coordinate can be obtained using the camera parameter. Conversely, camera parameters can be calculated from a set of world coordinates (X, Y, Z) and image coordinates (x, y) that currently correspond. Taking a pinhole camera as an example, the projection from the world coordinates to the image coordinates by the camera parameters is shown in Equation 1.

このピンホールカメラモデルのカメラパラメータは、画像中心のx成分とy成分をCxとCy、焦点距離をf、撮像素子の1画素のxとy方向の長さをそれぞれd’x、d’y、カメラの世界座標の基準に対する3行3列の回転行列をR(右下添え字の10の位は行を、1の位は列を表す)、カメラの世界座標の基準に対する並進のx、y、z成分をそれぞれTx、Ty、Tz、自由度のない媒介変数をhとする。また、歪曲収差等の歪みは、歪みのない画像座標(xu,yu)から、歪みのある画像座標(x,y)への変換を表すΦ(xd,yd)を用いることにより表現できる(式2)。   The camera parameters of this pinhole camera model are as follows: x and y components at the center of the image are Cx and Cy, focal length is f, and the length of one pixel of the image sensor in the x and y directions is d′ x and d′ y, respectively. , R is a 3 × 3 rotation matrix with respect to the camera world coordinate reference (where the 10's place in the lower right subscript represents a row and the 1's place represents a column), x of the translation relative to the camera world coordinate reference, Let y and z components be Tx, Ty, and Tz, respectively, and a parameter with no degree of freedom be h. Further, distortion such as distortion aberration can be expressed by using Φ (xd, yd) representing conversion from image coordinates (xu, yu) without distortion to image coordinates (x, y) with distortion (formulas). 2).

従来の複数のカメラ校正技術とその課題について、順に説明する。   A plurality of conventional camera calibration techniques and their problems will be described in order.

非特許文献1では、世界座標と画像座標の組に対し、世界座標をカメラパラメータで画像上に投影した点と、対応する画像上の点との距離(再投影誤差)の総和を最小化することによりカメラを校正する。このため、3次元空間中の3次元座標と2次元画像中の画素位置を対応づける必要がある。   In Non-Patent Document 1, for a set of world coordinates and image coordinates, the sum of distances (reprojection errors) between the points on the world coordinates projected on the image with camera parameters and the corresponding points on the image is minimized. To calibrate the camera. For this reason, it is necessary to associate the three-dimensional coordinates in the three-dimensional space with the pixel positions in the two-dimensional image.

非特許文献2では、複数の異なる奥行きに校正指標を設置し、1つのカメラでそれぞれ撮影する。これにより取得した平面上の世界座標と画像座標の組に対し、世界座標をカメラパラメータで画像上に投影した点と、対応する画像上の点との距離の二乗の総和を最小化することによりカメラを校正する。このため、3次元空間中の3次元座標と2次元画像中の画素位置を対応づける必要がある。   In Non-Patent Document 2, calibration indices are installed at a plurality of different depths, and each is photographed with one camera. By minimizing the sum of the squares of the distances between the points where the world coordinates are projected on the image with camera parameters and the corresponding points on the image, for the set of world coordinates and image coordinates on the plane obtained in this way Calibrate the camera. For this reason, it is necessary to associate the three-dimensional coordinates in the three-dimensional space with the pixel positions in the two-dimensional image.

特許文献1では、3次元座標と2次元画像中の画素値が複数フレーム間に渡って対応付けられた平面上の校正点の情報を入力する。世界座標上の平面に存在する校正点と、画像座標上の校正点が平面射影変換になるように、カメラパラメータを決定する。このため、3次元空間中の3次元座標と2次元画像中の画素位置を対応づける必要がある。   In Patent Document 1, information on a calibration point on a plane in which three-dimensional coordinates and pixel values in a two-dimensional image are associated across a plurality of frames is input. Camera parameters are determined so that a calibration point existing on a plane in world coordinates and a calibration point on image coordinates are subjected to plane projective transformation. For this reason, it is necessary to associate the three-dimensional coordinates in the three-dimensional space with the pixel positions in the two-dimensional image.

特許文献2では、3次元レーザースキャナとステレオカメラとで、2組の3次元位置を取得する。この2組の3次元位置を対応付け、ステレオカメラより測距精度が高い3次元レーザースキャナの3次元位置に基づいて、ステレオカメラを校正する。3次元点同士の対応付けをマニュアルで行うことは煩雑であり、自動化する場合は専用の校正指標が必要である。また、基線長が短い小型のステレオカメラにおいて、カメラパラメータに誤差を含む場合、基線長が長いステレオカメラに比べ、測距精度の低下が大きい。そのため、被写体距離と比べて基線長が短い場合、3次元レーザースキャナの3次元位置と誤対応する可能性がある。   In Patent Document 2, two sets of three-dimensional positions are acquired using a three-dimensional laser scanner and a stereo camera. The two sets of three-dimensional positions are associated with each other, and the stereo camera is calibrated on the basis of the three-dimensional position of the three-dimensional laser scanner having higher ranging accuracy than the stereo camera. It is complicated to manually associate the three-dimensional points with each other, and a dedicated calibration index is required for automation. In addition, in a small stereo camera with a short baseline length, when the camera parameter includes an error, the distance measurement accuracy is greatly reduced as compared with a stereo camera with a long baseline length. For this reason, when the baseline length is shorter than the subject distance, there is a possibility of erroneous correspondence with the three-dimensional position of the three-dimensional laser scanner.

車やドローン等の移動体における周辺監視や運転支援等のために、ステレオカメラが利用される。このような目的の場合、広角なカメラが好適である。これらの測距を目的とした一般的なステレオカメラは、製造時の校正が必要である。また、経年変化や衝撃による歪みに対して、カメラの再校正が必要となる。   Stereo cameras are used for surrounding monitoring and driving support in moving bodies such as cars and drones. For such purposes, a wide-angle camera is preferred. A general stereo camera for the purpose of ranging requires calibration at the time of manufacture. In addition, the camera needs to be recalibrated against aging and distortion due to impact.

通常、製造時の校正および、再校正は専用の校正設備で実施する。これらの校正では、3次元構造が既知の校正指標を使用する。このため、加工精度の高い校正指標と広い撮影空間を必要とする。また、このような広角カメラの校正においては、校正指標を視野全体に配置するために、大掛かりな校正設備が必要となる。   Usually, calibration at the time of manufacture and recalibration are performed by a dedicated calibration facility. In these calibrations, a calibration index whose three-dimensional structure is known is used. For this reason, a calibration index with high processing accuracy and a wide photographing space are required. In such a wide-angle camera calibration, a large-scale calibration facility is required in order to arrange the calibration index in the entire field of view.

本開示は、上記課題に鑑みて創案されたもので、3次元構造が既知なる校正指標を使用せずに、各種のカメラを校正することを目的とする。   The present disclosure has been devised in view of the above problems, and aims to calibrate various cameras without using a calibration index whose three-dimensional structure is known.

本開示の一態様に係るカメラパラメータ算出装置は、1又は複数のカメラに共通の撮影空間に含まれる複数の3次元点の3次元座標を表す3次元点群データを取得する点群取得器と、前記3次元点群データと前記1又は複数のカメラの1又は複数の初期カメラパラメータとに基づいて、前記複数の3次元点の各々について前記1又は複数のカメラで撮影した1又は複数の画像における対応点の画像座標を算出し、前記1又は複数の画像における前記画像座標における画素値とに基づいて、前記1又は複数のカメラの前記1又は複数のカメラパラメータを算出するカメラパラメータ算出器と、前記1又は複数のカメラパラメータを出力するカメラパラメータ出力器を含み、前記1又は複数のカメラ、前記1又は複数の初期カメラパラメータ、前記1又は複数の個々の画像、前記1又は複数のカメラパラメータは1対1対応する。   A camera parameter calculation device according to an aspect of the present disclosure includes a point cloud acquisition unit that acquires 3D point cloud data representing 3D coordinates of a plurality of 3D points included in a shooting space common to one or a plurality of cameras. One or a plurality of images taken by the one or a plurality of cameras for each of the plurality of the three-dimensional points based on the three-dimensional point cloud data and one or a plurality of initial camera parameters of the one or a plurality of cameras. A camera parameter calculator that calculates the image coordinates of the corresponding point in the image and calculates the one or more camera parameters of the one or more cameras based on pixel values in the image coordinates in the one or more images A camera parameter output device for outputting the one or more camera parameters, the one or more cameras, the one or more initial camera parameters, One or more individual images, the one or more camera parameters are one-to-one correspondence.

この構成によれば、3次元座標をカメラパラメータで画像上に投影した画素座標の画素値に基づいてカメラパラメータを評価するので、3次元構造が既知なる校正指標を使用せずに、カメラパラメータを算出すること、すなわちカメラを校正することができる。このため、3次元空間中の3次元座標と2次元画像中の画素位置の対応付けを行わずに、カメラを校正することができる。   According to this configuration, since the camera parameter is evaluated based on the pixel value of the pixel coordinate obtained by projecting the three-dimensional coordinate on the image with the camera parameter, the camera parameter can be set without using a calibration index with a known three-dimensional structure. It is possible to calculate, ie calibrate the camera. For this reason, the camera can be calibrated without associating the three-dimensional coordinates in the three-dimensional space with the pixel positions in the two-dimensional image.

また、前記画像座標の算出は、前記カメラパラメータ算出器が前記複数の3次元座標を、前記1または複数のカメラに対応する前記1または複数の初期カメラパラメータに基づいて前記1または複数のカメラに対応する画像における画像座標への変換を含んでもよい。   In addition, the calculation of the image coordinates is performed by the camera parameter calculator using the one or more cameras based on the one or more initial camera parameters corresponding to the one or more cameras. Conversion to image coordinates in the corresponding image may be included.

この構成によれば、例えば、ピンホールカメラモデルなど、カメラモデルに応じたカメラパラメータを媒介とする座標変換による定型的な手順で、前記3次元座標から前記画像座標を算出できる。   According to this configuration, for example, the image coordinates can be calculated from the three-dimensional coordinates by a routine procedure by coordinate transformation using a camera parameter corresponding to the camera model such as a pinhole camera model.

また、前記1又は複数のカメラは、2つのカメラを含み、前記カメラパラメータ算出器は、複数の差に基づいて前記カメラパラメータを算出し、前記複数の差の各々は、前記複数の3次元点のうちの1つの3次元点について前記2つカメラに含まれる第1カメラで撮影した第1画像における対応点における画素値と、前記1つの3次元点について前記2つカメラに含まれる第2カメラで撮影した第2画像における対応点における画素値の差であってもよい。前記差は、前記画素値の差の絶対値であってもよく、前記画素値の差の2乗値であってもよい。   The one or more cameras include two cameras, and the camera parameter calculator calculates the camera parameters based on a plurality of differences, and each of the plurality of differences includes the plurality of three-dimensional points. Pixel values at corresponding points in the first image taken by the first camera included in the two cameras for one of the three-dimensional points, and the second camera included in the two cameras for the one three-dimensional point It may be a difference in pixel values at corresponding points in the second image photographed in FIG. The difference may be an absolute value of the pixel value difference or a square value of the pixel value difference.

この構成によれば、前記カメラパラメータが正しければ、前記個々の画像における対応点には、1つの3次元点が正しく投影されるので、前記複数の差はいずれも0に近づく。つまり、前記複数の差の累計が大きいことは、前記個々の画像における対応点の誤差が大きい、つまり、前記カメラパラメータの誤差が大きいことを意味する。そのため、例えば、前記差の累計で定義される評価関数を導入し、勾配降下法などの、周知の手順で、当該評価関数を小さくする方向に前記カメラパラメータを更新する。これにより、前記カメラパラメータの誤差が縮小し、カメラ校正を実施できる。   According to this configuration, if the camera parameter is correct, one three-dimensional point is correctly projected on the corresponding point in the individual image, and thus the plurality of differences are all close to zero. That is, a large cumulative total of the plurality of differences means that the error of corresponding points in the individual images is large, that is, the error of the camera parameter is large. Therefore, for example, an evaluation function defined by the accumulated difference is introduced, and the camera parameters are updated in a direction of decreasing the evaluation function by a known procedure such as a gradient descent method. As a result, the camera parameter error is reduced, and camera calibration can be performed.

また、前記1又は複数のカメラは、2以上のカメラであり、前記カメラパラメータ算出器は、複数の差に基づいて前記カメラパラメータを算出し、前記複数の差の各々は、前記複数の3次元点のうちの1つの3次元点について前記2以上のカメラで撮影した個々の画像における対応点での画素値のうち1つの画素値と当該画素値の平均値との差であってもよい。前記差は、前記画素値の差の絶対値であってもよく、前記画素値の差の2乗値であってもよい。   Further, the one or more cameras are two or more cameras, and the camera parameter calculator calculates the camera parameters based on a plurality of differences, and each of the plurality of differences is the plurality of three-dimensional It may be a difference between one pixel value among pixel values at corresponding points in individual images taken by the two or more cameras with respect to one three-dimensional point among the points and an average value of the pixel values. The difference may be an absolute value of the pixel value difference or a square value of the pixel value difference.

この構成によれば、前記カメラパラメータが正しければ、前記個々の画像における対応点には、1つの3次元点が正しく投影されるので、前記複数の差はいずれも0に近づく。つまり、前記複数の差の累計が大きいことは、前記個々の画像における対応点の誤差が大きい、つまり、前記カメラパラメータの誤差が大きいことを意味する。そのため、例えば、前記差の累計で定義される評価関数を導入し、勾配降下法などの、周知の手順で、当該評価関数を小さくする方向に前記カメラパラメータを更新する。これにより、前記カメラパラメータの誤差が縮小し、カメラ校正を実施できる。   According to this configuration, if the camera parameter is correct, one three-dimensional point is correctly projected on the corresponding point in the individual image, and thus the plurality of differences are all close to zero. That is, a large cumulative total of the plurality of differences means that the error of corresponding points in the individual images is large, that is, the error of the camera parameter is large. Therefore, for example, an evaluation function defined by the accumulated difference is introduced, and the camera parameters are updated in a direction of decreasing the evaluation function by a known procedure such as a gradient descent method. As a result, the camera parameter error is reduced, and camera calibration can be performed.

また、前記1又は複数のカメラは、2以上のカメラであり、前記カメラパラメータ算出器は、同じ3次元点に対応する前記個々の画像における対応点の近傍画素における画素値パターンの類似度に基づいて前記カメラパラメータを算出してもよい。具体的に、前記カメラパラメータ算出器は、複数の正規化相互相関に基づいてカメラパラメータを算出し、前記複数の正規化相互相関の各々は、前記複数の3次元点のうちの1つの3次元点について前記2以上のカメラで撮影した個々の画像における対応点の近傍に含まれる画素値の相関であってもよい。   Further, the one or more cameras are two or more cameras, and the camera parameter calculator is based on the similarity of pixel value patterns in pixels near the corresponding point in the individual images corresponding to the same three-dimensional point. The camera parameters may be calculated. Specifically, the camera parameter calculator calculates camera parameters based on a plurality of normalized cross-correlations, and each of the plurality of normalized cross-correlations is a three-dimensional one of the plurality of three-dimensional points. It may be a correlation between pixel values included in the vicinity of corresponding points in individual images taken by the two or more cameras.

この構成によれば、前記個々の画像にゲイン差(例えば、露出の不一致による全体的な輝度差)がある場合でも、画素値パターンの類似に基づいて、当該ゲイン差を排除して、対応点の誤差の大きさを知ることができる。   According to this configuration, even when there is a gain difference (for example, an overall luminance difference due to a mismatch in exposure) in the individual images, the gain difference is eliminated based on the similarity of the pixel value pattern, and the corresponding points You can know the magnitude of the error.

また、前記カメラパラメータ算出器は、前記複数の3次元点のうち、少なくとも何れか1つの画像において離間距離が閾値以下である複数の対応点が求まった3次元点を、前記カメラパラメータの算出から除外してもよい。   Further, the camera parameter calculator calculates, from the calculation of the camera parameter, a three-dimensional point in which a plurality of corresponding points whose separation distances are equal to or smaller than a threshold in at least one of the plurality of three-dimensional points is obtained. It may be excluded.

この構成において、離間距離が閾値以下である複数の対応点は、カメラから略一方向に延びる領域に存在する複数の3次元点の対応点である。そのため、後方の3次元物体が前方の3次元物体によって遮蔽されている可能性がある。そこで、前記カメラパラメータの算出に際し、離間距離が閾値以下である複数の対応点が求まった3次元点を、前記カメラパラメータの算出から除外する。これにより、本来とは異なる画素値を表している可能性がある対応点の画素値を評価値の算出から除外することができ、遮蔽による影響を排除して評価値を算出できる。   In this configuration, the plurality of corresponding points whose separation distances are equal to or smaller than the threshold value are corresponding points of a plurality of three-dimensional points existing in a region extending in approximately one direction from the camera. Therefore, there is a possibility that the rear three-dimensional object is shielded by the front three-dimensional object. Therefore, in the calculation of the camera parameters, the three-dimensional points for which a plurality of corresponding points whose separation distances are equal to or smaller than the threshold are obtained are excluded from the calculation of the camera parameters. Thereby, the pixel value of the corresponding point that may represent a pixel value different from the original value can be excluded from the calculation of the evaluation value, and the evaluation value can be calculated without the influence of the shielding.

また、前記カメラパラメータ算出器は、前記複数の3次元点のうち、前記1又は複数の画像のうちの少なくとも1つの画像の対応点における輝度勾配が閾値より小さい1又は複数の3次元点を除いた3次元点から前記カメラパラメータを算出してもよい。   Further, the camera parameter calculator excludes one or more three-dimensional points having a luminance gradient at a corresponding point of at least one image of the one or more images smaller than a threshold value from the plurality of three-dimensional points. The camera parameters may be calculated from the three-dimensional points.

この構成によれば、カメラ画像において輝度勾配の小さい領域に位置する3次元点を除いて、カメラパラメータを算出することにより、評価値への寄与が小さい3次元点による計算を省き、計算量を低減することができる。   According to this configuration, by calculating the camera parameters by excluding the three-dimensional point located in the region where the luminance gradient is small in the camera image, the calculation by the three-dimensional point having a small contribution to the evaluation value is omitted, and the calculation amount is reduced. Can be reduced.

前記3次元点群データは、所定の測距視点から出射された測定光の反射に基づいて、前記複数の3次元点の3次元位置を表し、前記カメラパラメータ算出器は、前記複数の3次元点に含まれる2つの3次元点であって、当該2つの3次元点間の距離が閾値より大きく、かつ当該2つの3次元点への前記測定光の方向ベクトルのなす角が閾値より小さい2つの3次元点を、前記カメラパラメータの算出から除外してもよい。   The three-dimensional point cloud data represents a three-dimensional position of the plurality of three-dimensional points based on reflection of measurement light emitted from a predetermined distance measuring viewpoint, and the camera parameter calculator Two three-dimensional points included in the point, the distance between the two three-dimensional points being larger than a threshold, and the angle formed by the direction vector of the measurement light to the two three-dimensional points being smaller than the threshold 2 Two three-dimensional points may be excluded from the calculation of the camera parameters.

この構成において、前記2つの3次元点は、前記3次元点群データの物体の境界や表面凹凸の大きい領域に位置するギャップ領域であり、画像の対応点での画素値にもギャップが生じ易い。そのような対応点の画素値を評価値の算出に用いると、対応点の誤差に対して評価値が鋭敏に変化し過ぎることで、カメラパラメータの収束性を悪化させる懸念がある。このような問題に対し、上記の構成では、物体の境界や表面凹凸の大きい領域を避け、適した領域の画素値を用いて評価値を算出できる。   In this configuration, the two three-dimensional points are gap regions located in the boundary of the object of the three-dimensional point cloud data or a region having a large surface unevenness, and a gap is also likely to occur in the pixel values at the corresponding points of the image. . When the pixel value of such a corresponding point is used for calculation of the evaluation value, there is a concern that the evaluation value changes too sharply with respect to the error of the corresponding point, thereby degrading the convergence of the camera parameter. With respect to such a problem, in the above configuration, an evaluation value can be calculated using pixel values in a suitable region while avoiding a region having a large object boundary or surface unevenness.

また、前記3次元点群データは、所定の測距視点から出射された測定光の反射に基づいて、前記複数の3次元点の3次元位置と各3次元点からの当該測定光の戻り光の強度値とを表し、前記カメラパラメータ算出器は、前記複数の3次元点のうち、前記測距視点から所定近傍内に見えてかつ前記強度の差が第1の閾値と第2の閾値とで決まる範囲内にある複数の3次元点のみを用いて前記カメラパラメータを算出してもよい。   The three-dimensional point group data includes the three-dimensional positions of the plurality of three-dimensional points and the return light of the measurement light from each three-dimensional point based on the reflection of the measurement light emitted from a predetermined distance measuring viewpoint. The camera parameter calculator, of the plurality of three-dimensional points, can be seen within a predetermined vicinity from the distance measurement viewpoint, and the difference in intensity is a first threshold value and a second threshold value. The camera parameter may be calculated using only a plurality of three-dimensional points within the range determined by.

この構成によれば、前記測定光の強度、つまり物体の反射率が滑らかに変化する範囲内にある複数の3次元点のみを用いて前記カメラパラメータを算出できる。例えば、物体の境界などで物体の反射率にギャップがある領域では、画像の対応点での画素値にもギャップが生じ易い。そのような対応点の画素値を評価値の算出に用いると、対応点の誤差に対して評価値が鋭敏に変化し過ぎることで、カメラパラメータの収束性を悪化させる懸念がある。このような問題に対し、上記の構成では、物体の反射率に過度の差異がある領域を避け、適した領域の画素値を用いて評価値を算出できる。また、例えば、単調な連続面など、反射率の変化がなさ過ぎる領域も、カメラパラメータの収束を困難にするため、評価値の算出から除外される。   According to this configuration, the camera parameters can be calculated using only a plurality of three-dimensional points within a range in which the intensity of the measurement light, that is, the reflectance of the object changes smoothly. For example, in a region where there is a gap in the reflectance of the object such as at the boundary of the object, a gap is also likely to occur in the pixel value at the corresponding point of the image. When the pixel value of such a corresponding point is used for calculation of the evaluation value, there is a concern that the evaluation value changes too sharply with respect to the error of the corresponding point, thereby degrading the convergence of the camera parameter. With respect to such a problem, in the above configuration, an evaluation value can be calculated using a pixel value in a suitable region while avoiding a region where the reflectance of the object is excessively different. In addition, for example, a region where the reflectance does not change excessively, such as a monotonous continuous surface, is excluded from the calculation of the evaluation value in order to make it difficult to converge the camera parameters.

また、前記3次元点群データは、3次元レーザースキャナによって前記複数の3次元点を測距して得たデータであってもよい。   The three-dimensional point group data may be data obtained by measuring the plurality of three-dimensional points with a three-dimensional laser scanner.

この構成によれば、前記3次元点群データを、一般的に利用が容易な3次元レーザースキャナから取得することができる。   According to this configuration, the three-dimensional point cloud data can be acquired from a three-dimensional laser scanner that is generally easy to use.

また、前記3次元点群データは、所定の測距視点から出射された測定光の反射と当該測距視点からのカラー撮影とに基づいて、前記複数の3次元点の3次元位置と各3次元点にある物体の色とを表し、前記カメラパラメータ算出器は、前記複数の3次元点のうち、前記測距視点から所定近傍内に見えてかつ前記物体の色の差が第1の閾値と第2の閾値とで決まる範囲内にある複数の3次元点のみを用いて前記カメラパラメータを算出してもよい。   The three-dimensional point cloud data includes three-dimensional positions of the plurality of three-dimensional points and three for each of the three-dimensional points based on reflection of measurement light emitted from a predetermined distance measurement viewpoint and color photographing from the distance measurement viewpoint. Representing the color of an object at a three-dimensional point, and the camera parameter calculator is located within a predetermined vicinity from the distance measurement viewpoint among the plurality of three-dimensional points, and the color difference of the object is a first threshold value. And the camera parameter may be calculated using only a plurality of three-dimensional points within a range determined by the second threshold.

この構成によれば、物体の色が滑らかに変化する範囲内にある複数の3次元点のみを用いて前記カメラパラメータを算出できる。例えば、物体の境界などで物体の色にギャップがある領域では、画像の対応点での色にもギャップが生じる。そのような対応点の画素値を評価値の算出に用いると、対応点の誤差に対して評価値が鋭敏に変化し過ぎることで、カメラパラメータの収束性を悪化させる懸念がある。このような問題に対し、上記の構成では、物体の色に過度の差異がある領域を避け、適した領域の画素値を用いて評価値を算出できる。また、例えば、単調な連続面など、色の変化がなさ過ぎる領域も、カメラパラメータの収束を困難にするため、評価値の算出から除外される。   According to this configuration, the camera parameters can be calculated using only a plurality of three-dimensional points within a range where the color of the object changes smoothly. For example, in a region where there is a gap in the color of the object at the boundary of the object, a gap also occurs in the color at the corresponding point of the image. When the pixel value of such a corresponding point is used for calculation of the evaluation value, there is a concern that the evaluation value changes too sharply with respect to the error of the corresponding point, thereby degrading the convergence of the camera parameter. With respect to such a problem, in the above configuration, an evaluation value can be calculated using a pixel value in a suitable region while avoiding a region where there is an excessive difference in the color of the object. Further, for example, a region where the color change is excessive, such as a monotonous continuous surface, is excluded from the calculation of the evaluation value in order to make it difficult to converge the camera parameters.

また、前記3次元点群データは、所定の測距視点から出射された測定光の反射と当該測距視点からのカラー撮影とに基づいて、前記複数の3次元点の3次元位置と各3次元点にある物体の色とを表し、前記1又は複数のカメラの各々はカラーカメラであり、前記カメラパラメータ算出器は、複数の差に基づいて前記1又は複数のカメラのうちの1つのカメラのカメラパラメータを算出し、前記複数の差の各々は、前記複数の3次元点のうちの1つの3次元点について前記1つのカメラで撮影した画像における対応点での画素値によって表される色と、前記3次元点群データによって表される前記1つの3次元点にある物体の色との差であってもよい。   The three-dimensional point cloud data includes three-dimensional positions of the plurality of three-dimensional points and three for each of the three-dimensional points based on reflection of measurement light emitted from a predetermined distance measurement viewpoint and color photographing from the distance measurement viewpoint. Each of the one or more cameras is a color camera, and the camera parameter calculator is one camera of the one or more cameras based on a plurality of differences. Each of the plurality of differences is a color represented by a pixel value at a corresponding point in an image photographed by the one camera for one of the plurality of three-dimensional points. And the difference between the color of the object at the one three-dimensional point represented by the three-dimensional point group data.

この構成によれば、前記3次元点群データによって表される物体の色の情報を用いることにより、単一のカメラを校正し、また、複数のカメラを1台ずつ校正することができる。   According to this configuration, it is possible to calibrate a single camera and to calibrate a plurality of cameras one by one by using the color information of the object represented by the three-dimensional point cloud data.

また、前記点群取得器は、測距空間をカラー撮影するカラーカメラ付きの3次元レーザースキャナから、前記3次元点群データを取得してもよい。   Further, the point group acquisition unit may acquire the three-dimensional point group data from a three-dimensional laser scanner with a color camera that performs color imaging of the distance measurement space.

この構成によれば、前記3次元点群データを、3次元レーザースキャナから、色情報付きで取得することができる。   According to this configuration, the three-dimensional point cloud data can be acquired with color information from the three-dimensional laser scanner.

なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。   These general or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM. The system, method, integrated circuit, computer program And any combination of recording media.

(実施の形態1)
以下、本発明の実施の形態を、図面を参照しながら説明する。本発明は、1つ以上のカメラにおいて実施可能であるが、説明を簡単にするために、ここでは、左カメラと右カメラからなるステレオカメラの例を用いて説明する。
(Embodiment 1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Although the present invention can be implemented in one or more cameras, for the sake of simplicity, the present invention will be described using an example of a stereo camera including a left camera and a right camera.

図1は、実施の形態1のカメラパラメータ算出装置の機能的な構成の一例を示すブロック図である。図1において、カメラパラメータ算出装置101は、フレームメモリ104、初期カメラパラメータ格納器105、点群取得器107、カメラパラメータ算出器108、及びカメラパラメータ出力器109を含む。カメラパラメータ算出装置101は、3次元レーザースキャナ106を用いて、左カメラ102及び右カメラ103の校正を行う。なお、本明細書においてカメラを校正するとは、実機のカメラのカメラパラメータを求めることを意味する。従って、本明細書のカメラパラメータ算出装置は、カメラ校正装置と同義である。   FIG. 1 is a block diagram illustrating an example of a functional configuration of the camera parameter calculation apparatus according to the first embodiment. In FIG. 1, the camera parameter calculation apparatus 101 includes a frame memory 104, an initial camera parameter storage 105, a point group acquisition unit 107, a camera parameter calculation unit 108, and a camera parameter output unit 109. The camera parameter calculation apparatus 101 uses the three-dimensional laser scanner 106 to calibrate the left camera 102 and the right camera 103. In this specification, to calibrate the camera means to obtain the camera parameters of the actual camera. Therefore, the camera parameter calculation device of this specification is synonymous with the camera calibration device.

図1に示される各構成要素の動作について、以下に説明する。   The operation of each component shown in FIG. 1 will be described below.

左カメラ102は撮影空間である第1空間を撮影し、撮影した第1画像をフレームメモリ104に送付する。   The left camera 102 captures a first space, which is a capturing space, and sends the captured first image to the frame memory 104.

右カメラ103は撮影空間である第2空間を撮影し、撮影した第2画像をフレームメモリ104に送付する。第1空間と第2空間は共通の空間である第3空間を含む。第3空間は1以上の物体かつ/または1以上の生物を含んでもよい。カメラ位置による被写体表面の見え方(ある点における色)が変わらない観点で、ランバート反射により近似できる被写体が好適である。   The right camera 103 captures a second space, which is a capturing space, and sends the captured second image to the frame memory 104. The first space and the second space include a third space that is a common space. The third space may include one or more objects and / or one or more organisms. A subject that can be approximated by Lambertian reflection is preferable from the viewpoint that the appearance of the subject surface (color at a certain point) does not change depending on the camera position.

フレームメモリ104は第1画像及び第2画像を受け取り、格納する。   The frame memory 104 receives and stores the first image and the second image.

初期カメラパラメータ格納器105は、初期カメラパラメータを予め保持する。初期カメラパラメータは、例えば(式1)に含まれるカメラパラメータであって、ステレオカメラを設計する際に設定かつ/または使用した設計値であってもよい。あるいは、前述したTsai(非特許文献1)やZhang(非特許文献2)の方式等に従い、校正指標を使用して、対応関係にある世界座標と画像座標との組をマニュアル操作で必要数取得することにより、粗い精度でカメラパラメータを推定してもよい。ここで、Tsaiの方式では、最低13の世界座標と画像座標の組が必要である。また、Zhangの方式では、最低3回の撮影と最低13の世界座標と画像座標の組が必要である。   The initial camera parameter storage 105 holds initial camera parameters in advance. The initial camera parameter is, for example, a camera parameter included in (Equation 1), and may be a design value set and / or used when designing a stereo camera. Or, according to the method of Tsai (Non-Patent Document 1) or Zhang (Non-Patent Document 2) described above, the necessary number of pairs of world coordinates and image coordinates that are in a correspondence relationship is manually acquired using a calibration index. By doing so, the camera parameters may be estimated with coarse accuracy. Here, the Tsai method requires at least 13 sets of world coordinates and image coordinates. The Zhang method requires at least three shootings and at least thirteen world coordinate and image coordinate pairs.

3次元レーザースキャナ106はレーザー光を上述した第3空間を含む空間に走査し、第3空間を含む空間に含まれる複数の点、すなわち、複数の3次元点、のそれぞれの3次元位置を測定する。この測定したN点の3次元位置を世界座標(X,Y,Z)で表すデータを3次元点群データと呼ぶ。3次元レーザースキャナ106は点群取得器107に送付する。   The three-dimensional laser scanner 106 scans the laser beam in the space including the third space described above, and measures each three-dimensional position of a plurality of points included in the space including the third space, that is, a plurality of three-dimensional points. To do. Data representing the measured three-dimensional position of the N point in world coordinates (X, Y, Z) is referred to as three-dimensional point group data. The three-dimensional laser scanner 106 sends it to the point cloud acquisition unit 107.

点群取得器107は、3次元レーザースキャナ106から、3次元点群データを受け取る。   The point cloud acquisition unit 107 receives 3D point cloud data from the 3D laser scanner 106.

カメラパラメータ算出器108は、前記フレームメモリ104から第1画像及び第2画像、初期カメラパラメータ格納器105から初期カメラパラメータ、点群取得器107から3次元点群をそれぞれ受け取り、図2で示す手順でカメラパラメータを求める。   The camera parameter calculator 108 receives the first image and the second image from the frame memory 104, the initial camera parameter from the initial camera parameter storage 105, and the three-dimensional point group from the point group acquisition unit 107, respectively. The procedure shown in FIG. Obtain the camera parameters.

カメラパラメータ出力器109は、カメラパラメータ算出器108で算出されたカメラパラメータを出力する。   The camera parameter output unit 109 outputs the camera parameter calculated by the camera parameter calculator 108.

カメラパラメータ算出装置101は、例えば、プロセッサ、メモリ、インタフェース回路などからなるコンピュータ装置(不図示)によって実現され、カメラパラメータ算出装置101の構成要素は、プロセッサがメモリにあらかじめ記録されたプログラムを実行することによって達成されるソフトウェア機能であってもよい。また、カメラパラメータ算出装置101は、上述した動作を行う専用のハードウェア回路(不図示)によって実現されてもよい。   The camera parameter calculation device 101 is realized by, for example, a computer device (not shown) including a processor, a memory, an interface circuit, and the like, and the constituent elements of the camera parameter calculation device 101 execute a program recorded in the memory in advance. It may be a software function achieved by this. The camera parameter calculation device 101 may be realized by a dedicated hardware circuit (not shown) that performs the above-described operation.

また、カメラパラメータ算出装置101は、必ずしも単一のコンピュータ装置で実現される必要はなく、端末装置とサーバとを含む分散処理システム(不図示)によって実現されてもよい。一例として、フレームメモリ104、初期カメラパラメータ格納器105、点群取得器107、カメラパラメータ出力器109を、端末装置に設け、カメラパラメータ算出器108の一部又は全部の機能をサーバで実行してもよい。この場合、構成要素間でのデータの受け渡しは、端末装置とサーバとに接続された通信回線を介して行われる。   Further, the camera parameter calculation device 101 is not necessarily realized by a single computer device, and may be realized by a distributed processing system (not shown) including a terminal device and a server. As an example, the frame memory 104, the initial camera parameter storage 105, the point cloud acquisition unit 107, and the camera parameter output unit 109 are provided in the terminal device, and a part or all of the functions of the camera parameter calculation unit 108 are executed by the server. Also good. In this case, data exchange between the components is performed via a communication line connected to the terminal device and the server.

図2は、カメラパラメータ算出処理S300の一例を示すフローチャートである。   FIG. 2 is a flowchart illustrating an example of the camera parameter calculation process S300.

カメラパラメータ算出器108はフレームメモリ104に格納された左カメラ102が撮影した第1画像、及びフレームメモリ104に格納された右カメラ103が撮影した第2画像を受け取る(S301)。以下では、カメラで撮影され、当該カメラから受け取った画像を、撮影画像またはカメラ画像とも言う。   The camera parameter calculator 108 receives the first image captured by the left camera 102 stored in the frame memory 104 and the second image captured by the right camera 103 stored in the frame memory 104 (S301). In the following, an image captured by a camera and received from the camera is also referred to as a captured image or a camera image.

カメラパラメータ算出器108は、左カメラ102及び右カメラ103のそれぞれの初期カメラパラメータを初期カメラパラメータ格納器105から取得する(S302)。   The camera parameter calculator 108 acquires initial camera parameters of the left camera 102 and the right camera 103 from the initial camera parameter storage 105 (S302).

点群入力器107は3次元レーザースキャナ106が測定した3次元点群データを受け取り、点群入力器107は3次元点群データをカメラパラメータ算出器108に送付し、カメラパラメータ算出器108は3次元点群データを受け取る(S303)。   The point cloud input unit 107 receives the 3D point cloud data measured by the 3D laser scanner 106, the point cloud input unit 107 sends the 3D point cloud data to the camera parameter calculator 108, and the camera parameter calculator 108 The dimension point cloud data is received (S303).

カメラパラメータ算出器108は世界座標(X,Y,Z)から式1と式2で画像座標(xLk,yLk)と(xRk,yRk)を算出する。前記(xLk,yLk)は、k番目の3次元点に対応する第1画像に含まれるk番目の対応点の画像座標であり、前記(xRk,yRk)は、k番目の3次元点に対応する第2画像に含まれるk番目の対応点の画像座標である。 The camera parameter calculator 108 calculates the image coordinates (x Lk , y Lk ) and (x Rk , y Rk ) from the world coordinates (X, Y, Z) according to Equations 1 and 2. The (x Lk , y Lk ) is the image coordinates of the k-th corresponding point included in the first image corresponding to the k-th three-dimensional point, and the (x Rk , y Rk ) is the k-th 3 The image coordinates of the kth corresponding point included in the second image corresponding to the dimension point.

3次元レーザースキャナ106で得た複数の3次元点に含まれるk番目の3次元点に対応する第1画像に含まれる点、すなわちk番目の3次元点に対応する第1画像に含まれるk番目の対応点での画素値と、k番目の3次元点に対応する第2画像に含まれる点、すなわちk番目の3次元点に対応する第2画像に含まれるk番目の対応点での画素値の差の絶対値和で定義される評価関数J(式3)を算出する(S304)。   Points included in the first image corresponding to the kth three-dimensional point included in the plurality of three-dimensional points obtained by the three-dimensional laser scanner 106, that is, k included in the first image corresponding to the kth three-dimensional point. The pixel value at the th corresponding point and the point included in the second image corresponding to the k th three dimensional point, that is, the k th corresponding point included in the second image corresponding to the k th three dimensional point. An evaluation function J (formula 3) defined by the sum of absolute values of pixel value differences is calculated (S304).

ここで、Nは画素値を比較する3次元点の数であり、3次元レーザースキャナで取得した点の全て、あるいは、一部分を選択する。「一部分を選択する」とは、例えば、評価値Jの計算に影響しない、画像上の画素値が連続して同じ値を有する領域を除くことを意味してもよい。   Here, N is the number of three-dimensional points with which pixel values are compared, and all or some of the points acquired by the three-dimensional laser scanner are selected. “Selecting a portion” may mean, for example, excluding an area that does not affect the calculation of the evaluation value J and in which pixel values on the image continuously have the same value.

(x,y)は、前記第1画像の画像座標(x,y)における画素値であり、I(x,y)は、前記第2画像の画像座標(x,y)における画素値である。前記第1画像及び前記第2画像がモノクロ画像の場合、画素値は輝度値であり、前記第1画像及び前記第2画像がカラー画像の場合、画素値は色ベクトルである。なお、色ベクトルの差の絶対値は、色ベクトルの距離を意味する。色収差の影響を除くために、色ベクトルを構成する色成分のうち特定の1色の成分のみ使用してもよい。 I L (x, y) is a pixel value at the image coordinates (x, y) of the first image, and I R (x, y) is a pixel at the image coordinates (x, y) of the second image. Value. When the first image and the second image are monochrome images, the pixel value is a luminance value, and when the first image and the second image are color images, the pixel value is a color vector. The absolute value of the color vector difference means the distance between the color vectors. In order to eliminate the influence of chromatic aberration, only a specific color component of the color components constituting the color vector may be used.

3次元点群データに含まれる複数の3次元点の各々を、左カメラ102のカメラパラメータを用いて前記第1画像に投影し、右カメラ103のカメラパラメータを用いて前記第2画像に投影する。   Each of a plurality of three-dimensional points included in the three-dimensional point cloud data is projected onto the first image using camera parameters of the left camera 102, and is projected onto the second image using camera parameters of the right camera 103. .

ここで、投影するとは、3次元点に対応するカメラ画像上の計算上の対応点を求めることであり、具体的には、3次元点群データに含まれる複数の3次元点の各々の世界座標に対し、左カメラ102のカメラパラメータに基づく座標変換を行って前記第1画像上の画像座標を算出し、右カメラ103のカメラパラメータに基づく座標変換を行って前記第2画像上の画像座標を算出することを言う。座標変換には、例えば、式1で説明した行列計算に基づく投影を利用してもよい。画像座標は、サブピクセル精度で算出してもよく、このサブピクセル精度の画像座標に対し、画素値はバイリニアやバイキュービック等の補間計算から小数精度で算出してもよい。   Here, projecting means obtaining a corresponding point on the camera image corresponding to the three-dimensional point, specifically, the world of each of a plurality of three-dimensional points included in the three-dimensional point group data. A coordinate transformation based on the camera parameters of the left camera 102 is performed on the coordinates to calculate image coordinates on the first image, and a coordinate transformation based on the camera parameters of the right camera 103 is performed to obtain image coordinates on the second image. Say to calculate. For the coordinate conversion, for example, projection based on the matrix calculation described in Expression 1 may be used. The image coordinates may be calculated with subpixel accuracy, and the pixel values may be calculated with decimal accuracy from bilinear or bicubic interpolation for the image coordinates with subpixel accuracy.

また、評価値Jの計算におけるN点の加算に対し、画素値の差の絶対値に重み付けしてもよい。例えば、被写体の色が連続的に変化する点群の重みを重く、あるいは、物体の表面の凹凸が大きい点群の重みを軽くする。これらの重み付けは、カメラパラメータの連続的な変化に対し、評価値Jの変化を滑らかにし、評価値Jを最小化し易くする。   Further, the absolute value of the difference between the pixel values may be weighted with respect to the addition of N points in the calculation of the evaluation value J. For example, the weight of a point group in which the subject color continuously changes is increased, or the weight of a point group with a large unevenness on the surface of the object is decreased. These weightings smooth the change of the evaluation value J with respect to the continuous change of the camera parameter, and make it easy to minimize the evaluation value J.

カメラパラメータの探索範囲内の評価値Jの算出を完了するか、評価値Jが閾値より小さい場合に反復計算を終了する(S305で終了)。一方、反復計算が継続となった場合(S305で継続)、カメラパラメータを探索範囲で変更する(S306)。前記カメラパラメータの探索範囲として、各カメラパラメータが取り得る範囲をあらかじめ設定しておく。例えば、画像中心位置Cx,Cy、焦点距離f、撮像素子長さd’、d’は、それぞれ設計値の±5%とすればよい。また、カメラ位置の回転成分、R、R、R、および、並進移動成分はT、T、Tは、3次元レーザースキャナ106とカメラ102、103との位置関係をスケール等で計測し、角度については計測値の±10度、並進移動については±0.2mとすればよい。 When the calculation of the evaluation value J within the camera parameter search range is completed, or when the evaluation value J is smaller than the threshold value, the iterative calculation ends (ends in S305). On the other hand, when the iterative calculation is continued (continue in S305), the camera parameter is changed within the search range (S306). As the camera parameter search range, a range that each camera parameter can take is set in advance. For example, the image center positions Cx and Cy, the focal length f, and the imaging element lengths d ′ x and d ′ y may be set to ± 5% of the design values, respectively. Further, the rotational component of the camera position, R x , R y , R z , and the translational movement component are T x , T y , T z , and the positional relationship between the three-dimensional laser scanner 106 and the cameras 102, 103 is scaled, etc. The angle may be ± 10 degrees of the measured value, and the translational movement may be ± 0.2 m.

なお、ステップS304〜ステップS306の反復処理の計算時間を削減するために、前記範囲は初期カメラパラメータ近傍に限定しても良く、評価関数の勾配を用いて最急降下法などを適用してもよい。   In order to reduce the calculation time of the iterative processing in steps S304 to S306, the range may be limited to the vicinity of the initial camera parameter, or the steepest descent method may be applied using the gradient of the evaluation function. .

最後に、上述したステップS304〜ステップ306の反復計算によって算出された、カメラパラメータと評価値の組から、評価値が最小のカメラパラメータを選択し、選択したカメラパラメータを出力する(S307)。   Finally, the camera parameter having the smallest evaluation value is selected from the set of the camera parameter and the evaluation value calculated by the iterative calculation in steps S304 to S306 described above, and the selected camera parameter is output (S307).

このような手順に従ってカメラの校正が可能であることを順に説明する。カメラを校正するための評価関数は、正しいカメラパラメータで評価値が最小であることが必要である。評価関数のこの性質によって、評価値を最小化することにより、正解のカメラパラメータを探索することが可能になる。   It will be sequentially described that the camera can be calibrated according to such a procedure. The evaluation function for calibrating the camera needs to have the minimum evaluation value with the correct camera parameters. This property of the evaluation function makes it possible to search for the correct camera parameter by minimizing the evaluation value.

全て正しいカメラパラメータから、1つのカメラパラメータのみ値を変える。この時、評価値Jが全てのカメラパラメータで、正しいカメラパラメータを極小とする下に凸な関数形であるならば、評価関数Jは全カメラパラメータに対して下に凸となる。これは、1つのカメラパラメータλのみ値を変え、極値を算出することは偏微分∂J/∂λに相当し、ある点において全ての偏微分が0となることは、関数全体の全微分dJ/dΩが0であることに相当する(式4)。   Change the value of only one camera parameter from all correct camera parameters. At this time, if the evaluation value J is all the camera parameters and is a downward convex function form with the correct camera parameter being the minimum, the evaluation function J is convex downward with respect to all the camera parameters. This is because changing the value of only one camera parameter λ and calculating the extreme value is equivalent to partial differentiation ∂J / ∂λ, and that all partial differentiations are zero at a certain point. This corresponds to dJ / dΩ being 0 (Formula 4).

ここで、mはカメラパラメータの個数、λ〜λは焦点距離等の個々のカメラパラメータ、Ωは個々のカメラパラメータをまとめたカメラパラメータ全体を表す。 Here, m represents the number of camera parameters, λ 1 to λ m represent individual camera parameters such as a focal length, and Ω represents an entire camera parameter obtained by collecting the individual camera parameters.

カメラパラメータはカメラモデルにより異なるため、非特許文献1で示すTsaiの方式で使用される10個のカメラパラメータを例に説明する。このピンホールカメラモデルのカメラパラメータは、画像中心のx成分とy成分をCとC、焦点距離をf、撮像素子1個のx方向の長さをd’x、カメラの世界座標の基準に対する回転のx、y、z成分をそれぞれR、R、R、カメラの世界座標の基準に対する並進のx、y、z成分をそれぞれT、T、Tとする。この時、評価値Jはこれらの10個のカメラパラメータを変数とする関数となる。 Since the camera parameters differ depending on the camera model, description will be made by taking ten camera parameters used in the Tsai method shown in Non-Patent Document 1 as an example. The camera parameters of this pinhole camera model are as follows: x and y components at the center of the image are C x and C y , the focal length is f, the length of one image sensor in the x direction is d′ x, and the world coordinate of the camera is The x, y, and z components of rotation relative to the reference are R x , R y , and R z , respectively, and the x, y, and z components of translation relative to the camera world coordinate reference are T x , T y , and T z , respectively. At this time, the evaluation value J is a function having these 10 camera parameters as variables.

本方式は実際の空間を撮影して実施することも、CGデータを用いて実施することもできる。以下では、一例として、CGデータを用いて行うカメラ校正について説明する。   This method can be performed by photographing an actual space or by using CG data. Hereinafter, camera calibration performed using CG data will be described as an example.

図3で示す駐車場を模したCGを作成する。右カメラは左カメラに対し、水平に15mm離し、光軸を左カメラと平行とする。また、カメラは魚眼カメラであるとする。   A CG simulating the parking lot shown in FIG. 3 is created. The right camera is horizontally spaced 15 mm from the left camera, and the optical axis is parallel to the left camera. The camera is a fisheye camera.

前記のCGモデルに対し、全てのカメラパラメータの値が正しい状態から、右カメラの1つのカメラパラメータのみ変化させた時の評価値Jを算出する。これらの評価値Jを、横軸にカメラパラメータ値、縦軸に評価値Jとし、10個のカメラパラメータについて図4〜図13に示す。変化させるカメラパラメータはそれぞれ、図4ではC、図5ではC、図6ではf、図7ではd’、図8ではR、図9ではR、図10ではR、図11ではT、図12ではT、図13ではTである。また、各カメラパラメータの正しい値は以下のとおりである。すなわち、Cは640pixel、Cは480pixel、fは1.12mm、d’は2.75μm、Rは90°、Rは0°、Rは0°、Tは0mm、Tは0mm、Tは0mmである。 With respect to the CG model, an evaluation value J is calculated when only one camera parameter of the right camera is changed from a state in which all camera parameter values are correct. These evaluation values J are set as camera parameter values on the horizontal axis and evaluation values J on the vertical axis, and 10 camera parameters are shown in FIGS. The camera parameters to be changed are C x in FIG. 4, C y in FIG. 5, f in FIG. 6, d ′ x in FIG. 7, R x in FIG. 8, R y in FIG. 9, R z in FIG. 11 is T x , FIG. 12 is T y , and FIG. 13 is T z . The correct values for each camera parameter are as follows. That is, C x is 640 pixels, C y is 480 pixels, f is 1.12 mm, d ′ x is 2.75 μm, R x is 90 °, R y is 0 °, R z is 0 °, T x is 0 mm, T y is 0 mm and T z is 0 mm.

図4〜図13のいずれにおいても、正しいカメラパラメータの近傍で評価値Jは下に凸であり、評価値Jが極小となるカメラパラメータと正しいカメラパラメータは一致する。
以上のことから、本方式でカメラ校正が可能である。
In any of FIGS. 4 to 13, the evaluation value J is convex downward in the vicinity of the correct camera parameter, and the camera parameter at which the evaluation value J is minimal matches the correct camera parameter.
From the above, camera calibration is possible with this method.

なお、カメラが3台以上の場合、カメラ台数をnとし、式3の評価関数Jを、式5に拡張すればよい。   Note that when there are three or more cameras, the number of cameras is n, and the evaluation function J of Equation 3 may be expanded to Equation 5.

ここで、i番目のカメラ画像とj番目のカメラ画像に含まれるk番目の対応点の画像座標をそれぞれ(xik,yik)と(xjk,yjk)とする。I(x,y)は、i番目のカメラ画像の画像座標(x,y)におけるRGB値または輝度の画素値を表し、I(x,y)は、j番目のカメラ画像の画像座標(x,y)におけるRGB値または輝度の画素値を表す。その他の変数は、式3に含まれる変数と同一のため、その説明は省略する。 Here, the image coordinates of the k-th corresponding point included in the i-th camera image and the j-th camera image are (x ik , y ik ) and (x jk , y jk ), respectively. I i (x, y) represents an RGB value or luminance pixel value in the image coordinates (x, y) of the i-th camera image, and I j (x, y) represents the image coordinates of the j-th camera image. The RGB value or luminance pixel value at (x, y) is represented. Since the other variables are the same as those included in Equation 3, the description thereof is omitted.

以上のように、3次元座標をカメラパラメータで画像上に投影した画素座標の画素値に基づいてカメラパラメータを評価するので、3次元構造が既知なる校正指標を使用せずに、カメラパラメータを算出すること、すなわちカメラを校正することができる。このため、3次元空間中の3次元座標と2次元画像中の画素位置の対応付けを行わずに、カメラを校正することができる。   As described above, the camera parameters are evaluated based on the pixel values of the pixel coordinates obtained by projecting the three-dimensional coordinates onto the image with the camera parameters. Therefore, the camera parameters are calculated without using the calibration index with the known three-dimensional structure. That is, the camera can be calibrated. For this reason, the camera can be calibrated without associating the three-dimensional coordinates in the three-dimensional space with the pixel positions in the two-dimensional image.

(実施の形態2)
実施の形態1における評価関数は式3に示した画素値の差の絶対値和に限る必要はない。実施の形態2では、評価関数を画素値の差の2乗和とした場合について説明する。
(Embodiment 2)
The evaluation function in Embodiment 1 is not necessarily limited to the absolute value sum of the pixel value differences shown in Equation 3. In the second embodiment, a case will be described in which the evaluation function is a square sum of pixel value differences.

実施の形態2では、実施の形態1と比べて、評価値の算出に用いる評価関数のみが異なる。実施の形態2に係るカメラパラメータ算出装置の機能的な構成は、実施の形態1で説明したカメラパラメータ算出装置101と実質的に同一であるため、その説明を省略する。   The second embodiment differs from the first embodiment only in the evaluation function used for calculating the evaluation value. Since the functional configuration of the camera parameter calculation apparatus according to the second embodiment is substantially the same as that of the camera parameter calculation apparatus 101 described in the first embodiment, the description thereof is omitted.

図14は、実施の形態2に係るカメラパラメータ算出処理S310の一例を示すフローチャートである。図14において、実施の形態1と同一ステップには、図2と同一のステップ名を付し、その説明を省略する。ステップS314はテレオカメラの対応する画素値の差の2乗和で定義される評価関数J(式6)を算出する。   FIG. 14 is a flowchart showing an example of the camera parameter calculation process S310 according to the second embodiment. In FIG. 14, the same steps as those in the first embodiment are given the same step names as those in FIG. 2, and the description thereof is omitted. In step S314, an evaluation function J (Equation 6) defined by the sum of squares of the difference between corresponding pixel values of the teleo camera is calculated.

ここで、式6の変数は、式3に含まれる変数と同一のため、その説明は省略する。   Here, since the variable of Formula 6 is the same as the variable contained in Formula 3, the description is abbreviate | omitted.

なお、カメラが3台以上の場合、式6の評価関数Jを、式7に拡張すればよい。   When there are three or more cameras, the evaluation function J in Expression 6 may be expanded to Expression 7.

ここで、式7の変数は、式5に含まれる変数と同一のため、その説明は省略する。   Here, since the variable of Formula 7 is the same as the variable contained in Formula 5, the description is abbreviate | omitted.

以上のように、実施の形態1と同様に、3次元空間中の3次元座標と2次元画像中の画素位置の対応付けを行わずに、カメラを校正することができる。   As described above, as in Embodiment 1, the camera can be calibrated without associating the three-dimensional coordinates in the three-dimensional space with the pixel positions in the two-dimensional image.

(実施の形態3)
実施の形態1、2における評価関数は式3および式6に示した画素値の差の絶対値和もしくは2乗和に限る必要はない。実施の形態3では、評価関数を平均画素値との差の絶対値和とした場合について説明する。
(Embodiment 3)
The evaluation functions in Embodiments 1 and 2 do not have to be limited to the sum of absolute values or the sum of squares of the pixel value differences shown in Equation 3 and Equation 6. In the third embodiment, a case where the evaluation function is the sum of absolute values of differences from the average pixel value will be described.

実施の形態3では、実施の形態1と比べて、評価値を算出するための評価関数のみが異なる。実施の形態3に係るカメラパラメータ算出装置の機能的な構成は、実施の形態1で説明したカメラパラメータ算出装置101と実質的に同一であるため、その説明を省略する。   The third embodiment differs from the first embodiment only in the evaluation function for calculating the evaluation value. Since the functional configuration of the camera parameter calculation apparatus according to the third embodiment is substantially the same as that of the camera parameter calculation apparatus 101 described in the first embodiment, description thereof is omitted.

図15は、実施の形態3に係るカメラパラメータ算出処理S320の一例を示すフローチャートである。図15において、実施の形態1と同一ステップには、図2と同一のステップ名を付し、その説明を省略する。ステップS324はテレオカメラの対応する画素値と平均画素値の差の絶対値和で定義される評価関数J(式8)を算出する。   FIG. 15 is a flowchart illustrating an example of the camera parameter calculation process S320 according to the third embodiment. In FIG. 15, the same steps as those in the first embodiment are given the same step names as those in FIG. 2, and the description thereof is omitted. In step S324, an evaluation function J (Equation 8) defined by the sum of absolute values of the difference between the corresponding pixel value of the tele camera and the average pixel value is calculated.

ここで、I’はk番目の対応点の画素値の全てのカメラ画像での平均を表す。その他の変数は、式3に含まれる変数と同一のため、その説明は省略する。 Here, I ′ k represents the average of the pixel values of the k-th corresponding point in all camera images. Since the other variables are the same as those included in Equation 3, the description thereof is omitted.

なお、カメラが3台以上の場合、式8の評価関数Jを、式9に拡張すればよい。   When there are three or more cameras, the evaluation function J in Expression 8 may be expanded to Expression 9.

ここで、式9の変数は、式3および式5に含まれる変数と同一のため、その説明は省略する。   Here, since the variable of Formula 9 is the same as the variable contained in Formula 3 and Formula 5, the description is abbreviate | omitted.

以上のように、実施の形態1と同様に、3次元空間中の3次元座標と2次元画像中の画素位置の対応付けを行わずに、カメラを校正することができる。   As described above, as in Embodiment 1, the camera can be calibrated without associating the three-dimensional coordinates in the three-dimensional space with the pixel positions in the two-dimensional image.

(実施の形態4)
実施の形態1から3における評価関数は式3、式6、式8に示した画素値の差の絶対値和、2乗和、もしくは、平均画素値との差の絶対値和に限る必要はない。実施の形態4では、評価関数を平均画素値の差の2乗和とした場合について説明する。
(Embodiment 4)
The evaluation functions in the first to third embodiments need to be limited to the absolute value sum of the difference between the pixel values shown in Equation 3, Equation 6, and Equation 8, the sum of squares, or the absolute value sum of the difference from the average pixel value. Absent. In the fourth embodiment, a case where the evaluation function is the sum of squares of the difference between the average pixel values will be described.

実施の形態4は、実施の形態1と比べて、評価値を算出するための評価関数のみが異なる。実施の形態4に係るカメラパラメータ算出装置の機能的な構成は、実施の形態1で説明したカメラパラメータ算出装置101と実質的に同一であるため、その説明を省略する。   The fourth embodiment differs from the first embodiment only in the evaluation function for calculating the evaluation value. Since the functional configuration of the camera parameter calculation apparatus according to the fourth embodiment is substantially the same as that of the camera parameter calculation apparatus 101 described in the first embodiment, the description thereof is omitted.

図16は、実施の形態4に係るカメラパラメータ算出処理330の一例を示すフローチャートである。図16において、実施の形態1と同一ステップには、図2と同一のステップ名を付し、その説明を省略する。ステップS334はテレオカメラの対応する画素値と平均画素値の差の2乗和で定義される評価関数J(式10)を算出する。   FIG. 16 is a flowchart illustrating an example of the camera parameter calculation process 330 according to the fourth embodiment. In FIG. 16, the same steps as those in the first embodiment are given the same step names as those in FIG. 2, and the description thereof is omitted. In step S334, an evaluation function J (Equation 10) defined by the sum of squares of the difference between the corresponding pixel value of the teleo camera and the average pixel value is calculated.

ここで、式10の変数は、式8に含まれる変数と同一のため、その説明は省略する。   Here, since the variable of Expression 10 is the same as the variable included in Expression 8, the description thereof is omitted.

なお、カメラが3台以上の場合、式10の評価関数Jを、式11に拡張すればよい。   When there are three or more cameras, the evaluation function J in Expression 10 may be expanded to Expression 11.

ここで、式11の変数は、式3および式8に含まれる変数と同一のため、その説明は省略する。   Here, since the variable of Formula 11 is the same as the variable contained in Formula 3 and Formula 8, the description is abbreviate | omitted.

以上のように、実施の形態1と同様に、3次元空間中の3次元座標と2次元画像中の画素位置の対応付けを行わずに、カメラを校正することができる。 (実施の形態5)
実施の形態5では、3次元点群データに対応する個々のカメラの画像座標の近傍画素における、パターンの類似度に基づいて、カメラパラメータを算出することにより、カメラ間のゲイン差による画素値I(x,y)とI(x,y)の差の影響を低減する。
As described above, as in Embodiment 1, the camera can be calibrated without associating the three-dimensional coordinates in the three-dimensional space with the pixel positions in the two-dimensional image. (Embodiment 5)
In the fifth embodiment, the camera parameter is calculated based on the pattern similarity in the neighboring pixels of the image coordinates of each camera corresponding to the three-dimensional point cloud data, so that the pixel value I based on the gain difference between the cameras is obtained. The influence of the difference between L (x, y) and I R (x, y) is reduced.

以下では、具体例として、評価関数を正規化相互相関とした場合について説明する。   Hereinafter, as a specific example, a case where the evaluation function is normalized cross-correlation will be described.

実施の形態5では、実施の形態1と比べて、評価値を算出するための評価関数のみが異なる。実施の形態5に係るカメラパラメータ算出装置の機能的な構成は、実施の形態1で説明したカメラパラメータ算出装置101と実質的に同一であるため、その説明を省略する。   The fifth embodiment differs from the first embodiment only in the evaluation function for calculating the evaluation value. Since the functional configuration of the camera parameter calculation apparatus according to the fifth embodiment is substantially the same as the camera parameter calculation apparatus 101 described in the first embodiment, the description thereof is omitted.

図17は、実施の形態5に係るカメラパラメータ算出処理S340の一例を示すフローチャートである。図17において、実施の形態1と同一ステップには、図2と同一のステップ名を付し、その説明を省略する。ステップS344はステレオカメラの対応する画素値の正規化相互相関で定義される評価関数J(式12)を算出する。   FIG. 17 is a flowchart showing an example of the camera parameter calculation process S340 according to the fifth embodiment. In FIG. 17, the same steps as those in the first embodiment are given the same step names as those in FIG. 2, and the description thereof is omitted. In step S344, an evaluation function J (Equation 12) defined by the normalized cross-correlation of the corresponding pixel value of the stereo camera is calculated.

ここで、比較する3次元点群をそれぞれのカメラパラメータによって左カメラと右カメラのそれぞれで撮影されたカメラ画像に投影し、画像座標を得る。これらの画像座標の近傍からm画素選択する。例えば、投影した画素を中心とする円の内部の画素を選択する。左カメラと右カメラの前記の選択したm画素のi番目の画素値をそれぞれMLki、MRkiとする。その他の変数は、式3に含まれる変数と同一のため、その説明は省略する。 Here, the three-dimensional point group to be compared is projected on the camera images photographed by the left camera and the right camera according to the respective camera parameters, and image coordinates are obtained. M pixels are selected from the vicinity of these image coordinates. For example, a pixel inside a circle centered on the projected pixel is selected. The i-th pixel values of the selected m pixels of the left camera and the right camera are M Lki and M Rki , respectively. Since the other variables are the same as those included in Equation 3, the description thereof is omitted.

以上のように、画素値の正規化相互相関を使用することにより、左カメラと右カメラのゲイン差に影響されずに、カメラ校正を行うことができる。
なお、カメラが3台以上の場合、式12の評価関数Jを、式13に拡張すればよい。
As described above, by using the normalized cross-correlation of pixel values, camera calibration can be performed without being affected by the gain difference between the left camera and the right camera.
When there are three or more cameras, the evaluation function J in Expression 12 may be expanded to Expression 13.

ここで、Nは画素値を比較する3次元点の数、nはカメラ台数、Mjkiは、k番目の3次元点に対応するj番目のカメラによるカメラ画像中の画素位置について正規化相互相関を計算する近傍画素におけるi番目の画素値を表す。 Here, N is the number of three-dimensional points for comparing pixel values, n is the number of cameras, M jki is a normalized cross-correlation for pixel positions in the camera image by the j-th camera corresponding to the k-th three-dimensional point. Represents the i-th pixel value in the neighboring pixel for calculating.

なお、正規化相互相関でなく、3値表現や隣接画素間の画素値の差を使用してもよい。   Instead of normalized cross-correlation, a ternary expression or a pixel value difference between adjacent pixels may be used.

(実施の形態6)
実施の形態1において、評価に使用する3次元点群データを画素値に基づいて選択する例を示したが、選択の基準は画素値に限る必要はない。実施の形態6では、遮蔽領域に基づいて3次元点群データを選択する場合について説明する。
(Embodiment 6)
In the first embodiment, the example in which the three-dimensional point group data used for the evaluation is selected based on the pixel value has been described. However, the selection criterion is not necessarily limited to the pixel value. In the sixth embodiment, a case where three-dimensional point cloud data is selected based on a shielding area will be described.

実施の形態6に係るカメラパラメータ算出装置の機能的な構成は、実施の形態1で説明したカメラパラメータ算出装置101と実質的に同一であるため、その説明を省略する。   Since the functional configuration of the camera parameter calculation apparatus according to the sixth embodiment is substantially the same as that of the camera parameter calculation apparatus 101 described in the first embodiment, the description thereof is omitted.

図18は、実施の形態6に係るカメラパラメータ算出処理350の一例を示すフローチャートである。図18において、実施の形態1と同一ステップには、図2と同一のステップ名を付し、その説明を省略する。ステップS354はステップS303で取得された3次元点群データから、左カメラ102及び右カメラ103の少なくとも一方の遮蔽領域に存在する3次元点のデータを除く。遮蔽領域とは、当該遮蔽領域内にある前方の3次元物体が後方の3次元物体を遮蔽することになる領域であり、カメラから一方向に延びる領域である。この遮蔽領域の判定について説明する。   FIG. 18 is a flowchart illustrating an example of the camera parameter calculation process 350 according to the sixth embodiment. In FIG. 18, the same steps as those in the first embodiment are given the same step names as those in FIG. 2, and the description thereof is omitted. In step S354, the 3D point data existing in at least one occluded region of the left camera 102 and the right camera 103 is excluded from the 3D point cloud data acquired in step S303. The shielding area is an area in which the front three-dimensional object in the shielding area shields the rear three-dimensional object and extends in one direction from the camera. The determination of the shielding area will be described.

カメラへの入射光の1つの光路に対し、3次元空間中の1点が対応する。複数の3次元物体が遮蔽領域に並んで存在している場合でも、3次元レーザースキャナ106は、前記カメラとは異なる視点から、前記複数の3次元物体の世界座標を取得する。当該世界座標をカメラパラメータに基づいて画像上に投影すると、同一又は差がほとんどない複数の画像座標が算出される。つまり、1つの画像において、離間距離が閾値以下である複数の対応点が求まることにより、複数の3次元点が、当該画像を撮影したカメラの遮蔽領域に位置することが分かる。そのような3次元点の対応点は、本来の3次元点と対応していない画素値を表している可能性があるため、評価値Jの算出には適さない。   One point in the three-dimensional space corresponds to one optical path of light incident on the camera. Even when a plurality of three-dimensional objects exist side by side in the shielding area, the three-dimensional laser scanner 106 acquires the world coordinates of the plurality of three-dimensional objects from a viewpoint different from that of the camera. When the world coordinates are projected on the image based on the camera parameters, a plurality of image coordinates that are the same or have almost no difference are calculated. That is, it can be seen that a plurality of corresponding points whose separation distances are equal to or less than the threshold are obtained in one image, and thus a plurality of three-dimensional points are located in the shielding area of the camera that has captured the image. Such a corresponding point of the three-dimensional point may represent a pixel value that does not correspond to the original three-dimensional point, and thus is not suitable for calculating the evaluation value J.

したがって、前記画像上に投影した画像座標間の距離が閾値より小さい3次元点の組を、遮蔽領域に存在する3次元点であると判定し、前記判定より、遮蔽領域に存在する3次元点を除き、評価値Jを算出する。   Therefore, it is determined that a set of three-dimensional points whose distance between image coordinates projected on the image is smaller than the threshold is a three-dimensional point existing in the shielding area. The evaluation value J is calculated except for.

以上のように、遮蔽領域に存在する3次元点を評価値の算出から除くことにより、遮蔽領域に影響されずに、カメラ校正を行うことができる。   As described above, camera calibration can be performed without being affected by the shielding area by removing the three-dimensional points existing in the shielding area from the calculation of the evaluation value.

(実施の形態7)
実施の形態1、6において、評価に使用する3次元点群データを画素値、もしくは、遮蔽領域に基づいて選択する例を示したが、選択の基準はこれらに限る必要はない。実施の形態7では、3次元レーザースキャナの測定光のなす角度が閾値より小さい2つの3次元点間の距離に基づいて、3次元点群データを選択する場合について説明する。3次元レーザースキャナの測定光のなす角度が閾値より小さいとは、測距視点から所定近傍内に見えることと同義であり、例えば、パン角及びチルト角の2軸回転する3次元レーザースキャナでは、当該パン角とチルト角で近い(つまり、当該パン角及びチルト角の何れもが閾値より小さい)ことと定義される。
(Embodiment 7)
In the first and sixth embodiments, the example in which the three-dimensional point cloud data used for the evaluation is selected based on the pixel value or the shielding area is shown, but the selection criterion is not necessarily limited to these. In the seventh embodiment, a case will be described in which three-dimensional point group data is selected based on the distance between two three-dimensional points where the angle formed by the measurement light of the three-dimensional laser scanner is smaller than a threshold value. That the angle formed by the measurement light of the three-dimensional laser scanner is smaller than the threshold is synonymous with the fact that it is visible within a predetermined vicinity from the distance measurement viewpoint. For example, in a three-dimensional laser scanner that rotates two axes of pan angle and tilt angle, It is defined that the pan angle and the tilt angle are close (that is, both the pan angle and the tilt angle are smaller than the threshold value).

実施の形態7に係るカメラパラメータ算出装置の機能的な構成は、実施の形態1で説明したカメラパラメータ算出装置101と実質的に同一であるため、その説明を省略する。   Since the functional configuration of the camera parameter calculation apparatus according to the seventh embodiment is substantially the same as that of the camera parameter calculation apparatus 101 described in the first embodiment, the description thereof is omitted.

図19は、カメラパラメータ算出処理S360の一例を示すフローチャートである。図19において、実施の形態1と同一ステップには、図2と同一のステップ名を付し、その説明を省略する。ステップS364はステップS303で取得された3次元点群データから、空間的な距離変化が大きい領域を除く。この空間的な距離変化が大きい領域の判定について説明する。   FIG. 19 is a flowchart illustrating an example of the camera parameter calculation process S360. In FIG. 19, the same steps as those in the first embodiment are given the same step names as those in FIG. 2, and the description thereof is omitted. In step S364, an area having a large spatial distance change is excluded from the three-dimensional point cloud data acquired in step S303. The determination of an area where the spatial distance change is large will be described.

3次元レーザースキャナは複数の回転軸でレーザー照射口を回転させ、ある角度間隔で3次元点群データを取得する。説明を簡単にするため、3次元レーザースキャナの回転中心を原点、レーザー照射口は前記原点を中心とするパン角とチルト角の2軸回転とする。パン角とチルト角が近い2つの3次元点間の距離は、例えば、3次元レーザースキャナで測定した奥行き値の差によって近似される。パン角とチルト角が近い2つの3次元点間の距離の最大値が閾値より大きい点の組を含む領域を、前記空間的な距離変化が大きい領域として判定する。そして、前記判定より、空間的な距離変化が大きい領域に存在する3次元点群を除外し、評価値Jを算出する。前記除外により、評価値Jの関数の概形が滑らかになり、評価値Jの最小化をし易くなる。   A three-dimensional laser scanner rotates a laser irradiation port with a plurality of rotation axes, and acquires three-dimensional point cloud data at a certain angular interval. In order to simplify the explanation, the rotation center of the three-dimensional laser scanner is the origin, and the laser irradiation port is a two-axis rotation of the pan angle and the tilt angle about the origin. The distance between two three-dimensional points having a close pan angle and tilt angle is approximated by, for example, a difference in depth value measured by a three-dimensional laser scanner. A region including a set of points having a maximum distance between two three-dimensional points having close pan angles and tilt angles larger than a threshold is determined as a region having a large spatial distance change. Then, the evaluation value J is calculated by excluding the three-dimensional point group existing in the region where the spatial distance change is large. By the exclusion, the outline of the function of the evaluation value J becomes smooth, and it is easy to minimize the evaluation value J.

以上のように、空間的な変化が大きい領域の3次元点群データを除くことにより、物体間の境界や凹凸の大きい表面に存在する3次元点群データに影響されずに、カメラ校正を行うことができる。   As described above, by excluding the 3D point cloud data in the region having a large spatial change, the camera calibration is performed without being affected by the 3D point cloud data existing on the boundary between objects or on the surface with large unevenness. be able to.

(実施の形態8)
実施の形態1、6、7において、評価に使用する3次元点群データを画素値、遮蔽領域、もしくは、3次元レーザースキャナのパン角とチルト角が近い3次元点群の2点間距離の空間的な変化に基づいて選択する例を示したが、これらに限る必要はない。実施の形態8では、強度値に基づいて3次元点群データを選択する場合について説明する。実施の形態8に係るカメラパラメータ算出装置の機能的な構成は、実施の形態1で説明したカメラパラメータ算出装置101と実質的に同一であるため、その説明を省略する。
(Embodiment 8)
In the first, sixth, and seventh embodiments, the three-dimensional point cloud data used for evaluation is a pixel value, a shielding area, or a distance between two points of a three-dimensional point cloud that is close to the pan angle and tilt angle of the three-dimensional laser scanner. Although the example which selects based on a spatial change was shown, it does not need to restrict to these. In the eighth embodiment, a case where three-dimensional point cloud data is selected based on an intensity value will be described. Since the functional configuration of the camera parameter calculation apparatus according to the eighth embodiment is substantially the same as the camera parameter calculation apparatus 101 described in the first embodiment, the description thereof is omitted.

図20は、カメラパラメータ算出処理S370の一例を示すフローチャートである。図20において、実施の形態1と同一ステップには、図2と同一のステップ名を付し、その説明を省略する。ステップS374はステップS373で取得された強度値を含む3次元点群データから、強度値に基づいて3次元点群データの選択をする。前記選択の方法について説明する。   FIG. 20 is a flowchart illustrating an example of the camera parameter calculation process S370. In FIG. 20, the same steps as those in the first embodiment are given the same step names as those in FIG. In step S374, the 3D point cloud data is selected from the 3D point cloud data including the intensity value acquired in step S373 based on the intensity value. The selection method will be described.

3次元レーザースキャナはレーザーを物体に照射し、その受光した反射光に基づいて、物体の奥行きを算出する。このため、3次元点群データに対応付けられた強度値(受光強度あるいは、物体反射率)を取得できる。前記強度値は物体表面の形状や材質により変化し、物体表面の色と相関がある。前記相関の説明を以下にする。可視光領域で自発光しない白と黒の物体は、それぞれ光の反射率が高い場合と低い場合に対応する。このため、可視あるいは近赤外のレーザー光に対する物体の反射特性は、可視光の反射特性に近い。したがって、物体表面の色と強度値に相関がある。   The three-dimensional laser scanner irradiates an object with a laser, and calculates the depth of the object based on the received reflected light. For this reason, the intensity value (light reception intensity or object reflectance) associated with the three-dimensional point cloud data can be acquired. The intensity value varies depending on the shape and material of the object surface and has a correlation with the color of the object surface. The correlation will be described below. White and black objects that do not emit light in the visible light region correspond to cases where the reflectance of light is high and low, respectively. For this reason, the reflection characteristic of an object with respect to visible or near-infrared laser light is close to the reflection characteristic of visible light. Therefore, there is a correlation between the color of the object surface and the intensity value.

実施の形態7の説明と同様の、パン角とチルト角の2軸回転する3次元レーザースキャナにおいて、パン角とチルト角で近い(つまり、測距視点から所定近傍内に見える)3次元点群のいずれかの2点間の強度値の差が第1の閾値より小さいか、あるいは、第2の閾値より大きい3次元点の組を、S303で取得された3次元点群データから除外する。前記除外により、強度値の差が小さく評価値Jが変化しない3次元点群と、強度値の差が大きく、評価値Jの変化が大きい3次元点群を評価値の算出から除くことにより、評価値Jの関数の概形が滑らかになり、評価値Jの最小化をし易くなる。   Similar to the description of the seventh embodiment, in a three-dimensional laser scanner that rotates biaxially with a pan angle and a tilt angle, a three-dimensional point group that is close in pan angle and tilt angle (that is, visible within a predetermined vicinity from a distance measurement viewpoint) A set of three-dimensional points whose intensity value difference between any two points is smaller than the first threshold or larger than the second threshold is excluded from the three-dimensional point cloud data acquired in S303. By excluding the three-dimensional point group in which the difference in intensity value is small and the evaluation value J does not change and the three-dimensional point group in which the difference in intensity value is large and the change in the evaluation value J is large from the calculation of the evaluation value, The outline of the function of the evaluation value J becomes smooth, and it is easy to minimize the evaluation value J.

以上のように、強度値の差が大きい3次元点群データを除くことにより、色の変化が大きい物体表面に存在する3次元点群データに影響されずに、カメラ校正を行うことができる。   As described above, the camera calibration can be performed without being affected by the three-dimensional point group data existing on the surface of the object having a large color change by excluding the three-dimensional point group data having a large difference in intensity value.

(実施の形態9)
実施の形態1、6から8において、評価に使用する3次元点群データを画素値、遮蔽領域、3次元レーザースキャナのパン角とチルト角が近い3次元点群の2点間距離の空間的な変化、もしくは、強度値に基づいて選択する例を示したが、これらに限る必要はない。実施の形態9では、3次元点群の色情報に基づいて3次元点群データを選択する場合について説明する。
(Embodiment 9)
In Embodiments 1 and 6 to 8, the three-dimensional point cloud data used for evaluation is represented by a pixel value, a shielding area, and a spatial distance between two points of a three-dimensional point cloud having a pan angle and a tilt angle close to each other. Although an example in which selection is made based on various changes or intensity values has been shown, it is not necessary to be limited thereto. In the ninth embodiment, a case will be described in which three-dimensional point cloud data is selected based on color information of a three-dimensional point cloud.

実施の形態9に係るカメラパラメータ算出装置の機能的な構成は、実施の形態1で説明したカメラパラメータ算出装置101と実質的に同一であるため、その説明を省略する。   Since the functional configuration of the camera parameter calculation apparatus according to the ninth embodiment is substantially the same as that of the camera parameter calculation apparatus 101 described in the first embodiment, the description thereof is omitted.

図21は、カメラパラメータ算出処理S380の一例を示すフローチャートである。図21において、実施の形態1と同一ステップには、図2と同一のステップ名を付し、その説明を省略する。ステップS384では、ステップS383で取得された色情報を含む3次元点群データから、3次元点群の色情報に基づいて3次元点群データ選択をする。前記選択の方法について説明する。   FIG. 21 is a flowchart illustrating an example of the camera parameter calculation process S380. In FIG. 21, the same steps as those in the first embodiment are given the same step names as those in FIG. 2, and the description thereof is omitted. In step S384, 3D point cloud data is selected based on the color information of the 3D point cloud from the 3D point cloud data including the color information acquired in step S383. The selection method will be described.

3次元レーザースキャナのレーザー照射軸と同軸で可視光撮影可能な場合、3次元点群データに対応付けられた色情報(例えば、RGB値あるいは輝度値)を取得できる。実施の形態7の説明と同様の、パン角とチルト角の2軸回転する3次元レーザースキャナにおいて、パン角とチルト角で近い(つまり、測距視点から所定近傍内に見える)3次元点群のいずれかの2点間の色情報(例えば、RGB値あるいは輝度値)の差が第1の閾値より小さい、あるいは、第2の閾値より大きい3次元点の組をステップS383で取得された3次元点群データから除外する。前記除外により、色情報値の差が小さく評価値Jが変化しない3次元点群と、色情報の差が大きく、評価値Jの変化が大きい3次元点群を評価値の算出から除くことにより、評価値Jの関数の概形が滑らかになり、評価値Jの最小化をし易くなる。
以上のように、色情報の差が大きい3次元点群データを除くことにより、色の変化が大きい物体表面に存在する3次元点群データに影響されずに、カメラ校正を行うことができる。
When visible light imaging can be performed coaxially with the laser irradiation axis of the three-dimensional laser scanner, color information (for example, RGB value or luminance value) associated with the three-dimensional point cloud data can be acquired. Similar to the description of the seventh embodiment, in a three-dimensional laser scanner that rotates biaxially with a pan angle and a tilt angle, a three-dimensional point group that is close in pan angle and tilt angle (that is, visible within a predetermined vicinity from a distance measurement viewpoint) A set of three-dimensional points in which the difference in color information (for example, RGB value or luminance value) between any two points is smaller than the first threshold value or larger than the second threshold value is acquired in step S383. Exclude from dimension point cloud data. By excluding the three-dimensional point group in which the difference in color information value is small and the evaluation value J does not change and the three-dimensional point group in which the color information difference is large and the evaluation value J is large are excluded from the calculation of the evaluation value. The outline of the function of the evaluation value J becomes smooth, and it becomes easy to minimize the evaluation value J.
As described above, the camera calibration can be performed without being influenced by the three-dimensional point group data existing on the surface of the object having a large color change by excluding the three-dimensional point group data having a large difference in color information.

(実施の形態10)
実施の形態1、6から9において、複眼カメラと3次元レーザースキャナを使用するカメラ校正について説明したが、実施の形態9で説明したように3次元レーザースキャナが色情報を取得できる場合、1つのカメラと3次元レーザースキャナでカメラを校正することができる。実施の形態10では、1つのカメラと3次元レーザースキャナによるカメラ校正について説明する。
(Embodiment 10)
In the first and sixth embodiments, the camera calibration using the compound eye camera and the three-dimensional laser scanner has been described. However, as described in the ninth embodiment, when the three-dimensional laser scanner can acquire color information, The camera can be calibrated with a camera and a 3D laser scanner. In the tenth embodiment, camera calibration using one camera and a three-dimensional laser scanner will be described.

図22は、カメラパラメータ算出装置201のブロック図である。図22において、実施の形態1と同一構成要素には、図1と同一の符号を付し、その説明を省略する。カメラパラメータ算出装置201は、実施の形態1のカメラパラメータ算出装置101と比べて、補正の対象となるカメラ202が1台のみである点、及びカメラパラメータ算出器108においてカメラパラメータ算出処理に用いる評価関数が異なる。   FIG. 22 is a block diagram of the camera parameter calculation device 201. In FIG. 22, the same components as those in the first embodiment are denoted by the same reference numerals as those in FIG. 1, and the description thereof is omitted. Compared to the camera parameter calculation apparatus 101 of the first embodiment, the camera parameter calculation apparatus 201 has only one camera 202 to be corrected, and an evaluation used for camera parameter calculation processing in the camera parameter calculator 108. Function is different.

図23は、実施の形態10に係るカメラパラメータ算出処理S400パラメータ算出の動作を示すフローチャートである。図23において、実施の形態1、9と同一ステップには、図3、21と同一のステップ名を付し、その説明を省略する。ステップS383で取得された3次元点群データには、3次元レーザースキャナとその同軸撮影による色情報が付加されている。式14に、ステップS404の評価値算出で用いられる評価関数Jを示す。   FIG. 23 is a flowchart showing an operation of camera parameter calculation processing S400 parameter calculation according to the tenth embodiment. In FIG. 23, the same steps as those in the first and ninth embodiments are given the same step names as those in FIGS. 3 and 21, and the description thereof is omitted. The three-dimensional point cloud data acquired in step S383 is added with color information obtained by the three-dimensional laser scanner and its coaxial photographing. Equation 14 shows the evaluation function J used in the evaluation value calculation in step S404.

ここで、Aはカメラのk番目の画像座標の算出に使用した3次元点の色情報を表す。前記色情報はカメラの画素値と同じ色情報にする。例えば、カメラの画素値がRGB値の場合、Aの色情報はRGB値を使用する。その他の変数は、式3に含まれる変数と同一のため、その説明は省略する。 Here, A k represents the color information of the three-dimensional point used for calculating the k-th image coordinate of the camera. The color information is the same color information as the pixel value of the camera. For example, the pixel value of the camera is an RGB value, the color information of the A k uses RGB values. Since the other variables are the same as those included in Equation 3, the description thereof is omitted.

以上のように、実施の形態10のカメラパラメータ算出処理400では、3次元点の色情報を使用することにより、1つのカメラと3次元レーザースキャナでカメラ校正を行うことができる。   As described above, in the camera parameter calculation process 400 according to the tenth embodiment, camera calibration can be performed with one camera and a three-dimensional laser scanner by using the color information of the three-dimensional point.

なお、式14の画素値と色情報の差の絶対値和は、前記差の2乗和でもよい。また、2つ以上のカメラを使用してもよい。   The absolute value sum of the difference between the pixel value and the color information in Expression 14 may be the square sum of the difference. Two or more cameras may be used.

(実施の形態11)
実施の形態11では、画像輝度勾配がないか、または、十分小さい領域を除いて、カメラパラメータを算出することにより、評価値への寄与が小さい領域の計算を省き、計算量を低減する。
(Embodiment 11)
In the eleventh embodiment, by calculating the camera parameters except for an area where there is no image luminance gradient or a sufficiently small area, the calculation of the area having a small contribution to the evaluation value is omitted, and the calculation amount is reduced.

これは、次の考え方に基づく。すなわち、ある3次元点が対応する2つのカメラ画像上の画素の周りで、輝度勾配が0の場合、カメラパラメータを微小変化させても、この3次元点に対する2画素の輝度差はほとんど一定になる。言い換えると、評価値Jを最小化するカメラパラメータ算出に影響がない。そこで、このような3次元点を評価値Jの算出から除くことで、計算量を低減できる。   This is based on the following concept. In other words, when the luminance gradient is 0 around the pixels on the two camera images to which a certain three-dimensional point corresponds, even if the camera parameter is slightly changed, the luminance difference between the two pixels with respect to the three-dimensional point is almost constant. Become. In other words, there is no influence on the camera parameter calculation for minimizing the evaluation value J. Thus, by removing such three-dimensional points from the calculation of the evaluation value J, the amount of calculation can be reduced.

実施の形態11では、実施の形態1と比べて、カメラパラメータを算出するためのカメラパラメータ算出器108の動作のみが異なる。実施の形態11に係るカメラパラメータ算出装置101の機能的な構成は、実施の形態1で説明したカメラパラメータ算出装置101と実質的に同一であるため、その説明を省略する。   The eleventh embodiment is different from the first embodiment only in the operation of the camera parameter calculator 108 for calculating camera parameters. Since the functional configuration of the camera parameter calculation apparatus 101 according to Embodiment 11 is substantially the same as that of the camera parameter calculation apparatus 101 described in Embodiment 1, description thereof is omitted.

図24は、実施の形態11に係るカメラパラメータ算出処理S500の一例を示すフローチャートである。図24において、実施の形態1と同一ステップには、図2と同一のステップ名を付し、その説明を省略する。   FIG. 24 is a flowchart showing an example of the camera parameter calculation process S500 according to the eleventh embodiment. In FIG. 24, the same steps as those in the first embodiment are given the same step names as those in FIG. 2, and the description thereof is omitted.

図24のステップS501において、カメラパラメータ算出器108は、ステップS301で取得されたカメラ画像の輝度勾配に基づき、ステップS303で取得したN点の3次元点の各々を評価値の算出に使用するか否かを判定するための点群選択マスクを作成する。点群選択マスクは、カメラ画像中の各画素に対して、当該画素が、評価値の算出に用いる有効画素及び当該画素の輝度値を評価値の算出に用いない無効画素の何れであるかを示す2値を取る。点群選択マスクは、1又は複数のカメラで撮影された個々のカメラ画像について作成される。   In step S501 of FIG. 24, the camera parameter calculator 108 uses each of the N three-dimensional points acquired in step S303 for calculating the evaluation value based on the luminance gradient of the camera image acquired in step S301. A point group selection mask for determining whether or not is generated. The point group selection mask indicates, for each pixel in the camera image, whether the pixel is an effective pixel used for calculating the evaluation value or an invalid pixel not using the luminance value of the pixel for calculating the evaluation value. Take the binary value shown. The point group selection mask is created for individual camera images taken by one or a plurality of cameras.

図25は、点群選択マスク作成処理S501の詳細な一例を示すフローチャートである。   FIG. 25 is a flowchart illustrating a detailed example of the point group selection mask creation process S501.

点群選択マスク作成処理S501では、画素インデックスをiとし、カメラ画像中の画素iを順次選択しながら、選択された画素iが有効画素か無効画素かを特定するループ処理を行う(S5011〜S5016)。   In the point group selection mask creation processing S501, a loop processing is performed to specify whether the selected pixel i is a valid pixel or an invalid pixel while sequentially selecting the pixel i in the camera image with the pixel index i. (S5011 to S5016) ).

画素iでの輝度勾配Giを、画素iを中心とする近傍画素から算出する(S5012)。輝度勾配の一例として、式15に、画素iを中心とする隣接画素による輝度勾配Giを示す。   A luminance gradient Gi at the pixel i is calculated from neighboring pixels centered on the pixel i (S5012). As an example of the luminance gradient, Equation 15 shows the luminance gradient Gi due to adjacent pixels centered on the pixel i.

ここで、I(x、y)は画像座標(x、y)における輝度値である。   Here, I (x, y) is a luminance value at the image coordinates (x, y).

輝度勾配Giと閾値を比較し(S5013)、輝度勾配Giが閾値より大きい場合、点群選択マスクにおいて画素iを有効画素に設定する(S5014)。また、輝度勾配Giが閾値以下の場合、点群選択マスクにおいて画素iを無効画素に設定する(S5015)。前記閾値は、一例として、画像全体の平均輝度勾配の定数倍であってもよい。   The luminance gradient Gi is compared with the threshold value (S5013). If the luminance gradient Gi is larger than the threshold value, the pixel i is set as an effective pixel in the point group selection mask (S5014). If the luminance gradient Gi is equal to or smaller than the threshold value, the pixel i is set as an invalid pixel in the point group selection mask (S5015). For example, the threshold value may be a constant multiple of the average luminance gradient of the entire image.

再び図24を参照して、ステップS502において、カメラパラメータ算出器108は、ステップS303で取得した3次元点群データの中から、ステップS501で作成した点群選択マスクに基づいて選択される3次元座標のみを用いて、評価関数J(例えば、式3)を算出する。   Referring to FIG. 24 again, in step S502, the camera parameter calculator 108 is selected based on the point group selection mask created in step S501 from the three-dimensional point group data acquired in step S303. The evaluation function J (for example, Expression 3) is calculated using only the coordinates.

ステレオカメラの例では、左右のカメラ画像の少なくとも一方において、ある3次元点の対応点に位置する画素が、点群選択マスクによって無効画素として示される場合、当該3次元点に対応するカメラ画像上の画素値を評価関数の算出から除いてもよい。   In an example of a stereo camera, when a pixel located at a corresponding point of a certain three-dimensional point is indicated as an invalid pixel by a point group selection mask in at least one of the left and right camera images, the camera image corresponding to the three-dimensional point May be excluded from the calculation of the evaluation function.

また、左右のカメラ画像の両方において、ある3次元点の対応点に位置する画素が、点群選択マスクによって無効画素として示される場合、当該3次元点に対応するカメラ画像上の画素値を評価関数の算出から除いてもよい。 以上のように、3次元点群データの中から、カメラ画像の対応点における輝度勾配の小さい3次元点のみを評価関数Jの算出から除くことにより、計算量を削減し、カメラ校正を行うことができる。   Also, in both the left and right camera images, when a pixel located at a corresponding point of a certain three-dimensional point is indicated as an invalid pixel by the point group selection mask, the pixel value on the camera image corresponding to the three-dimensional point is evaluated. It may be excluded from the calculation of the function. As described above, from the calculation of the evaluation function J, only the three-dimensional point having a small luminance gradient at the corresponding point of the camera image is excluded from the calculation of the evaluation function J, and the camera calibration is performed. Can do.

なお、評価関数Jは式3に限る必要はなく、式4〜14を使用してもよい。また、点群選択マスクは、各カメラ画像の全ての画素に対して有効画素か無効画素かを示す必要はなく、各3次元点の対応点の近傍画素に対してのみ有効画素か無効画素かを示してもよい。   Note that the evaluation function J need not be limited to Expression 3, and Expressions 4 to 14 may be used. In addition, the point group selection mask does not need to indicate whether the pixel is a valid pixel or an invalid pixel for all pixels of each camera image. May be indicated.

(変形例)
以上、本発明の一つまたは複数の態様に係るカメラパラメータ算出装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
(Modification)
While the camera parameter calculation device according to one or more aspects of the present invention has been described based on the embodiment, the present invention is not limited to this embodiment. Unless it deviates from the gist of the present invention, one or more of the present invention may be applied to various modifications that can be conceived by those skilled in the art, or forms constructed by combining components in different embodiments. It may be included within the scope of the embodiments.

本発明のカメラパラメータ算出装置は、3次元構造が既知なる校正指標を使用せずに、各種のカメラを校正するカメラパラメータ算出装置として有用である。   The camera parameter calculation apparatus of the present invention is useful as a camera parameter calculation apparatus that calibrates various cameras without using a calibration index whose three-dimensional structure is known.

101、201 カメラパラメータ算出装置
102 左カメラ
103 右カメラ
104 フレームメモリ
105 初期カメラパラメータ格納器
106 3次元レーザースキャナ
107 点群入力器
108 カメラパラメータ算出器
109 カメラパラメータ出力器
202 カメラ
101, 201 Camera parameter calculation device 102 Left camera 103 Right camera 104 Frame memory 105 Initial camera parameter storage 106 Three-dimensional laser scanner 107 Point cloud input device 108 Camera parameter calculation device 109 Camera parameter output device 202 Camera

Claims (21)

1又は複数のカメラに共通の撮影空間に含まれる複数の3次元点の3次元座標を表す3次元点群データを取得する点群取得器と、
前記3次元点群データと前記1又は複数のカメラの1又は複数の初期カメラパラメータとに基づいて、前記複数の3次元点の各々について前記1又は複数のカメラで撮影した1又は複数の画像における対応点の画像座標を算出し、前記1又は複数の画像における前記画像座標における画素値とに基づいて、前記1又は複数のカメラの前記1又は複数のカメラパラメータを算出するカメラパラメータ算出器と、
前記1又は複数のカメラパラメータを出力するカメラパラメータ出力器を含み、
前記1又は複数のカメラ、前記1又は複数の初期カメラパラメータ、前記1又は複数の画像、前記1又は複数のカメラパラメータは1対1対応する
カメラパラメータ算出装置。
A point cloud acquirer that acquires 3D point cloud data representing the 3D coordinates of a plurality of 3D points included in an imaging space common to one or a plurality of cameras;
Based on the 3D point cloud data and one or more initial camera parameters of the one or more cameras, each of the plurality of 3D points in one or more images taken by the one or more cameras A camera parameter calculator that calculates image coordinates of corresponding points, and calculates the one or more camera parameters of the one or more cameras based on pixel values in the image coordinates in the one or more images;
A camera parameter output device for outputting the one or more camera parameters;
The one or more cameras, the one or more initial camera parameters, the one or more images, and the one or more camera parameters correspond one-to-one.
前記画像座標の算出は、前記カメラパラメータ算出器が前記複数の3次元座標を、前記1または複数のカメラに対応する前記1または複数の初期カメラパラメータに基づいて前記1または複数のカメラに対応する画像における画像座標への変換を含む、
請求項1に記載のカメラパラメータ算出装置。
In calculating the image coordinates, the camera parameter calculator corresponds to the one or more cameras based on the one or more initial camera parameters corresponding to the one or more cameras. Including conversion to image coordinates in the image,
The camera parameter calculation apparatus according to claim 1.
前記1又は複数のカメラは、2つのカメラを含み、
前記カメラパラメータ算出器は、複数の差に基づいて前記カメラパラメータを算出し、
前記複数の差の各々は、
前記複数の3次元点のうちの1つの3次元点について前記2つカメラに含まれる第1カメラで撮影した第1画像における対応点における画素値と、
前記1つの3次元点について前記2つカメラに含まれる第2カメラで撮影した第2画像における対応点における画素値と、の差である、
請求項1又は2に記載のカメラパラメータ算出装置。
The one or more cameras include two cameras;
The camera parameter calculator calculates the camera parameter based on a plurality of differences;
Each of the plurality of differences is
A pixel value at a corresponding point in a first image captured by a first camera included in the two cameras with respect to one of the plurality of three-dimensional points;
The difference between the one three-dimensional point and the pixel value at the corresponding point in the second image captured by the second camera included in the two cameras.
The camera parameter calculation apparatus according to claim 1 or 2.
前記差は、前記画素値の差の絶対値である、
請求項3に記載のカメラパラメータ算出装置。
The difference is an absolute value of the difference between the pixel values.
The camera parameter calculation apparatus according to claim 3.
前記差は、前記画素値の差の2乗値である、
請求項3に記載のカメラパラメータ算出装置。
The difference is a square value of the difference between the pixel values.
The camera parameter calculation apparatus according to claim 3.
前記1又は複数のカメラは、2以上のカメラであり、
前記カメラパラメータ算出器は、複数の差に基づいて前記カメラパラメータを算出し、
前記複数の差の各々は、
前記複数の3次元点のうちの1つの3次元点について前記2以上のカメラで撮影した個々の画像における対応点での画素値のうち1つの画素値と
当該画素値の平均値と、の差である、
請求項1又は2に記載のカメラパラメータ算出装置。
The one or more cameras are two or more cameras;
The camera parameter calculator calculates the camera parameter based on a plurality of differences;
Each of the plurality of differences is
The difference between the pixel value of one pixel value at the corresponding point in each image captured by the two or more cameras and the average value of the pixel values for one of the plurality of three-dimensional points. Is,
The camera parameter calculation apparatus according to claim 1 or 2.
前記差は、前記画素値と前記平均値との差の絶対値である、
請求項6に記載のカメラパラメータ算出装置。
The difference is an absolute value of a difference between the pixel value and the average value.
The camera parameter calculation apparatus according to claim 6.
前記差は、前記画素値と前記平均値との差の2乗値である、
請求項6に記載のカメラパラメータ算出装置。
The difference is a square value of a difference between the pixel value and the average value.
The camera parameter calculation apparatus according to claim 6.
前記1又は複数のカメラは、2以上のカメラであり、
前記カメラパラメータ算出器は、同じ3次元点に対応する前記個々の画像における対応点の近傍画素における画素値パターンの類似度に基づいて前記カメラパラメータを算出する、
請求項1又は2に記載のカメラパラメータ算出装置。
The one or more cameras are two or more cameras;
The camera parameter calculator calculates the camera parameter based on a similarity of a pixel value pattern in a neighboring pixel of the corresponding point in the individual images corresponding to the same three-dimensional point;
The camera parameter calculation apparatus according to claim 1 or 2.
前記カメラパラメータ算出器は、複数の正規化相互相関に基づいてカメラパラメータを算出し、前記複数の正規化相互相関の各々は、前記複数の3次元点のうちの1つの3次元点について前記2以上のカメラで撮影した個々の画像における対応点の近傍に含まれる画素値の相関である、
請求項9に記載のカメラパラメータ算出装置。
The camera parameter calculator calculates camera parameters based on a plurality of normalized cross-correlations, and each of the plurality of normalized cross-correlations includes the 2 for one 3D point of the plurality of 3D points. Correlation of pixel values included in the vicinity of corresponding points in individual images taken with the above cameras.
The camera parameter calculation apparatus according to claim 9.
前記カメラパラメータ算出器は、前記複数の3次元点のうち、少なくとも何れか1つの画像において離間距離が閾値以下である複数の対応点が求まった3次元点を、前記カメラパラメータの算出から除外する、
請求項1から10の何れか1項に記載のカメラパラメータ算出装置。
The camera parameter calculator excludes, from the calculation of the camera parameters, a three-dimensional point in which a plurality of corresponding points whose separation distances are equal to or less than a threshold in at least one of the plurality of three-dimensional points is obtained. ,
The camera parameter calculation device according to claim 1.
前記カメラパラメータ算出器は、前記複数の3次元点のうち、前記1又は複数の画像のうちの少なくとも1つの画像の対応点における輝度勾配が閾値より小さい1又は複数の3次元点を除いた3次元点から前記カメラパラメータを算出する、
請求項1から10の何れか1項に記載のカメラパラメータ算出装置。
The camera parameter calculator excludes one or a plurality of three-dimensional points having a luminance gradient at a corresponding point of at least one of the one or more images smaller than a threshold value from the plurality of three-dimensional points. Calculating the camera parameters from the dimension points;
The camera parameter calculation device according to claim 1.
前記3次元点群データは、所定の測距視点から出射された測定光の反射に基づいて、前記複数の3次元点の3次元位置を表し、
前記カメラパラメータ算出器は、前記複数の3次元点に含まれる2つの3次元点であって、当該2つの3次元点間の距離が閾値より大きく、かつ当該2つの3次元点への前記測定光の方向ベクトルのなす角が閾値より小さい2つの3次元点を、前記カメラパラメータの算出から除外する、
請求項1から10の何れか1項に記載のカメラパラメータ算出装置。
The three-dimensional point cloud data represents a three-dimensional position of the plurality of three-dimensional points based on reflection of measurement light emitted from a predetermined distance measuring viewpoint,
The camera parameter calculator is two three-dimensional points included in the plurality of three-dimensional points, and a distance between the two three-dimensional points is larger than a threshold value, and the measurement to the two three-dimensional points is performed. Excluding from the calculation of the camera parameters two three-dimensional points whose angle formed by the light direction vector is smaller than a threshold value;
The camera parameter calculation device according to claim 1.
前記3次元点群データは、所定の測距視点から出射された測定光の反射に基づいて、前記複数の3次元点の3次元位置と各3次元点からの当該測定光の戻り光の強度値とを表し、
前記カメラパラメータ算出器は、前記複数の3次元点のうち、前記測距視点から所定近傍内に見えてかつ前記強度の差が第1の閾値と第2の閾値とで決まる範囲内にある複数の3次元点のみを用いて前記カメラパラメータを算出する、
請求項1から10の何れか1項に記載のカメラパラメータ算出装置。
The three-dimensional point group data includes the three-dimensional positions of the plurality of three-dimensional points and the intensity of the return light of the measurement light from each three-dimensional point based on the reflection of the measurement light emitted from a predetermined distance measurement viewpoint. Value and
The camera parameter calculator includes a plurality of three-dimensional points that are visible within a predetermined vicinity from the distance measurement viewpoint, and that the difference in intensity is within a range determined by a first threshold value and a second threshold value. The camera parameters are calculated using only the three-dimensional points of
The camera parameter calculation device according to claim 1.
前記3次元点群データは、3次元レーザースキャナによって前記複数の3次元点を測距して得たデータである、
請求項1から14の何れか1項に記載のカメラパラメータ算出装置。
The three-dimensional point group data is data obtained by measuring the plurality of three-dimensional points with a three-dimensional laser scanner.
The camera parameter calculation apparatus according to any one of claims 1 to 14.
前記3次元点群データは、所定の測距視点から出射された測定光の反射と当該測距視点からのカラー撮影とに基づいて、前記複数の3次元点の3次元位置と各3次元点にある物体の色とを表し、
前記カメラパラメータ算出器は、前記複数の3次元点のうち、前記測距視点から所定近傍内に見えてかつ前記物体の色の差が第1の閾値と第2の閾値とで決まる範囲内にある複数の3次元点のみを用いて前記カメラパラメータを算出する、
請求項2から10の何れか1項に記載のカメラパラメータ算出装置。
The three-dimensional point cloud data is based on the reflection of measurement light emitted from a predetermined distance measurement viewpoint and color photographing from the distance measurement viewpoint, and the three-dimensional positions of the plurality of three-dimensional points and the respective three-dimensional points. Represents the color of the object in
The camera parameter calculator is within a range of the plurality of three-dimensional points that can be seen within a predetermined vicinity from the distance measurement viewpoint and that the color difference of the object is determined by a first threshold value and a second threshold value. Calculating the camera parameters using only a plurality of three-dimensional points;
The camera parameter calculation apparatus according to any one of claims 2 to 10.
前記3次元点群データは、所定の測距視点から出射された測定光の反射と当該測距視点からのカラー撮影とに基づいて、前記複数の3次元点の3次元位置と各3次元点にある物体の色とを表し、
前記1又は複数のカメラの各々はカラーカメラであり、
前記カメラパラメータ算出器は、複数の差に基づいて前記1又は複数のカメラのうちの1つのカメラのカメラパラメータを算出し、前記複数の差の各々は、前記複数の3次元点のうちの1つの3次元点について前記1つのカメラで撮影した画像における対応点での画素値によって表される色と、前記3次元点群データによって表される前記1つの3次元点にある物体の色との差である、
請求項1に記載のカメラパラメータ算出装置。
The three-dimensional point cloud data is based on the reflection of measurement light emitted from a predetermined distance measurement viewpoint and color photographing from the distance measurement viewpoint, and the three-dimensional positions of the plurality of three-dimensional points and the respective three-dimensional points. Represents the color of the object in
Each of the one or more cameras is a color camera;
The camera parameter calculator calculates camera parameters of one of the one or more cameras based on a plurality of differences, and each of the plurality of differences is one of the plurality of three-dimensional points. A color represented by a pixel value at a corresponding point in an image photographed by the one camera with respect to two three-dimensional points, and a color of an object at the one three-dimensional point represented by the three-dimensional point group data Is the difference,
The camera parameter calculation apparatus according to claim 1.
前記点群取得器は、測距空間をカラー撮影するカラーカメラ付きの3次元レーザースキャナから、前記3次元点群データを取得する、
請求項16又は17に記載のカメラパラメータ算出装置。
The point group acquisition unit acquires the three-dimensional point group data from a three-dimensional laser scanner with a color camera that color-shoots a ranging space;
The camera parameter calculation apparatus according to claim 16 or 17.
1又は複数のカメラの撮影空間に含まれる複数の3次元点の各々の3次元位置を表す3次元点群データを取得する点群取得ステップと、
前記3次元点群データと前記各カメラの初期カメラパラメータとに基づいて、前記複数の3次元点の各々について前記1又は複数のカメラで撮影した個々の画像における対応点を求め、前記各カメラの初期カメラパラメータと前記個々の画像における前記対応点における画素値とに基づいて、前記各カメラのカメラパラメータを算出するカメラパラメータ算出ステップと、
前記算出された前記各カメラの前記カメラパラメータを出力するカメラパラメータ出力ステップと、
を含むカメラパラメータ算出方法。
A point cloud acquisition step of acquiring three-dimensional point cloud data representing a three-dimensional position of each of a plurality of three-dimensional points included in the imaging space of one or a plurality of cameras;
Based on the three-dimensional point cloud data and the initial camera parameters of each of the cameras, a corresponding point in each image captured by the one or more cameras is obtained for each of the plurality of three-dimensional points, Camera parameter calculation step for calculating camera parameters of each camera based on initial camera parameters and pixel values at the corresponding points in the individual images;
A camera parameter output step of outputting the calculated camera parameter of each camera;
Camera parameter calculation method.
1又は複数のカメラの撮影空間に含まれる複数の3次元点の各々の3次元位置を表す3次元点群データを取得する点群取得ステップと、
前記3次元点群データと前記各カメラの初期カメラパラメータとに基づいて、前記複数の3次元点の各々について前記1又は複数のカメラで撮影した個々の画像における対応点を求め、前記各カメラの初期カメラパラメータと前記個々の画像における前記対応点における画素値とに基づいて、前記各カメラのカメラパラメータを算出するカメラパラメータ算出ステップと、
前記算出された前記各カメラの前記カメラパラメータを出力するカメラパラメータ出力ステップと、
をコンピュータに実行させるプログラム。
A point cloud acquisition step of acquiring three-dimensional point cloud data representing a three-dimensional position of each of a plurality of three-dimensional points included in the imaging space of one or a plurality of cameras;
Based on the three-dimensional point cloud data and the initial camera parameters of each of the cameras, a corresponding point in each image captured by the one or more cameras is obtained for each of the plurality of three-dimensional points, Camera parameter calculation step for calculating camera parameters of each camera based on initial camera parameters and pixel values at the corresponding points in the individual images;
A camera parameter output step of outputting the calculated camera parameter of each camera;
A program that causes a computer to execute.
1又は複数のカメラの撮影空間に含まれる複数の3次元点の各々の3次元位置を表す3次元点群データを取得する点群取得ステップと、
前記3次元点群データと前記各カメラの初期カメラパラメータとに基づいて、前記複数の3次元点の各々について前記1又は複数のカメラで撮影した個々の画像における対応点を求め、前記各カメラの初期カメラパラメータと前記個々の画像における前記対応点における画素値とに基づいて、前記各カメラのカメラパラメータを算出するカメラパラメータ算出ステップと、
前記算出された前記各カメラの前記カメラパラメータを出力するカメラパラメータ出力ステップと、
をコンピュータに実行させるプログラムを記録しているコンピュータ読み取り可能な記録媒体。
A point cloud acquisition step of acquiring three-dimensional point cloud data representing a three-dimensional position of each of a plurality of three-dimensional points included in the imaging space of one or a plurality of cameras;
Based on the three-dimensional point cloud data and the initial camera parameters of each of the cameras, a corresponding point in each image captured by the one or more cameras is obtained for each of the plurality of three-dimensional points, Camera parameter calculation step for calculating camera parameters of each camera based on initial camera parameters and pixel values at the corresponding points in the individual images;
A camera parameter output step of outputting the calculated camera parameter of each camera;
A computer-readable recording medium in which a program for causing a computer to execute is recorded.
JP2017057505A 2016-09-08 2017-03-23 Camera parameter calculation device, camera parameter calculation method, program, and recording medium Active JP7038315B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710573597.2A CN107808398B (en) 2016-09-08 2017-07-14 Camera parameter calculation device, calculation method, program, and recording medium
US15/687,761 US10664995B2 (en) 2016-09-08 2017-08-28 Camera parameter calculation apparatus, method, and recording medium based on an absolute value of corresponding pixel values
US16/242,291 US10769814B2 (en) 2016-09-08 2019-01-08 Camera parameter calculation apparatus based on the average pixel values

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016175919 2016-09-08
JP2016175919 2016-09-08

Publications (2)

Publication Number Publication Date
JP2018044942A true JP2018044942A (en) 2018-03-22
JP7038315B2 JP7038315B2 (en) 2022-03-18

Family

ID=61693021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017057505A Active JP7038315B2 (en) 2016-09-08 2017-03-23 Camera parameter calculation device, camera parameter calculation method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP7038315B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020195755A1 (en) * 2019-03-26 2020-10-01
JP2020173167A (en) * 2019-04-10 2020-10-22 株式会社神戸製鋼所 Three-dimensional position measuring device, three-dimensional position measuring method, and program
WO2022186141A1 (en) * 2021-03-04 2022-09-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Method for learning network parameter of neural network, method for calculating camera parameter, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999058927A1 (en) * 1998-05-08 1999-11-18 Sony Corporation Image generating device and method
JP2004085553A (en) * 2002-06-26 2004-03-18 Pentax Corp Surveying system
JP2005077385A (en) * 2003-09-03 2005-03-24 Hitachi Plant Eng & Constr Co Ltd Image correlation method, survey method and measuring system using them
JP2006250722A (en) * 2005-03-10 2006-09-21 Toshiba Corp Device, method and program for calibration
JP2011047739A (en) * 2009-08-26 2011-03-10 Kddi Corp Calibration device for camera parameter and program
JP2016057108A (en) * 2014-09-08 2016-04-21 株式会社トプコン Arithmetic device, arithmetic system, arithmetic method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999058927A1 (en) * 1998-05-08 1999-11-18 Sony Corporation Image generating device and method
JP2004085553A (en) * 2002-06-26 2004-03-18 Pentax Corp Surveying system
JP2005077385A (en) * 2003-09-03 2005-03-24 Hitachi Plant Eng & Constr Co Ltd Image correlation method, survey method and measuring system using them
JP2006250722A (en) * 2005-03-10 2006-09-21 Toshiba Corp Device, method and program for calibration
JP2011047739A (en) * 2009-08-26 2011-03-10 Kddi Corp Calibration device for camera parameter and program
JP2016057108A (en) * 2014-09-08 2016-04-21 株式会社トプコン Arithmetic device, arithmetic system, arithmetic method and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020195755A1 (en) * 2019-03-26 2020-10-01
JP7262064B2 (en) 2019-03-26 2023-04-21 パナソニックIpマネジメント株式会社 Ranging Imaging System, Ranging Imaging Method, and Program
JP2020173167A (en) * 2019-04-10 2020-10-22 株式会社神戸製鋼所 Three-dimensional position measuring device, three-dimensional position measuring method, and program
JP7136737B2 (en) 2019-04-10 2022-09-13 株式会社神戸製鋼所 Three-dimensional position measuring device, three-dimensional position measuring method and program
WO2022186141A1 (en) * 2021-03-04 2022-09-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Method for learning network parameter of neural network, method for calculating camera parameter, and program

Also Published As

Publication number Publication date
JP7038315B2 (en) 2022-03-18

Similar Documents

Publication Publication Date Title
JP7038346B2 (en) Camera parameter calculation method, camera parameter calculation program, and camera parameter calculation device
JP6576945B2 (en) Calibration apparatus, calibration method, optical apparatus, photographing apparatus, projection apparatus, measurement system, and measurement method
CN107808398B (en) Camera parameter calculation device, calculation method, program, and recording medium
TWI555379B (en) An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof
KR101766603B1 (en) Image processing apparatus, image processing system, image processing method, and computer program
US9886759B2 (en) Method and system for three-dimensional data acquisition
JP6363863B2 (en) Information processing apparatus and information processing method
US11798141B2 (en) Method and apparatus for calibrating augmented reality headsets
CN107155341B (en) Three-dimensional scanning system and frame
JP2015128242A (en) Image projection device and calibration method of the same
JP2014178265A (en) Calibration device, method and program
JP2012088114A (en) Optical information processing device, optical information processing method, optical information processing system and optical information processing program
JPWO2018235163A1 (en) Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method
JP7038315B2 (en) Camera parameter calculation device, camera parameter calculation method, program, and recording medium
JP2016217833A (en) Image processing system and image processing method
JP2008249431A (en) Three-dimensional image correction method and its device
JP5313187B2 (en) Stereoscopic image correction apparatus and stereoscopic image correction method
JP5487946B2 (en) Camera image correction method, camera apparatus, and coordinate transformation parameter determination apparatus
JP2019056606A (en) Stereo camera
JP2007033087A (en) Calibration device and method
JP5727969B2 (en) Position estimation apparatus, method, and program
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
JP2022024688A (en) Depth map generation device and program thereof, and depth map generation system
JP5967470B2 (en) Inspection device
KR20200032442A (en) 3D information generating device and method capable of self-calibration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220218

R151 Written notification of patent or utility model registration

Ref document number: 7038315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151