JP4297197B2 - Calibration processing apparatus, calibration processing method, and computer program - Google Patents

Calibration processing apparatus, calibration processing method, and computer program Download PDF

Info

Publication number
JP4297197B2
JP4297197B2 JP2008271650A JP2008271650A JP4297197B2 JP 4297197 B2 JP4297197 B2 JP 4297197B2 JP 2008271650 A JP2008271650 A JP 2008271650A JP 2008271650 A JP2008271650 A JP 2008271650A JP 4297197 B2 JP4297197 B2 JP 4297197B2
Authority
JP
Japan
Prior art keywords
feature point
matrix
sphere
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008271650A
Other languages
Japanese (ja)
Other versions
JP2009071844A (en
Inventor
偉国 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008271650A priority Critical patent/JP4297197B2/en
Publication of JP2009071844A publication Critical patent/JP2009071844A/en
Application granted granted Critical
Publication of JP4297197B2 publication Critical patent/JP4297197B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラムに関する。さらに詳細には、異なる位置に配置した複数のカメラで被写体を撮影して多視点画像を生成する多視点画像撮影カメラ間の調整、または多視点画像撮影カメラの取得画像の補正処理に適用するパラメータ算出処理を行うキャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラムに関する。   The present invention relates to a calibration processing apparatus, a calibration processing method, and a computer program. More specifically, parameters applied to adjustment between multi-view image capturing cameras that shoot a subject with a plurality of cameras arranged at different positions to generate a multi-view image, or correction processing of an acquired image of the multi-view image capturing camera. The present invention relates to a calibration processing apparatus that performs calculation processing, a calibration processing method, and a computer program.

近年、パノラマ、全天球画像など、視点を様々に移動可能とした画像データの利用が盛んになりつつある。例えば、DVD、CD等の記憶媒体に複数の視点位置、視線方向からある被写体を撮影した画像を蓄積し、蓄積画像をCRT、液晶表示装置等に表示する際に、ユーザがコントローラの操作によって、自由な位置に視点を移動させて、被写体の像を観察するシステムが実現されている。また、インターネット等の通信システムを介して複数の視点位置、視線方向からある被写体を撮影した画像を配信し、ユーザがPC等のマウス操作により、好みの視点位置、視線方向からの画像をディスプレイに表示するシステム等が構築されている。   In recent years, use of image data such as panorama, omnidirectional images, and the like in which viewpoints can be moved in various ways is becoming popular. For example, when an image obtained by photographing a subject from a plurality of viewpoint positions and line-of-sight directions is accumulated in a storage medium such as a DVD or CD, and the accumulated image is displayed on a CRT, a liquid crystal display device, etc., the user can A system for observing an image of a subject by moving the viewpoint to a free position has been realized. Also, images taken from a plurality of viewpoint positions and line-of-sight directions are distributed via a communication system such as the Internet, and the image from the desired viewpoint position and line-of-sight direction is displayed on the display by the user operating a mouse such as a PC. A system for displaying is constructed.

コンピュータの処理能力の向上や多様な映像メディア再生機器の発展に伴って、以前困難とされた膨大なポリゴンデータや映像データ(コンテンツ)の処理が可能となり、視点の異なる複数台カメラで撮影された実世界(対象)の映像データをコンピュータや映像機器等により処理し、ユーザの要望に応じた任意視点の映像を実時間に生成し提示することができるようになってきている。   With the improvement of computer processing capability and the development of various video media playback devices, it became possible to process a huge amount of polygon data and video data (contents) that were previously difficult, and were shot with multiple cameras with different viewpoints. Real world (target) video data is processed by a computer, video equipment, or the like, and an arbitrary viewpoint video according to a user's request can be generated and presented in real time.

コンピュータ上の処理によって複数の視点で撮影された画像から任意視点映像を生成し、提示するためには、(1)全てのカメラが同一の領域(注目対象)を見えていること、(2)各カメラ間の位置関係等が得られることが必要である。   In order to generate and present an arbitrary viewpoint video from images photographed from a plurality of viewpoints by processing on a computer, (1) all cameras should be able to see the same area (target object), (2) It is necessary to obtain the positional relationship between the cameras.

同じ対象を注目している視点の異なる複数カメラで撮影した多視点映像に基づいて、実写カメラの間の任意位置の仮想カメラで撮影した仮想視点映像を画像処理によって生成することが可能であるが、高精度な仮想視点映像を生成するには実写カメラ間の位置関係を正確に求めることが必要となる。実写カメラ間の位置関係を示すパラメータとしてジオメトリ・パラメータ(Geometry Parameters)がある。ジオメトリ・パラメータは、行列式によって表現され、これをファンダメンタル(Fundamental)行列またはF行列と呼ぶ。   Although it is possible to generate a virtual viewpoint video shot by a virtual camera at an arbitrary position between live-action cameras by image processing based on multi-view video shot by multiple cameras with different viewpoints focusing on the same target In order to generate a highly accurate virtual viewpoint video, it is necessary to accurately determine the positional relationship between the live-action cameras. There is a geometry parameter (Geometry Parameters) as a parameter indicating the positional relationship between live-action cameras. The geometry parameter is expressed by a determinant and is called a fundamental matrix or F matrix.

実写カメラ間の位置関係を表すファンダメンタル(Fundamental)行列を求める方法は、これまでにも数多く提案されている。例えば、幾つかの(隣接)カメラによって、三次元空間にあるチェッカパターンを同時に観測し、チェッカパターン画像上の特徴点(例えば、白黒パターンの交差点位置)を抽出し、それらの特徴点の対応付けを行うことによって、ファンダメンタル(Fundamental)行列を推定する方法が知られている(例えば非特許文献1)。   Many methods for obtaining a fundamental matrix representing the positional relationship between live-action cameras have been proposed. For example, checker patterns in a three-dimensional space are simultaneously observed by several (adjacent) cameras, feature points on the checker pattern image (for example, intersection positions of black and white patterns) are extracted, and the feature points are associated with each other. A method of estimating a fundamental matrix by performing the above is known (for example, Non-Patent Document 1).

しかしながら、(1)実際の撮影現場では、照明光の影響(例えば、反射光)等によって、撮影したチェッカパターン画像から必ずしも対応点を精度よく求めることができないため、高精度なファンダメンタル行列(以下、F行列と表現する)を推定することが容易ではない。(2)また、視点の異なる多数カメラで同一のチェッカパターンプレートを観測する場合、観測カメラはチェッカパターンプレートに正対していない場合が多く、そのため、観測されたチェッカパターン画像上のパターン変形によって、チェッカパターン画像における特徴点位置を精度よく検出することが容易ではないという問題がある。   However, (1) In an actual shooting site, the corresponding points cannot always be accurately obtained from the shot checker pattern image due to the influence of illumination light (for example, reflected light). It is not easy to estimate (expressed as F matrix). (2) Also, when observing the same checker pattern plate with a large number of cameras with different viewpoints, the observation camera often does not face the checker pattern plate. Therefore, due to pattern deformation on the observed checker pattern image, There is a problem that it is not easy to accurately detect the feature point positions in the checker pattern image.

(3)さらに、多数のカメラを同じ対象(被写体)を囲むように配置しようとした場合、撮影されたチェッカパターンが変形するだけでなく、平面状のチェッカパターンを用いると、チェッカパターンを360度周囲取り囲むよう配置しても全てのカメラが同じチェッカパターンを同時に撮影することができない。その際、多視点カメラを幾つかのグループに分けて、チェッカパターンを複数のカメラで複数回に分けて撮影することが必要となり、多くの労力や時間等を費やすことになる。(4)さらに、カメラキャリブレーションを行う際、F行列を推定するためのチェッカ画像パターンが十分に収録できたか、またそれらのチェッカパターンの空間位置が適切であるかどうかを判断する処理についての明確な基準がなく、結果的に算出されるF行列の精度が保証されないという問題がある。
R.Y.Tsai: An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, FL, pp.364-374,(1986)
(3) Further, when a large number of cameras are arranged so as to surround the same object (subject), not only the photographed checker pattern is deformed, but also when the flat checker pattern is used, the checker pattern is changed to 360 degrees. Even if they are arranged so as to surround the periphery, all the cameras cannot photograph the same checker pattern at the same time. At this time, it is necessary to divide the multi-viewpoint camera into several groups and shoot the checker pattern by dividing the checker pattern into a plurality of times with a plurality of cameras, which requires much labor and time. (4) Further, when performing camera calibration, it is clear about the process for determining whether or not the checker image patterns for estimating the F matrix have been sufficiently recorded and whether the spatial positions of these checker patterns are appropriate. There is a problem that the accuracy of the F matrix calculated as a result is not guaranteed.
RYTsai: An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, FL, pp.364-374, (1986)

本発明は、上述の問題点に鑑みてなされたものであり、多視点映像撮影システムを構成する実写カメラ間の位置関係を示すパラメータであるジオメトリ・パラメータ(Geometry Parameters)の算出を高精度に行なうことを可能とし、高速かつ高精度なカメラキャリブレーションを実現するカメラキャリブレーション装置、およびカメラキャリブレーション方法、並びにコンピュータ・プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and performs highly accurate calculation of geometry parameters, which are parameters indicating the positional relationship between live-action cameras that constitute a multi-view video shooting system. It is an object of the present invention to provide a camera calibration apparatus, a camera calibration method, and a computer program that realize high-speed and highly accurate camera calibration.

本発明は、照明環境等に影響しにくい発光球体をキャリブレーション治具として用い、球体の中心位置をリアルタイムに検出し対応付けしながらF行列を推定し、推定されたF行列と対応点との誤差や位置関係などを評価することによって、必要となる対応点の数や三次元空間上に置くべき球体位置を指示し、より高精度なF行列を自動的に推定するものである。   The present invention uses a light-emitting sphere that does not easily affect the illumination environment or the like as a calibration jig, estimates the F matrix while detecting and correlating the center position of the sphere in real time, and calculates the estimated F matrix and corresponding points By evaluating errors, positional relationships, etc., the number of corresponding points required and the position of the sphere to be placed in the three-dimensional space are indicated, and a more accurate F matrix is automatically estimated.

球体の形状はカメラ観測視点位置によらないため、様々な視点位置で全てのカメラによって観測可能となる。また、同期機能を備えた多視点映像撮影システムによって球体画像を観測撮影し、各パソコン上のメモリやハードディスクなどの記録媒体に収録しながらカメラキャリブレーションを行うことが可能である。そして、各パソコン上の画像処理手法によって、各フレーム画像における球体中心の座標位置(特徴点)を抽出し、抽出した特徴点を用いた画像間の対応付けによってファンダメンタル(Fundamental)行列を推定する。さらに、推定されたF行列の精度評価を実行して、対応点の数や対応点の適切な位置、つまり、球体の空間位置を自動的に提示し、高速かつ高精度なカメラ間パラメータの自動的推定を実現する装置および方法を提供する。   Since the shape of the sphere does not depend on the camera observation viewpoint position, it can be observed by all cameras at various viewpoint positions. In addition, it is possible to perform camera calibration while observing and shooting a spherical image with a multi-view video shooting system having a synchronization function and recording it on a recording medium such as a memory or a hard disk on each personal computer. Then, the coordinate position (feature point) of the sphere center in each frame image is extracted by an image processing method on each personal computer, and a fundamental matrix is estimated by association between images using the extracted feature points. Furthermore, the accuracy evaluation of the estimated F matrix is executed, the number of corresponding points and the appropriate position of the corresponding points, that is, the spatial position of the sphere, are automatically presented, and high-speed and highly accurate inter-camera parameters are automatically An apparatus and method is provided for implementing dynamic estimation.

本発明の第1の側面は、
多視点画像撮影カメラ間の調整、または多視点画像撮影カメラによる取得画像の補正処理に適用するパラメータ算出処理を実行するキャリブレーション処理装置であり、
移動する球体を異なる視点方向から撮影した複数カメラの映像データを入力する画像入力部と、
前記画像入力部において入力する複数カメラの映像データを構成する複数の撮影画像フレームから球体中心位置を特徴点として抽出する処理を実行する特徴点抽出部と、
各カメラの対応フレームにおける特徴点として前記特徴点抽出部において抽出された球体中心位置の対応付け処理を実行する対応付け処理部と、
前記対応付け処理部において対応付けのなされた特徴点対応データに基づいてキャリブレーションパラメータとしてのF行列[ファンダメンタル(Fundamental)行列]を算出するF行列算出部を有し、
前記特徴点抽出部は、前記F行列の9個の要素の比率を算出するために必要となる少なくとも8点の球体中心位置データを各カメラの複数の撮影画像フレームから取得し、
前記対応付け処理部は、前記特徴点抽出部において抽出された8点以上の球体中心位置の対応付け処理を実行し、
前記F行列算出部は、対応付けのなされた8以上の特徴点対応データに基づいてキャリブレーションパラメータとしてのファンダメンタル(Fundamental)行列の要素値算出を実行する構成であることを特徴とするキャリブレーション処理装置にある。
The first aspect of the present invention is:
A calibration processing device that executes parameter calculation processing applied to adjustment between multi-viewpoint image capturing cameras or correction processing of an acquired image by a multi-viewpoint image capturing camera,
An image input unit for inputting video data of a plurality of cameras obtained by photographing moving spheres from different viewpoint directions;
A feature point extraction unit that executes a process of extracting a sphere center position as a feature point from a plurality of captured image frames constituting video data of a plurality of cameras input in the image input unit;
An association processing unit that executes an association process of the sphere center position extracted by the feature point extraction unit as a feature point in the corresponding frame of each camera;
An F matrix calculation unit that calculates an F matrix [fundamental matrix] as a calibration parameter based on the feature point correspondence data associated in the association processing unit;
The feature point extraction unit obtains at least eight sphere center position data necessary for calculating a ratio of nine elements of the F matrix from a plurality of captured image frames of each camera;
The association processing unit executes an association process of eight or more spherical center positions extracted by the feature point extraction unit,
The F matrix calculation unit is configured to perform element value calculation of a fundamental matrix as a calibration parameter based on eight or more feature point correspondence data associated with each other. In the device.

さらに、本発明のキャリブレーション処理装置の一実施態様において、前記球体は、発光球体であり、前記特徴点抽出部は、フレームに撮影された球体のエッジ情報に基づいて球体中心位置を算出する処理を実行する構成であることを特徴とする。   Furthermore, in one embodiment of the calibration processing apparatus of the present invention, the sphere is a light emitting sphere, and the feature point extraction unit calculates a sphere center position based on edge information of the sphere photographed in the frame. It is the structure which performs.

さらに、本発明のキャリブレーション処理装置の一実施態様において、前記F行列算出部は、算出したF行列に基づくエピポーララインを設定し、設定したエピポーララインと、特徴点に対応する球体中心位置との距離を個別にまたは平均距離として算出し、該算出距離が予め定めた閾値より大である場合は新たな特徴点を含む特徴点対応データに基づいてF行列の再算出処理を実行する構成であることを特徴とする。   Furthermore, in an embodiment of the calibration processing apparatus of the present invention, the F matrix calculation unit sets an epipolar line based on the calculated F matrix, and sets the epipolar line and a spherical center position corresponding to the feature point. The distance is calculated individually or as an average distance, and when the calculated distance is larger than a predetermined threshold, the F matrix recalculation process is executed based on feature point correspondence data including a new feature point. It is characterized by that.

さらに、本発明のキャリブレーション処理装置の一実施態様において、前記F行列算出部は、撮影画像フレーム内における球体中心位置、すなわち特徴点の分布状況判定処理を実行し、特徴点偏在が確認された場合、該偏在を解消する位置に追加設定した特徴点を含む特徴点対応データに基づくF行列再算出処理を実行する構成であることを特徴とする。   Furthermore, in an embodiment of the calibration processing apparatus of the present invention, the F matrix calculation unit performs a spherical center position in the captured image frame, that is, a feature point distribution state determination process, and feature point uneven distribution is confirmed. In this case, the F matrix recalculation process is performed based on feature point correspondence data including feature points additionally set at positions where the uneven distribution is eliminated.

さらに、本発明のキャリブレーション処理装置の一実施態様において、前記特徴点抽出部は、撮影フレーム内に球体全体のエッジが存在する場合にのみ、該エッジ情報に基づく中心位置算出処理を実行する構成であることを特徴とする。   Furthermore, in an embodiment of the calibration processing apparatus of the present invention, the feature point extraction unit executes a center position calculation process based on the edge information only when an edge of the entire sphere exists in the imaging frame. It is characterized by being.

さらに、本発明の第2の側面は、
多視点画像撮影カメラ間の調整、または多視点画像撮影カメラの取得画像の補正処理に適用するパラメータ算出処理を実行するキャリブレーション処理方法であり、
移動する球体を異なる視点方向から撮影した複数カメラの映像データを入力する画像入力ステップと、
前記画像入力ステップにおいて入力する複数カメラの映像データを構成する複数の撮影画像フレームから球体中心位置を特徴点として抽出する特徴点抽出ステップと、
前記特徴点抽出ステップにおいて抽出された球体中心位置に基づいて特徴点対応付け処理を実行する対応付け処理ステップと、
前記対応付け処理ステップにおいて対応付けのなされた特徴点対応データに基づいてキャリブレーションパラメータとしてのF行列[ファンダメンタル(Fundamental)行列]を算出するF行列算出ステップを有し、
前記特徴点抽出ステップは、前記F行列の9個の要素の比率を算出するために必要となる少なくとも8点の球体中心位置データを各カメラの複数の撮影画像フレームから取得し、
前記対応付け処理ステップは、前記特徴点抽出ステップにおいて抽出された8点以上の球体中心位置の対応付け処理を実行し、
前記F行列算出ステップは、対応付けのなされた8以上の特徴点対応データに基づいてキャリブレーションパラメータとしてのファンダメンタル(Fundamental)行列を構成する要素値算出を実行することを特徴とするキャリブレーション処理方法にある。
Furthermore, the second aspect of the present invention provides
It is a calibration processing method for executing parameter calculation processing applied to adjustment between multi-viewpoint image capturing cameras or correction processing of acquired images of multi-viewpoint image capturing cameras.
An image input step for inputting video data of a plurality of cameras obtained by photographing moving spheres from different viewpoint directions;
A feature point extracting step of extracting a sphere center position as a feature point from a plurality of captured image frames constituting video data of a plurality of cameras input in the image input step;
An association processing step for performing a feature point association process based on the spherical center position extracted in the feature point extraction step;
An F matrix calculation step of calculating an F matrix [fundamental matrix] as a calibration parameter based on the feature point correspondence data associated in the association processing step;
The feature point extraction step acquires at least eight sphere center position data necessary for calculating a ratio of nine elements of the F matrix from a plurality of captured image frames of each camera;
The association processing step executes an association process of eight or more spherical center positions extracted in the feature point extraction step,
The F matrix calculation step performs a calculation of element values constituting a fundamental matrix as a calibration parameter based on eight or more feature point correspondence data associated with each other. It is in.

さらに、本発明のキャリブレーション処理方法の一実施態様において、前記球体は、発光球体であり、前記特徴点抽出ステップは、フレームに撮影された球体のエッジ情報に基づいて球体中心位置の算出処理を実行することを特徴とする。   Furthermore, in an embodiment of the calibration processing method of the present invention, the sphere is a light emitting sphere, and the feature point extraction step performs a sphere center position calculation process based on edge information of the sphere photographed in the frame. It is characterized by performing.

さらに、本発明のキャリブレーション処理方法の一実施態様において、前記F行列算出ステップは、算出したF行列に基づくエピポーララインを設定し、設定したエピポーララインと前記特徴点としての球体中心位置との距離を個別にまたは平均距離として算出し、該算出距離が予め定めた閾値より大である場合は新たな特徴点を含む特徴点対応データに基づくF行列再算出処理を実行することを特徴とする。   Furthermore, in an embodiment of the calibration processing method of the present invention, the F matrix calculation step sets an epipolar line based on the calculated F matrix, and a distance between the set epipolar line and the spherical center position as the feature point Are calculated individually or as an average distance, and when the calculated distance is larger than a predetermined threshold value, an F matrix recalculation process based on feature point correspondence data including a new feature point is executed.

さらに、本発明のキャリブレーション処理方法の一実施態様において、前記F行列算出ステップは、撮影画像フレーム内における球体中心位置、すなわち特徴点の分布状況判定処理を実行し、特徴点偏在が確認された場合、該偏在を解消する位置に追加設定した追加特徴点を含む特徴点対応データに基づくF行列再算出処理を実行することを特徴とする。   Furthermore, in one embodiment of the calibration processing method of the present invention, the F matrix calculation step executes a spherical center position in the captured image frame, that is, a feature point distribution state determination process, and feature point uneven distribution is confirmed. In this case, the F matrix recalculation process is performed based on the feature point correspondence data including the additional feature point additionally set at the position where the uneven distribution is eliminated.

さらに、本発明のキャリブレーション処理方法の一実施態様において、前記特徴点抽出ステップは、撮影フレーム内に球体全体のエッジが存在する場合にのみ、該エッジ情報に基づく中心位置算出処理を実行することを特徴とする。   Furthermore, in an embodiment of the calibration processing method of the present invention, the feature point extraction step executes the center position calculation process based on the edge information only when the edge of the entire sphere exists in the shooting frame. It is characterized by.

さらに、本発明の第3の側面は、
多視点画像撮影カメラ間の調整、または多視点画像撮影カメラの取得画像の補正処理に適用するパラメータ算出処理を実行するコンピュータ・プログラムであって、
移動する球体を異なる視点方向から撮影した複数カメラの映像データを入力する画像入力ステップと、
前記画像入力ステップにおいて入力する複数カメラの映像データを構成する複数の撮影画像フレームから球体中心位置を特徴点として抽出する特徴点抽出ステップと、
前記特徴点抽出ステップにおいて抽出された球体中心位置の対応付け処理を実行する対応付け処理ステップと、
前記対応付け処理ステップにおいて対応付けのなされた特徴点対応データに基づいてキャリブレーションパラメータとしてのF行列[ファンダメンタル(Fundamental)行列]を算出するF行列算出ステップを具備し、
前記特徴点抽出ステップは、前記F行列の9個の要素の比率を算出するために必要となる少なくとも8点の球体中心位置データを各カメラの複数の撮影画像フレームから取得するステップであり、
前記対応付け処理ステップは、前記特徴点抽出ステップにおいて抽出された8点以上の球体中心位置の対応付け処理を実行するステップであり、
前記F行列算出ステップは、対応付けのなされた8以上の特徴点対応データに基づいてキャリブレーションパラメータとしてのファンダメンタル(Fundamental)行列を構成する要素値算出を実行するステップであることを特徴とするコンピュータ・プログラムにある。
Furthermore, the third aspect of the present invention provides
A computer program for executing parameter calculation processing applied to adjustment between multi-viewpoint image capturing cameras or correction processing of acquired images of a multi-viewpoint image capturing camera,
An image input step for inputting video data of a plurality of cameras obtained by photographing moving spheres from different viewpoint directions;
A feature point extracting step of extracting a sphere center position as a feature point from a plurality of captured image frames constituting video data of a plurality of cameras input in the image input step;
An association process step of executing an association process of the sphere center position extracted in the feature point extraction step;
An F matrix calculation step of calculating an F matrix [fundamental matrix] as a calibration parameter based on the feature point correspondence data associated in the association processing step;
The feature point extracting step is a step of acquiring spherical center position data of at least eight points necessary for calculating a ratio of nine elements of the F matrix from a plurality of captured image frames of each camera;
The association processing step is a step of executing association processing of eight or more spherical center positions extracted in the feature point extraction step;
The F matrix calculation step is a step of executing calculation of element values constituting a fundamental matrix as a calibration parameter based on eight or more feature point correspondence data associated with each other.・ It is in the program.

なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。   The program of the present invention is, for example, a program that can be provided by a storage medium or a communication medium provided in a computer-readable format to a general-purpose system capable of executing various program codes. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本発明の構成によれば、多視点画像撮影カメラ間の調整、または多視点画像撮影カメラによる取得画像の補正処理に適用するパラメータ算出処理を実行するキャリブレーション処理において、発光球体を各カメラにより撮影する構成としたので、照明環境が不安定な撮影現場等でも球体検出と球体中心位置の取得を容易に行うことができ、球体中心位置を特徴点として対応付け処理を実行することで高精度なF行列の算出が可能となる。すなわち、多視点映像撮影システムを構成する実写カメラ間の位置関係を示すパラメータであるジオメトリ・パラメータ(Geometry Parameters)としてのファンダメンタル(Fundamental)行列の算出を高精度に行なうことが可能となり、高速かつ高精度なキャリブレーションが可能となる。   According to the configuration of the present invention, the light emitting sphere is photographed by each camera in the calibration process for executing the parameter calculation process applied to the adjustment process between the multi-viewpoint image capturing cameras or the correction process of the acquired image by the multi-viewpoint image capturing camera. Therefore, it is possible to easily detect the sphere and acquire the center position of the sphere even in a shooting site where the lighting environment is unstable, and perform the matching process using the sphere center position as the feature point for high accuracy. The F matrix can be calculated. In other words, it is possible to calculate a fundamental matrix as a geometry parameter (Geometry Parameters), which is a parameter indicating the positional relationship between live-action cameras that constitute a multi-view video shooting system, with high accuracy and high speed. Accurate calibration is possible.

さらに、本発明の構成によれば、発光球体をキャリブレーション治具として用い、球体の中心位置をリアルタイムに検出し対応付けしながらF行列を推定し、推定されたF行列と対応点との誤差や位置関係などを評価することによって、必要となる対応点の数や三次元空間上に置くべき球体位置を指示し、より高精度なF行列を効率的に算出することが可能となる。   Furthermore, according to the configuration of the present invention, the light emitting sphere is used as a calibration jig, the F matrix is estimated while detecting and correlating the center position of the sphere in real time, and the error between the estimated F matrix and the corresponding point By evaluating the position relation and the like, it is possible to indicate the number of necessary corresponding points and the position of the sphere to be placed in the three-dimensional space, and to efficiently calculate a more accurate F matrix.

さらに、本発明の構成によれば、同期機能を備えた多視点映像撮影システムによって球体画像を観測撮影し、各パソコン上のメモリやハードディスクなどの記録媒体に収録しながらカメラキャリブレーションを行うことが可能であり、各パソコン上の画像処理手法によって、各フレーム画像における球体中心の座標位置(特徴点)抽出、抽出特徴点を用いた画像間の対応付けによるファンダメンタル(Fundamental)行列の推定、推定F行列の精度評価、対応点の数や対応点の適切な位置の判定、提示等を、例えばPC上で実行可能であり、高速かつ高精度なキャリブレーション処理を、PC等、簡易なシステムにおいて実行することが可能となる。   Furthermore, according to the configuration of the present invention, a spherical image can be observed and photographed by a multi-viewpoint video photographing system having a synchronization function, and camera calibration can be performed while recording in a recording medium such as a memory or a hard disk on each personal computer. It is possible to estimate the fundamental matrix by extracting the coordinate position (feature point) of the sphere center in each frame image and matching the images using the extracted feature points by image processing method on each personal computer. Evaluation of matrix accuracy, determination of the number of corresponding points and appropriate positions of corresponding points, presentation, etc. can be executed on a PC, for example, and high-speed and high-precision calibration processing is executed on a simple system such as a PC. It becomes possible to do.

以下、本発明のカメラキャリブレーション装置、およびカメラキャリブレーション方法、並びにコンピュータ・プログラムについて、図面を参照しながら詳細に説明する。   Hereinafter, a camera calibration device, a camera calibration method, and a computer program according to the present invention will be described in detail with reference to the drawings.

まず、図1を参照して多視点カメラ撮影処理及び多視点カメラで撮影した実写映像を用いて仮想視点映像を生成する処理について説明する。被写体100を、被写体100周囲に配置した複数のカメラで撮影する。各カメラは、異なる視点からの被写体100の画像を撮影する。実写画像は、配置するカメラ数に応じて取得される。しかし、各カメラ間の実写画像は取得できない。従って各カメラ間の画像、すなわち仮想視点の画像は、実写画像に基づく画像処理によって生成する。   First, with reference to FIG. 1, a multi-viewpoint camera shooting process and a process of generating a virtual viewpoint video using a live-action video shot by a multi-viewpoint camera will be described. The subject 100 is photographed with a plurality of cameras arranged around the subject 100. Each camera captures an image of the subject 100 from a different viewpoint. The photographed image is acquired according to the number of cameras to be arranged. However, real images between the cameras cannot be acquired. Accordingly, an image between the cameras, that is, an image of the virtual viewpoint is generated by image processing based on the photographed image.

例えばカメラA101と、カメラB102との間にカメラが配置されていない場合、カメラA101と、カメラB102との間の画像は、これらのカメラの2つの実写画像111,112に基づいて生成する。これは、実際には撮影されていない画像を生成する処理、いわゆるビューインターポレーション処理によって生成することができる。   For example, when a camera is not disposed between the camera A101 and the camera B102, an image between the camera A101 and the camera B102 is generated based on the two photographed images 111 and 112 of these cameras. This can be generated by a process for generating an image that is not actually captured, so-called view interpolation process.

ビューインターポレーションとは、複数のカメラからの画像から、実際のカメラのない視点から見える画像を生成する技術である。このビューインターポレーションについては、たとえば[S. M. Seitz and C. R. Dyer, "View Morphing," Proc. SIGGRAPH 96, ACM, 1996pp.21-30.]に記載されている。ビューインターポレーションによれば、複数のカメラに基づく実際の取得画像に基づいて、カメラのない視点の画像の生成が可能となる。   View interpolation is a technique for generating an image that can be seen from a viewpoint without an actual camera from images from a plurality of cameras. For example, [S. M. Seitz and C. R. Dyer, “View Morphing,” Proc. SIGGRAPH 96, ACM, 1996 pp. 21-30. ]It is described in. According to view interpolation, a viewpoint image without a camera can be generated based on actual acquired images based on a plurality of cameras.

例えば、カメラA101とカメラB102の間であたかも仮想カメラ113で撮影したような仮想視点カメラ画像121を生成するためには、カメラA101とカメラB102の特性の違いや相対的な位置関係を求め、これらの情報としてのパラメータに基づいて仮想視点画像の生成における各種補正を行なうことが必要になる。つまり、実写画像を撮影しているカメラの特性の差異を正確に把握した調整、すなわちカメラキャリブレーションを行う必要がある。   For example, in order to generate the virtual viewpoint camera image 121 as if it was captured by the virtual camera 113 between the camera A101 and the camera B102, the difference in characteristics and the relative positional relationship between the camera A101 and the camera B102 are obtained. It is necessary to perform various corrections in the generation of the virtual viewpoint image based on the parameters as the information. That is, it is necessary to perform adjustment that accurately grasps the difference in characteristics of the camera that captures the photographed image, that is, camera calibration.

仮想視点映像生成に必要となるキャリブレーションパラメータを適用した補正処理には、図2に示すように歪係数(Distortion Coefficient)、歪中心(Distortion Center)、アスペクト比(Aspect Ration)からなる歪曲収差パラメータに基づく歪パラメータ補正と、スケール因子、捻れ、画像中心データからなる内部パラメータ[A]と、並進[T]および回転[R]ベクトルからなる外部パラメータ[T,R]に基づくカメラ内部・外部パラメータ補正とがある。カメラ歪みパラメータについては、一般的にチェッカパターンや直線等をキャリブレーションを実行する複数カメラで撮影し、チェッカパターンや直線等の撮影画像に基づいて各カメラ間の調整パラメータの推定が行われる。   As shown in FIG. 2, the correction processing applying the calibration parameters necessary for generating the virtual viewpoint video includes a distortion aberration parameter including a distortion coefficient, a distortion center, and an aspect ratio. Camera internal / external parameters based on distortion parameter correction based on, internal parameters [A] consisting of scale factor, twist, and image center data, and external parameters [T, R] consisting of translation [T] and rotation [R] vectors There is correction. Regarding camera distortion parameters, generally, checker patterns, straight lines, and the like are photographed by a plurality of cameras that perform calibration, and adjustment parameters between the cameras are estimated based on photographed images such as checker patterns and straight lines.

カメラ内部・外部パラメータ[A,T,R]は、実写カメラ間の位置関係を示すパラメータとしてのジオメトリ・パラメータ(Geometry Parameters)を示す行列式によって表現される。これをファンダメンタル(Fundamental)行列(F行列)と呼ぶ。F行列は、下式(式1)によって示される。   The camera internal / external parameters [A, T, R] are expressed by a determinant indicating geometry parameters as parameters indicating the positional relationship between the live-action cameras. This is called a fundamental matrix (F matrix). The F matrix is expressed by the following formula (Formula 1).

上記式によって示されるカメラ間のファンダメンタル(Fundamental)行列を求める方法については、既にいくつか提案されている。ファンダメンタル(Fundamental)行列を求める一般的な方法について簡単に説明する。   Several methods have already been proposed for obtaining a fundamental matrix between cameras represented by the above equation. A general method for obtaining a Fundamental matrix is briefly described.

図3は、一般的なF行列パラメータの推定方法を示す。まず、図3(a)に示すように、カメラ1,231とカメラ2,232によって、三次元空間にあるキャリブレーション治具としての画像パターン(例えば、チェッカパターン)を数回撮影し、撮影された画像I1,241(カメラ1,231実写画像)と、I2,242(カメラ2,232実写画像)から特徴点を抽出する。特徴点は、例えば、チェッカパターンの交差点m11,m12,......と、m21,m22,......を抽出する。   FIG. 3 shows a general F matrix parameter estimation method. First, as shown in FIG. 3A, an image pattern (for example, a checker pattern) as a calibration jig in a three-dimensional space is photographed several times by cameras 1, 231 and cameras 2, 232 and photographed. The feature points are extracted from the images I1, 241 (camera 1, 231 actual image) and I2, 242 (camera 2, 232 actual image). As characteristic points, for example, intersections m11, m12,... And m21, m22,.

特徴点抽出後、図3(b)または以下の式に示すように、抽出された特徴点m1iとm2i(i=1,2,......N)との対応付けによって、F行列を推定することができる。   After the feature point extraction, as shown in FIG. 3B or the following formula, the F matrix is obtained by matching the extracted feature points m1i and m2i (i = 1, 2,... N). Can be estimated.

上記式において、fを、WWの最小固有値に対応する固有ベクトルとして算出することで、F行列の要素を求めることができる。 In the above equation, by calculating f as an eigenvector corresponding to the minimum eigenvalue of W T W, the elements of the F matrix can be obtained.

図4は、実際にF行列を推定するために、チェッカパターンをキャリブレーション治具として用いた場合のカメラキャリブレーション手順を示した図である。   FIG. 4 is a diagram showing a camera calibration procedure when a checker pattern is used as a calibration jig in order to actually estimate the F matrix.

まず、ステップS101において、キャリブレーション治具としてのチェッカパターンを異なる視点からカメラ1とカメラ2で撮影する。   First, in step S101, a checker pattern as a calibration jig is photographed by the camera 1 and the camera 2 from different viewpoints.

次に、ステップS102において、カメラ1とカメラ2で撮影したチェッカパターン画像I1(x,y)とI2(x,y)における特徴点m1(x,y)とm2(x,y)を抽出し、ステップS103において、各抽出特徴点m1(x,y)とm2(x,y)間の対応付け処理を行う。   Next, in step S102, feature points m1 (x, y) and m2 (x, y) in the checker pattern images I1 (x, y) and I2 (x, y) photographed by the cameras 1 and 2 are extracted. In step S103, association processing between each extracted feature point m1 (x, y) and m2 (x, y) is performed.

対応付け処理とは、同一対象物を撮影して得られる複数の画像における画素同士を対応づけるマッチング処理である。従来から、よく使われている「対応付け」の手法には、例えばPixel-basedマッチング、Area-basedマッチング、Feature-basedマッチングがある。Pixel-basedマッチングとは、一方の画像における点の対応を、他方の画像でそのまま探索する方法である。Area-basedマッチングとは、一方の画像における点の対応を、他方の画像で探す時、その点の周りの局所的な画像パターンを用いて探索する方法である。Feature-basedマッチングとは、画像から濃淡エッジなどの特徴を抽出し、画像間の特徴だけを用いて対応付けを行う方法である。これらの方法を用いて複数の画像から抽出した特徴点に基づく画素同士の対応付けを行う。   The association process is a matching process for associating pixels in a plurality of images obtained by photographing the same object. Conventionally, “association” methods that are often used include, for example, pixel-based matching, area-based matching, and feature-based matching. Pixel-based matching is a method of searching for correspondence of points in one image as it is in the other image. Area-based matching is a method of searching for a correspondence between points in one image using a local image pattern around the point when searching for the other image. Feature-based matching is a method of extracting features such as shading edges from images and performing association using only features between images. Using these methods, pixels are associated based on feature points extracted from a plurality of images.

最後に、ステップS104において、取得した複数の対応点に基づいて、前述の式(式2)を適用したF行列の算出を行なう。すなわち、抽出された特徴点m1iとm2i(i=1,2,......N)の対応付けによって、fを、WWの最小固有値に対応する固有ベクトルとして算出することで、F行列、すなわちファンダメンタル(Fundamental)行列(=Fパラメータ)を求める。 Finally, in step S104, the F matrix to which the above-described equation (Equation 2) is applied is calculated based on the acquired plurality of corresponding points. That is, by calculating f as an eigenvector corresponding to the minimum eigenvalue of W T W by associating the extracted feature points m1i and m2i (i = 1, 2,... N), F A matrix, that is, a fundamental matrix (= F parameter) is obtained.

しかしながら、上述の方法においては、カメラとチェッカパターンプレートが正対していない場合、特徴点の抽出精度が低下するという問題がある。また、複数カメラの配置によって、各カメラで同時にチェッカパターンを観測できない場合が発生することや、画像間の特徴点の対応付けが撮影画像の品質に影響され、処理時間がかかるなどの問題がある。   However, the above-described method has a problem in that the feature point extraction accuracy is lowered when the camera and the checker pattern plate are not facing each other. In addition, there may be cases where checker patterns cannot be observed simultaneously by each camera due to the arrangement of multiple cameras, and the association of feature points between images is affected by the quality of the captured image, which takes time. .

これらの問題を解決する手法として、本発明では、平面的なチェッカパターンではなく移動する発光球体をキャリブレーションツールとして用い、この発光球体を異なる方向から撮影する複数のカメラを設置し、各カメラ映像の同期収録を行い、収録画像に基づいてファンダメンタル(Fundamental)行列(=Fパラメータ)を算出して、カメラキャリブレーションを実行する。本発明の構成によれば、平面のチェッカパターンを異なる方向から撮影することによる特徴点抽出精度の低下や、各カメラで同時にチェッカパターンを観測できないといった問題が発生することなく、効率的かつ高精度なカメラキャリブレーションを実行できる。   As a technique for solving these problems, in the present invention, a moving light emitting sphere is used as a calibration tool instead of a planar checker pattern, and a plurality of cameras for photographing the light emitting sphere from different directions are installed. Is recorded, a fundamental matrix (= F parameter) is calculated based on the recorded image, and camera calibration is executed. According to the configuration of the present invention, efficient and high accuracy can be achieved without causing a problem that the feature point extraction accuracy is lowered by photographing the planar checker pattern from different directions and the checker pattern cannot be observed simultaneously by each camera. Camera calibration can be performed.

移動する発光球体をキャリブレーションツールとして用い、異なる視点から発行球体を撮影する構成例を図5に示す。また、各カメラの収録映像の同期記録処理装置構成例を図6に示す。   FIG. 5 shows a configuration example in which the moving luminescent sphere is used as a calibration tool and the issuing sphere is photographed from different viewpoints. Further, FIG. 6 shows an example of the configuration of a synchronized recording processing apparatus for recorded video of each camera.

図5に示すように、カメラキャリブレーションを実行するカメラ301−1〜Nをキャリブレーションツールとしての発光球体300の周囲に配列し、発光球体300を移動させて、例えば30フレーム/秒の映像を撮影する。図には、カメラ1,301−1、カメラ2,301−2、およびカメラn,301−nのそれぞれの取得画像(1フレーム)302−1,2,nを示している。   As shown in FIG. 5, cameras 301-1 to 301-N that execute camera calibration are arranged around a light emitting sphere 300 as a calibration tool, and the light emitting sphere 300 is moved, for example, to display an image of 30 frames / second. Take a picture. In the figure, acquired images (one frame) 302-1, 2, n of cameras 1, 301-1, camera 2, 301-2, and cameras n, 301-n are shown.

図5に示すような発光球体を用いる利点は、(1)任意背景・環境で観測された画像からその球体を容易に検出できることと、(2)任意の視点位置にあるカメラで球体を同じ形状(円形)として観測できることと、(3)画像内における球体の中心位置を精度よく推定できることと、(4)時系列画像から抽出された球体の中心を用いる画像間の対応点処理が容易にできることにある。   The advantages of using a light-emitting sphere as shown in FIG. 5 are (1) that the sphere can be easily detected from an image observed in an arbitrary background / environment, and (2) that the sphere has the same shape with a camera at an arbitrary viewpoint position. It can be observed as (circular), (3) the center position of the sphere in the image can be accurately estimated, and (4) the corresponding point processing between images using the center of the sphere extracted from the time series image can be easily performed. It is in.

F行列を推定するためには、上述の式2に示すF行列を構成する9個の要素(f11,f12,・・f33)の値を決定することが必要となる。これは、実質的にはF行列の9個の要素の比率を求めることになり未知数が8つの方程式の解を求めることに相当する。従って、多数の対応点(少なくとも8点以上)の関係式を設定することが必要となる。 In order to estimate the F matrix, it is necessary to determine the values of the nine elements (f 11 , f 12 ,... F 33 ) that constitute the F matrix shown in Equation 2 above. This substantially corresponds to obtaining the ratio of nine elements of the F matrix, and corresponds to obtaining the solution of an equation with eight unknowns. Therefore, it is necessary to set a relational expression of a large number of corresponding points (at least 8 points or more).

本発明の構成では、移動する発光球体を撮影し、時間軸にそったフレーム毎に発光球体の中心位置を特徴点として抽出し、それら、時間軸にそったフレームから抽出される複数の特徴点を、あたかも一回の撮影画像から抽出されたと同様の扱いとして、画像間の対応付けに用いる。例えば30フレーム/秒で5秒間撮影を実行すれば、30×5=150フレームを各カメラで撮影することが可能であり、150個の特徴点(=球体中心位置)を抽出できる。   In the configuration of the present invention, a moving luminescent sphere is photographed, the center position of the luminescent sphere is extracted as a feature point for each frame along the time axis, and a plurality of feature points extracted from the frame along the time axis. Are used for matching between images as if they were extracted from a single shot image. For example, if photographing is performed at 30 frames / second for 5 seconds, 30 × 5 = 150 frames can be photographed by each camera, and 150 feature points (= sphere center position) can be extracted.

このような特徴点抽出と対応付けを自動的に行うために、図6に示すようにネットワーク同期機構を備えた複数カメラ映像の同期収録装置を適用する。   In order to perform such feature point extraction and association automatically, as shown in FIG. 6, a synchronized recording apparatus for a plurality of camera images having a network synchronization mechanism is applied.

異なる視点からキャリブレーションツールとしての発光球体300を撮影するカメラ1〜nのカメラ301は、同期信号発生器320より出力された同期信号(水平、垂直同期信号)を各カメラの外部同期入力端子を介して入力し、複数のカメラ1〜nにより観測された多視点の複数映像を同期映像として出力する。   The cameras 301 of the cameras 1 to n that shoot the light emitting sphere 300 as a calibration tool from different viewpoints receive the synchronization signals (horizontal and vertical synchronization signals) output from the synchronization signal generator 320 at the external synchronization input terminals of the cameras. And a plurality of images from multiple viewpoints observed by a plurality of cameras 1 to n are output as synchronized images.

各カメラ出力映像は、例えば輝度信号(Y)とRGB色成分信号の差信号(C)としてのY/C信号等の映像信号であり、各カメラは、映像信号を各カメラに対応して設定されたADコンバータ330に入力する。ADコンバータ330では、カメラ301から入力する映像信号のデジタルデータへの変換、さらに必要に応じて圧縮データ(例えばモーションJPEG等)への変換処理を実行し、処理後のデータをそれぞれのデータを記録する画像記録処理装置としてのクライアントPC(PC1〜PCn)350、画像モニタ360に出力する。   Each camera output video is, for example, a video signal such as a Y / C signal as a difference signal (C) between a luminance signal (Y) and an RGB color component signal, and each camera sets a video signal corresponding to each camera. Input to the AD converter 330. The AD converter 330 converts the video signal input from the camera 301 into digital data, and further converts it into compressed data (for example, motion JPEG) as necessary, and records the processed data as data. Output to a client PC (PC1 to PCn) 350 and an image monitor 360 as image recording processing apparatuses to be executed.

画像記録処理装置としてのクライアントPC(PC1〜PCn)350は、データを記録する記録媒体356、例えばハードディスク、DVD、CD等を備えている。   A client PC (PC1 to PCn) 350 as an image recording processing apparatus includes a recording medium 356 for recording data, such as a hard disk, a DVD, and a CD.

クライアントPC(PC1〜PCn)350にADコンバータ330から入力した映像信号は、クライアントPC(PC1〜PCn)350内の映像信号処理部355に入力される。映像信号処理部355は、例えば1394DVキャプチャボードにより構成される。   The video signal input from the AD converter 330 to the client PC (PC1 to PCn) 350 is input to the video signal processing unit 355 in the client PC (PC1 to PCn) 350. The video signal processing unit 355 is configured by, for example, a 1394 DV capture board.

クライアントPC350を構成する複数のPC1〜PCnは、汎用PC上で実行可能なDVキャプチャソフトによって、各カメラからのDV映像をそれぞれのPC内ハードディスク356に収録する。各クライアントPC(PC1〜PCn)350とサーバーPC370は、各PCに装着されたネットワークインタフェースとしてのネットワークカード357、およびネットワーク380によって接続されており、サーバーPC370から各クライアントPC(PC1〜PCn)350に対して録画開始コマンドを出力することにより、各クライアントPC350が一斉に録画を開始することが可能となる。   The plurality of PCs 1 to PCn constituting the client PC 350 record DV video from each camera on the hard disk 356 in each PC by DV capture software that can be executed on the general-purpose PC. Each client PC (PC1 to PCn) 350 and server PC 370 are connected by a network card 357 as a network interface attached to each PC and a network 380. The server PC 370 connects to each client PC (PC1 to PCn) 350. On the other hand, by outputting a recording start command, the client PCs 350 can start recording all at once.

クライアントPC350内の例えば1394DVキャプチャボードにより構成される映像信号処理部355の構成例を図7に示す。   A configuration example of the video signal processing unit 355 configured by, for example, a 1394 DV capture board in the client PC 350 is shown in FIG.

IEEE1394ポート(以下、1394ポート)394と、LINK/PHY395は、ADコンバータ330によって処理されたデジタルビデオ(DV)信号を取り込む。1394ポート394は、DV信号を取り込む入力ポートであり、入力したDV信号はLINK/PHY395へ送出される。LINK/PHY395は、入力したDV画像データをバッファ手段としてのRAM392に一次蓄積する。   The IEEE 1394 port (hereinafter, 1394 port) 394 and the LINK / PHY 395 capture a digital video (DV) signal processed by the AD converter 330. The 1394 port 394 is an input port for capturing a DV signal, and the input DV signal is sent to the LINK / PHY 395. The LINK / PHY 395 primarily stores the input DV image data in the RAM 392 as a buffer means.

RAM392は、取り込まれたDV画像データを記憶するバッファを備えた画像データ記憶手段として機能する。RAM392に一次記録された画像データは、CPU391の制御のもとにHDD、DVD等の記憶手段356に記憶手段I/F396を介して出力され、格納される。前述したように、各クライアントPC(PC1〜PCn)350とサーバーPC370は、各PCに装着されたネットワークインタフェースとしてのネットワークカード357、およびネットワーク380によって接続されており、サーバーPC370から各クライアントPC(PC1〜PCn)350に対して録画開始コマンドを出力することにより、各クライアントPC350が一斉に録画、すなわち、HDD、DVD等の記憶手段356に対するデータ格納処理を開始することが可能である。   The RAM 392 functions as an image data storage unit including a buffer for storing the captured DV image data. The image data primarily recorded in the RAM 392 is output and stored in the storage unit 356 such as an HDD or DVD via the storage unit I / F 396 under the control of the CPU 391. As described above, each of the client PCs (PC1 to PCn) 350 and the server PC 370 are connected by the network card 357 as a network interface mounted on each PC and the network 380, and each client PC (PC1) is connected to the server PC 370. By outputting a recording start command to .about.PCn) 350, each client PC 350 can start recording at the same time, that is, start data storage processing for the storage means 356 such as an HDD or a DVD.

CPU391は、画像データの撮り込み、格納に関する装置全体の制御を行ない、DV画像データの流れ全般を制御する画像データ制御手段として機能する。CPU391は、ROM393に記憶されたプログラムに従って、画像データの流れを制御する。   The CPU 391 functions as image data control means for controlling the entire apparatus related to capturing and storing image data and controlling the overall flow of DV image data. The CPU 391 controls the flow of image data in accordance with a program stored in the ROM 393.

ROM393に記憶されたプログラムは、例えば汎用PC上で実行可能なDVキャプチャソフトであり、サーバーPCからの録画開始コマンドによって、プログラムが実行され、クライアントPCが一斉に録画を開始する。   The program stored in the ROM 393 is, for example, DV capture software that can be executed on a general-purpose PC. The program is executed by a recording start command from the server PC, and the client PCs start recording all at once.

上述のように、同期信号発生器320からの基準ビデオ信号(同期信号)を各カメラ301−1〜nの外部同期端子に入力し、各カメラ301−1〜nのビデオ出力信号はAD変換器330によってデジタル映像信号に変換され、キャプチャボードを通して、パソコン350に内蔵されたメモリやハードディスク等の記録媒体に保存される。各パソコンの実行環境などによって、画像収録のスタートを実行するまでのタイミングが必ずしも同じではないので、収録された各カメラ映像が通常同期されていない。そこで、各カメラ映像を保存する際、記録中の画像フレーム番号は、ネットワークを通して、計測ポイントデータとしてサーバー報告し、収録後の映像に対して、サーバー上に集計された計測ポイントデータを用いて、カメラ画像間の同期合わせを実現した。   As described above, the reference video signal (synchronization signal) from the synchronization signal generator 320 is input to the external synchronization terminals of the cameras 301-1 to 301-n, and the video output signals of the cameras 301-1 to n are converted into AD converters. 330 is converted into a digital video signal, and is stored in a recording medium such as a memory or a hard disk built in the personal computer 350 through a capture board. Since the timing until the start of image recording is not always the same depending on the execution environment of each personal computer, the recorded camera images are not normally synchronized. Therefore, when saving each camera video, the image frame number being recorded is reported to the server as measurement point data through the network, and the recorded video is recorded on the server using the measurement point data. Realized synchronization between camera images.

図8を参照して、サーバーPCで実行する同期調整処理の詳細について説明する。まず、ステップS301において、サーバーPCは、各クライアントPCから入力した各計測点における各PCの収録フレーム番号データを読込む。これは、例えば図8のデータ例(a)に示すデータである。   Details of the synchronization adjustment process executed by the server PC will be described with reference to FIG. First, in step S301, the server PC reads the recording frame number data of each PC at each measurement point input from each client PC. This is, for example, data shown in the data example (a) of FIG.

ここでは、サーバーPCが複数のクライアントPC(PC1〜PCn)から4回の計測点(計測点1〜4)における収録フレーム番号を取得したものとして説明する。   Here, it is assumed that the server PC has acquired the recording frame numbers at four measurement points (measurement points 1 to 4) from a plurality of client PCs (PC1 to PCn).

図8の(a)各クライアントPCから入力した各計測点における各PCの収録フレーム番号のリストによれば、例えばPC1は、
計側点1において、収録処理フレーム=6、
計側点2において、収録処理フレーム=10、
計側点3において、収録処理フレーム=14、
計側点4において、収録処理フレーム=19、
を各計測点において、サーバーPCからの「現在収録フレーム番号保存」コマンドに応じて保存したフレーム番号であることを示している。
According to (a) a list of recording frame numbers of each PC at each measurement point input from each client PC in FIG.
At the total point 1, the recording process frame = 6,
At the total point 2, the recording processing frame = 10,
At the total point 3, the recording processing frame = 14,
At the total point 4, the recording processing frame = 19,
Indicates that the frame number is stored at each measurement point in accordance with the “save currently recorded frame number” command from the server PC.

次に、サーバーPCは、ステップS302において、処理遅延量の大きいPC、ここでは、計側点1において、フレームNo.3を処理しているPC2を基準PCとして、各PCにおける基準PCからのフレームずれ量を算出する。   Next, in step S302, the server PC determines the frame No. at the PC having a large processing delay amount, here the total point 1. 3 is calculated with the PC 2 processing 3 as a reference PC.

この処理の結果、図8に示す(b)各計測点における各PC内収録映像のフレームずれ量が求められる。図8に示す例では、PC2が基準となり、PC2はすべての計測点においてずれ量=0となる。また、例えばPC1のずれ量は、各計測点において、PC1の収録処理フレーム−PC2の収録処理フレームによって求める。その結果、PC1のずれ量は、
計側点1において、ずれ量=6−3=3
計側点2において、ずれ量=10−7=3
計側点3において、ずれ量=14−11=3
計側点4において、ずれ量=19−15=3
となる。
As a result of this processing, (b) the amount of frame shift of the recorded video in each PC at each measurement point shown in FIG. 8 is obtained. In the example shown in FIG. 8, PC2 is the reference, and PC2 has a deviation amount = 0 at all measurement points. Further, for example, the shift amount of PC1 is obtained from the recording processing frame of PC1-the recording processing frame of PC2 at each measurement point. As a result, the shift amount of PC1 is
At the total point 1, the deviation amount = 6-3 = 3
At the total point 2, the deviation amount = 10−7 = 3
At the total point 3, the deviation amount = 14-11 = 3
At the total point 4, the deviation amount = 19−15 = 3
It becomes.

他のPC、PC3〜PCnについてもPC2との収録フレームNo.との差分が、ずれ量として求められる。   For other PCs, PC3 to PCn, the recording frame No. Is obtained as the amount of deviation.

次に、ステップS303において、基準PC=PC2からの各PCのずれ量の決定処理を行なう。これは、例えば各PCの各計測点におけるずれ量の平均値を算出し、その平均値に基づく整数値を四捨五入により算出することにより実行する。   Next, in step S303, a determination process of the deviation amount of each PC from the reference PC = PC2 is performed. This is performed, for example, by calculating an average value of the deviation amounts at each measurement point of each PC and calculating an integer value based on the average value by rounding off.

図8(c)が、各PCの各計測点におけるずれ量の平均値を算出したデータである。PC1のPC2に対するずれ量は、
(3+3+3+4)/4=3.25
となる。
FIG. 8C shows data obtained by calculating an average value of deviation amounts at each measurement point of each PC. The amount of deviation of PC1 from PC2 is
(3 + 3 + 3 + 4) /4=3.25
It becomes.

図8(d)が、各PCの各計測点におけるずれ量の平均値を四捨五入したデータである。
PC1のPC2に対するずれ量は3、
PCnのPC2に対するずれ量は2となる。
このようにして、各クライアントPCの基準PC(PC2)からのずれ量が決定される。
FIG. 8D shows data obtained by rounding off the average deviation amount at each measurement point of each PC.
The displacement amount of PC1 with respect to PC2 is 3,
The shift amount of PCn with respect to PC2 is 2.
In this way, the deviation amount of each client PC from the reference PC (PC2) is determined.

次に、ステップS304において、サーバーPCは、算出した各PCのずれ量に基づいて、各クライアントPCの同期調整処理を実行する。   Next, in step S304, the server PC executes synchronization adjustment processing for each client PC based on the calculated deviation amount of each PC.

各クライアントPCの各時刻1〜4における処理フレームNo.を統一する処理として実行される。図8(e)に示すように、時刻1〜4において、
時刻1においては、全てのPCの収録フレーム=3
時刻2においては、全てのPCの収録フレーム=7
時刻3においては、全てのPCの収録フレーム=11
時刻4においては、全てのPCの収録フレーム=15
とした設定が実行される。
The processing frame No. at each time 1 to 4 of each client PC. It is executed as a process to unify. As shown in FIG. 8 (e), at times 1 to 4,
At time 1, all PC recording frames = 3
At time 2, all PC recording frames = 7
At time 3, all PC recording frames = 11
At time 4, all PC recording frames = 15
The following settings are executed.

例えばPC1設定フレームNo.は、基準PC(PC2)の設定フレームNo.との差が3であると判定されるので、PC1設定フレームNoから差3を差し引いた値を、PC1における新たなフレームNo.として設定する。また、PCn設定フレームNo.は、基準PC(PC2)の設定フレームNo.との差が2であると判定されるので、PCn設定フレームNoから差2を差し引いた値を、PC1における新たなフレームNo.として各時刻において設定する。   For example, PC1 setting frame No. Indicates the setting frame No. of the reference PC (PC2). Therefore, the value obtained by subtracting the difference 3 from the PC1 setting frame No. is used as a new frame No. in PC1. Set as. PCn setting frame No. Indicates the setting frame No. of the reference PC (PC2). Therefore, the value obtained by subtracting the difference 2 from the PCn setting frame No. is set as a new frame No. in PC1. Is set at each time.

このように各クライアントPCにおける同期調整処理を実行することにより、正確なフレーム間同期が可能となる。   By executing the synchronization adjustment process in each client PC in this way, accurate inter-frame synchronization is possible.

上述した処理により各カメラ映像は完全に同期して取得することが可能となる。本発明のキャリブレーション装置は、上述した同期調整のなされた画像撮影フレームの各々について、特徴点としての発光球体中心の対応付け処理を実行し、前述の図4を参照して説明した手続きに従って、F行列を求める。   Through the above-described processing, each camera video can be acquired in complete synchronization. The calibration apparatus according to the present invention executes the association process of the light emitting sphere center as a feature point for each of the above-described synchronized image capturing frames, and according to the procedure described with reference to FIG. Find the F matrix.

図9は、一台のカメラ(カメラ1,301−1)で観測した発光球体の時系列画像(t=1,……,k)を示す。全てのカメラ映像から各フレーム画像における球体の中心を自動的に抽出し、対応付けを行うことによって、F行列を高速かつ精度よく推定することができる。   FIG. 9 shows a time-series image (t = 1,..., K) of a light-emitting sphere observed with one camera (camera 1, 301-1). By automatically extracting the center of the sphere in each frame image from all the camera images and performing the association, the F matrix can be estimated at high speed and with high accuracy.

本発明の構成においては、発光球体の中心点を、対応付け処理を実行するための特徴点とする。この発光球体の中心点を求める処理を各カメラ撮影画像の各フレームにおいて実行する。F行列の要素を決定するためには、前述したように最低でも8つの特徴点の対応付けが必要となり、少なくとも8フレームにおいて、キャリブレーションを実行するカメラの撮影画像から特徴点抽出を行う。この特徴点抽出処理として行われる発光球体の中心位置の判定処理について、図10を参照して説明する。   In the configuration of the present invention, the center point of the light emitting sphere is a feature point for executing the association process. The processing for obtaining the center point of the light emitting sphere is executed in each frame of each camera image. In order to determine the elements of the F matrix, it is necessary to associate at least eight feature points as described above, and feature points are extracted from the captured image of the camera that performs calibration in at least eight frames. The determination process of the center position of the light emitting sphere performed as the feature point extraction process will be described with reference to FIG.

図10の処理フローに従って、本発明の構成における特徴点抽出処理として実行される発光球体の中心点位置判定処理の手順を説明する。図10は、1つのフレーム画像からの球体の中心画素位置を求める処理フローを示している。まず、ステップS501において、発光球体の撮影画像フレームを入力する。   The procedure of the center point position determination process of the luminous sphere executed as the feature point extraction process in the configuration of the present invention will be described according to the process flow of FIG. FIG. 10 shows a processing flow for obtaining the center pixel position of a sphere from one frame image. First, in step S501, a captured image frame of a light emitting sphere is input.

ステップS502において、入力画像から球体のエッジを検出する。なお、エッジ画素の座標値が取得フレーム画像の4辺に接している場合、球体の一部が欠けていると判定し、そのフレーム(時刻)における特徴点の抽出は行わない。この判定処理がステップS503である。   In step S502, the edge of the sphere is detected from the input image. When the coordinate value of the edge pixel is in contact with the four sides of the acquired frame image, it is determined that a part of the sphere is missing, and feature points are not extracted in that frame (time). This determination process is step S503.

入力フレームに発光球体全体が画像として観測されている場合(ステップS503:Yes)、ステップS504において、エッジ画素の座標値に基づく投影処理により球体の初期中心位置を判定する。具体的には、球体左右エッジ上画素のxy座標値の差をそれぞれX軸とY軸に投影し、XとYに対する分布を求め、それぞれの最大となる位置を球体の初期中心(xs,ys)および大きさ(半径)とする。   When the entire light emitting sphere is observed as an image in the input frame (step S503: Yes), in step S504, the initial center position of the sphere is determined by projection processing based on the coordinate value of the edge pixel. Specifically, the difference between the xy coordinate values of the pixels on the left and right edges of the sphere is projected on the X axis and the Y axis, respectively, and distributions for X and Y are obtained. ) And size (radius).

ステップS505において、推定された初期中心と大きさを、円形モデルに適用し、そのモデルから大きく外れたエッジ上の画素点を例外点(Outlier)として削除する。最後に、ステップS506において、例外点(Outlier)削除後のエッジ画素点を円形モデルに適用し、球体の中心位置(及び大きさ)を判定する。   In step S505, the estimated initial center and size are applied to a circular model, and pixel points on edges that deviate significantly from the model are deleted as exceptional points (Outliers). Finally, in step S506, the edge pixel point after the exception point (Outlier) is deleted is applied to the circular model, and the center position (and size) of the sphere is determined.

図11は、隣接カメラで観測された時系列画像から、それぞれ球体の中心位置を検出し、あたかも一枚の画像から抽出された特徴点のように設定する処理例を示した図である。   FIG. 11 is a diagram illustrating a processing example in which the center position of each sphere is detected from the time series images observed by the adjacent cameras, and set as if they were feature points extracted from one image.

発光球体500を異なる方向から撮影するカメラ1,501と、カメラ2,502間の調整処理のためのカメラキャリブレーション用のF行列を求めるとする。この場合、前述したように複数フレームから複数の特徴点(最低8個)を抽出することが必要となる。   Assume that an F matrix for camera calibration for adjustment processing between the cameras 1 and 501 and the cameras 2 and 502 for photographing the light emitting sphere 500 from different directions is obtained. In this case, as described above, it is necessary to extract a plurality of feature points (at least 8) from a plurality of frames.

本発明の構成においては、特徴点は発光球体撮影画像における発光球体の中心位置であり、各フレームにおける発光球体の中心位置を特徴点として抽出する。カメラ1,501と、カメラ2,502との撮影フレームt=1〜kの各フレーム画像は、図6を参照して説明した同期調整処理がなされた画像であり、各対応フレームは同期した画像である。t=1〜kのk個のフレームについて、図10を参照して説明した球体の中心位置座標判定処理を実行することで、各カメラ毎にk個の特徴点が求まることになる。ただし、前述したように球体画像がフレーム画像からはみ出ている場合は、中心を求めることができないので、最大k個の特徴点となる。   In the configuration of the present invention, the feature point is the center position of the light emitting sphere in the light emitting sphere photographed image, and the center position of the light emitting sphere in each frame is extracted as the feature point. Each frame image of the shooting frames t = 1 to k of the cameras 1 and 501 and the cameras 2 and 502 is an image that has been subjected to the synchronization adjustment processing described with reference to FIG. 6, and each corresponding frame is a synchronized image. It is. By executing the spherical center position coordinate determination process described with reference to FIG. 10 for k frames of t = 1 to k, k feature points are obtained for each camera. However, as described above, when the spherical image protrudes from the frame image, the center cannot be obtained, so that there are a maximum of k feature points.

前述したように少なくとも8個の特徴点を求め、その対応付け処理を実行することにより、9個の要素からなるF行列の要素を決定することができるので、キャリブレーション対象となる2つのカメラの同期フレーム画像から少なくとも発光球体の中心位置を求めることが可能な8フレームを選択して、その特徴点(球体中心位置)を求める。それらを1つにまとめると、図11に示す特徴点分布データ511,512が得られる。   As described above, by obtaining at least 8 feature points and executing the association process, it is possible to determine the elements of the F matrix consisting of 9 elements. Eight frames capable of obtaining at least the center position of the light emitting sphere are selected from the synchronized frame image, and the feature point (sphere center position) is obtained. When they are combined into one, feature point distribution data 511 and 512 shown in FIG. 11 are obtained.

特徴点分布データ511は、カメラ1,501の撮影フレーム中のt=1,2,..kの各フレームの特徴点(球体中心位置)の分布を示している。p1(1)は、t=1のフレームにおける球体中心位置であり、p1(2)は、t=2のフレームにおける球体中心位置、p1(k)は、t=kのフレームにおける球体中心位置である。   The feature point distribution data 511 includes t = 1, 2,. . The distribution of feature points (sphere center position) of each frame of k is shown. p1 (1) is the sphere center position in the frame at t = 1, p1 (2) is the sphere center position in the frame at t = 2, and p1 (k) is the sphere center position in the frame at t = k. is there.

特徴点分布データ512は、カメラ2,502の撮影フレーム中のt=1,2,..kの各フレームの特徴点(球体中心位置)の分布を示している。p2(1)は、t=1のフレームにおける球体中心位置であり、p2(2)は、t=2のフレームにおける球体中心位置、p2(k)は、t=kのフレームにおける球体中心位置である。   The feature point distribution data 512 includes t = 1, 2,. . The distribution of feature points (sphere center position) of each frame of k is shown. p2 (1) is the sphere center position in the frame at t = 1, p2 (2) is the sphere center position in the frame at t = 2, and p2 (k) is the sphere center position in the frame at t = k. is there.

これらの特徴点分布データ511,512の対応特徴点、すなわち、p1(1)とp2(1)、p1(2)とp2(2)、・・p1(k)とp2(k)との各特徴点についての対応付け処理を、先に説明した図4のフローの処理手順に従って実行し、前述の式(式2)を適用してF行列を求めることができる。   Corresponding feature points of these feature point distribution data 511 and 512, that is, p1 (1) and p2 (1), p1 (2) and p2 (2),... P1 (k) and p2 (k) The association process for the feature points is executed according to the process procedure of the flow described above with reference to FIG. 4, and the F matrix can be obtained by applying the above formula (Formula 2).

図12は、複数フレームからなる時系列画像に基づいて、それぞれの画像フレームから特徴点としての球体中心位置を求める処理手順を示すフローチャートである。図12に示すフローチャートの各処理ステップについて説明する。ここでは、特徴点抽出処理対象のカメラNo.をmとし、カメラNo.mが撮影した画像フレーム数がkであるとする。   FIG. 12 is a flowchart illustrating a processing procedure for obtaining a spherical center position as a feature point from each image frame based on a time-series image including a plurality of frames. Each processing step in the flowchart shown in FIG. 12 will be described. Here, the camera No. of the feature point extraction process target. M, and camera no. Let m be the number of image frames taken by m.

ステップS701において、m番目(m=1,2,……,N)のカメラの観測(撮影)画像Im(t)(t=1,2,・・,k)をキャリブレーション処理装置に入力する。   In step S701, an observation (captured) image Im (t) (t = 1, 2,..., K) of the m-th (m = 1, 2,..., N) camera is input to the calibration processing apparatus. .

ステップS702において、順次、各フレームについての処理を実行するための処理フレームの初期値としてt=1を設定する。ステップS703において、カメラ映像Im(t)を読み込み、先に図10を参照して説明した手順に従って、読み込みフレームにおける球体の検出およびその中心位置の推定処理を実行する。   In step S702, t = 1 is sequentially set as an initial value of a processing frame for executing processing for each frame. In step S703, the camera image Im (t) is read, and in accordance with the procedure described above with reference to FIG. 10, the detection of the sphere in the read frame and the estimation process of the center position thereof are executed.

処理対象画像内に球体の画像が検出されないか、または球体全体が含まれていない場合(ステップS704:No)には、前述したように球体中心位置推定処理が実行されないが、キャリブレーション処理装置のメモリには、その結果、すなわち、中心位置が求められていないことを示すフレーム対応データとして、ステップS712においてPm(t)=Nullが保存される。   When the image of the sphere is not detected in the processing target image or the entire sphere is not included (step S704: No), the sphere center position estimation process is not executed as described above. In step S712, Pm (t) = Null is stored in the memory as the frame correspondence data indicating that the result, that is, the center position has not been obtained.

画像内に球体全体が検出された場合、先に説明した図10の手法に従って球体の中心位置の推定が実行され、その結果を、ステップS705において、フレーム対応の中心位置データPm(t)としてメモリに保存する。   When the entire sphere is detected in the image, estimation of the center position of the sphere is executed according to the method of FIG. 10 described above, and the result is stored as the center position data Pm (t) corresponding to the frame in step S705. Save to.

ここで、Pm(t)は、m番目のカメラ映像におけるt(t=1,……,n)フレーム目の球体中心位置を意味する。ステップS706では、全フレームの処理が終了したか否か、すなわち[t<k?]の判定処理が実行され、未処理フレームがある場合は、ステップS711において、[t=t+1]の更新処理を実行し、ステップS703以下において、球体中心位置の推定処理、保存処理が実行される。   Here, Pm (t) means the spherical center position of the t (t = 1,..., N) frame in the m-th camera image. In step S706, it is determined whether or not all frames have been processed, that is, [t <k? ] Is executed, and if there is an unprocessed frame, update processing of [t = t + 1] is executed in step S711, and spherical center position estimation processing and storage processing are executed in step S703 and thereafter. .

図12に示す処理をN台のカメラ全てについて実行し、全てのカメラ映像から複数フレームにおけるボール(発光球体)の中心位置Pm(t)を求める。   The process shown in FIG. 12 is executed for all N cameras, and the center position Pm (t) of the ball (light emitting sphere) in a plurality of frames is obtained from all camera images.

キャリブレーション処理を実行する隣接カメラ、または離れたカメラの撮影フレームから中心位置が求められなかったフレームを除くフレームの組を用いて、図11に示す特徴点分布データの組を構成し、構成した特徴点分布データにおける対応フレームの特徴点対応付け処理を実行して、F行列を算出する。特徴点の対応付けによるF行列の算出処理は、先に図3、図4を参照して説明したと同様の手法によって実行される。F行列が決定されると、F行列を用いて各カメラの撮影画像の補正処理が可能となり、複数カメラの実際の撮影画像から、高精度な仮想視点カメラ画像を生成することが可能となる。   The set of feature point distribution data shown in FIG. 11 is configured and configured using a set of frames excluding a frame for which the center position is not obtained from a frame taken by an adjacent camera that performs calibration processing or a remote camera. The feature point association process of the corresponding frame in the feature point distribution data is executed to calculate the F matrix. The calculation process of the F matrix by the feature point association is executed by the same method as described above with reference to FIGS. When the F matrix is determined, it is possible to correct a captured image of each camera using the F matrix, and it is possible to generate a highly accurate virtual viewpoint camera image from actual captured images of a plurality of cameras.

図13に本発明のキャリブレーション処理装置の機能構成を説明するブロック図を示す。本発明のキャリブレーション処理装置において実行する各種の処理は、コンピュータ・プログラムに従った処理として実行可能である。具体的には、制御手段としてのCPUの制御の下に様々な処理が実行される。図13は、制御手段としてのCPUの実行する処理を個別に説明するものであり、本発明のキャリブレーション処理装置の実行する機能を説明するブロック図である。具体的なハードウェア構成については後段で説明する。   FIG. 13 is a block diagram illustrating the functional configuration of the calibration processing apparatus of the present invention. Various processes executed in the calibration processing apparatus of the present invention can be executed as processes according to a computer program. Specifically, various processes are executed under the control of the CPU as the control means. FIG. 13 is a block diagram illustrating functions executed by the calibration processing apparatus of the present invention, individually explaining the processes executed by the CPU as the control means. A specific hardware configuration will be described later.

図13のブロック図について説明する。画像入力部601は、発光球体を撮影した画像データを入力する。キャリブレーション処理は、多くの場合、2つのカメラ間の画像調整を目的とするものであり、発光球体を異なる視点から撮影した2つのカメラのフレーム画像が入力される。この入力フレーム画像は、先に図6を参照して説明した構成において取得された画像であり、それぞれのカメラの各フレーム画像は同期された画像データである。   The block diagram of FIG. 13 will be described. The image input unit 601 inputs image data obtained by photographing a light emitting sphere. In many cases, the calibration process is intended to adjust an image between two cameras, and frame images of two cameras obtained by photographing a light emitting sphere from different viewpoints are input. This input frame image is an image acquired in the configuration described above with reference to FIG. 6, and each frame image of each camera is synchronized image data.

特徴点抽出部602は、図10乃至図12を参照して説明した手順に従って、各フレームの発光球体の中心位置を特徴点として求めるものである。対応付け処理部603は、各カメラで撮影された画像に基づいて求められた複数の特徴点からなる特徴点分布データ(例えば図11に示す特徴点分布データ511,512)に基づいて、特徴点の対応付け処理を実行する。この対応付け処理は、例えばPixel-basedマッチング、Area-basedマッチング、Feature-basedマッチング等によって実行される。   The feature point extraction unit 602 obtains the center position of the light emitting sphere of each frame as a feature point according to the procedure described with reference to FIGS. The association processing unit 603 uses the feature point distribution data (for example, feature point distribution data 511 and 512 shown in FIG. 11) consisting of a plurality of feature points obtained based on the images captured by the cameras. The association process is executed. This association process is executed by, for example, Pixel-based matching, Area-based matching, Feature-based matching, and the like.

対応付け処理が実行されると、次に、F行列算出部604において、対応付けデータに基づくF行列算出処理が実行される。対応付けデータに基づくF行列算出処理は、先に図3、図4を参照して説明した処理に従って実行されるものであり、前述した式(式2)に従って、F行列が求められる。   Once the association process is executed, the F matrix calculation unit 604 then executes an F matrix calculation process based on the association data. The F matrix calculation processing based on the association data is executed according to the processing described above with reference to FIGS. 3 and 4, and the F matrix is obtained according to the above-described equation (Equation 2).

求められたF行列は、仮想視点画像生成部605に出力され、F行列に基づく2つのカメラの取得画像のキャリブレーション、すなわち補正処理が実行され、補正画像に基づいて2つのカメラの間の実際には撮影されていない仮想視点カメラの画像の生成が行われる。   The obtained F matrix is output to the virtual viewpoint image generation unit 605, and calibration of acquired images of the two cameras based on the F matrix, that is, correction processing is executed, and the actual between the two cameras based on the corrected image. An image of a virtual viewpoint camera that has not been shot is generated.

なお、算出されたF行列に基づいてカメラ自体の調整処理としてのキャリブレーションを実行してもよい。取得した画像の補正を行うか、カメラ自体の調整を行うかは選択的事項である。   Note that calibration as adjustment processing of the camera itself may be executed based on the calculated F matrix. Whether to correct the acquired image or to adjust the camera itself is a matter of choice.

先に説明したように、同じ対象を注目している視点の異なる複数カメラで撮影した多視点映像から、それらの実写カメラの間に、あたかも仮想カメラで撮影したような任意の仮想視点映像を生成し表現するためには、実写カメラ間の位置関係を正確に求めることが必要となる。実写カメラ間の位置関係を示すパラメータとしてのファンダメンタル(Fundamental)行列により、2つのカメラの正確な位置関係が取得され、求められた位置関係に基づく撮影画像の補正、合成が高精度に実行可能となり、2つのカメラの間の実際には撮影されていない仮想視点カメラの高精度な画像生成が可能となる。   As explained earlier, from a multi-view video shot by multiple cameras with different viewpoints focusing on the same target, an arbitrary virtual viewpoint video as if shot with a virtual camera is generated between those live-action cameras In order to express it, it is necessary to accurately determine the positional relationship between live-action cameras. The fundamental matrix (Fundamental matrix) as a parameter indicating the positional relationship between the live-action cameras enables the accurate positional relationship between the two cameras to be acquired, and correction and composition of the captured image based on the determined positional relationship can be executed with high accuracy. It is possible to generate a highly accurate image of a virtual viewpoint camera that is not actually captured between the two cameras.

次に、図14に示すフローチャートを参照して、本発明のキャリブレーション処理装置の実行する最適なF行列の算出処理手順について説明する。   Next, an optimal F matrix calculation processing procedure executed by the calibration processing apparatus of the present invention will be described with reference to a flowchart shown in FIG.

ステップS801において、まず、発光球体をキャリブレーション対象となる各カメラが観測できる位置に置く。例えば、各カメラの光軸が交わるところに発光球体を置き移動させる。ステップS802において、各カメラにより移動する発光球体を撮影する。この撮影処理においては、図5〜8を参照して説明した通り、各カメラの撮影フレームが同期したフレームとして取得される。   In step S801, first, the luminous sphere is placed at a position where each camera to be calibrated can be observed. For example, the light emitting sphere is placed and moved where the optical axes of the cameras intersect. In step S802, the light-emitting sphere moving by each camera is photographed. In this photographing process, as described with reference to FIGS. 5 to 8, the photographing frames of the cameras are acquired as synchronized frames.

ステップS803において、各カメラの撮影画像から、特徴点としての球体中心位置を検出する。球体中心位置の検出は、図9、図10を参照して説明した手順に従って実行する。   In step S803, the spherical center position as a feature point is detected from the captured image of each camera. The detection of the sphere center position is executed according to the procedure described with reference to FIGS.

ステップS804において、検出された球体中心位置を各カメラ画像の特徴点として、キャリブレーション対象カメラ画像間の対応付け処理を行う。特徴点対応付け処理は、図11、図12を参照して説明した手順に従って実行する。   In step S804, the detected spherical center position is used as a feature point of each camera image, and a process for associating the calibration target camera images is performed. The feature point association process is executed according to the procedure described with reference to FIGS.

ステップS805において、対応点の数が8点に達しているかいないかを判定する。前述したようにF行列の9個の要素の比率を算出するためには、8つの特徴点の対応付けが必要となる。対応点数が8未満である場合は、ステップS801に戻り、さらに発光球体を動かして球体の位置を変えながら、キャリブレーション処理対象の複数カメラによる撮影画像を取得する。   In step S805, it is determined whether the number of corresponding points has reached 8. As described above, in order to calculate the ratio of the nine elements of the F matrix, it is necessary to associate eight feature points. If the number of corresponding points is less than 8, the process returns to step S801, and images taken by a plurality of cameras to be calibrated are acquired while moving the light emitting sphere to change the position of the sphere.

対応点の数が8点以上に達した場合、ステップS806に進み、特徴点の対応点に基づいてF行列を算出する。F行列の算出は、図2〜図4を参照して説明したように、式(式2)に従って行われる。なお、カメラによる撮影画像は、1回の撮影処理において、例えば30フレーム/秒で数秒間撮影されることになり、100以上のフレームが取得され、これら多数のフレームから特徴点抽出処理が実行される。   When the number of corresponding points reaches 8 or more, the process proceeds to step S806, and the F matrix is calculated based on the corresponding points of the feature points. The calculation of the F matrix is performed according to the equation (Equation 2) as described with reference to FIGS. In addition, a photographed image by the camera is photographed for several seconds at, for example, 30 frames / second in one photographing process, 100 or more frames are acquired, and feature point extraction processing is executed from these many frames. The

従って、対応付け処理対象となる特徴点を100個以上の特徴点からランダムに選択し、選択点に基づいて特徴点の対応付け処理がなされる。さらに対応付けされた特徴点に基づいてF行列の算出が実行される。しかし、特徴点の対応付けはあくまで画像間の相関に基づいて行われるものであるため、対応付け処理が誤って実行される場合も多い。このような誤りがあると正確なF行列が求まらなくなる。従って誤って対応付けのなされた特徴点の組み合わせを排除して、正確なF行列を求める処理が必要となる。   Therefore, feature points to be associated with each other are randomly selected from 100 or more feature points, and feature point association processing is performed based on the selected points. Further, calculation of the F matrix is executed based on the associated feature points. However, since the association of feature points is only performed based on the correlation between images, the association process is often executed by mistake. If there is such an error, an accurate F matrix cannot be obtained. Accordingly, it is necessary to perform processing for obtaining an accurate F matrix by excluding combinations of feature points that are incorrectly associated.

ステップS807以下の処理は、誤った対応付けのなされた特徴点等、F行列の算出に不適当と判断される特徴点を排除する処理である。   The processing after step S807 is processing for eliminating feature points that are determined to be inappropriate for calculation of the F matrix, such as feature points that are incorrectly associated.

ステップS807において、算出したF行列を用いてエピポーララインを算出する。さらに、ステップS808において、F行列推定に使われた対応点とエピポーララインとの距離(誤差)を算出する。その誤差が、予め定めた閾値より大きい場合、球体位置を変えて、その中心を検出し、新しい対応点を求める。   In step S807, an epipolar line is calculated using the calculated F matrix. In step S808, the distance (error) between the corresponding point used for F matrix estimation and the epipolar line is calculated. If the error is larger than a predetermined threshold, the sphere position is changed, the center is detected, and a new corresponding point is obtained.

図15および図16を参照して、ステップS807,808の処理、すなわち、エピポーララインの生成と、F行列推定に使われた対応点とエピポーララインとの距離(誤差)の算出処理について説明する。まず、エピポーララインの生成について説明する。エピポーララインは2つのカメラの位置関係に基づいて設定されるラインであり、一般的にはステレオ法による視差検出により生成される。   With reference to FIG. 15 and FIG. 16, the processing of steps S807 and 808, that is, generation of epipolar lines and calculation processing of distances (errors) between corresponding points used for F matrix estimation and epipolar lines will be described. First, generation of epipolar lines will be described. An epipolar line is a line set based on the positional relationship between two cameras, and is generally generated by parallax detection by a stereo method.

ステレオ法について、その原理を簡単に説明する。ステレオ法は複数のカメラを用いて2つ以上の視点(異なる視線方向)から同一対象物を撮影して得られる複数の画像における画素同士を対応づけることで計測対象物の三次元空間における位置を求めようとするものである。例えば基準カメラと検出カメラにより異なる視点から同一対象物を撮影して、それぞれの画像内の計測対象物の距離を三角測量の原理により測定する。   The principle of the stereo method will be briefly explained. The stereo method associates pixels in a plurality of images obtained by photographing the same object from two or more viewpoints (different gaze directions) using a plurality of cameras, thereby determining the position of the measurement object in the three-dimensional space. It is what you want. For example, the same object is photographed from different viewpoints by the reference camera and the detection camera, and the distance of the measurement object in each image is measured by the principle of triangulation.

図15は、ステレオ法の原理を説明する図である。基準カメラ(Camera 1)と検出カメラ(Camera 2)は異なる視点から同一対象物を撮影する。基準カメラによって撮影された画像中の「mb」というポイントの奥行きを求めることを考える。   FIG. 15 is a diagram for explaining the principle of the stereo method. The reference camera (Camera 1) and the detection camera (Camera 2) capture the same object from different viewpoints. Consider obtaining the depth of a point “mb” in an image taken by a reference camera.

基準カメラによる撮影画像中のポイント「mb」に見える物体は、異なる視点から同一物体を撮影している検出カメラによって撮影された画像において、「m1」、「m2」、「m3」のようにある直線上に展開されることになる。この直線をエピポーラライン(Epipolar line)Lpと呼ぶ。   The objects that appear at the point “mb” in the image captured by the reference camera are “m1”, “m2”, and “m3” in the images captured by the detection camera capturing the same object from different viewpoints. It will be developed on a straight line. This straight line is referred to as an epipolar line Lp.

基準カメラにおけるポイント「mb」の位置は、検出カメラによる画像中では「エピポーラライン」と呼ばれる直線上に現れる。撮像対象となる点P(P1,P2,P3を含む直線上に存在する点)は、基準カメラの視線上に存在する限り、奥行きすなわち基準カメラとの距離の大小に拘らず、基準画像上では同じ観察点「mb」に現れる。これに対し、検出カメラによる撮影画像上における点Pは、エピポーラ・ライン上に基準カメラと観察点Pとの距離の大小に応じた位置にあらわれる。   The position of the point “mb” in the reference camera appears on a straight line called “epipolar line” in the image by the detection camera. As long as the point P to be imaged (a point existing on a straight line including P1, P2, and P3) exists on the line of sight of the reference camera, regardless of the depth, that is, the distance from the reference camera, on the reference image It appears at the same observation point “mb”. On the other hand, the point P on the image captured by the detection camera appears on the epipolar line at a position corresponding to the distance between the reference camera and the observation point P.

本発明の構成においては、キャリブレーション対象となる2つのカメラの撮影画像に基づいて特徴点抽出を行い、抽出した特徴点に基づいて、ステップS806においてF行列を算出した。このF行列は、2つのカメラ間の位置関係を示すパラメータであり、この位置関係パラメータに基づいてエピポーララインの設定が可能となる。   In the configuration of the present invention, feature points are extracted based on the captured images of the two cameras to be calibrated, and the F matrix is calculated in step S806 based on the extracted feature points. This F matrix is a parameter indicating a positional relationship between two cameras, and an epipolar line can be set based on the positional relationship parameter.

図16を参照してエピポーララインの設定について説明する。図16(a),(b)は、キャリブレーション処理対象となるカメラの撮影した複数フレームにおいて求めた特徴点(球体中心)をまとめて示した図である。これは、図11に示した特徴点分布データ511,512に相当する。さらに、(b)には、図14に示すフローのステップS806において求めたF行列に基づいて設定したエピポーララインL1,L2,Liを示している。これらのエピポーララインは、F行列算出のために対応付け処理を実行した例えば8つの特徴点に基づいて設定されたエピポーララインである。   The setting of epipolar lines will be described with reference to FIG. FIGS. 16A and 16B are diagrams collectively showing feature points (sphere centers) obtained in a plurality of frames taken by the camera to be calibrated. This corresponds to the feature point distribution data 511 and 512 shown in FIG. Further, (b) shows epipolar lines L1, L2, Li set based on the F matrix obtained in step S806 of the flow shown in FIG. These epipolar lines are epipolar lines set on the basis of, for example, eight feature points that have been subjected to the association process for calculating the F matrix.

例えばカメラ1と2の画像における対応点mli(i=1,……,P)とm2i(i=1,……,P)を用いて推定されたF行列から、次の式(式3)、(式4)によってカメラ1画像内の各特徴点(対応点)m1i(i=1,……,P)に対して、カメラ2画像上でのエピポーララインLiが得られる。同様に、カメラ2画像内の各特徴点に対して、カメラ1画像でのエピポーララインが得られる。   For example, from the F matrix estimated using corresponding points mli (i = 1,..., P) and m2i (i = 1,..., P) in the images of the cameras 1 and 2, the following expression (Expression 3) (Equation 4), for each feature point (corresponding point) m1i (i = 1,..., P) in the camera 1 image, an epipolar line Li on the camera 2 image is obtained. Similarly, an epipolar line in the camera 1 image is obtained for each feature point in the camera 2 image.

上記式(式3)に基づいて、下式(式4)に示される1つの直線(エピポーラライン)が設定される。   Based on the above formula (formula 3), one straight line (epipolar line) shown in the following formula (formula 4) is set.

しかし、F行列算出に用いた特徴点は、2つのカメラの撮影した多数フレームに存在する多数の特徴点からランダムに選択された特徴点である。F行列が正確に算出されていれば、特徴点は、F行列に基づいて設定されるエピポーラライン上にのることになるが、特徴点の正確な抽出あるいは正確な対応付けが実行されていないと、特徴点がエピポーララインからずれた位置になる。ずれが大きい場合は特徴点対応付け処理が不正確であり、F行列もまた不正確なものであると判定される。   However, the feature points used for F matrix calculation are feature points randomly selected from a large number of feature points existing in a large number of frames taken by two cameras. If the F matrix is accurately calculated, the feature point will be on the epipolar line set based on the F matrix, but the feature point is not accurately extracted or correctly associated. Then, the feature point is at a position shifted from the epipolar line. When the deviation is large, it is determined that the feature point association processing is inaccurate and the F matrix is also inaccurate.

このF行列の正確度を判定する指標として、特徴点と、エピポーララインとの距離Diの算出を実行する。図16に示すように、F行列に基づいて設定されたエピポーララインL1,L2・・,Liと、本来、ライン上にあるべき対応点としての各特徴点m21,m22,..m2iとの距離D1,D2,..Diを求める。   As an index for determining the accuracy of the F matrix, the distance Di between the feature point and the epipolar line is calculated. As shown in FIG. 16, the epipolar lines L1, L2,..., Li set based on the F matrix and the characteristic points m21, m22,. . distances D1, D2,. . Find Di.

ステップS809において、各算出距離D1,D2,..Diと、予め定めた閾値と比較する。閾値より大の距離を持つ特徴点m2iがあった場合は、ステップS810において、その特徴点の組、すなわち、カメラ1とカメラ2の特徴点の組m1i,m2iを対応付け対象から除いて、ステップS806において、その他の対応付け可能な特徴点の対応付け処理データに基づいて、再度F行列を算出する。   In step S809, each calculated distance D1, D2,. . Di is compared with a predetermined threshold value. If there is a feature point m2i having a distance greater than the threshold, in step S810, the feature point set, that is, the feature point set m1i, m2i of the camera 1 and camera 2 is excluded from the correspondence target, and the step In step S806, the F matrix is calculated again based on the association processing data of other feature points that can be associated.

ステップS809において、各算出距離D1,D2,..Diのすべてが予め定めた閾値以下となった場合は、ステップS811において、各算出距離D1,D2,..Diの平均値を算出し、平均値と予め定めた第2の閾値とを比較する。距離平均値が第2の閾値以上となった場合は、再度ステップS806において、その他の対応付け可能な特徴点の対応付け処理データに基づいて、再度F行列を算出する。   In step S809, each calculated distance D1, D2,. . If all of Di are equal to or less than a predetermined threshold value, in step S811, each calculated distance D1, D2,. . An average value of Di is calculated, and the average value is compared with a predetermined second threshold value. If the distance average value is equal to or greater than the second threshold value, in step S806 again, the F matrix is calculated again based on association processing data of other feature points that can be associated.

ステップS811において、各算出距離D1,D2,..Diの平均値が第2の閾値未満となった場合は、ステップS812に進み、特徴点の分布の判定を行う。特徴点分布判定処理について、図17を参照して説明する。対応付け処理を実行する特徴点が撮影画像フレームの一部に偏っている場合、各カメラ間の正確な位置関係を求めることは困難となる。すなわち正確なF行列の算出は困難となる。そこで対応付け処理を実行する特徴点分布を撮影画像フレーム全体に散在するものとして、より正確なF行列算出を行うため、特徴点分布を確認し、特徴点の偏在がある場合には、離れた位置に新たな特徴点を設定して、再度F行列算出を行う。   In step S811, each calculated distance D1, D2,. . If the average value of Di is less than the second threshold value, the process proceeds to step S812, and the feature point distribution is determined. The feature point distribution determination process will be described with reference to FIG. When the feature point for executing the association process is biased to a part of the captured image frame, it is difficult to obtain an accurate positional relationship between the cameras. That is, it is difficult to accurately calculate the F matrix. Therefore, it is assumed that the feature point distribution for executing the association processing is scattered throughout the entire captured image frame, and in order to perform more accurate F matrix calculation, the feature point distribution is confirmed. A new feature point is set at the position, and the F matrix is calculated again.

図17に示すように、カメラ1の画像上の対応点m1i(i=1,……,P)及びカメラ2の画像上の対応点m2i(i=1,……,P)の座標値を用いて、下式(式5)に示すように、それぞれの座標分布(x、yの平均値)を求める。   As shown in FIG. 17, the coordinate values of the corresponding point m1i (i = 1,..., P) on the image of the camera 1 and the corresponding point m2i (i = 1,. As shown in the following formula (Formula 5), each coordinate distribution (average value of x and y) is obtained.

上記各式で求められた各カメラの座標分布が、それぞれ画像中心(xc1,yc1)、(xc2,yc2)から離れている場合、特徴点の偏在があると判定し、新たな特徴点の追加を行う。具体的には、上記各式で求められた各カメラの座標分布値と画像中心(xc1,yc1)、(xc2,yc2)との距離を、予め定めた第3の閾値と比較して閾値より大である場合に特徴点分布に偏りがあると判定し、ステップS813からステップS814に進み、必要となる特徴点位置を設定する。指示する追加特徴点は、上述の式(式5)において求められる座標分布の偏りを減少させる位置に設定される。例えば図17に示す点m1k、m2kである。   When the coordinate distribution of each camera obtained by the above equations is away from the image centers (xc1, yc1) and (xc2, yc2), it is determined that the feature points are unevenly distributed, and new feature points are added. I do. Specifically, the distance between the coordinate distribution value of each camera obtained by the above equations and the image center (xc1, yc1), (xc2, yc2) is compared with a predetermined third threshold value, and the threshold value is calculated. If it is large, it is determined that the feature point distribution is biased, and the process advances from step S813 to step S814 to set a necessary feature point position. The additional feature point to be instructed is set at a position to reduce the deviation of the coordinate distribution obtained in the above formula (Formula 5). For example, the points m1k and m2k shown in FIG.

ステップS815では、指示された特徴点を取得可能な位置に球体を移動し、その後、ステップS802に戻り、再度、球体のカメラ撮影を実行して、追加特徴点を加えて特徴点対応付け処理、F行列算出処理を実行する。   In step S815, the sphere is moved to a position where the instructed feature point can be acquired, and then the process returns to step S802 to execute camera shooting of the sphere again, add the additional feature point, F matrix calculation processing is executed.

ステップS813の特徴点の偏り判定において、特徴点の偏りがないと判定されると、求めたF行列を最終的なF行列として処理を終了する。   If it is determined in step S813 that the feature points are not biased, it is determined that there is no feature point bias, and the processing is ended with the obtained F matrix as the final F matrix.

このように、画像観測−>球体検出−>球体中心推定−>対応付け−>F行列推定−>エピポーラライン算出−>対応点とエピポーララインとの誤差計算−>誤差値評価といった処理手順は、誤差評価がある閾値より小さくなるまで繰り返す。さらに、上記の誤差値がある閾値より小さくなった場合、画像間の視差情報を用いて、対応点の位置(つまり、球体の空間位置)が偏っているかどうかを判定する。もし、対応点が偏っていた場合、球体の置くべき空間位置を提示し、上記の繰り返し作業を行う。その結果、照明環境などが不安定な現場撮影でも高精度なカメラキャリブレーションを行うことが可能となる。   Thus, the processing procedure of image observation-> sphere detection-> sphere center estimation-> correspondence-> F matrix estimation-> epipolar line calculation-> error calculation between corresponding points and epipolar lines-> error value evaluation is as follows: Repeat until the error evaluation is below a certain threshold. Furthermore, when the above error value becomes smaller than a certain threshold value, it is determined whether or not the position of the corresponding point (that is, the spatial position of the sphere) is biased using disparity information between images. If the corresponding points are biased, the spatial position where the sphere should be placed is presented and the above-described repetitive operation is performed. As a result, highly accurate camera calibration can be performed even in field shooting where the lighting environment is unstable.

上述したように、図14を参照して説明した処理手順に従えば、キャリブレーション対象カメラの取得した球体の画像から求められる球体中心位置を特徴点として対応付け、F行列を算出する処理において、対応付け設定を行う特徴点の選択誤りや、対応付け処理における誤りが発生した場合であっても、その誤りを訂正することが可能となる。また特徴点が偏在している場合にも、偏在状況を確認し、偏在しない位置に特徴点を追加して新たなF行列を算出することができるので、より高精度なF行列を算出することが可能となる。従って、高精度なF行列に基づくカメラキャリブレーション、あるいは取得画像の補正処理、および補正処理に基づく高精度な仮想視点画像の生成が可能となる。   As described above, according to the processing procedure described with reference to FIG. 14, in the process of calculating the F matrix by associating the spherical center position obtained from the spherical image acquired by the calibration target camera as the feature point, Even if an error occurs in selecting a feature point for which association setting is performed or an error occurs in the association processing, the error can be corrected. In addition, even when feature points are unevenly distributed, it is possible to check the uneven distribution state and calculate a new F matrix by adding feature points to positions where uneven distribution is not present, so that a more accurate F matrix can be calculated. Is possible. Accordingly, it is possible to perform camera calibration based on a high-precision F matrix, or correction processing of an acquired image, and generation of a high-precision virtual viewpoint image based on the correction processing.

次に、図18を参照して、本発明に係るキャリブレーション処理装置の具体的なハードウェア構成例について説明する。CPU(Central processing Unit)901は、上述した各フローチャートを参照して説明した処理プログラムや、OS(Operating System)を実行するプロセッサである。ROM(Read-Only-Memory)902は、CPU901が実行するプログラム、あるいは演算パラメータとしての固定データを格納する。RAM(Random Access Memory)903は、CPU901の処理において実行されるプログラム、およびプログラム処理において適宜変化するパラメータの格納エリア、ワーク領域として使用される。HDD904はハードディスクの制御を実行し、ハードディスクに対する各種データ、プログラムの格納処理および読み出し処理を実行する。   Next, a specific hardware configuration example of the calibration processing apparatus according to the present invention will be described with reference to FIG. A CPU (Central processing Unit) 901 is a processor that executes the processing program described with reference to the above-described flowcharts and an OS (Operating System). A ROM (Read-Only-Memory) 902 stores programs executed by the CPU 901 or fixed data as calculation parameters. A RAM (Random Access Memory) 903 is used as a storage area and work area for programs executed in the processing of the CPU 901 and parameters that change as appropriate in the program processing. The HDD 904 executes control of the hard disk, and executes storage processing and reading processing of various data and programs with respect to the hard disk.

バス910はPCI(Peripheral Component Internet/Interface)バス等により構成され、各モジュール、入出力インタフェース911を介した各入手力装置とのデータ転送を可能にしている。   The bus 910 is configured by a PCI (Peripheral Component Internet / Interface) bus or the like, and enables data transfer with each module and each available power device via the input / output interface 911.

入力部905は、画像データの入力部、およびキーボード、ポインティングデバイス等によって構成され、キャリブレーションを実行するカメラによって取得された画像データを入力する他、CPU901に各種のコマンド、データを入力する。出力部906は、撮影画像、特徴点抽出処理画像、あるいはF行列算出後に、カメラ取得画像に基づいて生成した仮想視点画像等を表示する例えばCRT、液晶ディスプレイ等である。   The input unit 905 includes an image data input unit, a keyboard, a pointing device, and the like. The input unit 905 inputs image data acquired by a camera that performs calibration, and inputs various commands and data to the CPU 901. The output unit 906 is, for example, a CRT or a liquid crystal display that displays a captured image, a feature point extraction processed image, or a virtual viewpoint image generated based on a camera acquired image after F matrix calculation.

通信部907は他デバイスとの通信処理を実行する。例えば図6に示す画像の同期取得処理を実行するシステムにおいて取得した複数のカメラの映像を入力する。入力画像に基づいて上述のF行列算出処理、仮想視点画像生成処理等が制御部としてのCPU901の制御の下に実行される。なお、処理対象とする画像データは、通信部を介して入力するばかりでなく、入力部905に構成したA/V入力部を介して入力してもよく、また、ドライブ908に接続されたHDD、CD、DVD等のリムーバブル記録媒体909に格納された画像データを処理対象画像として入力する構成としてもよい。   The communication unit 907 executes communication processing with other devices. For example, the images of a plurality of cameras acquired in the system that executes the image synchronous acquisition process shown in FIG. 6 are input. Based on the input image, the above-described F matrix calculation process, virtual viewpoint image generation process, and the like are executed under the control of the CPU 901 as the control unit. Note that the image data to be processed may be input not only via the communication unit but also via an A / V input unit configured in the input unit 905, or an HDD connected to the drive 908. Alternatively, image data stored in a removable recording medium 909 such as a CD or DVD may be input as a processing target image.

ドライブ908は、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体909の記録再生を実行するドライブであり、各リムーバブル記録媒体909からのプログラムまたはデータ読み取り、リムーバブル記録媒体909に対するプログラムまたはデータ格納処理を実行する。   A drive 908 executes recording and reproduction of a removable recording medium 909 such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disc, a DVD (Digital Versatile Disc), a magnetic disc, and a semiconductor memory. The program or data is read from each removable recording medium 909, and the program or data storage process for the removable recording medium 909 is executed.

以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims section described at the beginning should be considered.

なお、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   The series of processes described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.

例えば、プログラムは記憶媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。   For example, the program can be recorded in advance on a hard disk or ROM (Read Only Memory) as a storage medium. Alternatively, the program is temporarily or permanently stored on a removable recording medium such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored (recorded). Such a removable recording medium can be provided as so-called package software.

また、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記憶媒体にインストールすることができる。   In addition to installing the program from a removable recording medium as described above, the program is wirelessly transferred from a download site to the computer, or transferred to the computer via a network such as a LAN (Local Area Network) or the Internet. The computer can receive the program transferred in this way and install it in a storage medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。   Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.

以上、説明したように、本発明の構成によれば、多視点画像撮影カメラ間の調整、または多視点画像撮影カメラによる取得画像の補正処理に適用するパラメータ算出処理を実行するキャリブレーション処理において、発光球体を各カメラにより撮影する構成としたので、照明環境が不安定な撮影現場等でも球体検出と球体中心位置の取得を容易に行うことができ、球体中心位置を特徴点として対応付け処理を実行することで高精度なF行列の算出が可能となる。すなわち、多視点映像撮影システムを構成する実写カメラ間の位置関係を示すパラメータであるジオメトリ・パラメータ(Geometry Parameters)としてのファンダメンタル(Fundamental)行列の算出を高精度に行なうことが可能となり、高速かつ高精度なキャリブレーションが可能となる。   As described above, according to the configuration of the present invention, in the calibration process for executing the parameter calculation process applied to the adjustment between the multi-viewpoint image capturing cameras or the correction process of the acquired image by the multi-viewpoint image capturing camera, Since the light-emitting sphere is photographed by each camera, it is possible to easily detect the sphere and acquire the center position of the sphere even in shooting scenes where the lighting environment is unstable, and the association processing is performed using the sphere center position as a feature point. By executing this, it is possible to calculate the F matrix with high accuracy. In other words, it is possible to calculate a fundamental matrix as a geometry parameter (Geometry Parameters), which is a parameter indicating the positional relationship between live-action cameras that constitute a multi-view video shooting system, with high accuracy and high speed. Accurate calibration is possible.

さらに、本発明の構成によれば、照明環境等に影響しにくい発光球体をキャリブレーション治具として用い、球体の中心位置をリアルタイムに検出し対応付けしながらF行列を推定し、推定されたF行列と対応点との誤差や位置関係などを評価することによって、必要となる対応点の数や三次元空間上に置くべき球体位置を指示し、より高精度なF行列を効率的に算出することが可能となる。   Furthermore, according to the configuration of the present invention, a light emitting sphere that does not easily affect the lighting environment or the like is used as a calibration jig, the F matrix is estimated while the center position of the sphere is detected and associated in real time, and the estimated F By evaluating the error and positional relationship between the matrix and the corresponding points, the number of corresponding points required and the position of the sphere to be placed in the three-dimensional space are indicated, and a more accurate F matrix is efficiently calculated. It becomes possible.

さらに、本発明の構成によれば、同期機能を備えた多視点映像撮影システムによって球体画像を観測撮影し、各パソコン上のメモリやハードディスクなどの記録媒体に収録しながらカメラキャリブレーションを行うことが可能であり、各パソコン上の画像処理手法によって、各フレーム画像における球体中心の座標位置(特徴点)抽出、抽出特徴点を用いた画像間の対応付けによるファンダメンタル(Fundamental)行列の推定、推定F行列の精度評価、対応点の数や対応点の適切な位置の判定、提示等を、例えばPC上で実行可能であり、高速かつ高精度なキャリブレーション処理を、PC等、簡易なシステムにおいて実行することが可能となる。   Furthermore, according to the configuration of the present invention, a spherical image can be observed and photographed by a multi-viewpoint video photographing system having a synchronization function, and camera calibration can be performed while recording in a recording medium such as a memory or a hard disk on each personal computer. It is possible to estimate the fundamental matrix by extracting the coordinate position (feature point) of the sphere center in each frame image and matching the images using the extracted feature points by image processing method on each personal computer. Evaluation of matrix accuracy, determination of the number of corresponding points and appropriate positions of corresponding points, presentation, etc. can be executed on a PC, for example, and high-speed and high-precision calibration processing is executed on a simple system such as a PC. It becomes possible to do.

多視点カメラ撮影処理及び多視点カメラで撮影した実写映像を用いて仮想視点映像を生成する処理について説明する図である。It is a figure explaining the process which produces | generates a virtual viewpoint image | video using the multi-view camera imaging | photography process and the real image image | photographed with the multi-view camera. キャリブレーション処理に適用する各種パラメータを説明する図である。It is a figure explaining the various parameters applied to a calibration process. 一般的なFパラメータ推定方法を示す図である。It is a figure which shows the general F parameter estimation method. F行列を推定するために、チェッカパターンをキャリブレーション治具として用いた場合のカメラキャリブレーション手順を示した図である。It is the figure which showed the camera calibration procedure at the time of using a checker pattern as a calibration jig | tool in order to estimate F matrix. 発光球体をキャリブレーションツールとして用い、異なる視点から発光球体を撮影する構成例を示す図である。It is a figure which shows the structural example which image | photographs a light emission sphere from a different viewpoint, using a light emission sphere as a calibration tool. ネットワーク同期機構を備えた複数カメラ映像の同期収録構成について説明する図である。It is a figure explaining the synchronous recording structure of the several camera image | video provided with the network synchronization mechanism. DVキャプチャボードにより構成される映像信号処理部の構成例について説明する図である。It is a figure explaining the structural example of the video signal processing part comprised by a DV capture board. サーバーPCで実行する同期調整処理の詳細について説明する図である。It is a figure explaining the detail of the synchronous adjustment process performed with server PC. 一台のカメラで観測した発光球体の時系列画像(t=1,……,k)について説明する図である。It is a figure explaining the time-sequential image (t = 1, ..., k) of the light-emitting sphere observed with one camera. 特徴点抽出処理として実行される発光球体の中心点位置判定処理の手順を説明する図である。It is a figure explaining the procedure of the center point position determination process of the light emission sphere performed as a feature point extraction process. 隣接カメラで観測された時系列画像から、それぞれ球体の中心位置を検出し、一枚の画像から抽出された特徴点のように設定する処理を説明する図である。It is a figure explaining the process which detects the center position of each sphere from the time series image observed with the adjacent camera, and sets like the feature point extracted from one image. 複数フレームからなる時系列画像に基づいて、それぞれの画像フレームから特徴点としての球体中心位置を求める処理手順を示すフローチャートを示す図である。It is a figure which shows the flowchart which shows the process sequence which calculates | requires the spherical center position as a feature point from each image frame based on the time series image which consists of several frames. 本発明のキャリブレーション処理装置の機能構成を説明するブロック図である。It is a block diagram explaining the functional structure of the calibration processing apparatus of this invention. 本発明のキャリブレーション処理装置の実行する最適なF行列の算出処理手順について説明する図である。It is a figure explaining the calculation process procedure of the optimal F matrix which the calibration processing apparatus of this invention performs. エピポーララインについて説明する図である。It is a figure explaining an epipolar line. エピポーララインの生成と、F行列推定に使われた対応点とエピポーララインとの距離(誤差)の算出処理について説明する図である。It is a figure explaining the calculation process of the distance (error) of the production | generation of an epipolar line, and the corresponding point used for F matrix estimation, and an epipolar line. 特徴点分布判定処理について説明する図である。It is a figure explaining a feature point distribution determination process. 本発明に係るキャリブレーション処理装置の具体的なハードウェア構成例について説明する図である。It is a figure explaining the specific hardware structural example of the calibration processing apparatus which concerns on this invention.

符号の説明Explanation of symbols

100 被写体
101,102 カメラ
111,112 実写画像
113 仮想視点カメラ
121 仮想視点カメラ画像
301 カメラ
302 実写画像
301 カメラ
320 同期信号発生部
330 A/Dコンバータ
350 クライアントPC
355 映像信号処理部
356 記憶手段
357 ネットワークカード
360 画像モニタ
370 サーバーPC
380 ネットワーク
391 CPU
392 RAM
393 ROM
394 1394ポート
395 LINK/PHY
396 記憶手段
500 発光球体
501,502 カメラ
511,512 特徴点分布データ
601 画像入力部
602 特徴点抽出部
603 対応付け処理部
604 F行列算出部
605 仮想視点画像生成部
901 CPU
902 ROM
903 RAM
904 HDD
905 入力部
906 出力部
907 通信部
908 ドライブ
909 リムーバブル記録媒体
910 バス
911 入出力インタフェース
DESCRIPTION OF SYMBOLS 100 Subject 101,102 Camera 111,112 Actual image 113 Virtual viewpoint camera 121 Virtual viewpoint camera image 301 Camera 302 Actual image 301 Camera 320 Synchronization signal generating part 330 A / D converter 350 Client PC
355 Video signal processing unit 356 Storage unit 357 Network card 360 Image monitor 370 Server PC
380 Network 391 CPU
392 RAM
393 ROM
394 1394 port 395 LINK / PHY
396 Storage unit 500 Luminescent sphere 501, 502 Camera 511, 512 Feature point distribution data 601 Image input unit 602 Feature point extraction unit 603 Association processing unit 604 F matrix calculation unit 605 Virtual viewpoint image generation unit 901 CPU
902 ROM
903 RAM
904 HDD
905 input unit 906 output unit 907 communication unit 908 drive 909 removable recording medium 910 bus 911 input / output interface

Claims (11)

多視点画像撮影カメラ間の調整、または多視点画像撮影カメラによる取得画像の補正処理に適用するパラメータ算出処理を実行するキャリブレーション処理装置であり、
移動する球体を異なる視点方向から撮影した複数カメラの映像データを入力する画像入力部と、
前記画像入力部において入力する複数カメラの映像データを構成する複数の撮影画像フレームから球体中心位置を特徴点として抽出する処理を実行する特徴点抽出部と、
各カメラの対応フレームにおける特徴点として前記特徴点抽出部において抽出された球体中心位置の対応付け処理を実行する対応付け処理部と、
前記対応付け処理部において対応付けのなされた特徴点対応データに基づいてキャリブレーションパラメータとしてのF行列[ファンダメンタル(Fundamental)行列]を算出するF行列算出部を有し、
前記特徴点抽出部は、前記F行列の9個の要素の比率を算出するために必要となる少なくとも8点の球体中心位置データを各カメラの複数の撮影画像フレームから取得し、
前記対応付け処理部は、前記特徴点抽出部において抽出された8点以上の球体中心位置の対応付け処理を実行し、
前記F行列算出部は、対応付けのなされた8以上の特徴点対応データに基づいてキャリブレーションパラメータとしてのファンダメンタル(Fundamental)行列の要素値算出を実行する構成であることを特徴とするキャリブレーション処理装置。
A calibration processing device that executes parameter calculation processing applied to adjustment between multi-viewpoint image capturing cameras or correction processing of an acquired image by a multi-viewpoint image capturing camera,
An image input unit for inputting video data of a plurality of cameras obtained by photographing moving spheres from different viewpoint directions;
A feature point extraction unit that executes a process of extracting a sphere center position as a feature point from a plurality of captured image frames constituting video data of a plurality of cameras input in the image input unit;
An association processing unit that executes an association process of the sphere center position extracted by the feature point extraction unit as a feature point in the corresponding frame of each camera;
An F matrix calculation unit that calculates an F matrix [fundamental matrix] as a calibration parameter based on the feature point correspondence data associated in the association processing unit;
The feature point extraction unit obtains at least eight sphere center position data necessary for calculating a ratio of nine elements of the F matrix from a plurality of captured image frames of each camera;
The association processing unit executes an association process of eight or more spherical center positions extracted by the feature point extraction unit,
The F matrix calculation unit is configured to perform element value calculation of a fundamental matrix as a calibration parameter based on eight or more feature point correspondence data associated with each other. apparatus.
前記球体は、発光球体であり、
前記特徴点抽出部は、フレームに撮影された球体のエッジ情報に基づいて球体中心位置を算出する処理を実行する構成であることを特徴とする請求項1に記載のキャリブレーション処理装置。
The sphere is a light emitting sphere,
The calibration processing apparatus according to claim 1, wherein the feature point extraction unit is configured to execute a process of calculating a sphere center position based on edge information of a sphere photographed in a frame.
前記F行列算出部は、算出したF行列に基づくエピポーララインを設定し、設定したエピポーララインと、特徴点に対応する球体中心位置との距離を個別にまたは平均距離として算出し、該算出距離が予め定めた閾値より大である場合は新たな特徴点を含む特徴点対応データに基づいてF行列の再算出処理を実行する構成であることを特徴とする請求項1に記載のキャリブレーション処理装置。   The F matrix calculation unit sets an epipolar line based on the calculated F matrix, calculates the distance between the set epipolar line and the spherical center position corresponding to the feature point individually or as an average distance, and the calculated distance is The calibration processing apparatus according to claim 1, wherein when the threshold value is larger than a predetermined threshold, the F matrix recalculation process is executed based on feature point correspondence data including a new feature point. . 前記F行列算出部は、撮影画像フレーム内における球体中心位置、すなわち特徴点の分布状況判定処理を実行し、特徴点偏在が確認された場合、該偏在を解消する位置に追加設定した特徴点を含む特徴点対応データに基づくF行列再算出処理を実行する構成であることを特徴とする請求項1に記載のキャリブレーション処理装置。   The F matrix calculation unit executes a spherical center position in the captured image frame, that is, a feature point distribution state determination process, and when feature point uneven distribution is confirmed, a feature point additionally set at a position where the uneven distribution is eliminated. The calibration processing apparatus according to claim 1, wherein the F matrix recalculation process is executed based on the feature point correspondence data included. 前記特徴点抽出部は、撮影フレーム内に球体全体のエッジが存在する場合にのみ、該エッジ情報に基づく中心位置算出処理を実行する構成であることを特徴とする請求項1に記載のキャリブレーション処理装置。   2. The calibration according to claim 1, wherein the feature point extraction unit is configured to execute a center position calculation process based on edge information only when an edge of the entire sphere exists in the imaging frame. Processing equipment. 多視点画像撮影カメラ間の調整、または多視点画像撮影カメラの取得画像の補正処理に適用するパラメータ算出処理を実行するキャリブレーション処理方法であり、
移動する球体を異なる視点方向から撮影した複数カメラの映像データを入力する画像入力ステップと、
前記画像入力ステップにおいて入力する複数カメラの映像データを構成する複数の撮影画像フレームから球体中心位置を特徴点として抽出する特徴点抽出ステップと、
前記特徴点抽出ステップにおいて抽出された球体中心位置に基づいて特徴点対応付け処理を実行する対応付け処理ステップと、
前記対応付け処理ステップにおいて対応付けのなされた特徴点対応データに基づいてキャリブレーションパラメータとしてのF行列[ファンダメンタル(Fundamental)行列]を算出するF行列算出ステップを有し、
前記特徴点抽出ステップは、前記F行列の9個の要素の比率を算出するために必要となる少なくとも8点の球体中心位置データを各カメラの複数の撮影画像フレームから取得し、
前記対応付け処理ステップは、前記特徴点抽出ステップにおいて抽出された8点以上の球体中心位置の対応付け処理を実行し、
前記F行列算出ステップは、対応付けのなされた8以上の特徴点対応データに基づいてキャリブレーションパラメータとしてのファンダメンタル(Fundamental)行列を構成する要素値算出を実行することを特徴とするキャリブレーション処理方法。
It is a calibration processing method for executing parameter calculation processing applied to adjustment between multi-viewpoint image capturing cameras or correction processing of acquired images of multi-viewpoint image capturing cameras.
An image input step for inputting video data of a plurality of cameras obtained by photographing moving spheres from different viewpoint directions;
A feature point extracting step of extracting a sphere center position as a feature point from a plurality of captured image frames constituting video data of a plurality of cameras input in the image input step;
An association processing step for performing a feature point association process based on the spherical center position extracted in the feature point extraction step;
An F matrix calculation step of calculating an F matrix [fundamental matrix] as a calibration parameter based on the feature point correspondence data associated in the association processing step;
The feature point extraction step acquires at least eight sphere center position data necessary for calculating a ratio of nine elements of the F matrix from a plurality of captured image frames of each camera;
The association processing step executes an association process of eight or more spherical center positions extracted in the feature point extraction step,
The F matrix calculation step performs calculation of element values constituting a fundamental matrix as a calibration parameter based on eight or more feature point correspondence data associated with each other. .
前記球体は、発光球体であり、
前記特徴点抽出ステップは、フレームに撮影された球体のエッジ情報に基づいて球体中心位置の算出処理を実行することを特徴とする請求項6に記載のキャリブレーション処理方法。
The sphere is a light emitting sphere,
The calibration processing method according to claim 6, wherein the feature point extraction step executes a calculation process of a sphere center position based on edge information of the sphere photographed in the frame.
前記F行列算出ステップは、算出したF行列に基づくエピポーララインを設定し、設定したエピポーララインと前記特徴点としての球体中心位置との距離を個別にまたは平均距離として算出し、該算出距離が予め定めた閾値より大である場合は新たな特徴点を含む特徴点対応データに基づくF行列再算出処理を実行することを特徴とする請求項6に記載のキャリブレーション処理方法。   The F matrix calculation step sets an epipolar line based on the calculated F matrix, calculates the distance between the set epipolar line and the spherical center position as the feature point individually or as an average distance, and the calculated distance is calculated in advance. The calibration processing method according to claim 6, wherein when the threshold value is larger than a predetermined threshold value, an F matrix recalculation process based on feature point correspondence data including a new feature point is executed. 前記F行列算出ステップは、撮影画像フレーム内における球体中心位置、すなわち特徴点の分布状況判定処理を実行し、特徴点偏在が確認された場合、該偏在を解消する位置に追加設定した追加特徴点を含む特徴点対応データに基づくF行列再算出処理を実行することを特徴とする請求項6に記載のキャリブレーション処理方法。   In the F matrix calculation step, a spherical center position in the photographed image frame, that is, a feature point distribution state determination process is executed, and when feature point uneven distribution is confirmed, an additional feature point additionally set at a position where the uneven distribution is eliminated The calibration processing method according to claim 6, wherein an F-matrix recalculation process based on feature point correspondence data including is executed. 前記特徴点抽出ステップは、撮影フレーム内に球体全体のエッジが存在する場合にのみ、該エッジ情報に基づく中心位置算出処理を実行することを特徴とする請求項6に記載のキャリブレーション処理方法。   The calibration processing method according to claim 6, wherein the feature point extracting step executes a center position calculation process based on the edge information only when an edge of the entire sphere exists in the imaging frame. 多視点画像撮影カメラ間の調整、または多視点画像撮影カメラの取得画像の補正処理に適用するパラメータ算出処理を実行するコンピュータ・プログラムであって、
移動する球体を異なる視点方向から撮影した複数カメラの映像データを入力する画像入力ステップと、
前記画像入力ステップにおいて入力する複数カメラの映像データを構成する複数の撮影画像フレームから球体中心位置を特徴点として抽出する特徴点抽出ステップと、
前記特徴点抽出ステップにおいて抽出された球体中心位置の対応付け処理を実行する対応付け処理ステップと、
前記対応付け処理ステップにおいて対応付けのなされた特徴点対応データに基づいてキャリブレーションパラメータとしてのF行列[ファンダメンタル(Fundamental)行列]を算出するF行列算出ステップを具備し、
前記特徴点抽出ステップは、前記F行列の9個の要素の比率を算出するために必要となる少なくとも8点の球体中心位置データを各カメラの複数の撮影画像フレームから取得するステップであり、
前記対応付け処理ステップは、前記特徴点抽出ステップにおいて抽出された8点以上の球体中心位置の対応付け処理を実行するステップであり、
前記F行列算出ステップは、対応付けのなされた8以上の特徴点対応データに基づいてキャリブレーションパラメータとしてのファンダメンタル(Fundamental)行列を構成する要素値算出を実行するステップであることを特徴とするコンピュータ・プログラム。
A computer program for executing parameter calculation processing applied to adjustment between multi-viewpoint image capturing cameras or correction processing of acquired images of a multi-viewpoint image capturing camera,
An image input step for inputting video data of a plurality of cameras obtained by photographing moving spheres from different viewpoint directions;
A feature point extracting step of extracting a sphere center position as a feature point from a plurality of captured image frames constituting video data of a plurality of cameras input in the image input step;
An association process step of executing an association process of the sphere center position extracted in the feature point extraction step;
An F matrix calculation step of calculating an F matrix [fundamental matrix] as a calibration parameter based on the feature point correspondence data associated in the association processing step;
The feature point extracting step is a step of acquiring spherical center position data of at least eight points necessary for calculating a ratio of nine elements of the F matrix from a plurality of captured image frames of each camera;
The association processing step is a step of executing association processing of eight or more spherical center positions extracted in the feature point extraction step;
The F matrix calculation step is a step of executing calculation of element values constituting a fundamental matrix as a calibration parameter based on eight or more feature point correspondence data associated with each other. ·program.
JP2008271650A 2003-01-30 2008-10-22 Calibration processing apparatus, calibration processing method, and computer program Expired - Fee Related JP4297197B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008271650A JP4297197B2 (en) 2003-01-30 2008-10-22 Calibration processing apparatus, calibration processing method, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003021605A JP4238586B2 (en) 2003-01-30 2003-01-30 Calibration processing apparatus, calibration processing method, and computer program
JP2008271650A JP4297197B2 (en) 2003-01-30 2008-10-22 Calibration processing apparatus, calibration processing method, and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003021605A Division JP4238586B2 (en) 2003-01-30 2003-01-30 Calibration processing apparatus, calibration processing method, and computer program

Publications (2)

Publication Number Publication Date
JP2009071844A JP2009071844A (en) 2009-04-02
JP4297197B2 true JP4297197B2 (en) 2009-07-15

Family

ID=32950889

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2003021605A Expired - Fee Related JP4238586B2 (en) 2003-01-30 2003-01-30 Calibration processing apparatus, calibration processing method, and computer program
JP2008271650A Expired - Fee Related JP4297197B2 (en) 2003-01-30 2008-10-22 Calibration processing apparatus, calibration processing method, and computer program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2003021605A Expired - Fee Related JP4238586B2 (en) 2003-01-30 2003-01-30 Calibration processing apparatus, calibration processing method, and computer program

Country Status (1)

Country Link
JP (2) JP4238586B2 (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4848230B2 (en) * 2006-08-30 2011-12-28 株式会社リコー Image processing method, imaging apparatus, image processing apparatus, and program
JP4858346B2 (en) * 2007-07-26 2012-01-18 株式会社島津製作所 Marker image identification device and marker image identification method
KR100950046B1 (en) * 2008-04-10 2010-03-29 포항공과대학교 산학협력단 Apparatus of multiview three-dimensional image synthesis for autostereoscopic 3d-tv displays and method thereof
JP5263960B2 (en) * 2009-02-13 2013-08-14 大学共同利用機関法人情報・システム研究機構 Virtual stereoscopic image display device and virtual stereoscopic image display method
JP2010273091A (en) * 2009-05-21 2010-12-02 Nippon Telegr & Teleph Corp <Ntt> Broad band multi-view-point camera calibration method, broad band multi-view-point camera calibration device, and program
CN102726051B (en) * 2009-09-11 2016-02-03 迪斯尼实业公司 Virtual plug-in unit in 3D video
JP2011146762A (en) * 2010-01-12 2011-07-28 Nippon Hoso Kyokai <Nhk> Solid model generator
DE102010009737A1 (en) * 2010-03-01 2011-09-01 Institut für Rundfunktechnik GmbH Method and arrangement for reproducing 3D image content
JP5645450B2 (en) * 2010-04-16 2014-12-24 キヤノン株式会社 Image processing apparatus and method
JP5067477B2 (en) * 2010-12-28 2012-11-07 カシオ計算機株式会社 Imaging parameter acquisition apparatus, imaging parameter acquisition method, and program
JP5768684B2 (en) 2011-11-29 2015-08-26 富士通株式会社 Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
JP5803868B2 (en) 2012-09-20 2015-11-04 カシオ計算機株式会社 Movie processing apparatus, movie processing method and program
JP6164679B2 (en) * 2012-10-30 2017-07-19 株式会社Halデザイン研究所 Camera calibration method and camera calibration apparatus
CN104036542B (en) * 2014-05-21 2017-01-25 北京信息科技大学 Spatial light clustering-based image surface feature point matching method
JP6622503B2 (en) * 2014-11-25 2019-12-18 日本放送協会 Camera model parameter estimation apparatus and program thereof
US10359837B2 (en) 2015-03-31 2019-07-23 Sony Corporation Information processing device and information processing method
JP6164319B2 (en) * 2016-03-02 2017-07-19 ソニー株式会社 Information processing apparatus, information processing method, and computer program
EP3606038B1 (en) * 2017-03-31 2021-12-08 Panasonic Intellectual Property Management Co., Ltd. Imaging system and correction method
JP7122694B2 (en) * 2017-03-31 2022-08-22 パナソニックIpマネジメント株式会社 Imaging system and calibration method
JP2019087791A (en) 2017-11-01 2019-06-06 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2019180016A (en) * 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 Image synthesizer, image composition method and program
CN112785650B (en) * 2019-11-11 2024-01-12 北京京邦达贸易有限公司 Camera parameter calibration method and device
WO2022041287A1 (en) * 2020-08-31 2022-03-03 华为技术有限公司 Image acquisition method and apparatus, device, and computer-readable storage medium
JP7429667B2 (en) 2021-03-23 2024-02-08 Kddi株式会社 Camera calibration device, method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0814828A (en) * 1994-06-29 1996-01-19 Kobe Steel Ltd Calibration method for stereoscopic image sensor and device therefor
JP3285567B2 (en) * 1999-11-01 2002-05-27 日本電信電話株式会社 Three-dimensional position measuring device and method, and recording medium recording three-dimensional position measuring program

Also Published As

Publication number Publication date
JP4238586B2 (en) 2009-03-18
JP2004235934A (en) 2004-08-19
JP2009071844A (en) 2009-04-02

Similar Documents

Publication Publication Date Title
JP4297197B2 (en) Calibration processing apparatus, calibration processing method, and computer program
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US10789765B2 (en) Three-dimensional reconstruction method
US8452081B2 (en) Forming 3D models using multiple images
US9013559B2 (en) System, method and program for capturing images from a virtual viewpoint
CN105026997A (en) Projection system, semiconductor integrated circuit, and image correction method
JP5067476B2 (en) 3D model creation system
JP6793151B2 (en) Object tracking device, object tracking method and object tracking program
JP2010531490A (en) System and method for stereo matching of images
US10785469B2 (en) Generation apparatus and method for generating a virtual viewpoint image
US20100245544A1 (en) Imaging apparatus, imaging control method, and recording medium
JP2008275341A (en) Information processor and processing method
JP2010109783A (en) Electronic camera
US11302061B2 (en) Image processing apparatus and method, for gerneration of a three-dimensional model used for generating a virtual viewpoint image
CN107809610B (en) Camera parameter set calculation device, camera parameter set calculation method, and recording medium
EP3633606B1 (en) Information processing device, information processing method, and program
US10769811B2 (en) Space coordinate converting server and method thereof
CN109934873B (en) Method, device and equipment for acquiring marked image
WO2019244944A1 (en) Three-dimension reconstruction method and three-dimension reconstruction device
US11798233B2 (en) Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model
JP2012185772A (en) Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera
JP2007025863A (en) Photographing system, photographing method, and image processing program
JP2006113832A (en) Stereoscopic image processor and program
JP2003006618A (en) Method and device for generating three-dimensional model and computer program
EP4013049A1 (en) Apparatus and method for processing a depth map

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090324

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090406

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees