JP2016003930A - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2016003930A JP2016003930A JP2014123735A JP2014123735A JP2016003930A JP 2016003930 A JP2016003930 A JP 2016003930A JP 2014123735 A JP2014123735 A JP 2014123735A JP 2014123735 A JP2014123735 A JP 2014123735A JP 2016003930 A JP2016003930 A JP 2016003930A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- images
- image processing
- focused
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、被写体の高精度な三次元形状推定や品質の高い仮想視点映像の生成に利用する画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing method, and an image processing program that are used for highly accurate estimation of a three-dimensional shape of a subject and generation of a high-quality virtual viewpoint video.
ライトフィールドカメラなどの普及に伴い、refocus−able image(合焦する奥行きが可変な画像)が日常の様々なシーンにおいて撮影される機会が増えており、同一の被写体が複数の視点から撮影されることも珍しくない。複数の視点から撮影された画像は、対象の3次元計測や仮想視点における画像生成などの様々なアプリケーションに用いることができる。一般に、複数の視点から撮影された画像をこれらのアプリケーションに用いるためには、それぞれの画像を撮影したカメラのカメラパラメータを推定する必要がある。 With the widespread use of light field cameras and the like, there is an increased chance that a focus-able image (an image with variable depth of focus) is shot in various everyday scenes, and the same subject is shot from multiple viewpoints. It is not unusual. Images taken from a plurality of viewpoints can be used in various applications such as three-dimensional measurement of an object and image generation at a virtual viewpoint. In general, in order to use images captured from a plurality of viewpoints for these applications, it is necessary to estimate the camera parameters of the camera that captured each image.
重複領域を持つ複数の画像を入力とし、カメラパラメータを推定するStructure from Motion(SfM)という手法が提案されている(例えば、非特許文献1参照)。これらの手法は複数の画像間で画像から検出される特徴点の対応をとり、その対応の関係からカメラパラメータを求める。カメラパラメータの推定精度は特徴点対応の精度に大きく依存することが知られている。この特徴点対応の精度に影響する原因の1つとして、複数の画像において焦点の合う奥行きが異なっていることが挙げられる。これは合焦している場合と合焦していない場合では、検出される特徴点の位置及び特徴量が異なるためである。 A technique called Structure from Motion (SfM) that estimates a camera parameter using a plurality of images having overlapping regions as an input has been proposed (for example, see Non-Patent Document 1). These methods take correspondence between feature points detected from images among a plurality of images, and obtain camera parameters from the correspondence relationship. It is known that the camera parameter estimation accuracy largely depends on the feature point correspondence accuracy. One of the causes affecting the accuracy of the feature point correspondence is that the depths in focus are different in a plurality of images. This is because the position and feature amount of the detected feature point are different between when the focus is achieved and when the focus is not achieved.
ところで、1枚のrefocus−able imageからは複数枚のrefocused image(ある奥行きで合焦した画像)が生成可能であるため、2枚のrefocus−able imageを用いてSfMを行う場合には、それぞれのrefocus−able imageにおける全てのrefocused imageの組み合わせを考慮する必要がある。 By the way, since a plurality of focused images (images focused at a certain depth) can be generated from a single focused-able image, when performing SfM using two focused-able images, It is necessary to consider all the combinations of focused images in the focused-able image.
しかしながら、それらの組み合わせの多くは奥行きが合っていないrefocused imageであり、適切な奥行きのrefocused imageの組み合わせに対してSfMを行った結果を自動的に選択することは難しいという問題がある。 However, many of these combinations are focused images whose depths do not match, and there is a problem that it is difficult to automatically select the result of performing SfM on a combination of focused images having appropriate depths.
本発明は、このような事情に鑑みてなされたもので、容易にカメラパラメータを推定することが可能な画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an object thereof is to provide an image processing apparatus, an image processing method, and an image processing program capable of easily estimating camera parameters.
本発明は、重複領域を持つ合焦する奥行きが可変な画像である2枚のrefocus−able imageから、それぞれの前記refocus−able imageを撮影したカメラのカメラパラメータを推定する画像処理装置であって、2枚の前記refocus−able imageと、所定の奥行きに合焦した画像の分割数であるrefocused image分割数と、前記カメラの内部パラメータとを入力する入力手段と、2枚の前記refocus−able imageから、前記refocused imageそれぞれの特徴点及び前記refocused image間の特徴点対応群を検出して出力する画像処理手段と、前記特徴点対応群および前記特徴点の位置から前記カメラパラメータを推定する幾何処理手段とを備えたことを特徴とする。 The present invention is an image processing apparatus for estimating camera parameters of a camera that has photographed each of the focus-able images from two focus-ble images that are overlapping images having overlapping regions and variable in-focus depths. Input means for inputting the two refocus-able images, the number of refocused image divisions that are the number of divisions of an image focused on a predetermined depth, and the internal parameters of the camera, and the two refocus-ables image processing means for detecting and outputting each feature point of the focused image and the feature point correspondence group between the focused images from the image; and a geometry for estimating the camera parameters from the feature point correspondence group and the position of the feature point processing Characterized by comprising a stage.
本発明は、前記画像処理部は、2枚の前記refocus−able image及び前記refocused image分割数を入力し、前記refocus−able imageから前記refocused image分割数に従い前記refocused imageを作成する手段と、前記refocused imageのそれぞれを入力し、各refocused imageの特徴点を検出する手段と、前記refocused imageの特徴点群を入力し、全ての特徴点群の組み合わせを求める手段と、前記特徴点群の組み合わせを入力し、検出した各特徴点の特徴量に基づいて特徴点対応群を求める手段と、得られた前記各特徴点および前記特徴点の対応を入力し、該特徴点の対応に対してエピポーラ制約を用いたRANSAC法による処理を行い、インライアとなる特徴点対応群及び特徴点群の組み合わせを出力する手段とを備えることを特徴とする。 According to the present invention, the image processing unit inputs two pieces of the referenced-able image and the number of pieces of the referenced image, and creates the referenced image according to the number of pieces of the referenced image from the reference-able image. A means for inputting each of the focused images, detecting feature points of each focused image, a means for inputting the feature points of the focused image, obtaining a combination of all the feature points, and a combination of the feature points Means for obtaining a feature point correspondence group based on the feature amount of each detected feature point, and inputting the obtained feature points and the correspondence of the feature points, and epipolar constraints on the correspondence of the feature points R using And a means for performing processing by the ANSAC method and outputting a combination of feature point correspondence groups and feature point groups as inliers.
本発明は、前記画像処理手段は、全ての組み合わせにおけるインライアとなる特徴点対応群を入力し、含まれる特徴点対応の数が最も多い特徴点群の組み合わせ及びインライアとなる特徴点対応群を出力することを特徴とする。 In the present invention, the image processing means inputs a feature point correspondence group that becomes an inlier in all combinations, and outputs a combination of feature points that has the largest number of feature point correspondences included and a feature point correspondence group that becomes an inlier. It is characterized by doing.
本発明は、前記幾何処理手段は、前記特徴点対応群および前記特徴点を入力し、基礎行列を算出する手段と、前記基礎行列及び前記カメラの内部パラメータを入力し、基本行列を算出する手段と、前記基本行列を入力し、回転行列及び並進ベクトルを出力する手段と、前記回転行列、前記並進ベクトル、前記内部パラメータ、前記特徴点および前記特徴点対応群を入力し、再投影誤差が最小になるようにバンドルアジャストメントを行い、前記回転行列、前記並進ベクトル、前記内部パラメータの最適解、最適化におけるイテレーション回数および再投影誤差を出力する手段とを備えることを特徴とする。 According to the present invention, the geometric processing means inputs the feature point correspondence group and the feature points, calculates a basic matrix, and inputs the basic matrix and the internal parameters of the camera, and calculates the basic matrix A means for inputting the basic matrix and outputting a rotation matrix and a translation vector; and inputting the rotation matrix, the translation vector, the internal parameter, the feature point, and the feature point correspondence group, and minimizing a reprojection error. And a means for outputting the rotation matrix, the translation vector, the optimal solution of the internal parameters, the number of iterations in the optimization, and the reprojection error.
本発明は、前記幾何処理手段は、全ての組み合わせに対するバンドルアジャストメントの結果を入力し、最もイテレーション回数の少なかった特徴点群の組み合わせに対するバンドルアジャストメントの結果を出力することを特徴とする。 According to the present invention, the geometric processing means inputs bundle adjustment results for all combinations, and outputs bundle adjustment results for a combination of feature points having the smallest number of iterations.
本発明は、前記幾何処理手段は、全ての組み合わせに対する全ての特徴点群の組み合わせに対して行われたバンドルアジャストメントの結果を入力し、最も再投影誤差の小さかった特徴点群の組み合わせに対するバンドルアジャストメントの結果を出力することを特徴とする。 In the present invention, the geometric processing means inputs the result of bundle adjustment performed for all combinations of feature points for all combinations, and bundles for combinations of feature points having the smallest reprojection error. The result of the adjustment is output.
本発明は、重複領域を持つ合焦する奥行きが可変な画像である2枚のrefocus−able imageから、それぞれの前記refocus−able imageを撮影したカメラのカメラパラメータを推定する画像処理方法であって、2枚の前記refocus−able imageと、所定の奥行きに合焦した画像の分割数であるrefocused image分割数と、前記カメラの内部パラメータとを入力する入力ステップと、2枚の前記refocus−able imageから、前記refocused imageそれぞれの特徴点及び前記refocused image間の特徴点対応群を検出して出力する画像処理ステップと、前記特徴点対応群および前記特徴点の位置から前記カメラパラメータを推定する幾何処理ステップとを有することを特徴とする。 The present invention is an image processing method for estimating camera parameters of a camera that has photographed each of the focus-able images from two focus-ble images that are images with variable overlapping depths that have overlapping areas. An input step for inputting the two refocus-able images, the number of the refocused image that is the number of divisions of the image focused on a predetermined depth, and the internal parameters of the camera, and the two refocus-ables An image processing step of detecting and outputting each feature point of the focused image and a feature point correspondence group between the focused images from the image, and estimating the camera parameter from the position of the feature point correspondence group and the feature point And having a what processing steps.
本発明は、コンピュータを、前記画像処理装置として機能させるための画像処理プログラムである。 The present invention is an image processing program for causing a computer to function as the image processing apparatus.
本発明によれば、2枚のrefocus−able imageを用い、それぞれの画像を獲得したカメラのキャリブレーションを行う場合において、適切な合焦位置のrefocused imageを用いたカメラパラメータの推定結果を自動的に出力することが可能になるという効果が得られる。 According to the present invention, when calibrating the camera that acquired each image using the two refocus-able images, the camera parameter estimation result using the refocused image at an appropriate in-focus position is automatically calculated. The effect that it becomes possible to output to is obtained.
<第1実施形態>
以下、図面を参照して、本発明の第1実施形態による画像処理装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、refocus−able image及びrefocused image分割数及びカメラの内部パラメータを入力する入力部である。符号2は、2枚のrefocus−able imageを入力とし、各refocused image(ある奥行きに合焦した画像)の特徴点及びrefocused image間の特徴点対応群を出力する画像処理部である。符号3は、特徴点対応群および特徴点の位置からカメラパラメータを推定して出力する幾何処理部である。
<First Embodiment>
Hereinafter, an image processing apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure,
refocused image間の特徴点対応群は、ある特徴点群のペアにおいて得られる全ての特徴点対応である。特徴点群とは1枚の画像から検出される全ての特徴点を指す。また、特徴点対応とはある画像における特徴点が、もう一方の画像においてどの特徴点と対応づくかという関係を表す。図1に示す画像処理装置は、複数存在する特徴点対応群の候補及びカメラパラメータの候補の中から、適切な合焦位置のrefocused imageを用いた場合のものを自動的に出力する。 The feature point correspondence group between the refocused images is all feature point correspondences obtained in a certain pair of feature points. The feature point group refers to all feature points detected from one image. Also, the feature point correspondence represents the relationship between the feature point in one image and which feature point in the other image. The image processing apparatus shown in FIG. 1 automatically outputs a plurality of feature point correspondence group candidates and camera parameter candidates when using a focused image at an appropriate in-focus position.
次に、図2を参照して、図1に示す画像処理装置の動作を説明する。図2は、図1に示す画像処理装置の動作を示すフローチャートである。図1に示す画像処理装置は、refocused image(2枚)、refocused imageの分割数、各refocused imageを撮影したカメラの内部パラメータを入力し、外部パラメータ(回転行列、並進ベクトル)と内部パラメータを出力する。 Next, the operation of the image processing apparatus shown in FIG. 1 will be described with reference to FIG. FIG. 2 is a flowchart showing the operation of the image processing apparatus shown in FIG. The image processing apparatus shown in FIG. 1 inputs the focused image (two images), the number of divisions of the focused image, the internal parameters of the camera that captured each focused image, and outputs the external parameters (rotation matrix, translation vector) and the internal parameters. To do.
まず、入力部1は、Refocus−able imageを2枚入力する(ステップS1)。続いて、入力部1は、カメラの内部パラメータを入力する(ステップS2)。そして、入力部1は、作成するrefocused imageの数を入力する(ステップS3)。
First, the
次に、画像処理部2は、ステップS1において入力されたrefocus−able imageから、ステップS3において入力された数だけrefocused imageを作成する(ステップS4)。
Next, the
次に、画像処理部2は、ステップS4において作成したrefocused imageについて、特徴点を検出する(特徴点の位置、特徴量)(ステップS5)。
Next, the
次に、画像処理部2は、特徴点群(1枚のrefocused imageから検出される全ての特徴点)の全ての組み合わせを用意する(ステップS6)。ただし、組み合わせの一方は1枚目のrefocus−able imageから作成されたrefocused imageの特徴点群であり、もう一方は2枚目のrefocus−able imageから作成されたrefocused imageの特徴点群である。
Next, the
次に、画像処理部2は、全ての特徴点群の組み合わせに対し、特徴点対応群を求める(ステップS7)。
Next, the
次に、幾何処理部3は、ステップS7において得られた特徴点対応群に対しRANSAC(RANDdom Sample Consensus)を行い、インライアとなる特徴点対応群を求める(ステップS8)。そして、幾何処理部3は、ステップS8の結果の中から、最も特徴点対応の数が多いもの出力する(ステップS9)。
Next, the
次に、幾何処理部3は、ステップS9において得られたインライアとなる特徴点対応群から基礎行列を求める(ステップS10)。
Next, the
次に、幾何処理部3は、ステップS2において入力した内部パラメータとステップS10において得られた基礎行列から基本行列を求める(ステップS11)。
Next, the
次に、幾何処理部3は、ステップS11において得られた基本行列から回転行列および並進ベクトルを算出する(ステップS12)。
Next, the
次に、幾何処理部3は、ステップS12において得られた回転行列、並進ベクトルおよびステップS2において入力した内部パラメータを初期値とし、ステップS9において得られたインライアとなる特徴点対応群を用いてバンドルアジャストメントを行い、回転行列、並進ベクトルおよび内部パラメータの最適解を求める(ステップS13)。
Next, the
最後に、幾何処理部3は、ステップS13において求めた結果を出力する(ステップS14)。
Finally, the
このように、複数存在する特徴点対応群の候補及びカメラパラメータの候補の中から、適切な合焦位置のrefocused imageを用いた場合のものを自動的に出力することができる。 As described above, it is possible to automatically output a plurality of feature point correspondence group candidates and camera parameter candidates when a focused image at an appropriate focus position is used.
<第2実施形態>
次に、本発明の第2実施形態による画像処理装置を説明する。第2実施形態における装置構成は、図1に示す構成と同様であるため、ここでは詳細な説明を省略する。
Second Embodiment
Next, an image processing apparatus according to a second embodiment of the present invention will be described. Since the device configuration in the second embodiment is the same as the configuration shown in FIG. 1, detailed description thereof is omitted here.
次に、図3を参照して、第2実施形態における画像処理装置の動作を説明する。図3は、第2実施形態における画像処理装置の動作を示すフローチャートである。この図において、図2に示す動作と同一の動作には同一の符号を付し、その説明を簡単に行う。第2実施形態における画像処理装置は、第1実施形態における画像処理装置と同様に、refocused image(2枚)、refocused imageの分割数、各refocused imageを撮影したカメラの内部パラメータを入力し、外部パラメータ(回転行列、並進ベクトル)と内部パラメータを出力する。 Next, the operation of the image processing apparatus in the second embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing the operation of the image processing apparatus according to the second embodiment. In this figure, the same operations as those shown in FIG. Similar to the image processing apparatus in the first embodiment, the image processing apparatus in the second embodiment inputs the refocused image (2 images), the number of divisions of the refocused image, and the internal parameters of the camera that has captured each refocused image. Output parameters (rotation matrix, translation vector) and internal parameters.
まず、入力部1は、Refocus−able imageを2枚入力する(ステップS1)。続いて、入力部1は、カメラの内部パラメータを入力する(ステップS2)。そして、入力部1は、作成するrefocused imageの数を入力する(ステップS3)。
First, the
次に、画像処理部2は、ステップS1において入力されたrefocus−able imageから、ステップS3において入力された数だけrefocused imageを作成する(ステップS4)。
Next, the
次に、画像処理部2は、ステップS4において作成したrefocused imageについて、特徴点を検出する(特徴点の位置、特徴量)(ステップS5)。
Next, the
次に、画像処理部2は、特徴点群(1枚のrefocused imageから検出される全ての特徴点)の全ての組み合わせを用意する(ステップS6)。
Next, the
次に、画像処理部2は、特徴点群の組み合わせを1つ選択し、この特徴点群の組み合わせに対し、特徴点対応群を求める(ステップS15)。
Next, the
次に、幾何処理部3は、ステップS15において得られた特徴点対応群に対しRANSACを行い、インライアとなる特徴点対応群を求める(ステップS8)。
Next, the
次に、幾何処理部3は、ステップS8において得られたインライアとなる特徴点対応群から基礎行列を求める(ステップS10)。
Next, the
次に、幾何処理部3は、ステップS2において入力した内部パラメータとステップS10において得られた基礎行列から基本行列を求める(ステップS11)。
Next, the
次に、幾何処理部3は、ステップS11において得られた基本行列から回転行列および並進ベクトルを算出する(ステップS12)。
Next, the
次に、幾何処理部3は、ステップS12において得られた回転行列、並進ベクトルおよびステップS2において入力した内部パラメータを初期値とし、ステップS8において得られたインライアとなる特徴点対応群を用いてバンドルアジャストメントを行い、回転行列、並進ベクトルおよび内部パラメータの最適解を求める(ステップS17)。
Next, the
次に、幾何処理部3は、全ての特徴点群の組み合わせに対して処理が終了したか否かを判定し、終了していなければステップS15に戻り、用意した全ての特徴点群の組み合わせに対して処理を行う(ステップS18)。
Next, the
最後に、幾何処理部3は、全ての組み合わせの結果の中で、求めた非線形最適化のイテレーション回数が最も少ない結果を出力する(ステップS19)。
Finally, the
このように、複数存在する特徴点対応群の候補及びカメラパラメータの候補の中から、適切な合焦位置のrefocused imageを用いた場合のものを自動的に出力することができる。 As described above, it is possible to automatically output a plurality of feature point correspondence group candidates and camera parameter candidates when a focused image at an appropriate focus position is used.
<第3実施形態>
次に、本発明の第3実施形態による画像処理装置を説明する。第3実施形態における装置構成は、図1に示す構成と同様であるため、ここでは詳細な説明を省略する。
<Third Embodiment>
Next, an image processing apparatus according to a third embodiment of the present invention will be described. Since the apparatus configuration in the third embodiment is the same as the configuration shown in FIG. 1, detailed description thereof is omitted here.
次に、図4を参照して、第3実施形態における画像処理装置の動作を説明する。図4は、第3実施形態における画像処理装置の動作を示すフローチャートである。この図において、図3に示す動作と同一の動作には同一の符号を付し、その説明を簡単に行う。第3実施形態における画像処理装置は、第1、第2実施形態における画像処理装置と同様に、refocused image(2枚)、refocused imageの分割数、各refocused imageを撮影したカメラの内部パラメータを入力し、外部パラメータ(回転行列、並進ベクトル)と内部パラメータを出力する。 Next, the operation of the image processing apparatus in the third embodiment will be described with reference to FIG. FIG. 4 is a flowchart illustrating the operation of the image processing apparatus according to the third embodiment. In this figure, the same operations as those shown in FIG. 3 are denoted by the same reference numerals, and description thereof will be briefly made. Similar to the image processing apparatuses in the first and second embodiments, the image processing apparatus according to the third embodiment inputs the number of refocused images (two images), the number of divisions of the refocused image, and the internal parameters of the camera that has captured each refocused image. External parameters (rotation matrix, translation vector) and internal parameters are output.
まず、入力部1は、Refocus−able imageを2枚入力する(ステップS1)。続いて、入力部1は、カメラの内部パラメータを入力する(ステップS2)。そして、入力部1は、作成するrefocused imageの数を入力する(ステップS3)。
First, the
次に、画像処理部2は、ステップS1において入力されたrefocus−able imageから、ステップS3において入力された数だけrefocused imageを作成する(ステップS4)。
Next, the
次に、画像処理部2は、ステップS4において作成したrefocused imageについて、特徴点を検出する(特徴点の位置、特徴量)(ステップS5)。
Next, the
次に、画像処理部2は、特徴点群(1枚のrefocused imageから検出される全ての特徴点)の全ての組み合わせを用意する(ステップS6)。
Next, the
次に、画像処理部2は、特徴点群の組み合わせを1つ選択し、この特徴点群の組み合わせに対し、特徴点対応群を求める(ステップS15)。
Next, the
次に、幾何処理部3は、ステップS15において得られた特徴点対応群に対しRANSACを行い、インライアとなる特徴点対応群を求める(ステップS8)。
Next, the
次に、幾何処理部3は、ステップS8において得られたインライアとなる特徴点対応群から基礎行列を求める(ステップS10)。
Next, the
次に、幾何処理部3は、ステップS2において入力した内部パラメータとステップS10において得られた基礎行列から基本行列を求める(ステップS11)。
Next, the
次に、幾何処理部3は、ステップS11において得られた基本行列から回転行列および並進ベクトルを算出する(ステップS12)。
Next, the
次に、幾何処理部3は、ステップS12において得られた回転行列、並進ベクトルおよびステップS2において入力した内部パラメータを初期値とし、ステップS8において得られたインライアとなる特徴点対応群を用いてバンドルアジャストメントを行い、回転行列、並進ベクトルおよび内部パラメータの最適解を求める(ステップS17)。
Next, the
次に、幾何処理部3は、全ての特徴点群の組み合わせに対して処理が終了したか否かを判定し、終了していなければステップS15に戻り、用意した全ての特徴点群の組み合わせに対して処理を行う(ステップS18)。
Next, the
最後に、幾何処理部3は、全ての組み合わせの結果の中で、求めた非線形最適化後の再投影誤差が最も小さい結果を出力する(ステップS20)。
Finally, the
このように、複数存在する特徴点対応群の候補及びカメラパラメータの候補の中から、適切な合焦位置のrefocused imageを用いた場合のものを自動的に出力することができる。 As described above, it is possible to automatically output a plurality of feature point correspondence group candidates and camera parameter candidates when a focused image at an appropriate focus position is used.
なお、前述したステップS1において、入力する2枚のrefocus−able imageは以下の(1)、(2)のどちらでもよい。
(1)1台のカメラが2視点から撮影した画像。
(2)2台のカメラが2視点から撮影した画像。
ただし、2台のカメラは必ずしも同期している必要はないが、重複領域を有している必要がある。
Note that in step S1 described above, the two pieces of reference-able image to be input may be either (1) or (2) below.
(1) An image taken from two viewpoints by one camera.
(2) Images taken by two cameras from two viewpoints.
However, the two cameras do not necessarily have to be synchronized, but need to have overlapping areas.
また、前述したステップS2において、入力するカメラの内部パラメータは、参考文献1に記載の内部パラメータを利用しても求めてもよい。
参考文献1:Zhang, Zhengyou. "A flexible new technique for camera calibration." Pattern Analysis and Machine Intelligence, IEEE Transactions on 22.11 (2000): 1330-1334.
In step S2 described above, the internal parameters of the camera to be input may be obtained using the internal parameters described in
Reference 1: Zhang, Zhengyou. "A flexible new technique for camera calibration." Pattern Analysis and Machine Intelligence, IEEE Transactions on 22.11 (2000): 1330-1334.
また、前述したステップS3において、入力するrefocused imageの数は、refocus−able imageから奥行きを推定し、その奥行きの値を基に適当な数を設定してもよい。Refocus−able imageから奥行きを推定する手法は公知の手法(例えば、参考文献2参照)を用いる。
参考文献2:Tao, Michael W., et al. "Depth from Combining Defocus and Correspondence Using Light-Field Cameras." ICCV, (2013).
Further, in step S3 described above, the number of inputted focused images may be estimated by estimating the depth from the focused-able image and setting an appropriate number based on the depth value. As a technique for estimating the depth from the Focus-able image, a known technique (see, for example, Reference 2) is used.
Reference 2: Tao, Michael W., et al. "Depth from Combining Defocus and Correspondence Using Light-Field Cameras." ICCV, (2013).
具体的な数の定め方としては、例えば奥行きに関してクラスタリングを行い、そのクラスタの数をrefocused imageの数とする。ただし、その場合はクラスタリングのイテレーション回数及び閾値を事前に定める必要がある。 As a specific method of determining the number, for example, clustering is performed on the depth, and the number of clusters is set as the number of reflected images. In this case, however, the number of iterations of clustering and the threshold value must be determined in advance.
また、前述したステップS4において、Refocus−able imageからrefocused imageを作成する方法は公知の手法(例えば、参考文献3参照)を利用する。
参考文献3:Ng, Ren, et al. "Light field photography with a hand-held plenoptic camera." Computer Science Technical Report CSTR 2.11 (2005).
In step S4 described above, a known method (for example, see Reference 3) is used as a method for creating a focused image from a Focused-able image.
Reference 3: Ng, Ren, et al. "Light field photography with a hand-held plenoptic camera." Computer Science Technical Report CSTR 2.11 (2005).
ただし、作成するrefocused imageの奥行きは以下の(3)、(4)のどちらでもよい。
(3)step=(最も大きい奥行き)/(作成するrefocused imageの数)とし、カメラの光学中心の近いほうからstepの整数倍の奥行きでrefocused imageを作成する。
(4)k−meansなどで奥行きに関してクラスタリングし(kは作成するrefocused imageの数)、各クラスタの重心の奥行きでrefocused imageを作成する。
However, the depth of the created focused image may be either (3) or (4) below.
(3) Step = (largest depth) / (number of focused images to be created), and a focused image is created at a depth that is an integral multiple of step from the closest optical center of the camera.
(4) Cluster the depth with k-means or the like (k is the number of focused images to be created), and create a focused image with the depth of the center of gravity of each cluster.
また、前述したステップS5において、特徴点を検出する手法として、SIFT、SURF、CARDなどの公知の方法を用いることができる。 Moreover, in step S5 mentioned above, well-known methods, such as SIFT, SURF, and CARD, can be used as a method of detecting a feature point.
また、前述したステップS7において、特徴点を対応付ける手法として、SIFTなどで提案されているように特徴点の特徴量の類似度に基づく手法を利用することができる。 In step S7 described above, as a technique for associating feature points, a technique based on the similarity of feature quantities of feature points as proposed in SIFT or the like can be used.
また、前述したステップS8において、RANSACに用いるモデルとして、エピポーラ制約を用いてもよい。 In step S8 described above, epipolar constraints may be used as a model used for RANSAC.
また、前述したステップS10において、基礎行列の求め方として、eight−point algorithmを用いてもよい。 Moreover, in step S10 mentioned above, as a method for obtaining the basic matrix, an eight-point algorithm may be used.
また、前述したステップS13、S17において、バンドルアジャストメントに用いる非線形最適化手法として、Levenberg−Marquardt法を利用してもよい。 Further, in Steps S13 and S17 described above, the Levenberg-Marquardt method may be used as a nonlinear optimization method used for bundle adjustment.
以上説明したように、2枚のrefocus−able imageに対してSfMを行う場合、それぞれ適切な奥行きのrefocused imageの組み合わせに対してSfMを適用した結果を自動的に出力することにより容易にカメラパラメータを推定することが可能になる。これらは被写体の高精度な三次元形状推定や品質の高い仮想視点映像の生成に利用することができる。 As described above, when SfM is performed on two refocus-able images, camera parameters can be easily output by automatically outputting the result of applying SfM to a combination of refocused images having appropriate depths. Can be estimated. These can be used for highly accurate estimation of a three-dimensional shape of a subject and generation of a high-quality virtual viewpoint video.
前述した実施形態における画像処理装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。 You may make it implement | achieve the image processing apparatus in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。 As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.
2枚のrefocus−able imageに対してSfMを行う場合、それぞれ適切な奥行きのrefocused imageの組み合わせに対してSfMを適用した結果を自動的に出力することが不可欠な用途に適用できる。 When SfM is performed on two refocus-able images, it can be applied to an indispensable use in which it is indispensable to automatically output a result of applying SfM to a combination of refocused images having appropriate depths.
1・・・入力部、2・・・画像処理部、3・・・幾何処理部
DESCRIPTION OF
Claims (8)
2枚の前記refocus−able imageと、所定の奥行きに合焦した画像の分割数であるrefocused image分割数と、前記カメラの内部パラメータとを入力する入力手段と、
2枚の前記refocus−able imageから、前記refocused imageそれぞれの特徴点及び前記refocused image間の特徴点対応群を検出して出力する画像処理手段と、
前記特徴点対応群および前記特徴点の位置から前記カメラパラメータを推定する幾何処理手段と
を備えたことを特徴とする画像処理装置。 An image processing apparatus that estimates camera parameters of a camera that has captured each of the focus-able images from two focus-ble images that are images with varying depths to be focused and having overlapping regions.
Input means for inputting the two refocus-able images, the number of refocused image divisions which are the number of divisions of an image focused on a predetermined depth, and the internal parameters of the camera;
Image processing means for detecting and outputting each feature point of the focused image and a feature point correspondence group between the focused image from the two focused-able images;
An image processing apparatus comprising: a geometric processing unit that estimates the camera parameter from the feature point correspondence group and the position of the feature point.
2枚の前記refocus−able image及び前記refocused image分割数を入力し、前記refocus−able imageから前記refocused image分割数に従い前記refocused imageを作成する手段と、
前記refocused imageのそれぞれを入力し、各refocused imageの特徴点を検出する手段と、
前記refocused imageの特徴点群を入力し、全ての特徴点群の組み合わせを求める手段と、
前記特徴点群の組み合わせを入力し、検出した各特徴点の特徴量に基づいて特徴点対応群を求める手段と、
得られた前記各特徴点および前記特徴点の対応を入力し、該特徴点の対応に対してエピポーラ制約を用いたRANSAC法による処理を行い、インライアとなる特徴点対応群及び特徴点群の組み合わせを出力する手段と
を備えることを特徴とする請求項1に記載の画像処理装置。 The image processing unit
Means for inputting the two pieces of the referenced-able image and the number of the focused image, and generating the focused image from the reflected-able image according to the number of the divided pieces of the recommended image;
Means for inputting each of the focused images and detecting a feature point of each focused image;
Means for inputting feature points of the focused image and obtaining a combination of all feature points;
Means for inputting a combination of the feature points and obtaining a feature point correspondence group based on the feature amount of each detected feature point;
Each of the obtained feature points and the correspondence between the feature points are inputted, the processing by the RANSAC method using the epipolar constraint is performed on the correspondence of the feature points, and the feature point correspondence group and the feature point group which are inliers are combined. The image processing apparatus according to claim 1, further comprising:
前記特徴点対応群および前記特徴点を入力し、基礎行列を算出する手段と、
前記基礎行列及び前記カメラの内部パラメータを入力し、基本行列を算出する手段と、
前記基本行列を入力し、回転行列及び並進ベクトルを出力する手段と、
前記回転行列、前記並進ベクトル、前記内部パラメータ、前記特徴点および前記特徴点対応群を入力し、再投影誤差が最小になるようにバンドルアジャストメントを行い、前記回転行列、前記並進ベクトル、前記内部パラメータの最適解、最適化におけるイテレーション回数および再投影誤差を出力する手段と
を備えることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 The geometric processing means includes:
Means for inputting the feature point correspondence group and the feature points and calculating a basic matrix;
Means for inputting the basic matrix and internal parameters of the camera and calculating the basic matrix;
Means for inputting the basic matrix and outputting a rotation matrix and a translation vector;
The rotation matrix, the translation vector, the internal parameter, the feature point, and the feature point correspondence group are input, and bundle adjustment is performed so that a reprojection error is minimized, and the rotation matrix, the translation vector, the internal point The image processing apparatus according to any one of claims 1 to 3, further comprising: an optimum parameter solution, an iteration count in optimization, and a means for outputting a reprojection error.
全ての組み合わせに対するバンドルアジャストメントの結果を入力し、最もイテレーション回数の少なかった特徴点群の組み合わせに対するバンドルアジャストメントの結果を出力することを特徴とする請求項4に記載の画像処理装置。 The geometric processing means includes:
5. The image processing apparatus according to claim 4, wherein a bundle adjustment result for all combinations is input, and a bundle adjustment result for a combination of feature points having the smallest number of iterations is output.
全ての組み合わせに対する全ての特徴点群の組み合わせに対して行われたバンドルアジャストメントの結果を入力し、最も再投影誤差の小さかった特徴点群の組み合わせに対するバンドルアジャストメントの結果を出力することを特徴とする請求項4に記載の画像処理装置。 The geometric processing means includes:
Input the result of bundle adjustment performed for all combinations of feature points for all combinations, and output the result of bundle adjustment for the combination of feature points with the smallest reprojection error The image processing apparatus according to claim 4.
2枚の前記refocus−able imageと、所定の奥行きに合焦した画像の分割数であるrefocused image分割数と、前記カメラの内部パラメータとを入力する入力ステップと、
2枚の前記refocus−able imageから、前記refocused imageそれぞれの特徴点及び前記refocused image間の特徴点対応群を検出して出力する画像処理ステップと、
前記特徴点対応群および前記特徴点の位置から前記カメラパラメータを推定する幾何処理ステップと
を有することを特徴とする画像処理方法。 An image processing method for estimating camera parameters of a camera that has photographed each of the focus-able images from two focus-ble images that are images with variable depths to be focused and having overlapping regions,
An input step for inputting the two refocus-able images, the number of the refocused image that is the number of divisions of the image focused on a predetermined depth, and the internal parameters of the camera;
An image processing step of detecting and outputting each of the feature points of the focused image and the feature point correspondence group between the focused images from the two focused-able images;
And a geometric processing step of estimating the camera parameter from the feature point correspondence group and the position of the feature point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014123735A JP2016003930A (en) | 2014-06-16 | 2014-06-16 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014123735A JP2016003930A (en) | 2014-06-16 | 2014-06-16 | Image processing apparatus, image processing method, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016003930A true JP2016003930A (en) | 2016-01-12 |
Family
ID=55223301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014123735A Pending JP2016003930A (en) | 2014-06-16 | 2014-06-16 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016003930A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445570A (en) * | 2020-03-09 | 2020-07-24 | 天目爱视(北京)科技有限公司 | Customized garment design production equipment and method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004046772A (en) * | 2002-05-13 | 2004-02-12 | 3D Media Co Ltd | Method, system and apparatus for processing image |
JP2011022796A (en) * | 2009-07-15 | 2011-02-03 | Canon Inc | Image processing method and image processor |
US20130121558A1 (en) * | 2008-08-15 | 2013-05-16 | Hailin Jin | Point Selection in Bundle Adjustment |
JP2013175821A (en) * | 2012-02-23 | 2013-09-05 | Canon Inc | Image processing device, image processing method, and program |
JP2013258777A (en) * | 2013-09-17 | 2013-12-26 | Sony Corp | Image processing apparatus, image processing method, image processing program, and recording medium |
JP2014011497A (en) * | 2012-06-27 | 2014-01-20 | Olympus Corp | Image processing apparatus and image pick-up device including the same, image processing method and image processing program |
-
2014
- 2014-06-16 JP JP2014123735A patent/JP2016003930A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004046772A (en) * | 2002-05-13 | 2004-02-12 | 3D Media Co Ltd | Method, system and apparatus for processing image |
US20130121558A1 (en) * | 2008-08-15 | 2013-05-16 | Hailin Jin | Point Selection in Bundle Adjustment |
JP2011022796A (en) * | 2009-07-15 | 2011-02-03 | Canon Inc | Image processing method and image processor |
JP2013175821A (en) * | 2012-02-23 | 2013-09-05 | Canon Inc | Image processing device, image processing method, and program |
JP2014011497A (en) * | 2012-06-27 | 2014-01-20 | Olympus Corp | Image processing apparatus and image pick-up device including the same, image processing method and image processing program |
JP2013258777A (en) * | 2013-09-17 | 2013-12-26 | Sony Corp | Image processing apparatus, image processing method, image processing program, and recording medium |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445570A (en) * | 2020-03-09 | 2020-07-24 | 天目爱视(北京)科技有限公司 | Customized garment design production equipment and method |
CN111445570B (en) * | 2020-03-09 | 2021-04-27 | 天目爱视(北京)科技有限公司 | Customized garment design production equipment and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Garg et al. | Learning single camera depth estimation using dual-pixels | |
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
EP3101624B1 (en) | Image processing method and image processing device | |
Jeon et al. | Accurate depth map estimation from a lenslet light field camera | |
TWI538512B (en) | Method for adjusting focus position and electronic apparatus | |
JP2020515931A (en) | Method and apparatus for combining scene segmentation and 3D reconstruction | |
US9729857B2 (en) | High resolution depth map computation using multiresolution camera clusters for 3D image generation | |
JP6655379B2 (en) | Method and apparatus for generating an adaptive slice image from a focus stack | |
US20210144357A1 (en) | Method and apparatus with depth image generation | |
KR102516495B1 (en) | Methods and apparatus for improved 3-d data reconstruction from stereo-temporal image sequences | |
TW201436552A (en) | Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream | |
JP2022068316A (en) | Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of object | |
Zhang et al. | Synthetic aperture based on plenoptic camera for seeing through occlusions | |
Ma et al. | Effective video stabilization via joint trajectory smoothing and frame warping | |
JP6557640B2 (en) | Camera calibration apparatus, camera calibration method, and camera calibration program | |
Won et al. | Learning depth from focus in the wild | |
CN117495975A (en) | Zoom lens calibration method and device and electronic equipment | |
JP2016003930A (en) | Image processing apparatus, image processing method, and image processing program | |
JP6305232B2 (en) | Information processing apparatus, imaging apparatus, imaging system, information processing method, and program. | |
JP6306952B2 (en) | Intermediate viewpoint image generation apparatus, intermediate viewpoint image generation method, and computer program | |
JP6384961B2 (en) | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium | |
JP5686412B2 (en) | 3D shape estimation device, 3D shape estimation method, and 3D shape estimation program | |
Choi et al. | Exploring positional characteristics of dual-pixel data for camera autofocus | |
Adikari et al. | Improved Mesh Reconstruction With an Edge Quality Enhancement Using Multiple Inward Depth Streams | |
CN112771574B (en) | Method for estimating the depth of a pixel and corresponding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170711 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180206 |