JP2016003930A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2016003930A
JP2016003930A JP2014123735A JP2014123735A JP2016003930A JP 2016003930 A JP2016003930 A JP 2016003930A JP 2014123735 A JP2014123735 A JP 2014123735A JP 2014123735 A JP2014123735 A JP 2014123735A JP 2016003930 A JP2016003930 A JP 2016003930A
Authority
JP
Japan
Prior art keywords
image
feature point
images
image processing
focused
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014123735A
Other languages
Japanese (ja)
Inventor
康輔 高橋
Kosuke Takahashi
康輔 高橋
明 小島
Akira Kojima
明 小島
藤井 憲作
Kensaku Fujii
憲作 藤井
豊 國田
Yutaka Kunida
豊 國田
越智 大介
Daisuke Ochi
大介 越智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014123735A priority Critical patent/JP2016003930A/en
Publication of JP2016003930A publication Critical patent/JP2016003930A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus configured to easily estimate a camera parameter.SOLUTION: An image processing apparatus configured to estimate a camera parameter of a camera which has captured refocus-able images from the two refocus-able images having an overlapping area and variable focal depth includes: input means which inputs the two refocus-able images, a refocused-image division number which is the number of divisions of an image having a predetermined focal depth, and an internal parameter of the camera; image processing means which detects features points of refocused images and a feature-point corresponding group between the refocused images from the two refocus-able images, and outputs them; and geometric processing means which estimates a camera parameter from the feature-point corresponding group and the positions of the feature points.

Description

本発明は、被写体の高精度な三次元形状推定や品質の高い仮想視点映像の生成に利用する画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing device, an image processing method, and an image processing program that are used for highly accurate estimation of a three-dimensional shape of a subject and generation of a high-quality virtual viewpoint video.

ライトフィールドカメラなどの普及に伴い、refocus−able image(合焦する奥行きが可変な画像)が日常の様々なシーンにおいて撮影される機会が増えており、同一の被写体が複数の視点から撮影されることも珍しくない。複数の視点から撮影された画像は、対象の3次元計測や仮想視点における画像生成などの様々なアプリケーションに用いることができる。一般に、複数の視点から撮影された画像をこれらのアプリケーションに用いるためには、それぞれの画像を撮影したカメラのカメラパラメータを推定する必要がある。   With the widespread use of light field cameras and the like, there is an increased chance that a focus-able image (an image with variable depth of focus) is shot in various everyday scenes, and the same subject is shot from multiple viewpoints. It is not unusual. Images taken from a plurality of viewpoints can be used in various applications such as three-dimensional measurement of an object and image generation at a virtual viewpoint. In general, in order to use images captured from a plurality of viewpoints for these applications, it is necessary to estimate the camera parameters of the camera that captured each image.

重複領域を持つ複数の画像を入力とし、カメラパラメータを推定するStructure from Motion(SfM)という手法が提案されている(例えば、非特許文献1参照)。これらの手法は複数の画像間で画像から検出される特徴点の対応をとり、その対応の関係からカメラパラメータを求める。カメラパラメータの推定精度は特徴点対応の精度に大きく依存することが知られている。この特徴点対応の精度に影響する原因の1つとして、複数の画像において焦点の合う奥行きが異なっていることが挙げられる。これは合焦している場合と合焦していない場合では、検出される特徴点の位置及び特徴量が異なるためである。   A technique called Structure from Motion (SfM) that estimates a camera parameter using a plurality of images having overlapping regions as an input has been proposed (for example, see Non-Patent Document 1). These methods take correspondence between feature points detected from images among a plurality of images, and obtain camera parameters from the correspondence relationship. It is known that the camera parameter estimation accuracy largely depends on the feature point correspondence accuracy. One of the causes affecting the accuracy of the feature point correspondence is that the depths in focus are different in a plurality of images. This is because the position and feature amount of the detected feature point are different between when the focus is achieved and when the focus is not achieved.

Noah Snavely, Steven M Seitz, Richard Szeliski,“Photo Tourism: Exploring image collections in 3D”,ACM Transaction on Graphics (Proceedings of SIGGRAPH 2006), 2006.Noah Snavely, Steven M Seitz, Richard Szeliski, “Photo Tourism: Exploring image collections in 3D”, ACM Transaction on Graphics (Proceedings of SIGGRAPH 2006), 2006.

ところで、1枚のrefocus−able imageからは複数枚のrefocused image(ある奥行きで合焦した画像)が生成可能であるため、2枚のrefocus−able imageを用いてSfMを行う場合には、それぞれのrefocus−able imageにおける全てのrefocused imageの組み合わせを考慮する必要がある。   By the way, since a plurality of focused images (images focused at a certain depth) can be generated from a single focused-able image, when performing SfM using two focused-able images, It is necessary to consider all the combinations of focused images in the focused-able image.

しかしながら、それらの組み合わせの多くは奥行きが合っていないrefocused imageであり、適切な奥行きのrefocused imageの組み合わせに対してSfMを行った結果を自動的に選択することは難しいという問題がある。   However, many of these combinations are focused images whose depths do not match, and there is a problem that it is difficult to automatically select the result of performing SfM on a combination of focused images having appropriate depths.

本発明は、このような事情に鑑みてなされたもので、容易にカメラパラメータを推定することが可能な画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to provide an image processing apparatus, an image processing method, and an image processing program capable of easily estimating camera parameters.

本発明は、重複領域を持つ合焦する奥行きが可変な画像である2枚のrefocus−able imageから、それぞれの前記refocus−able imageを撮影したカメラのカメラパラメータを推定する画像処理装置であって、2枚の前記refocus−able imageと、所定の奥行きに合焦した画像の分割数であるrefocused image分割数と、前記カメラの内部パラメータとを入力する入力手段と、2枚の前記refocus−able imageから、前記refocused imageそれぞれの特徴点及び前記refocused image間の特徴点対応群を検出して出力する画像処理手段と、前記特徴点対応群および前記特徴点の位置から前記カメラパラメータを推定する幾何処理手段とを備えたことを特徴とする。   The present invention is an image processing apparatus for estimating camera parameters of a camera that has photographed each of the focus-able images from two focus-ble images that are overlapping images having overlapping regions and variable in-focus depths. Input means for inputting the two refocus-able images, the number of refocused image divisions that are the number of divisions of an image focused on a predetermined depth, and the internal parameters of the camera, and the two refocus-ables image processing means for detecting and outputting each feature point of the focused image and the feature point correspondence group between the focused images from the image; and a geometry for estimating the camera parameters from the feature point correspondence group and the position of the feature point processing Characterized by comprising a stage.

本発明は、前記画像処理部は、2枚の前記refocus−able image及び前記refocused image分割数を入力し、前記refocus−able imageから前記refocused image分割数に従い前記refocused imageを作成する手段と、前記refocused imageのそれぞれを入力し、各refocused imageの特徴点を検出する手段と、前記refocused imageの特徴点群を入力し、全ての特徴点群の組み合わせを求める手段と、前記特徴点群の組み合わせを入力し、検出した各特徴点の特徴量に基づいて特徴点対応群を求める手段と、得られた前記各特徴点および前記特徴点の対応を入力し、該特徴点の対応に対してエピポーラ制約を用いたRANSAC法による処理を行い、インライアとなる特徴点対応群及び特徴点群の組み合わせを出力する手段とを備えることを特徴とする。   According to the present invention, the image processing unit inputs two pieces of the referenced-able image and the number of pieces of the referenced image, and creates the referenced image according to the number of pieces of the referenced image from the reference-able image. A means for inputting each of the focused images, detecting feature points of each focused image, a means for inputting the feature points of the focused image, obtaining a combination of all the feature points, and a combination of the feature points Means for obtaining a feature point correspondence group based on the feature amount of each detected feature point, and inputting the obtained feature points and the correspondence of the feature points, and epipolar constraints on the correspondence of the feature points R using And a means for performing processing by the ANSAC method and outputting a combination of feature point correspondence groups and feature point groups as inliers.

本発明は、前記画像処理手段は、全ての組み合わせにおけるインライアとなる特徴点対応群を入力し、含まれる特徴点対応の数が最も多い特徴点群の組み合わせ及びインライアとなる特徴点対応群を出力することを特徴とする。   In the present invention, the image processing means inputs a feature point correspondence group that becomes an inlier in all combinations, and outputs a combination of feature points that has the largest number of feature point correspondences included and a feature point correspondence group that becomes an inlier. It is characterized by doing.

本発明は、前記幾何処理手段は、前記特徴点対応群および前記特徴点を入力し、基礎行列を算出する手段と、前記基礎行列及び前記カメラの内部パラメータを入力し、基本行列を算出する手段と、前記基本行列を入力し、回転行列及び並進ベクトルを出力する手段と、前記回転行列、前記並進ベクトル、前記内部パラメータ、前記特徴点および前記特徴点対応群を入力し、再投影誤差が最小になるようにバンドルアジャストメントを行い、前記回転行列、前記並進ベクトル、前記内部パラメータの最適解、最適化におけるイテレーション回数および再投影誤差を出力する手段とを備えることを特徴とする。   According to the present invention, the geometric processing means inputs the feature point correspondence group and the feature points, calculates a basic matrix, and inputs the basic matrix and the internal parameters of the camera, and calculates the basic matrix A means for inputting the basic matrix and outputting a rotation matrix and a translation vector; and inputting the rotation matrix, the translation vector, the internal parameter, the feature point, and the feature point correspondence group, and minimizing a reprojection error. And a means for outputting the rotation matrix, the translation vector, the optimal solution of the internal parameters, the number of iterations in the optimization, and the reprojection error.

本発明は、前記幾何処理手段は、全ての組み合わせに対するバンドルアジャストメントの結果を入力し、最もイテレーション回数の少なかった特徴点群の組み合わせに対するバンドルアジャストメントの結果を出力することを特徴とする。   According to the present invention, the geometric processing means inputs bundle adjustment results for all combinations, and outputs bundle adjustment results for a combination of feature points having the smallest number of iterations.

本発明は、前記幾何処理手段は、全ての組み合わせに対する全ての特徴点群の組み合わせに対して行われたバンドルアジャストメントの結果を入力し、最も再投影誤差の小さかった特徴点群の組み合わせに対するバンドルアジャストメントの結果を出力することを特徴とする。   In the present invention, the geometric processing means inputs the result of bundle adjustment performed for all combinations of feature points for all combinations, and bundles for combinations of feature points having the smallest reprojection error. The result of the adjustment is output.

本発明は、重複領域を持つ合焦する奥行きが可変な画像である2枚のrefocus−able imageから、それぞれの前記refocus−able imageを撮影したカメラのカメラパラメータを推定する画像処理方法であって、2枚の前記refocus−able imageと、所定の奥行きに合焦した画像の分割数であるrefocused image分割数と、前記カメラの内部パラメータとを入力する入力ステップと、2枚の前記refocus−able imageから、前記refocused imageそれぞれの特徴点及び前記refocused image間の特徴点対応群を検出して出力する画像処理ステップと、前記特徴点対応群および前記特徴点の位置から前記カメラパラメータを推定する幾何処理ステップとを有することを特徴とする。   The present invention is an image processing method for estimating camera parameters of a camera that has photographed each of the focus-able images from two focus-ble images that are images with variable overlapping depths that have overlapping areas. An input step for inputting the two refocus-able images, the number of the refocused image that is the number of divisions of the image focused on a predetermined depth, and the internal parameters of the camera, and the two refocus-ables An image processing step of detecting and outputting each feature point of the focused image and a feature point correspondence group between the focused images from the image, and estimating the camera parameter from the position of the feature point correspondence group and the feature point And having a what processing steps.

本発明は、コンピュータを、前記画像処理装置として機能させるための画像処理プログラムである。   The present invention is an image processing program for causing a computer to function as the image processing apparatus.

本発明によれば、2枚のrefocus−able imageを用い、それぞれの画像を獲得したカメラのキャリブレーションを行う場合において、適切な合焦位置のrefocused imageを用いたカメラパラメータの推定結果を自動的に出力することが可能になるという効果が得られる。   According to the present invention, when calibrating the camera that acquired each image using the two refocus-able images, the camera parameter estimation result using the refocused image at an appropriate in-focus position is automatically calculated. The effect that it becomes possible to output to is obtained.

本発明の第1実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 1st Embodiment of this invention. 第1実施形態による画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing apparatus by 1st Embodiment. 第2実施形態による画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing apparatus by 2nd Embodiment. 第3実施形態による画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing apparatus by 3rd Embodiment.

<第1実施形態>
以下、図面を参照して、本発明の第1実施形態による画像処理装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、refocus−able image及びrefocused image分割数及びカメラの内部パラメータを入力する入力部である。符号2は、2枚のrefocus−able imageを入力とし、各refocused image(ある奥行きに合焦した画像)の特徴点及びrefocused image間の特徴点対応群を出力する画像処理部である。符号3は、特徴点対応群および特徴点の位置からカメラパラメータを推定して出力する幾何処理部である。
<First Embodiment>
Hereinafter, an image processing apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes an input unit for inputting the number of the focused-able image and the focused image and the internal parameter of the camera. Reference numeral 2 denotes an image processing unit that receives two reflected-able images as input and outputs a feature point of each focused image (an image focused on a certain depth) and a feature point correspondence group between the focused images. Reference numeral 3 denotes a geometric processing unit that estimates and outputs a camera parameter from the feature point correspondence group and the position of the feature point.

refocused image間の特徴点対応群は、ある特徴点群のペアにおいて得られる全ての特徴点対応である。特徴点群とは1枚の画像から検出される全ての特徴点を指す。また、特徴点対応とはある画像における特徴点が、もう一方の画像においてどの特徴点と対応づくかという関係を表す。図1に示す画像処理装置は、複数存在する特徴点対応群の候補及びカメラパラメータの候補の中から、適切な合焦位置のrefocused imageを用いた場合のものを自動的に出力する。   The feature point correspondence group between the refocused images is all feature point correspondences obtained in a certain pair of feature points. The feature point group refers to all feature points detected from one image. Also, the feature point correspondence represents the relationship between the feature point in one image and which feature point in the other image. The image processing apparatus shown in FIG. 1 automatically outputs a plurality of feature point correspondence group candidates and camera parameter candidates when using a focused image at an appropriate in-focus position.

次に、図2を参照して、図1に示す画像処理装置の動作を説明する。図2は、図1に示す画像処理装置の動作を示すフローチャートである。図1に示す画像処理装置は、refocused image(2枚)、refocused imageの分割数、各refocused imageを撮影したカメラの内部パラメータを入力し、外部パラメータ(回転行列、並進ベクトル)と内部パラメータを出力する。   Next, the operation of the image processing apparatus shown in FIG. 1 will be described with reference to FIG. FIG. 2 is a flowchart showing the operation of the image processing apparatus shown in FIG. The image processing apparatus shown in FIG. 1 inputs the focused image (two images), the number of divisions of the focused image, the internal parameters of the camera that captured each focused image, and outputs the external parameters (rotation matrix, translation vector) and the internal parameters. To do.

まず、入力部1は、Refocus−able imageを2枚入力する(ステップS1)。続いて、入力部1は、カメラの内部パラメータを入力する(ステップS2)。そして、入力部1は、作成するrefocused imageの数を入力する(ステップS3)。   First, the input unit 1 inputs two references-able images (step S1). Subsequently, the input unit 1 inputs camera internal parameters (step S2). Then, the input unit 1 inputs the number of refocused images to be created (step S3).

次に、画像処理部2は、ステップS1において入力されたrefocus−able imageから、ステップS3において入力された数だけrefocused imageを作成する(ステップS4)。   Next, the image processing unit 2 creates the number of refocused images input in step S3 from the refocus-able image input in step S1 (step S4).

次に、画像処理部2は、ステップS4において作成したrefocused imageについて、特徴点を検出する(特徴点の位置、特徴量)(ステップS5)。   Next, the image processing unit 2 detects a feature point (the position of the feature point and the feature amount) for the focused image created in step S4 (step S5).

次に、画像処理部2は、特徴点群(1枚のrefocused imageから検出される全ての特徴点)の全ての組み合わせを用意する(ステップS6)。ただし、組み合わせの一方は1枚目のrefocus−able imageから作成されたrefocused imageの特徴点群であり、もう一方は2枚目のrefocus−able imageから作成されたrefocused imageの特徴点群である。   Next, the image processing unit 2 prepares all combinations of the feature point group (all feature points detected from a single focused image) (step S6). However, one of the combinations is a feature point group of the focused image created from the first focused image, and the other is a group of feature points of the focused image created from the second focused-able image. .

次に、画像処理部2は、全ての特徴点群の組み合わせに対し、特徴点対応群を求める(ステップS7)。   Next, the image processing unit 2 obtains feature point correspondence groups for all combinations of feature point groups (step S7).

次に、幾何処理部3は、ステップS7において得られた特徴点対応群に対しRANSAC(RANDdom Sample Consensus)を行い、インライアとなる特徴点対応群を求める(ステップS8)。そして、幾何処理部3は、ステップS8の結果の中から、最も特徴点対応の数が多いもの出力する(ステップS9)。   Next, the geometric processing unit 3 performs RANSAC (RANDdom Sample Consensus) on the feature point correspondence group obtained in step S7 to obtain a feature point correspondence group to be an inlier (step S8). Then, the geometric processing unit 3 outputs the one corresponding to the largest number of feature points among the results of step S8 (step S9).

次に、幾何処理部3は、ステップS9において得られたインライアとなる特徴点対応群から基礎行列を求める(ステップS10)。   Next, the geometric processing unit 3 obtains a basic matrix from the feature point correspondence group that is an inlier obtained in step S9 (step S10).

次に、幾何処理部3は、ステップS2において入力した内部パラメータとステップS10において得られた基礎行列から基本行列を求める(ステップS11)。   Next, the geometric processing unit 3 obtains a basic matrix from the internal parameters input in step S2 and the basic matrix obtained in step S10 (step S11).

次に、幾何処理部3は、ステップS11において得られた基本行列から回転行列および並進ベクトルを算出する(ステップS12)。   Next, the geometric processing unit 3 calculates a rotation matrix and a translation vector from the basic matrix obtained in step S11 (step S12).

次に、幾何処理部3は、ステップS12において得られた回転行列、並進ベクトルおよびステップS2において入力した内部パラメータを初期値とし、ステップS9において得られたインライアとなる特徴点対応群を用いてバンドルアジャストメントを行い、回転行列、並進ベクトルおよび内部パラメータの最適解を求める(ステップS13)。   Next, the geometric processing unit 3 uses the rotation matrix obtained in step S12, the translation vector, and the internal parameters input in step S2 as initial values, and bundles using the feature point correspondence group that is an inlier obtained in step S9. Adjustment is performed to obtain an optimal solution of the rotation matrix, translation vector, and internal parameters (step S13).

最後に、幾何処理部3は、ステップS13において求めた結果を出力する(ステップS14)。   Finally, the geometric processing unit 3 outputs the result obtained in step S13 (step S14).

このように、複数存在する特徴点対応群の候補及びカメラパラメータの候補の中から、適切な合焦位置のrefocused imageを用いた場合のものを自動的に出力することができる。   As described above, it is possible to automatically output a plurality of feature point correspondence group candidates and camera parameter candidates when a focused image at an appropriate focus position is used.

<第2実施形態>
次に、本発明の第2実施形態による画像処理装置を説明する。第2実施形態における装置構成は、図1に示す構成と同様であるため、ここでは詳細な説明を省略する。
Second Embodiment
Next, an image processing apparatus according to a second embodiment of the present invention will be described. Since the device configuration in the second embodiment is the same as the configuration shown in FIG. 1, detailed description thereof is omitted here.

次に、図3を参照して、第2実施形態における画像処理装置の動作を説明する。図3は、第2実施形態における画像処理装置の動作を示すフローチャートである。この図において、図2に示す動作と同一の動作には同一の符号を付し、その説明を簡単に行う。第2実施形態における画像処理装置は、第1実施形態における画像処理装置と同様に、refocused image(2枚)、refocused imageの分割数、各refocused imageを撮影したカメラの内部パラメータを入力し、外部パラメータ(回転行列、並進ベクトル)と内部パラメータを出力する。   Next, the operation of the image processing apparatus in the second embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing the operation of the image processing apparatus according to the second embodiment. In this figure, the same operations as those shown in FIG. Similar to the image processing apparatus in the first embodiment, the image processing apparatus in the second embodiment inputs the refocused image (2 images), the number of divisions of the refocused image, and the internal parameters of the camera that has captured each refocused image. Output parameters (rotation matrix, translation vector) and internal parameters.

まず、入力部1は、Refocus−able imageを2枚入力する(ステップS1)。続いて、入力部1は、カメラの内部パラメータを入力する(ステップS2)。そして、入力部1は、作成するrefocused imageの数を入力する(ステップS3)。   First, the input unit 1 inputs two references-able images (step S1). Subsequently, the input unit 1 inputs camera internal parameters (step S2). Then, the input unit 1 inputs the number of refocused images to be created (step S3).

次に、画像処理部2は、ステップS1において入力されたrefocus−able imageから、ステップS3において入力された数だけrefocused imageを作成する(ステップS4)。   Next, the image processing unit 2 creates the number of refocused images input in step S3 from the refocus-able image input in step S1 (step S4).

次に、画像処理部2は、ステップS4において作成したrefocused imageについて、特徴点を検出する(特徴点の位置、特徴量)(ステップS5)。   Next, the image processing unit 2 detects a feature point (the position of the feature point and the feature amount) for the focused image created in step S4 (step S5).

次に、画像処理部2は、特徴点群(1枚のrefocused imageから検出される全ての特徴点)の全ての組み合わせを用意する(ステップS6)。   Next, the image processing unit 2 prepares all combinations of the feature point group (all feature points detected from a single focused image) (step S6).

次に、画像処理部2は、特徴点群の組み合わせを1つ選択し、この特徴点群の組み合わせに対し、特徴点対応群を求める(ステップS15)。   Next, the image processing unit 2 selects one combination of feature points, and obtains a feature point correspondence group for this combination of feature points (step S15).

次に、幾何処理部3は、ステップS15において得られた特徴点対応群に対しRANSACを行い、インライアとなる特徴点対応群を求める(ステップS8)。   Next, the geometric processing unit 3 performs RANSAC on the feature point correspondence group obtained in step S15 to obtain a feature point correspondence group to be an inlier (step S8).

次に、幾何処理部3は、ステップS8において得られたインライアとなる特徴点対応群から基礎行列を求める(ステップS10)。   Next, the geometric processing unit 3 obtains a basic matrix from the feature point correspondence group that is an inlier obtained in step S8 (step S10).

次に、幾何処理部3は、ステップS2において入力した内部パラメータとステップS10において得られた基礎行列から基本行列を求める(ステップS11)。   Next, the geometric processing unit 3 obtains a basic matrix from the internal parameters input in step S2 and the basic matrix obtained in step S10 (step S11).

次に、幾何処理部3は、ステップS11において得られた基本行列から回転行列および並進ベクトルを算出する(ステップS12)。   Next, the geometric processing unit 3 calculates a rotation matrix and a translation vector from the basic matrix obtained in step S11 (step S12).

次に、幾何処理部3は、ステップS12において得られた回転行列、並進ベクトルおよびステップS2において入力した内部パラメータを初期値とし、ステップS8において得られたインライアとなる特徴点対応群を用いてバンドルアジャストメントを行い、回転行列、並進ベクトルおよび内部パラメータの最適解を求める(ステップS17)。   Next, the geometric processing unit 3 sets the rotation matrix obtained in step S12, the translation vector, and the internal parameters input in step S2 as initial values, and bundles using the feature point correspondence group that is an inlier obtained in step S8. Adjustment is performed to find the optimal solution for the rotation matrix, translation vector, and internal parameters (step S17).

次に、幾何処理部3は、全ての特徴点群の組み合わせに対して処理が終了したか否かを判定し、終了していなければステップS15に戻り、用意した全ての特徴点群の組み合わせに対して処理を行う(ステップS18)。   Next, the geometric processing unit 3 determines whether or not processing has been completed for all combinations of feature points, and if not, the process returns to step S15, where all combinations of feature points are prepared. A process is performed for this (step S18).

最後に、幾何処理部3は、全ての組み合わせの結果の中で、求めた非線形最適化のイテレーション回数が最も少ない結果を出力する(ステップS19)。   Finally, the geometric processing unit 3 outputs a result with the smallest number of iterations of the obtained nonlinear optimization among the results of all combinations (step S19).

このように、複数存在する特徴点対応群の候補及びカメラパラメータの候補の中から、適切な合焦位置のrefocused imageを用いた場合のものを自動的に出力することができる。   As described above, it is possible to automatically output a plurality of feature point correspondence group candidates and camera parameter candidates when a focused image at an appropriate focus position is used.

<第3実施形態>
次に、本発明の第3実施形態による画像処理装置を説明する。第3実施形態における装置構成は、図1に示す構成と同様であるため、ここでは詳細な説明を省略する。
<Third Embodiment>
Next, an image processing apparatus according to a third embodiment of the present invention will be described. Since the apparatus configuration in the third embodiment is the same as the configuration shown in FIG. 1, detailed description thereof is omitted here.

次に、図4を参照して、第3実施形態における画像処理装置の動作を説明する。図4は、第3実施形態における画像処理装置の動作を示すフローチャートである。この図において、図3に示す動作と同一の動作には同一の符号を付し、その説明を簡単に行う。第3実施形態における画像処理装置は、第1、第2実施形態における画像処理装置と同様に、refocused image(2枚)、refocused imageの分割数、各refocused imageを撮影したカメラの内部パラメータを入力し、外部パラメータ(回転行列、並進ベクトル)と内部パラメータを出力する。   Next, the operation of the image processing apparatus in the third embodiment will be described with reference to FIG. FIG. 4 is a flowchart illustrating the operation of the image processing apparatus according to the third embodiment. In this figure, the same operations as those shown in FIG. 3 are denoted by the same reference numerals, and description thereof will be briefly made. Similar to the image processing apparatuses in the first and second embodiments, the image processing apparatus according to the third embodiment inputs the number of refocused images (two images), the number of divisions of the refocused image, and the internal parameters of the camera that has captured each refocused image. External parameters (rotation matrix, translation vector) and internal parameters are output.

まず、入力部1は、Refocus−able imageを2枚入力する(ステップS1)。続いて、入力部1は、カメラの内部パラメータを入力する(ステップS2)。そして、入力部1は、作成するrefocused imageの数を入力する(ステップS3)。   First, the input unit 1 inputs two references-able images (step S1). Subsequently, the input unit 1 inputs camera internal parameters (step S2). Then, the input unit 1 inputs the number of refocused images to be created (step S3).

次に、画像処理部2は、ステップS1において入力されたrefocus−able imageから、ステップS3において入力された数だけrefocused imageを作成する(ステップS4)。   Next, the image processing unit 2 creates the number of refocused images input in step S3 from the refocus-able image input in step S1 (step S4).

次に、画像処理部2は、ステップS4において作成したrefocused imageについて、特徴点を検出する(特徴点の位置、特徴量)(ステップS5)。   Next, the image processing unit 2 detects a feature point (the position of the feature point and the feature amount) for the focused image created in step S4 (step S5).

次に、画像処理部2は、特徴点群(1枚のrefocused imageから検出される全ての特徴点)の全ての組み合わせを用意する(ステップS6)。   Next, the image processing unit 2 prepares all combinations of the feature point group (all feature points detected from a single focused image) (step S6).

次に、画像処理部2は、特徴点群の組み合わせを1つ選択し、この特徴点群の組み合わせに対し、特徴点対応群を求める(ステップS15)。   Next, the image processing unit 2 selects one combination of feature points, and obtains a feature point correspondence group for this combination of feature points (step S15).

次に、幾何処理部3は、ステップS15において得られた特徴点対応群に対しRANSACを行い、インライアとなる特徴点対応群を求める(ステップS8)。   Next, the geometric processing unit 3 performs RANSAC on the feature point correspondence group obtained in step S15 to obtain a feature point correspondence group to be an inlier (step S8).

次に、幾何処理部3は、ステップS8において得られたインライアとなる特徴点対応群から基礎行列を求める(ステップS10)。   Next, the geometric processing unit 3 obtains a basic matrix from the feature point correspondence group that is an inlier obtained in step S8 (step S10).

次に、幾何処理部3は、ステップS2において入力した内部パラメータとステップS10において得られた基礎行列から基本行列を求める(ステップS11)。   Next, the geometric processing unit 3 obtains a basic matrix from the internal parameters input in step S2 and the basic matrix obtained in step S10 (step S11).

次に、幾何処理部3は、ステップS11において得られた基本行列から回転行列および並進ベクトルを算出する(ステップS12)。   Next, the geometric processing unit 3 calculates a rotation matrix and a translation vector from the basic matrix obtained in step S11 (step S12).

次に、幾何処理部3は、ステップS12において得られた回転行列、並進ベクトルおよびステップS2において入力した内部パラメータを初期値とし、ステップS8において得られたインライアとなる特徴点対応群を用いてバンドルアジャストメントを行い、回転行列、並進ベクトルおよび内部パラメータの最適解を求める(ステップS17)。   Next, the geometric processing unit 3 sets the rotation matrix obtained in step S12, the translation vector, and the internal parameters input in step S2 as initial values, and bundles using the feature point correspondence group that is an inlier obtained in step S8. Adjustment is performed to find the optimal solution for the rotation matrix, translation vector, and internal parameters (step S17).

次に、幾何処理部3は、全ての特徴点群の組み合わせに対して処理が終了したか否かを判定し、終了していなければステップS15に戻り、用意した全ての特徴点群の組み合わせに対して処理を行う(ステップS18)。   Next, the geometric processing unit 3 determines whether or not processing has been completed for all combinations of feature points, and if not, the process returns to step S15, where all combinations of feature points are prepared. A process is performed for this (step S18).

最後に、幾何処理部3は、全ての組み合わせの結果の中で、求めた非線形最適化後の再投影誤差が最も小さい結果を出力する(ステップS20)。   Finally, the geometric processing unit 3 outputs a result having the smallest reprojection error after the obtained nonlinear optimization among the results of all combinations (step S20).

このように、複数存在する特徴点対応群の候補及びカメラパラメータの候補の中から、適切な合焦位置のrefocused imageを用いた場合のものを自動的に出力することができる。   As described above, it is possible to automatically output a plurality of feature point correspondence group candidates and camera parameter candidates when a focused image at an appropriate focus position is used.

なお、前述したステップS1において、入力する2枚のrefocus−able imageは以下の(1)、(2)のどちらでもよい。
(1)1台のカメラが2視点から撮影した画像。
(2)2台のカメラが2視点から撮影した画像。
ただし、2台のカメラは必ずしも同期している必要はないが、重複領域を有している必要がある。
Note that in step S1 described above, the two pieces of reference-able image to be input may be either (1) or (2) below.
(1) An image taken from two viewpoints by one camera.
(2) Images taken by two cameras from two viewpoints.
However, the two cameras do not necessarily have to be synchronized, but need to have overlapping areas.

また、前述したステップS2において、入力するカメラの内部パラメータは、参考文献1に記載の内部パラメータを利用しても求めてもよい。
参考文献1:Zhang, Zhengyou. "A flexible new technique for camera calibration." Pattern Analysis and Machine Intelligence, IEEE Transactions on 22.11 (2000): 1330-1334.
In step S2 described above, the internal parameters of the camera to be input may be obtained using the internal parameters described in Reference Document 1.
Reference 1: Zhang, Zhengyou. "A flexible new technique for camera calibration." Pattern Analysis and Machine Intelligence, IEEE Transactions on 22.11 (2000): 1330-1334.

また、前述したステップS3において、入力するrefocused imageの数は、refocus−able imageから奥行きを推定し、その奥行きの値を基に適当な数を設定してもよい。Refocus−able imageから奥行きを推定する手法は公知の手法(例えば、参考文献2参照)を用いる。
参考文献2:Tao, Michael W., et al. "Depth from Combining Defocus and Correspondence Using Light-Field Cameras." ICCV, (2013).
Further, in step S3 described above, the number of inputted focused images may be estimated by estimating the depth from the focused-able image and setting an appropriate number based on the depth value. As a technique for estimating the depth from the Focus-able image, a known technique (see, for example, Reference 2) is used.
Reference 2: Tao, Michael W., et al. "Depth from Combining Defocus and Correspondence Using Light-Field Cameras." ICCV, (2013).

具体的な数の定め方としては、例えば奥行きに関してクラスタリングを行い、そのクラスタの数をrefocused imageの数とする。ただし、その場合はクラスタリングのイテレーション回数及び閾値を事前に定める必要がある。   As a specific method of determining the number, for example, clustering is performed on the depth, and the number of clusters is set as the number of reflected images. In this case, however, the number of iterations of clustering and the threshold value must be determined in advance.

また、前述したステップS4において、Refocus−able imageからrefocused imageを作成する方法は公知の手法(例えば、参考文献3参照)を利用する。
参考文献3:Ng, Ren, et al. "Light field photography with a hand-held plenoptic camera." Computer Science Technical Report CSTR 2.11 (2005).
In step S4 described above, a known method (for example, see Reference 3) is used as a method for creating a focused image from a Focused-able image.
Reference 3: Ng, Ren, et al. "Light field photography with a hand-held plenoptic camera." Computer Science Technical Report CSTR 2.11 (2005).

ただし、作成するrefocused imageの奥行きは以下の(3)、(4)のどちらでもよい。
(3)step=(最も大きい奥行き)/(作成するrefocused imageの数)とし、カメラの光学中心の近いほうからstepの整数倍の奥行きでrefocused imageを作成する。
(4)k−meansなどで奥行きに関してクラスタリングし(kは作成するrefocused imageの数)、各クラスタの重心の奥行きでrefocused imageを作成する。
However, the depth of the created focused image may be either (3) or (4) below.
(3) Step = (largest depth) / (number of focused images to be created), and a focused image is created at a depth that is an integral multiple of step from the closest optical center of the camera.
(4) Cluster the depth with k-means or the like (k is the number of focused images to be created), and create a focused image with the depth of the center of gravity of each cluster.

また、前述したステップS5において、特徴点を検出する手法として、SIFT、SURF、CARDなどの公知の方法を用いることができる。   Moreover, in step S5 mentioned above, well-known methods, such as SIFT, SURF, and CARD, can be used as a method of detecting a feature point.

また、前述したステップS7において、特徴点を対応付ける手法として、SIFTなどで提案されているように特徴点の特徴量の類似度に基づく手法を利用することができる。   In step S7 described above, as a technique for associating feature points, a technique based on the similarity of feature quantities of feature points as proposed in SIFT or the like can be used.

また、前述したステップS8において、RANSACに用いるモデルとして、エピポーラ制約を用いてもよい。   In step S8 described above, epipolar constraints may be used as a model used for RANSAC.

また、前述したステップS10において、基礎行列の求め方として、eight−point algorithmを用いてもよい。   Moreover, in step S10 mentioned above, as a method for obtaining the basic matrix, an eight-point algorithm may be used.

また、前述したステップS13、S17において、バンドルアジャストメントに用いる非線形最適化手法として、Levenberg−Marquardt法を利用してもよい。   Further, in Steps S13 and S17 described above, the Levenberg-Marquardt method may be used as a nonlinear optimization method used for bundle adjustment.

以上説明したように、2枚のrefocus−able imageに対してSfMを行う場合、それぞれ適切な奥行きのrefocused imageの組み合わせに対してSfMを適用した結果を自動的に出力することにより容易にカメラパラメータを推定することが可能になる。これらは被写体の高精度な三次元形状推定や品質の高い仮想視点映像の生成に利用することができる。   As described above, when SfM is performed on two refocus-able images, camera parameters can be easily output by automatically outputting the result of applying SfM to a combination of refocused images having appropriate depths. Can be estimated. These can be used for highly accurate estimation of a three-dimensional shape of a subject and generation of a high-quality virtual viewpoint video.

前述した実施形態における画像処理装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   You may make it implement | achieve the image processing apparatus in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.

2枚のrefocus−able imageに対してSfMを行う場合、それぞれ適切な奥行きのrefocused imageの組み合わせに対してSfMを適用した結果を自動的に出力することが不可欠な用途に適用できる。   When SfM is performed on two refocus-able images, it can be applied to an indispensable use in which it is indispensable to automatically output a result of applying SfM to a combination of refocused images having appropriate depths.

1・・・入力部、2・・・画像処理部、3・・・幾何処理部   DESCRIPTION OF SYMBOLS 1 ... Input part, 2 ... Image processing part, 3 ... Geometric processing part

Claims (8)

重複領域を持つ合焦する奥行きが可変な画像である2枚のrefocus−able imageから、それぞれの前記refocus−able imageを撮影したカメラのカメラパラメータを推定する画像処理装置であって、
2枚の前記refocus−able imageと、所定の奥行きに合焦した画像の分割数であるrefocused image分割数と、前記カメラの内部パラメータとを入力する入力手段と、
2枚の前記refocus−able imageから、前記refocused imageそれぞれの特徴点及び前記refocused image間の特徴点対応群を検出して出力する画像処理手段と、
前記特徴点対応群および前記特徴点の位置から前記カメラパラメータを推定する幾何処理手段と
を備えたことを特徴とする画像処理装置。
An image processing apparatus that estimates camera parameters of a camera that has captured each of the focus-able images from two focus-ble images that are images with varying depths to be focused and having overlapping regions.
Input means for inputting the two refocus-able images, the number of refocused image divisions which are the number of divisions of an image focused on a predetermined depth, and the internal parameters of the camera;
Image processing means for detecting and outputting each feature point of the focused image and a feature point correspondence group between the focused image from the two focused-able images;
An image processing apparatus comprising: a geometric processing unit that estimates the camera parameter from the feature point correspondence group and the position of the feature point.
前記画像処理部は、
2枚の前記refocus−able image及び前記refocused image分割数を入力し、前記refocus−able imageから前記refocused image分割数に従い前記refocused imageを作成する手段と、
前記refocused imageのそれぞれを入力し、各refocused imageの特徴点を検出する手段と、
前記refocused imageの特徴点群を入力し、全ての特徴点群の組み合わせを求める手段と、
前記特徴点群の組み合わせを入力し、検出した各特徴点の特徴量に基づいて特徴点対応群を求める手段と、
得られた前記各特徴点および前記特徴点の対応を入力し、該特徴点の対応に対してエピポーラ制約を用いたRANSAC法による処理を行い、インライアとなる特徴点対応群及び特徴点群の組み合わせを出力する手段と
を備えることを特徴とする請求項1に記載の画像処理装置。
The image processing unit
Means for inputting the two pieces of the referenced-able image and the number of the focused image, and generating the focused image from the reflected-able image according to the number of the divided pieces of the recommended image;
Means for inputting each of the focused images and detecting a feature point of each focused image;
Means for inputting feature points of the focused image and obtaining a combination of all feature points;
Means for inputting a combination of the feature points and obtaining a feature point correspondence group based on the feature amount of each detected feature point;
Each of the obtained feature points and the correspondence between the feature points are inputted, the processing by the RANSAC method using the epipolar constraint is performed on the correspondence of the feature points, and the feature point correspondence group and the feature point group which are inliers are combined. The image processing apparatus according to claim 1, further comprising:
前記画像処理手段は、全ての組み合わせにおけるインライアとなる特徴点対応群を入力し、含まれる特徴点対応の数が最も多い特徴点群の組み合わせ及びインライアとなる特徴点対応群を出力することを特徴とする請求項2に記載の画像処理装置。   The image processing means inputs feature point correspondence groups that become inliers in all combinations, and outputs a combination of feature point groups with the largest number of feature point correspondences included and feature point correspondence groups that become inliers. The image processing apparatus according to claim 2. 前記幾何処理手段は、
前記特徴点対応群および前記特徴点を入力し、基礎行列を算出する手段と、
前記基礎行列及び前記カメラの内部パラメータを入力し、基本行列を算出する手段と、
前記基本行列を入力し、回転行列及び並進ベクトルを出力する手段と、
前記回転行列、前記並進ベクトル、前記内部パラメータ、前記特徴点および前記特徴点対応群を入力し、再投影誤差が最小になるようにバンドルアジャストメントを行い、前記回転行列、前記並進ベクトル、前記内部パラメータの最適解、最適化におけるイテレーション回数および再投影誤差を出力する手段と
を備えることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The geometric processing means includes:
Means for inputting the feature point correspondence group and the feature points and calculating a basic matrix;
Means for inputting the basic matrix and internal parameters of the camera and calculating the basic matrix;
Means for inputting the basic matrix and outputting a rotation matrix and a translation vector;
The rotation matrix, the translation vector, the internal parameter, the feature point, and the feature point correspondence group are input, and bundle adjustment is performed so that a reprojection error is minimized, and the rotation matrix, the translation vector, the internal point The image processing apparatus according to any one of claims 1 to 3, further comprising: an optimum parameter solution, an iteration count in optimization, and a means for outputting a reprojection error.
前記幾何処理手段は、
全ての組み合わせに対するバンドルアジャストメントの結果を入力し、最もイテレーション回数の少なかった特徴点群の組み合わせに対するバンドルアジャストメントの結果を出力することを特徴とする請求項4に記載の画像処理装置。
The geometric processing means includes:
5. The image processing apparatus according to claim 4, wherein a bundle adjustment result for all combinations is input, and a bundle adjustment result for a combination of feature points having the smallest number of iterations is output.
前記幾何処理手段は、
全ての組み合わせに対する全ての特徴点群の組み合わせに対して行われたバンドルアジャストメントの結果を入力し、最も再投影誤差の小さかった特徴点群の組み合わせに対するバンドルアジャストメントの結果を出力することを特徴とする請求項4に記載の画像処理装置。
The geometric processing means includes:
Input the result of bundle adjustment performed for all combinations of feature points for all combinations, and output the result of bundle adjustment for the combination of feature points with the smallest reprojection error The image processing apparatus according to claim 4.
重複領域を持つ合焦する奥行きが可変な画像である2枚のrefocus−able imageから、それぞれの前記refocus−able imageを撮影したカメラのカメラパラメータを推定する画像処理方法であって、
2枚の前記refocus−able imageと、所定の奥行きに合焦した画像の分割数であるrefocused image分割数と、前記カメラの内部パラメータとを入力する入力ステップと、
2枚の前記refocus−able imageから、前記refocused imageそれぞれの特徴点及び前記refocused image間の特徴点対応群を検出して出力する画像処理ステップと、
前記特徴点対応群および前記特徴点の位置から前記カメラパラメータを推定する幾何処理ステップと
を有することを特徴とする画像処理方法。
An image processing method for estimating camera parameters of a camera that has photographed each of the focus-able images from two focus-ble images that are images with variable depths to be focused and having overlapping regions,
An input step for inputting the two refocus-able images, the number of the refocused image that is the number of divisions of the image focused on a predetermined depth, and the internal parameters of the camera;
An image processing step of detecting and outputting each of the feature points of the focused image and the feature point correspondence group between the focused images from the two focused-able images;
And a geometric processing step of estimating the camera parameter from the feature point correspondence group and the position of the feature point.
コンピュータを、請求項1から6のいずれか1項に記載の画像処理装置として機能させるための画像処理プログラム。   An image processing program for causing a computer to function as the image processing apparatus according to claim 1.
JP2014123735A 2014-06-16 2014-06-16 Image processing apparatus, image processing method, and image processing program Pending JP2016003930A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014123735A JP2016003930A (en) 2014-06-16 2014-06-16 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014123735A JP2016003930A (en) 2014-06-16 2014-06-16 Image processing apparatus, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2016003930A true JP2016003930A (en) 2016-01-12

Family

ID=55223301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014123735A Pending JP2016003930A (en) 2014-06-16 2014-06-16 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2016003930A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111445570A (en) * 2020-03-09 2020-07-24 天目爱视(北京)科技有限公司 Customized garment design production equipment and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046772A (en) * 2002-05-13 2004-02-12 3D Media Co Ltd Method, system and apparatus for processing image
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
US20130121558A1 (en) * 2008-08-15 2013-05-16 Hailin Jin Point Selection in Bundle Adjustment
JP2013175821A (en) * 2012-02-23 2013-09-05 Canon Inc Image processing device, image processing method, and program
JP2013258777A (en) * 2013-09-17 2013-12-26 Sony Corp Image processing apparatus, image processing method, image processing program, and recording medium
JP2014011497A (en) * 2012-06-27 2014-01-20 Olympus Corp Image processing apparatus and image pick-up device including the same, image processing method and image processing program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046772A (en) * 2002-05-13 2004-02-12 3D Media Co Ltd Method, system and apparatus for processing image
US20130121558A1 (en) * 2008-08-15 2013-05-16 Hailin Jin Point Selection in Bundle Adjustment
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP2013175821A (en) * 2012-02-23 2013-09-05 Canon Inc Image processing device, image processing method, and program
JP2014011497A (en) * 2012-06-27 2014-01-20 Olympus Corp Image processing apparatus and image pick-up device including the same, image processing method and image processing program
JP2013258777A (en) * 2013-09-17 2013-12-26 Sony Corp Image processing apparatus, image processing method, image processing program, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111445570A (en) * 2020-03-09 2020-07-24 天目爱视(北京)科技有限公司 Customized garment design production equipment and method
CN111445570B (en) * 2020-03-09 2021-04-27 天目爱视(北京)科技有限公司 Customized garment design production equipment and method

Similar Documents

Publication Publication Date Title
Garg et al. Learning single camera depth estimation using dual-pixels
US10334168B2 (en) Threshold determination in a RANSAC algorithm
EP3101624B1 (en) Image processing method and image processing device
Jeon et al. Accurate depth map estimation from a lenslet light field camera
TWI538512B (en) Method for adjusting focus position and electronic apparatus
JP2020515931A (en) Method and apparatus for combining scene segmentation and 3D reconstruction
US9729857B2 (en) High resolution depth map computation using multiresolution camera clusters for 3D image generation
JP6655379B2 (en) Method and apparatus for generating an adaptive slice image from a focus stack
US20210144357A1 (en) Method and apparatus with depth image generation
KR102516495B1 (en) Methods and apparatus for improved 3-d data reconstruction from stereo-temporal image sequences
TW201436552A (en) Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream
JP2022068316A (en) Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of object
Zhang et al. Synthetic aperture based on plenoptic camera for seeing through occlusions
Ma et al. Effective video stabilization via joint trajectory smoothing and frame warping
JP6557640B2 (en) Camera calibration apparatus, camera calibration method, and camera calibration program
Won et al. Learning depth from focus in the wild
CN117495975A (en) Zoom lens calibration method and device and electronic equipment
JP2016003930A (en) Image processing apparatus, image processing method, and image processing program
JP6305232B2 (en) Information processing apparatus, imaging apparatus, imaging system, information processing method, and program.
JP6306952B2 (en) Intermediate viewpoint image generation apparatus, intermediate viewpoint image generation method, and computer program
JP6384961B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium
JP5686412B2 (en) 3D shape estimation device, 3D shape estimation method, and 3D shape estimation program
Choi et al. Exploring positional characteristics of dual-pixel data for camera autofocus
Adikari et al. Improved Mesh Reconstruction With an Edge Quality Enhancement Using Multiple Inward Depth Streams
CN112771574B (en) Method for estimating the depth of a pixel and corresponding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180206