JP2009186369A - Depth information acquisition method, depth information acquiring device, program, and recording medium - Google Patents
Depth information acquisition method, depth information acquiring device, program, and recording medium Download PDFInfo
- Publication number
- JP2009186369A JP2009186369A JP2008027831A JP2008027831A JP2009186369A JP 2009186369 A JP2009186369 A JP 2009186369A JP 2008027831 A JP2008027831 A JP 2008027831A JP 2008027831 A JP2008027831 A JP 2008027831A JP 2009186369 A JP2009186369 A JP 2009186369A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- cameras
- depth information
- similarity
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体に係り、特に、複数のカメラで撮られた複数の画像データを用いて、仮想視点から見た所望の方向の画像の奥行き情報を取得する方法に関する。 The present invention relates to a depth information acquisition method, a depth information acquisition device, a program, and a recording medium. It relates to a method for obtaining information.
複数のカメラで撮られた複数の画像データを用いて、ある視点からみた画像の奥行き情報を取得する方法として、マルチベースラインステレオ法(下記、非特許文献1参照)、あるいは、多層信頼度マップを用いる方法(下記、非特許文献2参照)が知られている。
以下、複数のカメラで撮られた複数の画像データを用いて、ある視点からみた画像の奥行き情報を取得する従来の方法について説明する。
図1は、複数のカメラで撮られた複数の画像データを用いて、ある視点からみた画像の奥行き情報を取得する従来の方法を説明するための図である。
図1において、2001は基準カメラCR、2002は基準カメラCRのレンズ、2003は基準カメラCRのレンズ中心(基準視点)、2004は基準カメラCRの撮像素子、2005は基準カメラCRの撮像素子の原点、2006は基準カメラCRの撮像素上の任意の画素の中心点、2010は基準カメラCRの視線、2011は調査点、2012は基準カメラCRの光軸(基準視点を通る、基準カメラCRの撮像素子に垂直な線)、1101はその他のカメラ(カメラC1)、1102はカメラC1のレンズ、1103はカメラC1のレンズ中心、1104はカメラC1の撮像素子、1105はカメラC1の撮像素子の原点、1106はカメラC1の撮像素上における調査点2011の結像点、1110はカメラC1の視線である。
複数のカメラの中の1つを基準カメラCR(2001)、その他のカメラはCiとする。但し、iはカメラを区別する番号である。カメラの位置、方向は自由に決定される。
図中のdは、基準カメラCR(2001)から、調査点2011が存在する平面までの距離を表し、基準カメラCR(2001)の光軸2012に調査点2011から下ろした垂線との交点と、基準カメラCR(2001)のレンズ中心2003(基準視点)との間の距離である
ここで、取得したいのは、基準カメラCR(2001)の撮像素子(2004)上に映る画像の、各ピクセル毎の奥行き情報である。
As a method of acquiring depth information of an image viewed from a certain viewpoint using a plurality of image data taken by a plurality of cameras, a multi-baseline stereo method (see Non-Patent Document 1 below) or a multilayer reliability map is used. There is known a method (see Non-Patent Document 2 below).
A conventional method for acquiring depth information of an image viewed from a certain viewpoint using a plurality of image data taken by a plurality of cameras will be described below.
FIG. 1 is a diagram for explaining a conventional method for acquiring depth information of an image viewed from a certain viewpoint using a plurality of image data taken by a plurality of cameras.
In Figure 1, the reference camera C R, 2002 is the base camera C R lenses 2001, 2003 lens center of the base camera C R (reference viewpoint), the imaging element of the
One of the plurality of cameras is a reference camera C R (2001), and the other cameras are C i . However, i is a number which distinguishes a camera. The position and direction of the camera can be freely determined.
D in the figure, a reference from the camera C R (2001), represents the distance to the plane in which there is
なお、本願発明に関連する先行技術文献としては以下のものがある。
しかしながら、前述の非特許文献1に記載の方法では、基準カメラCRが実カメラである必要があるため、実カメラを測定したい視点と光軸となるように調整する必要がある。そのため、一旦カメラを配置した後に、仮想的な視点(仮想視点)と光軸(仮想光軸)を持つ仮想カメラで撮像した画像の奥行き情報を得ることができないという問題点があった。
また、前述の(2)式に示す統合した相違度が、各カメラの相違度の和であるため、オクルージョン(実カメラから撮像できない箇所が存在すること)等の発生により、1つでも各カメラの相違度が小さいとき、統合された相違度が影響を受けて小さくなり、奥行きを決定される際に誤差が発生し易くなるという問題点があった。
前述の非特許文献2では、前述の非特許文献1の基準カメラCRが実カメラである必要があるという問題点を解決しているが、オクルージョンに弱いという問題点は解決できていない。
本発明は、前記従来技術の問題点を解決するためになされたものであり、本発明の目的は、奥行き情報取得方法および奥行き情報取得装置において、オクルージョンによる影響が小さい方法で、仮想視点から見た所望の方向の画像の奥行き情報を取得することが可能となる技術を提供することにある。
また、本発明の他の目的は、前述の奥行き情報取得方法をコンピュータに実行させるためのプログラム、および当該プログラムを記録した記録媒体を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。
However, the method described in Non-Patent Document 1 described above, since the reference camera C R is required to be real camera, it is necessary to adjust so that the viewpoint and the optical axis to be measured actual camera. For this reason, there is a problem in that it is impossible to obtain depth information of an image captured by a virtual camera having a virtual viewpoint (virtual viewpoint) and an optical axis (virtual optical axis) once the camera is arranged.
In addition, since the integrated difference shown in the above equation (2) is the sum of the differences of the cameras, even one camera is generated due to the occurrence of occlusion (there is a portion that cannot be captured from the actual camera) or the like. When the dissimilarity is small, the integrated dissimilarity is affected and becomes small, and there is a problem that an error is likely to occur when the depth is determined.
Non-Patent Document 2 described above, although solving the problem that it is necessary base camera C R of the Non-Patent Document 1 above is real camera, not be solved a problem that weak occlusion.
The present invention has been made to solve the problems of the prior art, and an object of the present invention is to provide a depth information acquisition method and a depth information acquisition device that are less affected by occlusion and viewed from a virtual viewpoint. Another object of the present invention is to provide a technique capable of acquiring depth information of an image in a desired direction.
Another object of the present invention is to provide a program for causing a computer to execute the above-described depth information acquisition method, and a recording medium on which the program is recorded.
The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記の通りである。
本発明は、視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得方法であって、前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力するステップ1と、前記仮想視点を設定するステップ2と、前記仮想視点から見た視野中に複数の仮想面を層状に設置するステップ3と、前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算するステップ4と、前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を計算するステップ5と、前記ステップ5で計算した相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換するステップ6と、前記ステップ5と、前記ステップ6とを前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行するステップ7と、前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力するステップ8と、前記すべての仮想面に対して、前記ステップ4ないしステップ8を実行するステップ9と、前記仮想視点から、前記ステップ9で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とするステップ10と、ユーザが欲する全ての調査点に対して前記のステップ4〜ステップ10を実行するステップ11とを有する。
Of the inventions disclosed in this application, the outline of typical ones will be briefly described as follows.
The present invention is a depth information acquisition method for acquiring depth information of an image viewed from a virtual viewpoint that is an arbitrary viewpoint using image information captured by n (n ≧ 2) cameras having different viewpoints, Step 1 for inputting images obtained by photographing the same object or landscape using n cameras, Step 2 for setting the virtual viewpoint, and arranging a plurality of virtual planes in a field of view viewed from the virtual viewpoint. Step 3 and selecting a point of each virtual plane corresponding to an arbitrary pixel in the image viewed from the virtual viewpoint as a survey point, select one of the virtual planes, and the survey in the selected virtual plane Step 4 for calculating each corresponding point on each image captured by each of the n cameras corresponding to a point, and selecting two cameras from the n cameras, and selecting the selected two That on the image taken by the camera Step 5 for calculating the dissimilarity between the corresponding points, and Step 6 for converting the dissimilarity calculated in Step 5 into a similarity that becomes a smaller value as the dissimilarity increases and becomes 0 when the dissimilarity is infinite. Executing step 5 and step 6 on all sets of n (n−1) / 2 sets for selecting two cameras from the n cameras; Step 8 for integrating the similarities of all sets of n (n-1) / 2 sets, and outputting the integrated similarity, and Step 9 for executing Steps 4 to 8 for all the virtual surfaces And an arbitrary pixel in the image viewed from the virtual viewpoint, the distance from the virtual viewpoint to the virtual surface having the largest integrated similarity among the integrated similarities in each virtual surface obtained in the step 9 Step 10 as depth information of And a
また、本発明では、前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度にパラメータを加算し、当該パラメータを加算した前記n(n−1)/2組の全ての組で計算した類似度を乗算し、統合類似度として出力するステップである。
また、本発明では、前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度の中で最も大きい類似度を選択し、当該選択した類似度を統合類似度として出力するステップである。
また、本発明は、前述の奥行き情報取得方法を実現する奥行き情報取得装置である。
また、本発明は、前述の奥行き情報取得方法をコンピュータに実行させるためのプログラムである。
また、本発明は、前述のプログラムを記録したコンピュータ読み取り可能な記録媒体である。
In the present invention, the step 8 adds a parameter to the similarity calculated in all the n (n-1) / 2 sets, and adds the parameter to the n (n-1) / 2. This is a step of multiplying the similarities calculated for all the pairs and outputting them as integrated similarities.
In the present invention, the step 8 selects the highest similarity among the similarities calculated in all the n (n−1) / 2 pairs, and the selected similarity is used as the integrated similarity. As the output step.
In addition, the present invention is a depth information acquisition device that implements the depth information acquisition method described above.
Moreover, this invention is a program for making a computer perform the above-mentioned depth information acquisition method.
The present invention is also a computer-readable recording medium that records the above-described program.
本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
本発明の奥行き情報取得方法および奥行き情報取得装置によれば、オクルージョンによる影響が小さい方法で、仮想視点から見た所望の方向の画像の奥行き情報を取得することが可能となる。
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.
According to the depth information acquisition method and the depth information acquisition apparatus of the present invention, it is possible to acquire depth information of an image in a desired direction viewed from a virtual viewpoint by a method that is less affected by occlusion.
以下、図面を参照して本発明の実施例を詳細に説明する。
なお、実施例を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
図2は、本発明の実施例の情報取得方法を説明するための図である。
図2において、1001は仮想カメラCv、1002は仮想カメラCvのレンズ、1003は仮想カメラCvのレンズ中心(仮想視点)、1004は仮想カメラCvの撮像素子、1005は仮想カメラCvの撮像素子の原点、1006は仮想カメラCvの撮像素上の任意の画素の中心点、1010は仮想カメラCvの視線、1011は調査点、1012はユーザが見たい空間的な範囲内の仮想面群、1101はその他のカメラ(カメラC1)、1102はカメラC1のレンズ、1103はカメラC1のレンズ中心、1104はカメラC1の撮像素子、1105はカメラC1の撮像素子の原点、1106はカメラC1の撮像素上における調査点1011の結像点、1110はカメラC1の視線である。
本実施例では、図1に示す実カメラである基準カメラCRに代えて、仮想カメラCvを使用する。また、本実施例では、実カメラを2台以上用意し、実カメラの群から2台を選び出す組合わせを作る。n台の実カメラがあれば、n(n−1)/2の組合せがあるので、その組み合わせを作る。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
In all the drawings for explaining the embodiments, parts having the same functions are given the same reference numerals, and repeated explanation thereof is omitted.
FIG. 2 is a diagram for explaining an information acquisition method according to the embodiment of this invention.
2, 1001 virtual camera C v, 1002 is a lens of a
In this embodiment, instead of the reference camera C R is a real camera shown in FIG. 1, using the virtual camera C v. In this embodiment, two or more real cameras are prepared, and a combination for selecting two from the group of real cameras is made. If there are n actual cameras, there are n (n-1) / 2 combinations, so that combination is made.
以下、本実施例の奥行き情報取得方法を、図3のフローチャート用いて説明する。
(1)ステップ101
n(n≧2)台の実カメラCi(i=1,...,n)で、同一物体や風景を撮影し、撮影した画像を後述する奥行き情報取得装置に入力する。このとき、各カメラCi(i=1,...,n)において、コンピュータビジョンの分野で知られているカメラの内部に関するパラメタ(カメラ内部パラメタ)と、カメラの位置、姿勢に関するパラメタ(カメラ外部パラメタ)は既知とする。カメラ内部パラメタは、行列表記すると、下記(3)式で表される。
Hereinafter, the depth information acquisition method of the present embodiment will be described with reference to the flowchart of FIG.
(1)
The n (n ≧ 2) real cameras Ci (i = 1,..., n) photograph the same object or landscape, and input the photographed image to a depth information acquisition apparatus described later. At this time, in each camera Ci (i = 1,..., N), parameters relating to the inside of the camera (camera internal parameters) known in the field of computer vision and parameters relating to the position and orientation of the camera (external to the camera) Parameter) is assumed to be known. The camera internal parameter is expressed by the following equation (3) when expressed in a matrix.
(2)ステップ102
このステップでは、ユーザが自分の目を持っていきたい場所を決め、そこに仮想視点1003を設置する。
(3)ステップ103
このステップでは、仮想視点1003から見た視野中に複数の仮想面1012を層状に設置する。
(4)ステップ104
このステップでは、仮想視点1003から見た画像中の任意の画素に対応する、各仮想面1012の点を調査点1011とするとき、仮想面を1つ選び、選択した仮想面中の調査点1011に対応するn個のカメラのそれぞれで撮像した複数の画像上のそれぞれの対応点の座標を計算する。
このステップでは、仮想視点1003から見た視野内であって、ユーザが生成したい画像の範囲を表す仮想的な面を設置する。これは、仮想視点1003をレンズ中心としたレンズ1002を持つ仮想カメラ1001の撮像素子1004と見なすことができる。
次に、ユーザが見たい画像の精細度を決め、それを満足するように、仮想カメラ1001の撮像素子1004の面上の画素を配置する。
これにより、ユーザが見たい視点である仮想視点1003に設置した仮想カメラ1001のパラメタが決まる。
この仮想カメラ1001の内部/外部パラメタは、下記(5)式で表される。
(2)
In this step, a place where the user wants to take his / her eyes is determined, and a
(3)
In this step, a plurality of
(4)
In this step, when a point on each
In this step, a virtual plane that is within the field of view viewed from the
Next, the definition of the image the user wants to see is determined, and the pixels on the surface of the
Thereby, the parameters of the
The internal / external parameters of the
ここで、(5)式の内容は、前述の(3)式、(4)式と同様であるので、詳細な説明は省略する。
次に、仮想カメラ1001の撮像素子1004の任意の画素1006を1つ選択する。そして、仮想始点1003と画素1006とを通る直線である仮想視線1010と、各仮想面群1012の仮想面との交点を調査点1011とする。
次に、仮想平面群1012の中から仮想面を1つ選び、当該選択した仮想面中の調査点1011に対応するn個のカメラのそれぞれで撮像した複数の画像上のそれぞれの対応点の座標を計算する。
Here, since the content of the equation (5) is the same as the above-described equations (3) and (4), a detailed description thereof will be omitted.
Next, one
Next, one virtual plane is selected from the
視点位置入力手段2は、例えば、マウス、キーボード等の入力するデバイスである。
被写体画像取得手段12は、同一の物体や風景を撮影した画像を取得する手段であるが、あらかじめ撮影した画像を記録装置から読み出すことで取得することも可能である。なお、複数の視点位置から撮影した画像は、すべてのカメラ間の同期をとることにより同一時刻に撮影したものであることが望ましいが、同一の物体や風景の位置・姿勢の変化が十分に遅く、静止物と見なせる場合にはこの限りではない。
また、奥行き情報取得手段13は、対応点計算手段131と、相違度計算手段132と、類似度変換手段133と、統合類似度計算手段134と、奥行き情報出力手段135とで構成される。
対応点計算手段131は、図3のステップ104の処理を、n(≧2)個の全てのカメラに対して実行する。
相違度計算手段132は、図3のステップ105の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
類似度変換手段133は、図3のステップ106の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
統合類似度計算手段134は、図3のステップ108の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
奥行き情報出力手段135は、図3のステップ110と、ステップ111の処理を実行し、奥行き情報を出力する。
ここで、奥行き情報取得手段13は、ユーザが欲する全ての調査点に対する奥行き情報を取得する。即ち、対応点計算手段131と、相違度計算手段132と、類似度変換手段133と、統合類似度計算手段134と、奥行き情報出力手段135とは、ユーザが欲する全ての調査点に対して、前述の処理(図3のステップ111の処理)を実行する。
The viewpoint position input means 2 is an input device such as a mouse or a keyboard.
The subject
The depth
The corresponding
The dissimilarity calculation means 132 executes the process of
The
The integrated similarity calculation means 134 executes the processing of
The depth
Here, the depth information acquisition means 13 acquires depth information for all survey points desired by the user. That is, the corresponding
以上説明したように、本実施例によれば、従来の方法に比べて、基準カメラが実カメラでないため、ユーザが奥行き情報を取得したい仮想カメラの位置に実カメラを置く必要が無い。また、仮想カメラが実カメラでないため、自由に設定した仮想視点と光軸の奥行き情報を取得できる。
また、奥行きを選択するときの評価関数を、(n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組の類似度(0以上の類似度)+1)の積、または最大値としたため、オクルージョンの影響により類似度が低くなったペアの類似度はほぼ1となる。これにより、統合した類似度への影響は小さくなるため、オクルージョンの影響を受け難くなり、その結果、奥行き情報の精度を向上させることが可能となる。
さらに、相違度の計算において、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の各組ごとに計算しており、相違度の計算する際のカメラの選び方が最小単位となっていることから、オクルージョンを回避できた組の2個のカメラが得易くなるため、オクルージョンに対して耐性ができ、その結果、奥行き情報の精度を高くすることが可能となる。
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
As described above, according to the present embodiment, since the reference camera is not a real camera, it is not necessary for the user to place the real camera at the position of the virtual camera for which depth information is desired to be acquired, as compared with the conventional method. In addition, since the virtual camera is not a real camera, it is possible to acquire freely set virtual viewpoint and optical axis depth information.
In addition, the evaluation function for selecting the depth is expressed by (similarity of all the n (n−1) / 2 sets of selecting two cameras from n cameras (similarity of 0 or more). Since the product of +1) or the maximum value is used, the similarity of a pair whose similarity is low due to the influence of occlusion is approximately 1. Thereby, since the influence on the integrated similarity becomes small, it becomes difficult to be affected by the occlusion, and as a result, the accuracy of the depth information can be improved.
Further, in the calculation of the degree of difference, the calculation is performed for each group of n (n−1) / 2 sets for selecting two cameras from the n cameras. Since the method of selection is the smallest unit, it becomes easy to obtain a pair of cameras that can avoid occlusion, so that resistance to occlusion can be obtained, and as a result, accuracy of depth information can be increased. Become.
As mentioned above, the invention made by the present inventor has been specifically described based on the above embodiments. However, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Of course.
1 奥行き情報取得装置
2 視点位置入力手段
3 被写体撮影手段
11 仮想面・仮想視点決定手段
12 カメラ画像取得手段
13 奥行き情報取得手段
131 対応点計算手段
132 相違度計算手段
133 類似度変換手段
134 統合類似度計算手段
135 奥行き情報出力手段
1001 仮想カメラ
1002 仮想カメラのレンズ、
1003 仮想カメラのレンズの中心(仮想視点)
1004 仮想カメラの撮像素子
1005 仮想カメラの撮像素子の原点
1006 調査点の仮想カメラの撮像素子上の結像点
1010 仮想カメラの視線
1011,2011 調査点
1012 仮想平面群
1101 実カメラ
1102 実カメラのレンズ
1103 実カメラのレンズのレンズ中心
1104 実カメラの撮像素子
1105 実カメラの撮像素子の原点
1106 調査点の実カメラの撮像素子上の結像点
1110 実カメラの視線
2001 基準カメラ
2002 基準カメラのレンズ、
2003 基準カメラのレンズの中心(仮想視点)
2004 基準カメラの撮像素子
2005 基準カメラの撮像素子の原点
2006 調査点の基準カメラの撮像素子上の結像点
2010 基準カメラの視線
5106 仮想平面と仮想視線の交点の結像点
5111 仮想平面と仮想視線の交点の結像点を中心とする撮像素子の画素と同じ大きさの四角形
5112 仮想平面と仮想視線の交点の結像点の近傍の撮像素子上の画素群
DESCRIPTION OF SYMBOLS 1 Depth information acquisition apparatus 2 Viewpoint position input means 3 Subject imaging means 11 Virtual surface / virtual viewpoint determination means 12 Camera image acquisition means 13 Depth information acquisition means 131 Corresponding point calculation means 132 Dissimilarity calculation means 133 Similarity degree conversion means 134 Integrated similarity Degree calculation means 135 Depth information output means 1001
1003 Virtual camera lens center (virtual viewpoint)
DESCRIPTION OF
2003 Reference camera lens center (virtual viewpoint)
2004 Image pickup element of
Claims (8)
前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力するステップ1と、
前記仮想視点を設定するステップ2と、
前記仮想視点から見た視野中に複数の仮想面を層状に設置するステップ3と、
前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算するステップ4と、
前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を計算するステップ5と、
前記ステップ5で計算した相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換するステップ6と、
前記ステップ5と、前記ステップ6とを前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行するステップ7と、
前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力するステップ8と、
前記すべての仮想面に対して、前記ステップ4ないしステップ8を実行するステップ9と、
前記仮想視点から、前記ステップ9で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とするステップ10とを有することを特徴とする奥行き情報取得方法。 A depth information acquisition method for acquiring depth information of an image viewed from a virtual viewpoint that is an arbitrary viewpoint using image information captured by n (n ≧ 2) cameras having different viewpoints,
Inputting an image obtained by photographing the same object or landscape using the n cameras;
Step 2 for setting the virtual viewpoint;
Installing a plurality of virtual planes in layers in the field of view viewed from the virtual viewpoint; and
When the point of each virtual surface corresponding to an arbitrary pixel in the image viewed from the virtual viewpoint is used as a survey point, the virtual surface is selected and the one corresponding to the survey point in the selected virtual surface is selected. calculating each corresponding point on each image captured by each of the n cameras;
Step 5 of selecting two cameras from the n cameras and calculating the difference between the corresponding points on the images captured by the two selected cameras.
Step 6 for converting the degree of difference calculated in Step 5 into a degree of similarity that becomes smaller as the degree of difference is larger and becomes 0 when the degree of difference is infinite;
Executing step 5 and step 6 for all sets of n (n-1) / 2 sets for selecting two cameras from the n cameras; and
Step 8 of integrating the similarities of all the n (n-1) / 2 sets, and outputting the integrated similarity;
Step 9 for executing steps 4 to 8 for all the virtual planes;
The distance from the virtual viewpoint to the virtual plane having the largest integrated similarity among the integrated similarities in each virtual plane obtained in step 9 is the depth of an arbitrary pixel in the image viewed from the virtual viewpoint. A depth information acquisition method comprising: step 10 for information.
前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力する手段1と、
前記仮想視点を設定する手段2と、
前記仮想視点から見た視野中に複数の仮想面を層状に設置する手段3と、
前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算する手段4と、
前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を、前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して計算する手段5と、
前記手段5で計算した前記n(n−1)/2組の全ての組の相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換する手段6と、
前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力する手段7と、
前記すべての仮想面に対して、前記手段4ないし手段7を実行する手段8と、
前記仮想視点から前記手段8で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とする手段9とを有することを特徴とする奥行き情報取得装置。 A depth information acquisition device that acquires depth information of an image viewed from a virtual viewpoint, which is an arbitrary viewpoint, using image information captured by n (n ≧ 2) cameras having different viewpoints,
Means 1 for inputting images obtained by photographing the same object or landscape using the n cameras;
Means 2 for setting the virtual viewpoint;
Means 3 for arranging a plurality of virtual surfaces in a layered manner in the visual field viewed from the virtual viewpoint;
When the point of each virtual surface corresponding to an arbitrary pixel in the image viewed from the virtual viewpoint is used as a survey point, the virtual surface is selected and the one corresponding to the survey point in the selected virtual surface is selected. means 4 for calculating corresponding points on each image captured by each of the n cameras;
Two cameras are selected from the n cameras, and the degree of difference between the corresponding points on the image captured by the selected two cameras is calculated from the two cameras. Means 5 for calculating for all pairs of n (n-1) / 2 pairs
Means for converting the dissimilarity of all the n (n-1) / 2 pairs calculated by the means 5 into a similarity that becomes smaller as the dissimilarity is larger and becomes 0 when the dissimilarity is infinite. 6 and
Means 7 for integrating the similarities of all the n (n-1) / 2 sets and outputting the integrated similarity;
Means 8 for executing said means 4 to means 7 for all said virtual surfaces;
Depth information of an arbitrary pixel in the image viewed from the virtual viewpoint, the distance from the virtual viewpoint to the virtual surface having the largest integrated similarity among the integrated similarities in each virtual surface obtained by the means 8 And a depth information acquiring apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008027831A JP5086120B2 (en) | 2008-02-07 | 2008-02-07 | Depth information acquisition method, depth information acquisition device, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008027831A JP5086120B2 (en) | 2008-02-07 | 2008-02-07 | Depth information acquisition method, depth information acquisition device, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009186369A true JP2009186369A (en) | 2009-08-20 |
JP5086120B2 JP5086120B2 (en) | 2012-11-28 |
Family
ID=41069754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008027831A Expired - Fee Related JP5086120B2 (en) | 2008-02-07 | 2008-02-07 | Depth information acquisition method, depth information acquisition device, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5086120B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013083505A (en) * | 2011-10-07 | 2013-05-09 | National Institute Of Information & Communication Technology | Three-dimensional coordinate position estimating device, method and program thereof, three-dimensional coordinate estimating system, and camera calibration informative generator |
WO2015178217A1 (en) * | 2014-05-21 | 2015-11-26 | ソニー株式会社 | Image processing apparatus and method |
KR20200072338A (en) * | 2018-12-12 | 2020-06-22 | 서울과학기술대학교 산학협력단 | Apparatus and method for composing video data |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06347220A (en) * | 1993-06-07 | 1994-12-20 | Sumitomo Electric Ind Ltd | Image monitoring device and its usage |
JPH11250252A (en) * | 1998-03-02 | 1999-09-17 | Tech Res & Dev Inst Of Japan Def Agency | Three-dimensional object recognizing device and method therefor |
WO1999058927A1 (en) * | 1998-05-08 | 1999-11-18 | Sony Corporation | Image generating device and method |
JP2000215311A (en) * | 1999-01-21 | 2000-08-04 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for generating virtual viewpoint image |
-
2008
- 2008-02-07 JP JP2008027831A patent/JP5086120B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06347220A (en) * | 1993-06-07 | 1994-12-20 | Sumitomo Electric Ind Ltd | Image monitoring device and its usage |
JPH11250252A (en) * | 1998-03-02 | 1999-09-17 | Tech Res & Dev Inst Of Japan Def Agency | Three-dimensional object recognizing device and method therefor |
WO1999058927A1 (en) * | 1998-05-08 | 1999-11-18 | Sony Corporation | Image generating device and method |
JP2000215311A (en) * | 1999-01-21 | 2000-08-04 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for generating virtual viewpoint image |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013083505A (en) * | 2011-10-07 | 2013-05-09 | National Institute Of Information & Communication Technology | Three-dimensional coordinate position estimating device, method and program thereof, three-dimensional coordinate estimating system, and camera calibration informative generator |
WO2015178217A1 (en) * | 2014-05-21 | 2015-11-26 | ソニー株式会社 | Image processing apparatus and method |
JPWO2015178217A1 (en) * | 2014-05-21 | 2017-04-20 | ソニー株式会社 | Image processing apparatus and method |
US10547822B2 (en) | 2014-05-21 | 2020-01-28 | Sony Corporation | Image processing apparatus and method to generate high-definition viewpoint interpolation image |
KR20200072338A (en) * | 2018-12-12 | 2020-06-22 | 서울과학기술대학교 산학협력단 | Apparatus and method for composing video data |
KR102129085B1 (en) | 2018-12-12 | 2020-07-01 | 서울과학기술대학교 산학협력단 | Apparatus and method for composing video data |
Also Published As
Publication number | Publication date |
---|---|
JP5086120B2 (en) | 2012-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6112824B2 (en) | Image processing method and apparatus, and program. | |
EP3101624B1 (en) | Image processing method and image processing device | |
US20150177062A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2019510311A (en) | Method and computer program product for calibrating a stereo imaging system using a planar mirror | |
JP2015035658A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
CN111373748A (en) | System and method for externally calibrating a camera and diffractive optical element | |
JP2012248001A (en) | Image processing apparatus, image processing method, and program | |
JP6304244B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
JP5886242B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6300346B2 (en) | IP stereoscopic image estimation apparatus and program thereof | |
JP2010079505A (en) | Image generating apparatus and program | |
JP5809607B2 (en) | Image processing apparatus, image processing method, and image processing program | |
TW201225658A (en) | Imaging device, image-processing device, image-processing method, and image-processing program | |
TW202014993A (en) | Information processing device, program, and information processing method | |
JP6552256B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP2022058658A (en) | Device and method for obtaining positioning error map indicating sharpness level of image | |
JP6234401B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6580761B1 (en) | Depth acquisition apparatus and method using polarization stereo camera | |
JP5086120B2 (en) | Depth information acquisition method, depth information acquisition device, program, and recording medium | |
KR20220121533A (en) | Method and device for restoring image obtained from array camera | |
JP6305232B2 (en) | Information processing apparatus, imaging apparatus, imaging system, information processing method, and program. | |
Georgopoulos | Photogrammetric automation: is it worth? | |
JP6602412B2 (en) | Information processing apparatus and method, information processing system, and program. | |
JP2015005200A (en) | Information processing apparatus, information processing system, information processing method, program, and memory medium | |
US11356632B2 (en) | Display-information generating apparatus, information processing apparatus, and imaging system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5086120 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150914 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |