JP2009193221A - Omnidirectional image generation method, program and recording medium - Google Patents
Omnidirectional image generation method, program and recording medium Download PDFInfo
- Publication number
- JP2009193221A JP2009193221A JP2008031726A JP2008031726A JP2009193221A JP 2009193221 A JP2009193221 A JP 2009193221A JP 2008031726 A JP2008031726 A JP 2008031726A JP 2008031726 A JP2008031726 A JP 2008031726A JP 2009193221 A JP2009193221 A JP 2009193221A
- Authority
- JP
- Japan
- Prior art keywords
- region
- subject
- existence probability
- layer
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、全方位画像生成方法、プログラムおよび記録媒体に係わり、特に、画像の一部が重なるように方向を変えて撮影した複数の画像を用いて、任意の視点を中心とした全方位画像を生成する技術に関する。 The present invention relates to an omnidirectional image generation method, a program, and a recording medium, and in particular, an omnidirectional image centered at an arbitrary viewpoint using a plurality of images shot in different directions so that parts of the images overlap. It relates to the technology to generate.
全方位画像を生成する方法の一つとして、三次元空間上の各点に被写体が存在する確率を推定し、その値に応じて色情報を重み付けすることによって画像を生成する方法が知られている。(下記、特許文献1参照)
以下、従来の全方位画像生成法について説明する。
図1は、従来の全方位画像生成法について、幾何学的な構成を示した図である。
図1において、101は全方位画像の中心、102はカメラのレンズ中心、103はカメラによって撮影した画像、104はレイヤ上の点に被写体が存在する確率を表す信頼度マップ、105はレイヤ上の点における色情報を表す色マップである。
図2は、従来の全方位画像生成方法を説明するためのフローチャートである。
全方位画像を生成するための処埋手順は、互いに重なる領域があるようにカメラの位置・姿勢を変更し複数の画像を取得するステップ1と、全方位画像を生成するために必要なレイヤの位置、数、形状を設定するステップ2と、レイヤ上の点に対応する各画像上の対応点との関係を求めるステップ3と、ステップ3で求めた対応点の類似度からレイヤ上の点における被写体の存在確率を計算するステップ4と、レイヤ上の点、それに対応する画像上の対応点、全方位画像の中心との位置関係に応じて、対応する画像上の対応点の画素値をブレンディングすることにより、レイヤ上の点の色情報を計算するステップ5と、ステップ4で求めた被写体の存在確率の割合で、ステップ5で求めた色情報をレンダリングした各レイヤの色情報を加算し、全方位画像として出力するステップ6とから構成される。
As one of the methods for generating an omnidirectional image, there is known a method for generating an image by estimating the probability that a subject exists at each point in a three-dimensional space and weighting color information according to the value. Yes. (See
Hereinafter, a conventional omnidirectional image generation method will be described.
FIG. 1 is a diagram showing a geometric configuration of a conventional omnidirectional image generation method.
In FIG. 1, 101 is the center of an omnidirectional image, 102 is the center of a camera lens, 103 is an image photographed by the camera, 104 is a reliability map indicating the probability that a subject exists at a point on the layer, and 105 is on the layer. It is a color map showing the color information in a point.
FIG. 2 is a flowchart for explaining a conventional omnidirectional image generation method.
The processing procedure for generating an omnidirectional image includes
なお、本願発明に関連する先行技術文献としては以下のものがある。
しかしながら、前述の従来の技術では、カメラ画像を全方位画像に変換する際に、被写体の奥行き情報を利用して視点変換を行い、連続的な全方位画像としている。したがって、全方位画像を生成するためには、距離の情報が必ず必要となる。
このように、従来の技術では、レイヤ上の点に対応する2つのカメラ画像上の対応点がない場合、2つのカメラ画像上の対応点の類似度から被写体が存在する確率を求めることができないため、すべての点において被写体の存在権率を1としている。それらの点においては、被写体の奥行きについて考慮されていないため、奥行きのある被写体を摘影した複数の画像から連続的な全方位画像を生成することは困難である。
また、レイヤ上のすべての点で奥行き情報を求めようとした場合、被写体のすべての点を2枚以上の画像で撮影するよう、複数のカメラ、または、複数の画像が必要である。
本発明は、前記従来技術の間題点を解決するためになされたものであり、本発明の目的は、全方位画像生成法において、一部の領域しか重なっていない画像からでも、連続的な全方位画像を生成することが可能となる技術を提供することにあるる。
また、本発明の他の目的は、前述の全方位画像生成法をコンピュータに実行させるためのプログラムを提供することにある。
また、本発明の他の目的は、前述のプログラムが記録された記録媒体を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。
However, in the above-described conventional technology, when converting a camera image into an omnidirectional image, viewpoint conversion is performed using depth information of a subject to obtain a continuous omnidirectional image. Therefore, in order to generate an omnidirectional image, information on distance is indispensable.
As described above, in the conventional technique, when there is no corresponding point on the two camera images corresponding to the point on the layer, the probability that the subject exists cannot be obtained from the similarity of the corresponding point on the two camera images. Therefore, the existence right rate of the subject is set to 1 at all points. At these points, since the depth of the subject is not taken into consideration, it is difficult to generate a continuous omnidirectional image from a plurality of images obtained by extracting a subject having a depth.
Further, when the depth information is to be obtained at all points on the layer, a plurality of cameras or a plurality of images are required so that all the points of the subject are photographed with two or more images.
The present invention has been made in order to solve the above-described problems of the prior art, and the object of the present invention is to provide a continuous image generation method even in an omnidirectional image generation method, even from images that overlap only a part of regions. The object is to provide a technique capable of generating an omnidirectional image.
Another object of the present invention is to provide a program for causing a computer to execute the above-described omnidirectional image generation method.
Another object of the present invention is to provide a recording medium on which the aforementioned program is recorded.
The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記の通りである。
本発明は、内部パラメータが既知なカメラを用いて方向を変えて撮影し、かつ撮影時のカメラの位置・姿勢が既知な複数の画像から、任意の視点を中心とした全方位の画像を作成する全方位画像生成方法であって、画像の一部が重なるようにカメラの位置・姿勢を変更し複数の画像を取得するステップ1と、全方位画像を生成するために必要なレイヤの位置、数、形状を設定するステップ2と、各レイヤ上の点に対応する各画像上の対応点との関係を求めるステップ3と、ステップ3で求めた対応点の類似度から各レイヤ上の点における被写体の存在確率を計算するステップ4と、各レイヤ上の点、それに対応する各画像上の対応点、全方位画像の中心との位置関係に応じて、対応する各画像上の対応点の画素値をブレンディングすることにより、各レイヤ上の点の色情報を計算するステップ5と、ステップ4で求めた被写体の存在碓率の割合で、ステップ5で求めた色情報をレンダリングした各レイヤの色情報を加算し、全方位画像として出力するステップ6とを備え、前記ステップ4は、各レイヤ上の点に対応する画像上の対応点に基づき、前記被写体の存在確率を求めることができる領域と、前記被写体の存在確率を求めることができない領域に分割するステップ4−1と、前記被写体の存在確率を求めることができる領域において、各レイヤ上の点に対応する2つ以上の画像上の対応点の類似度から各レイヤ上の前記被写体の存在確率を計算するステップ4−2と、前記被写体の存在確率を求めることができる領域における前記被写体の存在確率を求めることができない領域との境界からの一定領域において、前記被写体の存在確率をブレンディングするステップ4−3と、前記被写体の存在確率を求めることができない領域において、前記被写体の存在確率を求めることができる領域における前記被写体の存在確率を求めることができない領域との境界の各レイヤ上の前記被写体の存在確率に基づき、複数のレイヤ上の被写体の存在確率を補間するステップ4−4とを有する。
Of the inventions disclosed in this application, the outline of typical ones will be briefly described as follows.
The present invention creates a omnidirectional image centered on an arbitrary viewpoint from a plurality of images that are shot in different directions using a camera whose internal parameters are known and whose camera position and orientation are known at the time of shooting. A method for generating an omnidirectional image, in which the camera position / orientation is changed so that a part of the image overlaps to acquire a plurality of images, and a layer position necessary for generating the omnidirectional image,
また、本発明では、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2および第3領域とし、前記第1領域が前記2領域と前記第3領域との間に位置する場合に、前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤと、前記第3領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤとの間の中間位置のレイヤを選択するステップと、前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有する。
また、発明では、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2および第3領域とし、前記第1領域が前記2領域と前記第3領域との間に位置する場合に、前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤと、前記第3領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤとの間に位置するレイヤを順次連続的に選択するステップと、前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有する。
また、本発明では、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2および第3領域とし、前記第1領域が前記2領域と前記第3領域との間に位置する場合に、前記ステップ4−4は、前記第1領域の前記第2領域との境界の各レイヤの前記被写体の存在確率として、前記第2領域の前記第1領域との境界の各レイヤの前記被写体の存在確率を付与するステップと、前記第1領域の前記第3領域との境界の各レイヤの前記被写体の存在確率として、前記第3領域の前記第1領域との境界の各レイヤの前記被写体の存在確率を付与するステップと、前記第1領域における、前記第2領域との境界と前記第3領域との境界との間の各レイヤの前記被写体の存在確率として、前記第1領域の前記第2領域との境界の各レイヤの前記被写体の存在確率から、前記第1領域の前記第3領域との境界の各レイヤの前記被写体の存在確率まで連続的に変化させた存在確率を付与するステップとを有する。
In the present invention, the region where the subject existence probability cannot be obtained is defined as the first region, the region where the subject existence probability can be obtained is defined as the second region, and the first region is the second region. The step 4-4 determines that the subject exists at the boundary of the second area with the first area from among the plurality of layers of the first area. Selecting a layer at an intermediate position between a layer having the highest probability and a layer having the highest probability of existence of the subject at the boundary between the third region and the first region; and each layer of the first region The above-mentioned subject existence probability includes a step of assigning a presence probability of 1 to the selected layer and a presence probability of 0 to the other layers.
In the invention, the area where the existence probability of the subject cannot be obtained is the first area, the areas where the existence probability of the subject can be obtained are the second and third areas, and the first area is the second area. When located between the third region and the third region, the step 4-4 determines the existence probability of the subject at the boundary between the second region and the first region from among the plurality of layers of the first region. Sequentially selecting a layer located between a layer having the highest probability of existence of the subject at a boundary between the third region and the first region of the third region; and And a step of giving a presence probability of 1 to the selected layer and a presence probability of 0 to the other layers as the existence probability of the subject on each layer.
In the present invention, the region where the subject existence probability cannot be obtained is defined as the first region, the region where the subject existence probability can be obtained is defined as the second region, and the first region is the second region. And the third area, the step 4-4 determines the existence probability of the subject in each layer at the boundary between the first area and the second area as the second area. The step of providing the existence probability of the subject in each layer at the boundary with the first area, and the existence probability of the subject in each layer at the boundary with the third area in the first area, Assigning the existence probability of the subject in each layer at the boundary with the first region; and in each layer between the boundary with the second region and the boundary with the third region in the first region As the subject's existence probability, The subject is continuously changed from the existence probability of the subject in each layer at the boundary between the first region and the second region to the existence probability of the subject at each layer in the boundary between the first region and the third region. Providing existence probability.
また、本発明では、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2領域とし、前記第1領域が前記2領域の隣に位置する場合に、前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤを選択するステップと、 前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有する。
また、本発明では、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2領域とし、前記第1領域が前記2領域の隣に位置する場合に、前記ステップ4−4において、前記第1領域における各レイヤの前記被写体の存在確率として、前記第2領域の前記第1領域との境界における前記各レイヤの前記被写体の存在確率を付与する。
また、本発明は、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域における前記第1領域との境界から一定の領域を第4領域、それ以外の領域を第5領域とするとき、前記ステップ4−3は、前記第1領域の複数のレイヤの中から所定数のレイヤを、ブレンディングする前の前記被写体の存在確率の大きい順に選択する第1ステップと、前記第1領域の各レイヤ上の前記被写体の存在確率として、前記第1ステップで選択したレイヤのブレンディングする前の前記被写体の存在確率に基づき、前記第1ステップで選択したレイヤに対して新たな前記被写体の存在確率を付与するとともに、第1ステップで選択したレイヤ以外のレイヤに対して0の存在確率を付与する第2ステップとを有し、前記第1ステップにおいて、前記第4領域と前記第5領域との境界から前記第4領域の前記第1領域との境界に向けて順次選択するレイヤ数を減少させる。
また、本発明は、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域における前記第1領域との境界から一定の領域を第4領域、それ以外の領域を第5領域とするとき、前記ステップ4−3において、前記第4領域における各レイヤの前記被写体の存在確率として、前記第4領域の前記第5領域との境界の存在確率から前記第4領域の前記第1領域との境界の存在確率まで連続的に変化させた存在確率を付与する。
また、本発明は、前述の全方位画像生成方法をコンピュータに実行させるためのプログラムである。
また、本発明は、前記のプログラムを記録したコンピュータ読み取り可能な記録媒体である。
In the present invention, the region where the subject existence probability cannot be obtained is defined as a first region, the region where the subject existence probability can be obtained is defined as a second region, and the first region is adjacent to the two regions. If it is, the step 4-4 selects a layer having the highest probability of existence of the subject at the boundary of the second region with the first region from the plurality of layers of the first region. And, as the existence probability of the subject on each layer of the first region, 1 is given to the selected layer, and 0 is given to the other layers.
In the present invention, the region where the subject existence probability cannot be obtained is defined as a first region, the region where the subject existence probability can be obtained is defined as a second region, and the first region is adjacent to the two regions. In the step 4-4, the existence probability of the subject in each layer at the boundary between the second region and the first region is set as the existence probability of the subject in each layer in the first region. Give.
In the present invention, a region where the existence probability of the subject cannot be obtained is a first region, and a certain region from a boundary with the first region in a region where the existence probability of the subject can be obtained is a fourth region, When the other area is the fifth area, the step 4-3 selects a predetermined number of layers from the plurality of layers of the first area in descending order of the existence probability of the subject before blending. The layer selected in the first step based on the existence probability of the subject before blending the layer selected in the first step as the existence probability of the subject on each layer of the first step and the first region The second step of assigning a new existence probability of the subject to the object and assigning an existence probability of 0 to a layer other than the layer selected in the first step. DOO has, in the first step, reducing the number of layers for sequentially selecting toward a boundary between the first region of the fourth region from the boundary between the fourth region and the fifth region.
In the present invention, a region where the existence probability of the subject cannot be obtained is a first region, and a certain region from a boundary with the first region in a region where the existence probability of the subject can be obtained is a fourth region, When the other region is the fifth region, in step 4-3, the existence probability of the subject of each layer in the fourth region is determined from the existence probability of the boundary of the fourth region with the fifth region. An existence probability that is continuously changed up to the existence probability of the boundary between the fourth area and the first area is given.
The present invention is also a program for causing a computer to execute the above-described omnidirectional image generation method.
The present invention is also a computer-readable recording medium on which the program is recorded.
本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
本発明の全方位画像生成法によれば、一部の領域しか重なっていない画像からでも、連続的な全方位画像を生成することが可能となる。
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.
According to the omnidirectional image generation method of the present invention, it is possible to generate a continuous omnidirectional image even from an image in which only a part of regions overlap.
以下、図面を参照して本発明の実施例を詳細に説明する。
なお、実施例を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
[実施例1]
本発明の実施例1の全方位画像の全体的な生成方法は、基本的に図2と同じである。
以下、図2を用いて、本実施例の全方位画像生成方法について説明する。
本実施例1では、図2に示すように、画像の一部が重なるようにカメラの位置・姿勢を変更し複数の画像を取得するステップ1と、全方位画像を生成するために必要なレイヤの位置、数、形状を設定するステップ2と、レイヤ上の点に対応する各画像上の対応点との関係を求めるステップ3と、ステップ3で求めた対応点の類似度からレイヤ上の点における被写体の存在確率を計算するステップ4と、レイヤ上の点、それに対応する画像上の対応点、全方位画像の中心との位置関係に応じて、対応する画像上の対応点の画素値をブレンディングすることにより、レイヤ上の点の色情報を計算するステップ5と、ステップ4で求めた被写体の存在確率の割合で、ステップ5で求めた色情報をレンダリングした各レイヤの色情報を加算し、全方位画像として出力するステップ6から構成される。
以下、各ステップにおける詳細な処理について述べる。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
In all the drawings for explaining the embodiments, parts having the same functions are given the same reference numerals, and repeated explanation thereof is omitted.
[Example 1]
The overall method for generating an omnidirectional image according to the first embodiment of the present invention is basically the same as that shown in FIG.
Hereinafter, the omnidirectional image generation method of the present embodiment will be described with reference to FIG.
In the first embodiment, as shown in FIG. 2,
Hereinafter, detailed processing in each step will be described.
(4−4)ステップ4−4
領域Vkでは、レイヤ上の点に対応する対応点を有する画像が、1つしか存在しないため、対応点の類似度から被写体の存在確率を求めることができない。
そこで、領域Uk−1と領域Ukとの境界での被写体の存在確率を用いて、領域Vkの被写体の存在確率を補間する。
本実施例では、図8の手法1に示すように、領域Uk−1と領域Ukとの境界において、最も被写体の存在確率が高いレイヤの中間に被写体が存在すると仮定する。そして、中間位置にあるレイヤ上のすべての点の存在確率を1、それ以外のレイヤ上の点の存在確率を0とする。
図8の手法1では、左端の境界(領域Uk−1の右端)では、手前から3番目のレイヤの存在確率(ここでは、1)が一番大きく、右端の境界(領域Ukの左端)では、手前から6番目(一番奥から2番目)のレイヤの存在確率(ここでは、1)が一番大きい。
そして、中間位置にあるレイヤは、4番目と、5番目のレイヤとなるが、図8の手法1では、両端の存在確率の差が小さい4番目のレイヤ上のすべての点の存在確率を1、それ以外のレイヤ上の点の存在確率を0とする。なお、図8の手法1において、5番目のレイヤ上のすべての点の存在確率を1、それ以外のレイヤ上の点の存在確率を0としてもよい。
ただし、領域V1とVNは、領域Ukの間に存在しない全方位画像の端の領域であるため、図9の手法1に示すように、境界において最も被写体の存在確率が高いレイヤ(ここでは、手前から3番目のレイヤ)に被写体が存在すると仮定し、そのレイヤ上のすべての点の被写体の存在確率を1、それ以外のレイヤ上の被写体の存在確率を0とする。
(4-4) Step 4-4
In the region V k , there is only one image having a corresponding point corresponding to a point on the layer. Therefore, the subject existence probability cannot be obtained from the similarity of the corresponding point.
Therefore, the existence probability of the subject in the region V k is interpolated using the existence probability of the subject at the boundary between the region U k−1 and the region U k .
In this embodiment, as shown in
In the
The layers at the intermediate positions are the fourth and fifth layers. In
However, since the regions V 1 and V N are regions at the ends of the omnidirectional image that do not exist between the regions U k , as shown in the
[実施例2]
本実施例2の全方位画像の全体的な生成方法は、実施例1で説明した方法と同様であるため、詳細な説明は省略する。
本実施例2の全方位画像生成において、実施例1と異なるのは、ステップ4のレイヤ上の点における被写体の存在確率を計算する方法である。
実施例1では、全方位画像の中心からレイヤに伸ばした直線において、レイヤ上のすべての点において対応する対応点を有する画像が2つ以上存在するときのみ、画像上の対応点の類似度から被写体の存在確率を求めている。そのため、直線上の一部の点で類似度が求められているにも関わらず、その値を利用していない。
そこで、本実施例2では、全方位画像の中心からレイヤに伸ばした直線において、レイヤ上の一部の点で得られた類似度も用いて、被写体の存在確率を補間する。
以下、実施例2におけるステップ4の処理について説明する。
[Example 2]
Since the overall method for generating an omnidirectional image according to the second embodiment is the same as the method described in the first embodiment, detailed description thereof is omitted.
The omnidirectional image generation of the second embodiment is different from the first embodiment in the method of calculating the existence probability of the subject at the point on the layer in
In the first embodiment, only when there are two or more images having corresponding points corresponding to all points on the layer in a straight line extending from the center of the omnidirectional image to the layer, the similarity between the corresponding points on the image is obtained. The existence probability of the subject is obtained. Therefore, although the degree of similarity is obtained at some points on the straight line, the value is not used.
Thus, in the second embodiment, the existence probability of the subject is interpolated using the similarity obtained at some points on the layer in the straight line extending from the center of the omnidirectional image to the layer.
Hereinafter, the process of
(4)ステップ4
本実施例2において、ステップ4は、図5に示すように、全方位画像の中心からレイヤに向けて伸ばした直線上の点に対応する対応点を有する画像数に応じて領域を分割するステップ4−1と、直線上のすべての点において、対応点を有する画像が2つ以上存在する領域において、2つ以上の画像のそれぞれ対応点の類似度から被写体の存在確率を計算するステップ4−2と、直線上の一部の点において対応点を有する画像が2つ以上存在する領域において、2つ以上の画像のそれぞれ対応点の類似度から被写体の存在確率を計算するステップ4−3と、直線上の一部の点において対応点を有する画像が2つ以上存在する領域において、領域の境界を連続的につなげるためにブレンディング処理を行うステップ4−4と、直線上のすべての点において対応点を有する画像が1つしか存在しない領域において、境界で被写体が存在する確率が最も高いレイヤの中間位置に被写体が存在すると仮定し、被写体の存在確率を補間するステップ4−5とから構成される。
なお、図5は、本発明の実施例2の全方位画像生成方法の信頼度マップの計算方法の処理手順を示すフローチャートである。以下、各ステップの詳細な処理について述べる。
(4)
In the second embodiment,
FIG. 5 is a flowchart showing the processing procedure of the reliability map calculation method of the omnidirectional image generation method according to the second embodiment of the present invention. Hereinafter, detailed processing of each step will be described.
(4−5)ステップ4−5
領域Vkでは、レイヤ上の点に対応する対応点を有する画像が1つしか存在しないため、対応点の類似度から被写体の存在確率を求めることができない。そこで、領域Wk−1と領域Wkとの境界での被写体の存在確率を用いて、領域Vkの被写体の存在確率を補間する。
本実施例では、図8の手法1に示すように、領域Wk−1と領域Wkとの境界において、最も被写体の存在確率が高いレイヤの中間に被写体が存在するとする。そして、中間位置にあるレイヤ上のすべての点の存在確率を1、それ以外のレイヤ上の点の存在確率を0とする。
ただし、領域V1とVNは、領域Ukの間に存在しない全方位画像の端の領域であるため、図9の手法1に示すように、境界において最も被写体の存在確率が高いレイヤ(ここでは、手前から3番目のレイヤ)に被写体が存在すると仮定し、そのレイヤ上のすべての点の被写体の存在確率を1、それ以外のレイヤ上の被写体の存在確率を0とする。
(4-5) Step 4-5
In the region V k , there is only one image having a corresponding point corresponding to a point on the layer. Therefore, the existence probability of the subject cannot be obtained from the similarity of the corresponding point. Therefore, the existence probability of the subject in the region V k is interpolated using the existence probability of the subject at the boundary between the region W k−1 and the region W k .
In this embodiment, as shown in
However, since the regions V 1 and V N are regions at the ends of the omnidirectional image that do not exist between the regions U k , as shown in the
なお、実施例1のステップ4−4、実施例2のステップ4−5での領域Vkの被写体の存在確率の補間方法は、実施例4の手法を用いることも可能である。
以上説明したように、本実施例によれば、被写体の一部の領域が重なるように撮影した複数のカメラ画像から、奥行き情報を推定することができない領域において、周囲の奥行き情報を推定可能な領域から奥行き情報を補間することにより、連続的な全方位画像を生成することが可能となる。
また、複数のカメラで、被写体の一部の領域が重なるように撮影すればよいため、被写体のすべての点が、必ず2つ以上のカメラで重なるように撮影した場合と比較して、全方位画像を生成するために必要なカメラ台数、または、画像数を減少することができる。
なお、前述の全方位画像生成方法は、コンピュータに実行させることも可能であり、その場合に、全方位画像生成方法は、コンピュータ内のハードディスクなどに格納されるプログラムを、コンピュータが実行することにより行われる。このプログラムは、CD−ROM、あるいは、ネットワークを介したダウンロードにより供給される。
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
Note that steps 4-4 of Example 1, the interpolation method for the presence probability of an object region V k in Step 4-5 of Example 2, it is also possible to use the procedure of Example 4.
As described above, according to the present embodiment, surrounding depth information can be estimated in a region where depth information cannot be estimated from a plurality of camera images captured so that a part of the subject overlaps. By interpolating the depth information from the region, it is possible to generate a continuous omnidirectional image.
In addition, since it is only necessary to shoot with a plurality of cameras so that a part of the area of the subject overlaps, all points of the subject are always omnidirectional compared to a case where shooting is performed so that two or more cameras always overlap. The number of cameras or the number of images necessary for generating an image can be reduced.
The omnidirectional image generation method described above can also be executed by a computer. In that case, the omnidirectional image generation method can be executed by a computer executing a program stored in a hard disk or the like in the computer. Done. This program is supplied by downloading via a CD-ROM or a network.
As mentioned above, the invention made by the present inventor has been specifically described based on the above embodiments. However, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Of course.
101 全方位画像の中心
102 カメラのレンズ中心
103 画像
104 信頼度マップ
105 色マップ
101 Center of Omnidirectional Image 102 Center of Camera Lens 103 Image 104 Reliability Map 105 Color Map
Claims (10)
画像の一部が重なるようにカメラの位置・姿勢を変更し複数の画像を取得するステップ1と、
全方位画像を生成するために必要なレイヤの位置、数、形状を設定するステップ2と、
各レイヤ上の点に対応する各画像上の対応点との関係を求めるステップ3と、
ステップ3で求めた対応点の類似度から各レイヤ上の点における被写体の存在確率を計算するステップ4と、
各レイヤ上の点、それに対応する各画像上の対応点、全方位画像の中心との位置関係に応じて、対応する各画像上の対応点の画素値をブレンディングすることにより、各レイヤ上の点の色情報を計算するステップ5と、
ステップ4で求めた被写体の存在碓率の割合で、ステップ5で求めた色情報をレンダリングした各レイヤの色情報を加算し、全方位画像として出力するステップ6とを備え、
前記ステップ4は、各レイヤ上の点に対応する画像上の対応点に基づき、前記被写体の存在確率を求めることができる領域と、前記被写体の存在確率を求めることができない領域に分割するステップ4−1と、
前記被写体の存在確率を求めることができる領域において、各レイヤ上の点に対応する2つ以上の画像上の対応点の類似度から各レイヤ上の前記被写体の存在確率を計算するステップ4−2と、
前記被写体の存在確率を求めることができる領域における前記被写体の存在確率を求めることができない領域との境界からの一定領域において、前記被写体の存在確率をブレンディングするステップ4−3と、
前記被写体の存在確率を求めることができない領域において、前記被写体の存在確率を求めることができる領域における前記被写体の存在確率を求めることができない領域との境界の各レイヤ上の前記被写体の存在確率に基づき、複数のレイヤ上の被写体の存在確率を補間するステップ4−4とを有することを特徴とする全方位画像生成方法。 An omnidirectional image that creates an omnidirectional image centered on an arbitrary viewpoint from a plurality of images that have been shot with different internal parameters and the camera position and orientation at the time of shooting. A generation method,
Step 1 for obtaining a plurality of images by changing the position / orientation of the camera so that a part of the images overlaps;
Step 2 for setting the position, number, and shape of layers necessary for generating an omnidirectional image;
Step 3 for obtaining a relationship with a corresponding point on each image corresponding to a point on each layer;
Step 4 for calculating the existence probability of the subject at a point on each layer from the similarity of the corresponding points obtained in Step 3;
By blending the pixel value of the corresponding point on each image according to the positional relationship with the point on each layer, the corresponding point on each image, and the center of the omnidirectional image, Step 5 for calculating point color information;
Step 6 adds the color information of each layer obtained by rendering the color information obtained in Step 5 at the ratio of the subject presence rate obtained in Step 4 and outputs it as an omnidirectional image.
The step 4 is divided into a region where the existence probability of the subject can be obtained and a region where the existence probability of the subject cannot be obtained based on the corresponding points on the image corresponding to the points on each layer. -1,
Step 4-2 for calculating the existence probability of the subject on each layer from the similarity of corresponding points on two or more images corresponding to the points on each layer in the region where the existence probability of the subject can be obtained When,
Blending the existence probability of the subject in a certain area from the boundary with the area where the existence probability of the subject cannot be obtained in the area where the existence probability of the subject can be obtained; and
In the region where the existence probability of the subject cannot be obtained, the existence probability of the subject on each layer at the boundary with the region where the existence probability of the subject cannot be obtained in the region where the existence probability of the subject can be obtained. And a step 4-4 for interpolating the existence probabilities of subjects on a plurality of layers.
前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤと、前記第3領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤとの間の中間位置のレイヤを選択するステップと、
前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有することを特徴とする請求項1に記載の全方位画像生成方法。 The area where the existence probability of the subject cannot be obtained is a first area, the areas where the existence probability of the subject can be obtained are second and third areas, and the first area is the second area and the third area. If it is located between
In the step 4-4, the layer having the highest probability of existence of the subject at the boundary between the second region and the first region among the plurality of layers of the first region; Selecting a layer at an intermediate position between the layer having the highest probability of existence of the subject at the boundary with one region;
Adding the existence probability of 1 to the selected layer and the existence probability of 0 to the other layers as the existence probability of the subject on each layer of the first region. The omnidirectional image generation method according to claim 1.
前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤと、前記第3領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤとの間に位置するレイヤを順次連続的に選択するステップと、
前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有することを特徴とする請求項1に記載の全方位画像生成方法。 The area where the existence probability of the subject cannot be obtained is a first area, the areas where the existence probability of the subject can be obtained are second and third areas, and the first area is the second area and the third area. If it is located between
In the step 4-4, the layer having the highest probability of existence of the subject at the boundary between the second region and the first region among the plurality of layers of the first region; Sequentially and successively selecting layers positioned between the layer having the highest probability of existence of the subject at the boundary with one region;
Adding the existence probability of 1 to the selected layer and the existence probability of 0 to the other layers as the existence probability of the subject on each layer of the first region. The omnidirectional image generation method according to claim 1.
前記ステップ4−4は、前記第1領域の前記第2領域との境界の各レイヤの前記被写体の存在確率として、前記第2領域の前記第1領域との境界の各レイヤの前記被写体の存在確率を付与するステップと、
前記第1領域の前記第3領域との境界の各レイヤの前記被写体の存在確率として、前記第3領域の前記第1領域との境界の各レイヤの前記被写体の存在確率を付与するステップと、
前記第1領域における、前記第2領域との境界と前記第3領域との境界との間の各レイヤの前記被写体の存在確率として、前記第1領域の前記第2領域との境界の各レイヤの前記被写体の存在確率から、前記第1領域の前記第3領域との境界の各レイヤの前記被写体の存在確率まで連続的に変化させた存在確率を付与するステップとを有することを特徴とする請求項1に記載の全方位画像生成方法。 The area where the existence probability of the subject cannot be obtained is a first area, the areas where the existence probability of the subject can be obtained are second and third areas, and the first area is the second area and the third area. If it is located between
In the step 4-4, the existence of the subject in each layer at the boundary between the first region and the first region is determined as the existence probability of the subject at each layer at the boundary between the first region and the second region. Assigning a probability;
Assigning the existence probability of the subject in each layer at the boundary between the first area and the first area as the existence probability of the subject at each layer at the boundary between the first area and the third area;
Each layer at the boundary between the first region and the second region as the probability of existence of the subject in each layer between the boundary between the second region and the boundary between the third region in the first region Providing the existence probability that is continuously changed from the existence probability of the subject to the existence probability of the subject in each layer at the boundary between the first area and the third area. The omnidirectional image generation method according to claim 1.
前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤを選択するステップと、
前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有することを特徴とする請求項1に記載の全方位画像生成方法。 When the region where the existence probability of the subject cannot be obtained is the first region, the region where the existence probability of the subject can be obtained is the second region, and the first region is located next to the two regions,
The step 4-4 selecting a layer having the highest probability of existence of the subject at the boundary between the second region and the first region from the plurality of layers of the first region;
Adding the existence probability of 1 to the selected layer and the existence probability of 0 to the other layers as the existence probability of the subject on each layer of the first region. The omnidirectional image generation method according to claim 1.
前記ステップ4−4において、前記第1領域における各レイヤの前記被写体の存在確率として、前記第2領域の前記第1領域との境界における前記各レイヤの前記被写体の存在確率を付与することを特徴とする請求項1に記載の全方位画像生成方法。 When the region where the existence probability of the subject cannot be obtained is the first region, the region where the existence probability of the subject can be obtained is the second region, and the first region is located next to the two regions,
In step 4-4, the existence probability of the subject of each layer at the boundary between the second region and the first region is given as the existence probability of the subject of each layer in the first region. The omnidirectional image generation method according to claim 1.
前記ステップ4−3は、前記第1領域の複数のレイヤの中から所定数のレイヤを、ブレンディングする前の前記被写体の存在確率の大きい順に選択する第1ステップと、
前記第1領域の各レイヤ上の前記被写体の存在確率として、前記第1ステップで選択したレイヤのブレンディングする前の前記被写体の存在確率に基づき、前記第1ステップで選択したレイヤに対して新たな前記被写体の存在確率を付与するとともに、第1ステップで選択したレイヤ以外のレイヤに対して0の存在確率を付与する第2ステップとを有し、
前記第1ステップにおいて、前記第4領域と前記第5領域との境界から前記第4領域の前記第1領域との境界に向けて順次選択するレイヤ数を減少させることを特徴とする請求項1に記載の全方位画像生成方法。 The region where the existence probability of the subject cannot be obtained is the first region, the constant region from the boundary with the first region in the region where the existence probability of the subject can be obtained is the fourth region, and the other regions are the first region. When making 5 areas,
The step 4-3 selects a predetermined number of layers from the plurality of layers of the first region in descending order of the existence probability of the subject before blending;
The existence probability of the subject on each layer of the first region is a new probability for the layer selected in the first step based on the existence probability of the subject before blending of the layer selected in the first step. A second step of giving a presence probability of the subject and giving a zero existence probability to a layer other than the layer selected in the first step;
2. The number of layers sequentially selected from the boundary between the fourth area and the fifth area toward the boundary between the fourth area and the first area is decreased in the first step. The omnidirectional image generation method described in 1.
前記ステップ4−3において、前記第4領域における各レイヤの前記被写体の存在確率として、前記第4領域の前記第5領域との境界の存在確率から前記第4領域の前記第1領域との境界の存在確率まで連続的に変化させた存在確率を付与することを特徴とする請求項1に記載の全方位画像生成方法。 The region where the existence probability of the subject cannot be obtained is the first region, the constant region from the boundary with the first region in the region where the existence probability of the subject can be obtained is the fourth region, and the other regions are the first region. When making 5 areas,
In step 4-3, as the existence probability of the subject in each layer in the fourth area, the boundary between the fourth area and the first area is determined based on the existence probability of the boundary between the fourth area and the fifth area. The omnidirectional image generation method according to claim 1, wherein an existence probability that is continuously changed to an existence probability is assigned.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008031726A JP4825824B2 (en) | 2008-02-13 | 2008-02-13 | Omnidirectional image generating apparatus, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008031726A JP4825824B2 (en) | 2008-02-13 | 2008-02-13 | Omnidirectional image generating apparatus, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009193221A true JP2009193221A (en) | 2009-08-27 |
JP4825824B2 JP4825824B2 (en) | 2011-11-30 |
Family
ID=41075190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008031726A Expired - Fee Related JP4825824B2 (en) | 2008-02-13 | 2008-02-13 | Omnidirectional image generating apparatus, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4825824B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012173858A (en) * | 2011-02-18 | 2012-09-10 | Nippon Telegr & Teleph Corp <Ntt> | Omnidirectional image generation method, image generation device and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003050110A (en) * | 2001-08-07 | 2003-02-21 | Minolta Co Ltd | Three-dimensional shape data producing system and method, program and recording medium |
-
2008
- 2008-02-13 JP JP2008031726A patent/JP4825824B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003050110A (en) * | 2001-08-07 | 2003-02-21 | Minolta Co Ltd | Three-dimensional shape data producing system and method, program and recording medium |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012173858A (en) * | 2011-02-18 | 2012-09-10 | Nippon Telegr & Teleph Corp <Ntt> | Omnidirectional image generation method, image generation device and program |
Also Published As
Publication number | Publication date |
---|---|
JP4825824B2 (en) | 2011-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5818514B2 (en) | Image processing apparatus, image processing method, and program | |
JP5331816B2 (en) | Image correction apparatus and image correction method | |
JP4658223B2 (en) | Image generating method, apparatus, program thereof, and recording medium recording program | |
US8416989B2 (en) | Image processing apparatus, image capture apparatus, image processing method, and program | |
JP2006244387A (en) | Three-dimensional model generating device, and its method and program | |
EP2947868A1 (en) | Method for creating panorama | |
KR101136506B1 (en) | Image generation method, device, its program and recording medium stored with program | |
JP2020129276A (en) | Image processing device, image processing method, and program | |
JP2005037378A (en) | Depth measurement method and depth measurement device | |
JP2006245677A (en) | Image processor, image processing method, and image processing program | |
KR101875532B1 (en) | Apparatus and method for hierarchical stereo matching | |
JP6494402B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6395429B2 (en) | Image processing apparatus, control method thereof, and storage medium | |
JP6057629B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP7312026B2 (en) | Image processing device, image processing method and program | |
JP4825824B2 (en) | Omnidirectional image generating apparatus, program, and recording medium | |
JP7136721B2 (en) | Arithmetic device, parallax calculation method | |
JP6614824B2 (en) | Image processing apparatus, image processing system, imaging apparatus, image processing method, and program | |
JP2011210160A (en) | Image processing method, image processor, program and program storage medium | |
JP5478533B2 (en) | Omnidirectional image generation method, image generation apparatus, and program | |
JP6320165B2 (en) | Image processing apparatus, control method therefor, and program | |
JP5629483B2 (en) | Image processing method, image processing apparatus, and program | |
JP5614835B2 (en) | Image layout setting method and apparatus | |
JP2011113527A (en) | Image processing apparatus and method, and program | |
JP3934353B2 (en) | Image processing apparatus, recording medium, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110906 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110912 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4825824 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140916 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |