JP2009193221A - Omnidirectional image generation method, program and recording medium - Google Patents

Omnidirectional image generation method, program and recording medium Download PDF

Info

Publication number
JP2009193221A
JP2009193221A JP2008031726A JP2008031726A JP2009193221A JP 2009193221 A JP2009193221 A JP 2009193221A JP 2008031726 A JP2008031726 A JP 2008031726A JP 2008031726 A JP2008031726 A JP 2008031726A JP 2009193221 A JP2009193221 A JP 2009193221A
Authority
JP
Japan
Prior art keywords
region
subject
existence probability
layer
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008031726A
Other languages
Japanese (ja)
Other versions
JP4825824B2 (en
Inventor
Ai Isogai
愛 磯貝
Yutaka Kunida
豊 國田
Masahiro Ueno
雅浩 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008031726A priority Critical patent/JP4825824B2/en
Publication of JP2009193221A publication Critical patent/JP2009193221A/en
Application granted granted Critical
Publication of JP4825824B2 publication Critical patent/JP4825824B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate a continuous omnidirectional image even from images wherein only partial areas overlap. <P>SOLUTION: A step for calculating presence probability of a photographic object at a point on each layer from similarity between corresponding points on the images corresponding to the point on each layer has steps: for performing division into an area wherein the presence probability of the photographic object can be obtained and an area wherein the presence probability of the photographic object cannot be obtained; for calculating the presence probability of the photographic object on each layer from the similarity between corresponding points on two or more images in the area wherein the presence probability of the photographic object can be obtained; for blending the presence probability of the photographic object in an area constant from a boundary with the area wherein the presence probability of the photographic object cannot be obtained in the area wherein the probability of the photographic object can be obtained; and for interpolating the presence probability of the photographic object on each layer of the area wherein the presence probability of the photographic object cannot be obtained base on the presence probability of the photographic object on each layer of the boundary with the area wherein the presence probability of the photographic object cannot be obtained in the area wherein the presence probability of the photographic object can be obtained. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、全方位画像生成方法、プログラムおよび記録媒体に係わり、特に、画像の一部が重なるように方向を変えて撮影した複数の画像を用いて、任意の視点を中心とした全方位画像を生成する技術に関する。   The present invention relates to an omnidirectional image generation method, a program, and a recording medium, and in particular, an omnidirectional image centered at an arbitrary viewpoint using a plurality of images shot in different directions so that parts of the images overlap. It relates to the technology to generate.

全方位画像を生成する方法の一つとして、三次元空間上の各点に被写体が存在する確率を推定し、その値に応じて色情報を重み付けすることによって画像を生成する方法が知られている。(下記、特許文献1参照)
以下、従来の全方位画像生成法について説明する。
図1は、従来の全方位画像生成法について、幾何学的な構成を示した図である。
図1において、101は全方位画像の中心、102はカメラのレンズ中心、103はカメラによって撮影した画像、104はレイヤ上の点に被写体が存在する確率を表す信頼度マップ、105はレイヤ上の点における色情報を表す色マップである。
図2は、従来の全方位画像生成方法を説明するためのフローチャートである。
全方位画像を生成するための処埋手順は、互いに重なる領域があるようにカメラの位置・姿勢を変更し複数の画像を取得するステップ1と、全方位画像を生成するために必要なレイヤの位置、数、形状を設定するステップ2と、レイヤ上の点に対応する各画像上の対応点との関係を求めるステップ3と、ステップ3で求めた対応点の類似度からレイヤ上の点における被写体の存在確率を計算するステップ4と、レイヤ上の点、それに対応する画像上の対応点、全方位画像の中心との位置関係に応じて、対応する画像上の対応点の画素値をブレンディングすることにより、レイヤ上の点の色情報を計算するステップ5と、ステップ4で求めた被写体の存在確率の割合で、ステップ5で求めた色情報をレンダリングした各レイヤの色情報を加算し、全方位画像として出力するステップ6とから構成される。
As one of the methods for generating an omnidirectional image, there is known a method for generating an image by estimating the probability that a subject exists at each point in a three-dimensional space and weighting color information according to the value. Yes. (See Patent Document 1 below)
Hereinafter, a conventional omnidirectional image generation method will be described.
FIG. 1 is a diagram showing a geometric configuration of a conventional omnidirectional image generation method.
In FIG. 1, 101 is the center of an omnidirectional image, 102 is the center of a camera lens, 103 is an image photographed by the camera, 104 is a reliability map indicating the probability that a subject exists at a point on the layer, and 105 is on the layer. It is a color map showing the color information in a point.
FIG. 2 is a flowchart for explaining a conventional omnidirectional image generation method.
The processing procedure for generating an omnidirectional image includes step 1 in which the position and orientation of the camera are changed so that there are overlapping areas, and a plurality of images are acquired. Step 2 for setting the position, number, and shape, Step 3 for determining the relationship between the corresponding points on each image corresponding to the points on the layer, and the points on the layer from the similarity of the corresponding points determined in Step 3 Step 4 of calculating the existence probability of the subject and blending the pixel values of the corresponding points on the corresponding image according to the positional relationship between the points on the layer, the corresponding points on the corresponding image, and the center of the omnidirectional image As a result, the color information of each layer in which the color information obtained in step 5 is rendered at the ratio of the existence probability of the subject obtained in step 5 and the step 5 in which the color information of the points on the layer is calculated is added. It consists Step 6 for output as the omnidirectional image.

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

なお、本願発明に関連する先行技術文献としては以下のものがある。
特開2007−257100公報
As prior art documents related to the invention of the present application, there are the following.
JP 2007-257100 A

しかしながら、前述の従来の技術では、カメラ画像を全方位画像に変換する際に、被写体の奥行き情報を利用して視点変換を行い、連続的な全方位画像としている。したがって、全方位画像を生成するためには、距離の情報が必ず必要となる。
このように、従来の技術では、レイヤ上の点に対応する2つのカメラ画像上の対応点がない場合、2つのカメラ画像上の対応点の類似度から被写体が存在する確率を求めることができないため、すべての点において被写体の存在権率を1としている。それらの点においては、被写体の奥行きについて考慮されていないため、奥行きのある被写体を摘影した複数の画像から連続的な全方位画像を生成することは困難である。
また、レイヤ上のすべての点で奥行き情報を求めようとした場合、被写体のすべての点を2枚以上の画像で撮影するよう、複数のカメラ、または、複数の画像が必要である。
本発明は、前記従来技術の間題点を解決するためになされたものであり、本発明の目的は、全方位画像生成法において、一部の領域しか重なっていない画像からでも、連続的な全方位画像を生成することが可能となる技術を提供することにあるる。
また、本発明の他の目的は、前述の全方位画像生成法をコンピュータに実行させるためのプログラムを提供することにある。
また、本発明の他の目的は、前述のプログラムが記録された記録媒体を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。
However, in the above-described conventional technology, when converting a camera image into an omnidirectional image, viewpoint conversion is performed using depth information of a subject to obtain a continuous omnidirectional image. Therefore, in order to generate an omnidirectional image, information on distance is indispensable.
As described above, in the conventional technique, when there is no corresponding point on the two camera images corresponding to the point on the layer, the probability that the subject exists cannot be obtained from the similarity of the corresponding point on the two camera images. Therefore, the existence right rate of the subject is set to 1 at all points. At these points, since the depth of the subject is not taken into consideration, it is difficult to generate a continuous omnidirectional image from a plurality of images obtained by extracting a subject having a depth.
Further, when the depth information is to be obtained at all points on the layer, a plurality of cameras or a plurality of images are required so that all the points of the subject are photographed with two or more images.
The present invention has been made in order to solve the above-described problems of the prior art, and the object of the present invention is to provide a continuous image generation method even in an omnidirectional image generation method, even from images that overlap only a part of regions. The object is to provide a technique capable of generating an omnidirectional image.
Another object of the present invention is to provide a program for causing a computer to execute the above-described omnidirectional image generation method.
Another object of the present invention is to provide a recording medium on which the aforementioned program is recorded.
The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記の通りである。
本発明は、内部パラメータが既知なカメラを用いて方向を変えて撮影し、かつ撮影時のカメラの位置・姿勢が既知な複数の画像から、任意の視点を中心とした全方位の画像を作成する全方位画像生成方法であって、画像の一部が重なるようにカメラの位置・姿勢を変更し複数の画像を取得するステップ1と、全方位画像を生成するために必要なレイヤの位置、数、形状を設定するステップ2と、各レイヤ上の点に対応する各画像上の対応点との関係を求めるステップ3と、ステップ3で求めた対応点の類似度から各レイヤ上の点における被写体の存在確率を計算するステップ4と、各レイヤ上の点、それに対応する各画像上の対応点、全方位画像の中心との位置関係に応じて、対応する各画像上の対応点の画素値をブレンディングすることにより、各レイヤ上の点の色情報を計算するステップ5と、ステップ4で求めた被写体の存在碓率の割合で、ステップ5で求めた色情報をレンダリングした各レイヤの色情報を加算し、全方位画像として出力するステップ6とを備え、前記ステップ4は、各レイヤ上の点に対応する画像上の対応点に基づき、前記被写体の存在確率を求めることができる領域と、前記被写体の存在確率を求めることができない領域に分割するステップ4−1と、前記被写体の存在確率を求めることができる領域において、各レイヤ上の点に対応する2つ以上の画像上の対応点の類似度から各レイヤ上の前記被写体の存在確率を計算するステップ4−2と、前記被写体の存在確率を求めることができる領域における前記被写体の存在確率を求めることができない領域との境界からの一定領域において、前記被写体の存在確率をブレンディングするステップ4−3と、前記被写体の存在確率を求めることができない領域において、前記被写体の存在確率を求めることができる領域における前記被写体の存在確率を求めることができない領域との境界の各レイヤ上の前記被写体の存在確率に基づき、複数のレイヤ上の被写体の存在確率を補間するステップ4−4とを有する。
Of the inventions disclosed in this application, the outline of typical ones will be briefly described as follows.
The present invention creates a omnidirectional image centered on an arbitrary viewpoint from a plurality of images that are shot in different directions using a camera whose internal parameters are known and whose camera position and orientation are known at the time of shooting. A method for generating an omnidirectional image, in which the camera position / orientation is changed so that a part of the image overlaps to acquire a plurality of images, and a layer position necessary for generating the omnidirectional image, Step 2 for setting the number and shape, Step 3 for obtaining the relationship between the corresponding points on each image corresponding to the points on each layer, and the points on each layer from the similarity of the corresponding points obtained in Step 3 Step 4 for calculating the existence probability of the subject, and the corresponding point pixel on each image according to the positional relationship between the point on each layer, the corresponding point on each image, and the center of the omnidirectional image To blend values In step 5 for calculating the color information of the points on each layer, the color information of each layer obtained by rendering the color information obtained in step 5 is added at the ratio of the presence rate of the subject obtained in step 4; Output as an omnidirectional image, and the step 4 includes a region where the existence probability of the subject can be obtained based on the corresponding points on the image corresponding to the points on each layer, and the presence of the subject In the step 4-1 where the probability cannot be obtained and the region in which the existence probability of the subject can be obtained, the similarity between the corresponding points on the two or more images corresponding to the points on each layer is calculated. Step 4-2 for calculating the existence probability of the subject on each layer, and a region where the existence probability of the subject cannot be obtained in an area where the existence probability of the subject can be obtained. Step 4-3 for blending the existence probability of the subject in a certain region from the boundary between the subject and the subject in the region where the existence probability of the subject can be obtained in the region where the existence probability of the subject cannot be obtained Step 4-4 for interpolating the existence probabilities of the subjects on the plurality of layers based on the existence probabilities of the subjects on each layer at the boundary with the region where the existence probability cannot be obtained.

また、本発明では、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2および第3領域とし、前記第1領域が前記2領域と前記第3領域との間に位置する場合に、前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤと、前記第3領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤとの間の中間位置のレイヤを選択するステップと、前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有する。
また、発明では、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2および第3領域とし、前記第1領域が前記2領域と前記第3領域との間に位置する場合に、前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤと、前記第3領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤとの間に位置するレイヤを順次連続的に選択するステップと、前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有する。
また、本発明では、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2および第3領域とし、前記第1領域が前記2領域と前記第3領域との間に位置する場合に、前記ステップ4−4は、前記第1領域の前記第2領域との境界の各レイヤの前記被写体の存在確率として、前記第2領域の前記第1領域との境界の各レイヤの前記被写体の存在確率を付与するステップと、前記第1領域の前記第3領域との境界の各レイヤの前記被写体の存在確率として、前記第3領域の前記第1領域との境界の各レイヤの前記被写体の存在確率を付与するステップと、前記第1領域における、前記第2領域との境界と前記第3領域との境界との間の各レイヤの前記被写体の存在確率として、前記第1領域の前記第2領域との境界の各レイヤの前記被写体の存在確率から、前記第1領域の前記第3領域との境界の各レイヤの前記被写体の存在確率まで連続的に変化させた存在確率を付与するステップとを有する。
In the present invention, the region where the subject existence probability cannot be obtained is defined as the first region, the region where the subject existence probability can be obtained is defined as the second region, and the first region is the second region. The step 4-4 determines that the subject exists at the boundary of the second area with the first area from among the plurality of layers of the first area. Selecting a layer at an intermediate position between a layer having the highest probability and a layer having the highest probability of existence of the subject at the boundary between the third region and the first region; and each layer of the first region The above-mentioned subject existence probability includes a step of assigning a presence probability of 1 to the selected layer and a presence probability of 0 to the other layers.
In the invention, the area where the existence probability of the subject cannot be obtained is the first area, the areas where the existence probability of the subject can be obtained are the second and third areas, and the first area is the second area. When located between the third region and the third region, the step 4-4 determines the existence probability of the subject at the boundary between the second region and the first region from among the plurality of layers of the first region. Sequentially selecting a layer located between a layer having the highest probability of existence of the subject at a boundary between the third region and the first region of the third region; and And a step of giving a presence probability of 1 to the selected layer and a presence probability of 0 to the other layers as the existence probability of the subject on each layer.
In the present invention, the region where the subject existence probability cannot be obtained is defined as the first region, the region where the subject existence probability can be obtained is defined as the second region, and the first region is the second region. And the third area, the step 4-4 determines the existence probability of the subject in each layer at the boundary between the first area and the second area as the second area. The step of providing the existence probability of the subject in each layer at the boundary with the first area, and the existence probability of the subject in each layer at the boundary with the third area in the first area, Assigning the existence probability of the subject in each layer at the boundary with the first region; and in each layer between the boundary with the second region and the boundary with the third region in the first region As the subject's existence probability, The subject is continuously changed from the existence probability of the subject in each layer at the boundary between the first region and the second region to the existence probability of the subject at each layer in the boundary between the first region and the third region. Providing existence probability.

また、本発明では、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2領域とし、前記第1領域が前記2領域の隣に位置する場合に、前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤを選択するステップと、 前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有する。
また、本発明では、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2領域とし、前記第1領域が前記2領域の隣に位置する場合に、前記ステップ4−4において、前記第1領域における各レイヤの前記被写体の存在確率として、前記第2領域の前記第1領域との境界における前記各レイヤの前記被写体の存在確率を付与する。
また、本発明は、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域における前記第1領域との境界から一定の領域を第4領域、それ以外の領域を第5領域とするとき、前記ステップ4−3は、前記第1領域の複数のレイヤの中から所定数のレイヤを、ブレンディングする前の前記被写体の存在確率の大きい順に選択する第1ステップと、前記第1領域の各レイヤ上の前記被写体の存在確率として、前記第1ステップで選択したレイヤのブレンディングする前の前記被写体の存在確率に基づき、前記第1ステップで選択したレイヤに対して新たな前記被写体の存在確率を付与するとともに、第1ステップで選択したレイヤ以外のレイヤに対して0の存在確率を付与する第2ステップとを有し、前記第1ステップにおいて、前記第4領域と前記第5領域との境界から前記第4領域の前記第1領域との境界に向けて順次選択するレイヤ数を減少させる。
また、本発明は、前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域における前記第1領域との境界から一定の領域を第4領域、それ以外の領域を第5領域とするとき、前記ステップ4−3において、前記第4領域における各レイヤの前記被写体の存在確率として、前記第4領域の前記第5領域との境界の存在確率から前記第4領域の前記第1領域との境界の存在確率まで連続的に変化させた存在確率を付与する。
また、本発明は、前述の全方位画像生成方法をコンピュータに実行させるためのプログラムである。
また、本発明は、前記のプログラムを記録したコンピュータ読み取り可能な記録媒体である。
In the present invention, the region where the subject existence probability cannot be obtained is defined as a first region, the region where the subject existence probability can be obtained is defined as a second region, and the first region is adjacent to the two regions. If it is, the step 4-4 selects a layer having the highest probability of existence of the subject at the boundary of the second region with the first region from the plurality of layers of the first region. And, as the existence probability of the subject on each layer of the first region, 1 is given to the selected layer, and 0 is given to the other layers.
In the present invention, the region where the subject existence probability cannot be obtained is defined as a first region, the region where the subject existence probability can be obtained is defined as a second region, and the first region is adjacent to the two regions. In the step 4-4, the existence probability of the subject in each layer at the boundary between the second region and the first region is set as the existence probability of the subject in each layer in the first region. Give.
In the present invention, a region where the existence probability of the subject cannot be obtained is a first region, and a certain region from a boundary with the first region in a region where the existence probability of the subject can be obtained is a fourth region, When the other area is the fifth area, the step 4-3 selects a predetermined number of layers from the plurality of layers of the first area in descending order of the existence probability of the subject before blending. The layer selected in the first step based on the existence probability of the subject before blending the layer selected in the first step as the existence probability of the subject on each layer of the first step and the first region The second step of assigning a new existence probability of the subject to the object and assigning an existence probability of 0 to a layer other than the layer selected in the first step. DOO has, in the first step, reducing the number of layers for sequentially selecting toward a boundary between the first region of the fourth region from the boundary between the fourth region and the fifth region.
In the present invention, a region where the existence probability of the subject cannot be obtained is a first region, and a certain region from a boundary with the first region in a region where the existence probability of the subject can be obtained is a fourth region, When the other region is the fifth region, in step 4-3, the existence probability of the subject of each layer in the fourth region is determined from the existence probability of the boundary of the fourth region with the fifth region. An existence probability that is continuously changed up to the existence probability of the boundary between the fourth area and the first area is given.
The present invention is also a program for causing a computer to execute the above-described omnidirectional image generation method.
The present invention is also a computer-readable recording medium on which the program is recorded.

本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
本発明の全方位画像生成法によれば、一部の領域しか重なっていない画像からでも、連続的な全方位画像を生成することが可能となる。
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.
According to the omnidirectional image generation method of the present invention, it is possible to generate a continuous omnidirectional image even from an image in which only a part of regions overlap.

以下、図面を参照して本発明の実施例を詳細に説明する。
なお、実施例を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
[実施例1]
本発明の実施例1の全方位画像の全体的な生成方法は、基本的に図2と同じである。
以下、図2を用いて、本実施例の全方位画像生成方法について説明する。
本実施例1では、図2に示すように、画像の一部が重なるようにカメラの位置・姿勢を変更し複数の画像を取得するステップ1と、全方位画像を生成するために必要なレイヤの位置、数、形状を設定するステップ2と、レイヤ上の点に対応する各画像上の対応点との関係を求めるステップ3と、ステップ3で求めた対応点の類似度からレイヤ上の点における被写体の存在確率を計算するステップ4と、レイヤ上の点、それに対応する画像上の対応点、全方位画像の中心との位置関係に応じて、対応する画像上の対応点の画素値をブレンディングすることにより、レイヤ上の点の色情報を計算するステップ5と、ステップ4で求めた被写体の存在確率の割合で、ステップ5で求めた色情報をレンダリングした各レイヤの色情報を加算し、全方位画像として出力するステップ6から構成される。
以下、各ステップにおける詳細な処理について述べる。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
In all the drawings for explaining the embodiments, parts having the same functions are given the same reference numerals, and repeated explanation thereof is omitted.
[Example 1]
The overall method for generating an omnidirectional image according to the first embodiment of the present invention is basically the same as that shown in FIG.
Hereinafter, the omnidirectional image generation method of the present embodiment will be described with reference to FIG.
In the first embodiment, as shown in FIG. 2, step 1 in which the position and orientation of the camera are changed so that a part of the images overlap to acquire a plurality of images, and layers necessary for generating an omnidirectional image Step 2 for setting the position, number, and shape of the image, Step 3 for determining the relationship between the corresponding points on each image corresponding to the points on the layer, and the points on the layer from the similarity of the corresponding points determined in Step The pixel value of the corresponding point on the corresponding image is calculated according to the positional relationship between the point on the layer, the corresponding point on the layer, the corresponding point on the image, and the center of the omnidirectional image. By blending, the color information of each layer in which the color information obtained in step 5 is added at the ratio of the existence probability of the subject obtained in step 5 and step 4 where the color information of the points on the layer is calculated is added. ,Every direction It consisted of the steps 6 and outputs it as an image.
Hereinafter, detailed processing in each step will be described.

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

(4−4)ステップ4−4
領域Vでは、レイヤ上の点に対応する対応点を有する画像が、1つしか存在しないため、対応点の類似度から被写体の存在確率を求めることができない。
そこで、領域Uk−1と領域Uとの境界での被写体の存在確率を用いて、領域Vの被写体の存在確率を補間する。
本実施例では、図8の手法1に示すように、領域Uk−1と領域Uとの境界において、最も被写体の存在確率が高いレイヤの中間に被写体が存在すると仮定する。そして、中間位置にあるレイヤ上のすべての点の存在確率を1、それ以外のレイヤ上の点の存在確率を0とする。
図8の手法1では、左端の境界(領域Uk−1の右端)では、手前から3番目のレイヤの存在確率(ここでは、1)が一番大きく、右端の境界(領域Uの左端)では、手前から6番目(一番奥から2番目)のレイヤの存在確率(ここでは、1)が一番大きい。
そして、中間位置にあるレイヤは、4番目と、5番目のレイヤとなるが、図8の手法1では、両端の存在確率の差が小さい4番目のレイヤ上のすべての点の存在確率を1、それ以外のレイヤ上の点の存在確率を0とする。なお、図8の手法1において、5番目のレイヤ上のすべての点の存在確率を1、それ以外のレイヤ上の点の存在確率を0としてもよい。
ただし、領域VとVは、領域Uの間に存在しない全方位画像の端の領域であるため、図9の手法1に示すように、境界において最も被写体の存在確率が高いレイヤ(ここでは、手前から3番目のレイヤ)に被写体が存在すると仮定し、そのレイヤ上のすべての点の被写体の存在確率を1、それ以外のレイヤ上の被写体の存在確率を0とする。
(4-4) Step 4-4
In the region V k , there is only one image having a corresponding point corresponding to a point on the layer. Therefore, the subject existence probability cannot be obtained from the similarity of the corresponding point.
Therefore, the existence probability of the subject in the region V k is interpolated using the existence probability of the subject at the boundary between the region U k−1 and the region U k .
In this embodiment, as shown in Method 1 in FIG. 8, it is assumed that the subject exists in the middle of the layer having the highest subject existence probability at the boundary between the region U k−1 and the region U k . The existence probability of all points on the layer at the intermediate position is set to 1, and the existence probability of points on the other layers is set to 0.
In the method 1 of FIG. 8, the existence probability (here, 1) of the third layer from the front is the largest at the left end boundary (the right end of the region U k-1 ), and the right end boundary (the left end of the region U k ), The existence probability (here, 1) of the sixth layer from the front (second from the back) is the largest.
The layers at the intermediate positions are the fourth and fifth layers. In Method 1 in FIG. 8, the existence probabilities of all points on the fourth layer with a small difference in the existence probabilities at both ends are set to 1. The existence probability of points on other layers is set to zero. In the method 1 of FIG. 8, the existence probability of all points on the fifth layer may be 1, and the existence probability of points on the other layers may be 0.
However, since the regions V 1 and V N are regions at the ends of the omnidirectional image that do not exist between the regions U k , as shown in the method 1 in FIG. Here, it is assumed that a subject exists in the third layer from the front), and the existence probabilities of subjects at all points on the layer are set to 1, and the existence probabilities of subjects on other layers are set to 0.

Figure 2009193221
Figure 2009193221

[実施例2]
本実施例2の全方位画像の全体的な生成方法は、実施例1で説明した方法と同様であるため、詳細な説明は省略する。
本実施例2の全方位画像生成において、実施例1と異なるのは、ステップ4のレイヤ上の点における被写体の存在確率を計算する方法である。
実施例1では、全方位画像の中心からレイヤに伸ばした直線において、レイヤ上のすべての点において対応する対応点を有する画像が2つ以上存在するときのみ、画像上の対応点の類似度から被写体の存在確率を求めている。そのため、直線上の一部の点で類似度が求められているにも関わらず、その値を利用していない。
そこで、本実施例2では、全方位画像の中心からレイヤに伸ばした直線において、レイヤ上の一部の点で得られた類似度も用いて、被写体の存在確率を補間する。
以下、実施例2におけるステップ4の処理について説明する。
[Example 2]
Since the overall method for generating an omnidirectional image according to the second embodiment is the same as the method described in the first embodiment, detailed description thereof is omitted.
The omnidirectional image generation of the second embodiment is different from the first embodiment in the method of calculating the existence probability of the subject at the point on the layer in step 4.
In the first embodiment, only when there are two or more images having corresponding points corresponding to all points on the layer in a straight line extending from the center of the omnidirectional image to the layer, the similarity between the corresponding points on the image is obtained. The existence probability of the subject is obtained. Therefore, although the degree of similarity is obtained at some points on the straight line, the value is not used.
Thus, in the second embodiment, the existence probability of the subject is interpolated using the similarity obtained at some points on the layer in the straight line extending from the center of the omnidirectional image to the layer.
Hereinafter, the process of step 4 in Example 2 is demonstrated.

(4)ステップ4
本実施例2において、ステップ4は、図5に示すように、全方位画像の中心からレイヤに向けて伸ばした直線上の点に対応する対応点を有する画像数に応じて領域を分割するステップ4−1と、直線上のすべての点において、対応点を有する画像が2つ以上存在する領域において、2つ以上の画像のそれぞれ対応点の類似度から被写体の存在確率を計算するステップ4−2と、直線上の一部の点において対応点を有する画像が2つ以上存在する領域において、2つ以上の画像のそれぞれ対応点の類似度から被写体の存在確率を計算するステップ4−3と、直線上の一部の点において対応点を有する画像が2つ以上存在する領域において、領域の境界を連続的につなげるためにブレンディング処理を行うステップ4−4と、直線上のすべての点において対応点を有する画像が1つしか存在しない領域において、境界で被写体が存在する確率が最も高いレイヤの中間位置に被写体が存在すると仮定し、被写体の存在確率を補間するステップ4−5とから構成される。
なお、図5は、本発明の実施例2の全方位画像生成方法の信頼度マップの計算方法の処理手順を示すフローチャートである。以下、各ステップの詳細な処理について述べる。
(4) Step 4
In the second embodiment, step 4 is a step of dividing the area according to the number of images having corresponding points corresponding to points on a straight line extending from the center of the omnidirectional image toward the layer as shown in FIG. 4-1 and in a region where two or more images having corresponding points exist at all points on the straight line, step 4 for calculating the existence probability of the subject from the similarity of the corresponding points of the two or more images 2 and step 4-3 for calculating the existence probability of the subject from the similarity of the corresponding points of the two or more images in an area where there are two or more images having corresponding points at some points on the straight line; In a region where there are two or more images having corresponding points at some points on the straight line, a step 4-4 for performing a blending process to continuously connect the boundaries of the regions, and all the points on the straight line Step 4-5 for interpolating the existence probability of a subject, assuming that the subject exists in the middle position of the layer where the probability that the subject exists at the boundary is highest in a region where only one image having a corresponding point exists. Consists of
FIG. 5 is a flowchart showing the processing procedure of the reliability map calculation method of the omnidirectional image generation method according to the second embodiment of the present invention. Hereinafter, detailed processing of each step will be described.

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

(4−5)ステップ4−5
領域Vでは、レイヤ上の点に対応する対応点を有する画像が1つしか存在しないため、対応点の類似度から被写体の存在確率を求めることができない。そこで、領域Wk−1と領域Wとの境界での被写体の存在確率を用いて、領域Vの被写体の存在確率を補間する。
本実施例では、図8の手法1に示すように、領域Wk−1と領域Wとの境界において、最も被写体の存在確率が高いレイヤの中間に被写体が存在するとする。そして、中間位置にあるレイヤ上のすべての点の存在確率を1、それ以外のレイヤ上の点の存在確率を0とする。
ただし、領域VとVは、領域Uの間に存在しない全方位画像の端の領域であるため、図9の手法1に示すように、境界において最も被写体の存在確率が高いレイヤ(ここでは、手前から3番目のレイヤ)に被写体が存在すると仮定し、そのレイヤ上のすべての点の被写体の存在確率を1、それ以外のレイヤ上の被写体の存在確率を0とする。
(4-5) Step 4-5
In the region V k , there is only one image having a corresponding point corresponding to a point on the layer. Therefore, the existence probability of the subject cannot be obtained from the similarity of the corresponding point. Therefore, the existence probability of the subject in the region V k is interpolated using the existence probability of the subject at the boundary between the region W k−1 and the region W k .
In this embodiment, as shown in Method 1 in FIG. 8, it is assumed that the subject exists in the middle of the layer having the highest subject existence probability at the boundary between the region W k−1 and the region W k . The existence probability of all points on the layer at the intermediate position is set to 1, and the existence probability of points on the other layers is set to 0.
However, since the regions V 1 and V N are regions at the ends of the omnidirectional image that do not exist between the regions U k , as shown in the method 1 in FIG. Here, it is assumed that a subject exists in the third layer from the front), and the existence probabilities of subjects at all points on the layer are set to 1, and the existence probabilities of subjects on other layers are set to 0.

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

Figure 2009193221
Figure 2009193221

なお、実施例1のステップ4−4、実施例2のステップ4−5での領域Vの被写体の存在確率の補間方法は、実施例4の手法を用いることも可能である。
以上説明したように、本実施例によれば、被写体の一部の領域が重なるように撮影した複数のカメラ画像から、奥行き情報を推定することができない領域において、周囲の奥行き情報を推定可能な領域から奥行き情報を補間することにより、連続的な全方位画像を生成することが可能となる。
また、複数のカメラで、被写体の一部の領域が重なるように撮影すればよいため、被写体のすべての点が、必ず2つ以上のカメラで重なるように撮影した場合と比較して、全方位画像を生成するために必要なカメラ台数、または、画像数を減少することができる。
なお、前述の全方位画像生成方法は、コンピュータに実行させることも可能であり、その場合に、全方位画像生成方法は、コンピュータ内のハードディスクなどに格納されるプログラムを、コンピュータが実行することにより行われる。このプログラムは、CD−ROM、あるいは、ネットワークを介したダウンロードにより供給される。
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
Note that steps 4-4 of Example 1, the interpolation method for the presence probability of an object region V k in Step 4-5 of Example 2, it is also possible to use the procedure of Example 4.
As described above, according to the present embodiment, surrounding depth information can be estimated in a region where depth information cannot be estimated from a plurality of camera images captured so that a part of the subject overlaps. By interpolating the depth information from the region, it is possible to generate a continuous omnidirectional image.
In addition, since it is only necessary to shoot with a plurality of cameras so that a part of the area of the subject overlaps, all points of the subject are always omnidirectional compared to a case where shooting is performed so that two or more cameras always overlap. The number of cameras or the number of images necessary for generating an image can be reduced.
The omnidirectional image generation method described above can also be executed by a computer. In that case, the omnidirectional image generation method can be executed by a computer executing a program stored in a hard disk or the like in the computer. Done. This program is supplied by downloading via a CD-ROM or a network.
As mentioned above, the invention made by the present inventor has been specifically described based on the above embodiments. However, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Of course.

従来の全方位画像生成法を説明するための模式図である。It is a schematic diagram for demonstrating the conventional omnidirectional image generation method. 本発明の実施例の全方位画像生成法と従来の全方位画像生成法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the omnidirectional image generation method of the Example of this invention, and the conventional omnidirectional image generation method. 本発明の実施例1の全方位画像生成方法の信頼度マップの計算方法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the calculation method of the reliability map of the omnidirectional image generation method of Example 1 of this invention. 図3のステップ4−1における、信頼度マップの領域分割を説明するための模式図である。It is a schematic diagram for demonstrating the area division | segmentation of the reliability map in step 4-1 of FIG. 本発明の実施例2の全方位画像生成方法の信頼度マップの計算方法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the calculation method of the reliability map of the omnidirectional image generation method of Example 2 of this invention. 図5のステップ4−1における、信頼度マップの領域分割を説明するための模式図である。FIG. 6 is a schematic diagram for explaining region division of a reliability map in step 4-1 in FIG. 5. 本発明の各実施例における、領域Uおよび領域Wでの被写体の存在確率のブレンディング方法を説明するための模式図である。In each example of the present invention, it is a schematic view for explaining a blending method of the existence probability of an object in the region U k and the region W k. 本発明の各実施例における、領域Vでの被写体の存在確率の補間方法を説明するための模式図である。It is a schematic diagram for demonstrating the interpolation method of the subject's existence probability in the area | region Vk in each Example of this invention. 本発明の各実施例における、領域VとVでの被写体の存在確率の補間方法を説明するための模式図である。In each example of the present invention, it is a schematic diagram for explaining an interpolation method of the existence probability of an object in the region V 1 and V n.

符号の説明Explanation of symbols

101 全方位画像の中心
102 カメラのレンズ中心
103 画像
104 信頼度マップ
105 色マップ
101 Center of Omnidirectional Image 102 Center of Camera Lens 103 Image 104 Reliability Map 105 Color Map

Claims (10)

内部パラメータが既知なカメラを用いて方向を変えて撮影し、かつ撮影時のカメラの位置・姿勢が既知な複数の画像から、任意の視点を中心とした全方位の画像を作成する全方位画像生成方法であって、
画像の一部が重なるようにカメラの位置・姿勢を変更し複数の画像を取得するステップ1と、
全方位画像を生成するために必要なレイヤの位置、数、形状を設定するステップ2と、
各レイヤ上の点に対応する各画像上の対応点との関係を求めるステップ3と、
ステップ3で求めた対応点の類似度から各レイヤ上の点における被写体の存在確率を計算するステップ4と、
各レイヤ上の点、それに対応する各画像上の対応点、全方位画像の中心との位置関係に応じて、対応する各画像上の対応点の画素値をブレンディングすることにより、各レイヤ上の点の色情報を計算するステップ5と、
ステップ4で求めた被写体の存在碓率の割合で、ステップ5で求めた色情報をレンダリングした各レイヤの色情報を加算し、全方位画像として出力するステップ6とを備え、
前記ステップ4は、各レイヤ上の点に対応する画像上の対応点に基づき、前記被写体の存在確率を求めることができる領域と、前記被写体の存在確率を求めることができない領域に分割するステップ4−1と、
前記被写体の存在確率を求めることができる領域において、各レイヤ上の点に対応する2つ以上の画像上の対応点の類似度から各レイヤ上の前記被写体の存在確率を計算するステップ4−2と、
前記被写体の存在確率を求めることができる領域における前記被写体の存在確率を求めることができない領域との境界からの一定領域において、前記被写体の存在確率をブレンディングするステップ4−3と、
前記被写体の存在確率を求めることができない領域において、前記被写体の存在確率を求めることができる領域における前記被写体の存在確率を求めることができない領域との境界の各レイヤ上の前記被写体の存在確率に基づき、複数のレイヤ上の被写体の存在確率を補間するステップ4−4とを有することを特徴とする全方位画像生成方法。
An omnidirectional image that creates an omnidirectional image centered on an arbitrary viewpoint from a plurality of images that have been shot with different internal parameters and the camera position and orientation at the time of shooting. A generation method,
Step 1 for obtaining a plurality of images by changing the position / orientation of the camera so that a part of the images overlaps;
Step 2 for setting the position, number, and shape of layers necessary for generating an omnidirectional image;
Step 3 for obtaining a relationship with a corresponding point on each image corresponding to a point on each layer;
Step 4 for calculating the existence probability of the subject at a point on each layer from the similarity of the corresponding points obtained in Step 3;
By blending the pixel value of the corresponding point on each image according to the positional relationship with the point on each layer, the corresponding point on each image, and the center of the omnidirectional image, Step 5 for calculating point color information;
Step 6 adds the color information of each layer obtained by rendering the color information obtained in Step 5 at the ratio of the subject presence rate obtained in Step 4 and outputs it as an omnidirectional image.
The step 4 is divided into a region where the existence probability of the subject can be obtained and a region where the existence probability of the subject cannot be obtained based on the corresponding points on the image corresponding to the points on each layer. -1,
Step 4-2 for calculating the existence probability of the subject on each layer from the similarity of corresponding points on two or more images corresponding to the points on each layer in the region where the existence probability of the subject can be obtained When,
Blending the existence probability of the subject in a certain area from the boundary with the area where the existence probability of the subject cannot be obtained in the area where the existence probability of the subject can be obtained; and
In the region where the existence probability of the subject cannot be obtained, the existence probability of the subject on each layer at the boundary with the region where the existence probability of the subject cannot be obtained in the region where the existence probability of the subject can be obtained. And a step 4-4 for interpolating the existence probabilities of subjects on a plurality of layers.
前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2および第3領域とし、前記第1領域が前記2領域と前記第3領域との間に位置する場合に、
前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤと、前記第3領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤとの間の中間位置のレイヤを選択するステップと、
前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有することを特徴とする請求項1に記載の全方位画像生成方法。
The area where the existence probability of the subject cannot be obtained is a first area, the areas where the existence probability of the subject can be obtained are second and third areas, and the first area is the second area and the third area. If it is located between
In the step 4-4, the layer having the highest probability of existence of the subject at the boundary between the second region and the first region among the plurality of layers of the first region; Selecting a layer at an intermediate position between the layer having the highest probability of existence of the subject at the boundary with one region;
Adding the existence probability of 1 to the selected layer and the existence probability of 0 to the other layers as the existence probability of the subject on each layer of the first region. The omnidirectional image generation method according to claim 1.
前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2および第3領域とし、前記第1領域が前記2領域と前記第3領域との間に位置する場合に、
前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤと、前記第3領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤとの間に位置するレイヤを順次連続的に選択するステップと、
前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有することを特徴とする請求項1に記載の全方位画像生成方法。
The area where the existence probability of the subject cannot be obtained is a first area, the areas where the existence probability of the subject can be obtained are second and third areas, and the first area is the second area and the third area. If it is located between
In the step 4-4, the layer having the highest probability of existence of the subject at the boundary between the second region and the first region among the plurality of layers of the first region; Sequentially and successively selecting layers positioned between the layer having the highest probability of existence of the subject at the boundary with one region;
Adding the existence probability of 1 to the selected layer and the existence probability of 0 to the other layers as the existence probability of the subject on each layer of the first region. The omnidirectional image generation method according to claim 1.
前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2および第3領域とし、前記第1領域が前記2領域と前記第3領域との間に位置する場合に、
前記ステップ4−4は、前記第1領域の前記第2領域との境界の各レイヤの前記被写体の存在確率として、前記第2領域の前記第1領域との境界の各レイヤの前記被写体の存在確率を付与するステップと、
前記第1領域の前記第3領域との境界の各レイヤの前記被写体の存在確率として、前記第3領域の前記第1領域との境界の各レイヤの前記被写体の存在確率を付与するステップと、
前記第1領域における、前記第2領域との境界と前記第3領域との境界との間の各レイヤの前記被写体の存在確率として、前記第1領域の前記第2領域との境界の各レイヤの前記被写体の存在確率から、前記第1領域の前記第3領域との境界の各レイヤの前記被写体の存在確率まで連続的に変化させた存在確率を付与するステップとを有することを特徴とする請求項1に記載の全方位画像生成方法。
The area where the existence probability of the subject cannot be obtained is a first area, the areas where the existence probability of the subject can be obtained are second and third areas, and the first area is the second area and the third area. If it is located between
In the step 4-4, the existence of the subject in each layer at the boundary between the first region and the first region is determined as the existence probability of the subject at each layer at the boundary between the first region and the second region. Assigning a probability;
Assigning the existence probability of the subject in each layer at the boundary between the first area and the first area as the existence probability of the subject at each layer at the boundary between the first area and the third area;
Each layer at the boundary between the first region and the second region as the probability of existence of the subject in each layer between the boundary between the second region and the boundary between the third region in the first region Providing the existence probability that is continuously changed from the existence probability of the subject to the existence probability of the subject in each layer at the boundary between the first area and the third area. The omnidirectional image generation method according to claim 1.
前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2領域とし、前記第1領域が前記2領域の隣に位置する場合に、
前記ステップ4−4は、前記第1領域の複数のレイヤの中から、前記第2領域の前記第1領域との境界における前記被写体の存在確率が最も高いレイヤを選択するステップと、
前記第1領域の各レイヤ上の前記被写体の存在確率として、前記選択したレイヤに対して1の存在確率を、それ以外のレイヤに対して0の存在確率を付与するステップとを有することを特徴とする請求項1に記載の全方位画像生成方法。
When the region where the existence probability of the subject cannot be obtained is the first region, the region where the existence probability of the subject can be obtained is the second region, and the first region is located next to the two regions,
The step 4-4 selecting a layer having the highest probability of existence of the subject at the boundary between the second region and the first region from the plurality of layers of the first region;
Adding the existence probability of 1 to the selected layer and the existence probability of 0 to the other layers as the existence probability of the subject on each layer of the first region. The omnidirectional image generation method according to claim 1.
前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域を第2領域とし、前記第1領域が前記2領域の隣に位置する場合に、
前記ステップ4−4において、前記第1領域における各レイヤの前記被写体の存在確率として、前記第2領域の前記第1領域との境界における前記各レイヤの前記被写体の存在確率を付与することを特徴とする請求項1に記載の全方位画像生成方法。
When the region where the existence probability of the subject cannot be obtained is the first region, the region where the existence probability of the subject can be obtained is the second region, and the first region is located next to the two regions,
In step 4-4, the existence probability of the subject of each layer at the boundary between the second region and the first region is given as the existence probability of the subject of each layer in the first region. The omnidirectional image generation method according to claim 1.
前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域における前記第1領域との境界から一定の領域を第4領域、それ以外の領域を第5領域とするとき、
前記ステップ4−3は、前記第1領域の複数のレイヤの中から所定数のレイヤを、ブレンディングする前の前記被写体の存在確率の大きい順に選択する第1ステップと、
前記第1領域の各レイヤ上の前記被写体の存在確率として、前記第1ステップで選択したレイヤのブレンディングする前の前記被写体の存在確率に基づき、前記第1ステップで選択したレイヤに対して新たな前記被写体の存在確率を付与するとともに、第1ステップで選択したレイヤ以外のレイヤに対して0の存在確率を付与する第2ステップとを有し、
前記第1ステップにおいて、前記第4領域と前記第5領域との境界から前記第4領域の前記第1領域との境界に向けて順次選択するレイヤ数を減少させることを特徴とする請求項1に記載の全方位画像生成方法。
The region where the existence probability of the subject cannot be obtained is the first region, the constant region from the boundary with the first region in the region where the existence probability of the subject can be obtained is the fourth region, and the other regions are the first region. When making 5 areas,
The step 4-3 selects a predetermined number of layers from the plurality of layers of the first region in descending order of the existence probability of the subject before blending;
The existence probability of the subject on each layer of the first region is a new probability for the layer selected in the first step based on the existence probability of the subject before blending of the layer selected in the first step. A second step of giving a presence probability of the subject and giving a zero existence probability to a layer other than the layer selected in the first step;
2. The number of layers sequentially selected from the boundary between the fourth area and the fifth area toward the boundary between the fourth area and the first area is decreased in the first step. The omnidirectional image generation method described in 1.
前記被写体の存在確率を求めることができない領域を第1領域、前記被写体の存在確率を求めることができる領域における前記第1領域との境界から一定の領域を第4領域、それ以外の領域を第5領域とするとき、
前記ステップ4−3において、前記第4領域における各レイヤの前記被写体の存在確率として、前記第4領域の前記第5領域との境界の存在確率から前記第4領域の前記第1領域との境界の存在確率まで連続的に変化させた存在確率を付与することを特徴とする請求項1に記載の全方位画像生成方法。
The region where the existence probability of the subject cannot be obtained is the first region, the constant region from the boundary with the first region in the region where the existence probability of the subject can be obtained is the fourth region, and the other regions are the first region. When making 5 areas,
In step 4-3, as the existence probability of the subject in each layer in the fourth area, the boundary between the fourth area and the first area is determined based on the existence probability of the boundary between the fourth area and the fifth area. The omnidirectional image generation method according to claim 1, wherein an existence probability that is continuously changed to an existence probability is assigned.
請求項1乃至請求項8いずれか1項に記載の全方位画像生成方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the omnidirectional image generation method according to any one of claims 1 to 8. 請求項9に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 9 is recorded.
JP2008031726A 2008-02-13 2008-02-13 Omnidirectional image generating apparatus, program, and recording medium Expired - Fee Related JP4825824B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008031726A JP4825824B2 (en) 2008-02-13 2008-02-13 Omnidirectional image generating apparatus, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008031726A JP4825824B2 (en) 2008-02-13 2008-02-13 Omnidirectional image generating apparatus, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2009193221A true JP2009193221A (en) 2009-08-27
JP4825824B2 JP4825824B2 (en) 2011-11-30

Family

ID=41075190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008031726A Expired - Fee Related JP4825824B2 (en) 2008-02-13 2008-02-13 Omnidirectional image generating apparatus, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4825824B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173858A (en) * 2011-02-18 2012-09-10 Nippon Telegr & Teleph Corp <Ntt> Omnidirectional image generation method, image generation device and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050110A (en) * 2001-08-07 2003-02-21 Minolta Co Ltd Three-dimensional shape data producing system and method, program and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050110A (en) * 2001-08-07 2003-02-21 Minolta Co Ltd Three-dimensional shape data producing system and method, program and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173858A (en) * 2011-02-18 2012-09-10 Nippon Telegr & Teleph Corp <Ntt> Omnidirectional image generation method, image generation device and program

Also Published As

Publication number Publication date
JP4825824B2 (en) 2011-11-30

Similar Documents

Publication Publication Date Title
JP5818514B2 (en) Image processing apparatus, image processing method, and program
JP5331816B2 (en) Image correction apparatus and image correction method
JP4658223B2 (en) Image generating method, apparatus, program thereof, and recording medium recording program
US8416989B2 (en) Image processing apparatus, image capture apparatus, image processing method, and program
JP2006244387A (en) Three-dimensional model generating device, and its method and program
EP2947868A1 (en) Method for creating panorama
KR101136506B1 (en) Image generation method, device, its program and recording medium stored with program
JP2020129276A (en) Image processing device, image processing method, and program
JP2005037378A (en) Depth measurement method and depth measurement device
JP2006245677A (en) Image processor, image processing method, and image processing program
KR101875532B1 (en) Apparatus and method for hierarchical stereo matching
JP6494402B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium
JP6057629B2 (en) Image processing apparatus, control method thereof, and control program
JP7312026B2 (en) Image processing device, image processing method and program
JP4825824B2 (en) Omnidirectional image generating apparatus, program, and recording medium
JP7136721B2 (en) Arithmetic device, parallax calculation method
JP6614824B2 (en) Image processing apparatus, image processing system, imaging apparatus, image processing method, and program
JP2011210160A (en) Image processing method, image processor, program and program storage medium
JP5478533B2 (en) Omnidirectional image generation method, image generation apparatus, and program
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP5629483B2 (en) Image processing method, image processing apparatus, and program
JP5614835B2 (en) Image layout setting method and apparatus
JP2011113527A (en) Image processing apparatus and method, and program
JP3934353B2 (en) Image processing apparatus, recording medium, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110912

R150 Certificate of patent or registration of utility model

Ref document number: 4825824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees