JP4993355B2 - Occlusion processing method for free-viewpoint video generation with local region division - Google Patents

Occlusion processing method for free-viewpoint video generation with local region division Download PDF

Info

Publication number
JP4993355B2
JP4993355B2 JP2007088737A JP2007088737A JP4993355B2 JP 4993355 B2 JP4993355 B2 JP 4993355B2 JP 2007088737 A JP2007088737 A JP 2007088737A JP 2007088737 A JP2007088737 A JP 2007088737A JP 4993355 B2 JP4993355 B2 JP 4993355B2
Authority
JP
Japan
Prior art keywords
occlusion
local
processing method
image
local region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007088737A
Other languages
Japanese (ja)
Other versions
JP2008250477A (en
Inventor
彰夫 石川
茂之 酒澤
淳 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2007088737A priority Critical patent/JP4993355B2/en
Publication of JP2008250477A publication Critical patent/JP2008250477A/en
Application granted granted Critical
Publication of JP4993355B2 publication Critical patent/JP4993355B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Description

本発明は局所領域分割型自由視点映像生成におけるオクルージョン処理方式に関し、特に、被写体の表面が隣接する2個の局所領域の境界線上にある場合に、生成された自由視点映像の中に網目状の雑音が生じるのを防止するオクルージョン処理方式に関する。 The present invention relates to an occlusion processing method in local area division free viewpoint video generation, and in particular, when the surface of a subject is on the boundary line between two adjacent local areas, the generated free viewpoint video has a mesh shape. The present invention relates to an occlusion processing method for preventing noise.

近年、画像処理技術や画像通信技術の発達に伴い、次世代の画像コンテンツとして、3次元自由視点画像が注目されている。そこで、被写体の周囲にビデオカメラを配置して撮影した多視点画像を用いて全周囲自由視点画像を生成する技術が、研究、開発されている。   In recent years, with the development of image processing technology and image communication technology, three-dimensional free viewpoint images have attracted attention as next-generation image content. Therefore, a technique for generating an all-around free viewpoint image using a multi-viewpoint image captured by arranging a video camera around the subject has been researched and developed.

この場合、任意の視点に対応するように、被写体の周りにカメラを密に配置すると、カメラの台数が多くなり、高コストとなり、現実的ではない。そこで、カメラを、被写体の周りに疎に配置することが行われるが、このようにすると、ビデオカメラ間の画像が得られなくなる。   In this case, if cameras are densely arranged around the subject so as to correspond to an arbitrary viewpoint, the number of cameras increases, resulting in high costs, which is not practical. Therefore, the cameras are arranged sparsely around the subject, but if this is done, images between the video cameras cannot be obtained.

この不具合を解決するために、従来、カメラによって撮影されない視点からの画像を、イメージ・ベースド・レンダリングを用い、画像間の画像を補間することによって生成する方法が提案されている。   In order to solve this problem, conventionally, a method has been proposed in which an image from a viewpoint that is not photographed by a camera is generated by interpolating an image between images using image-based rendering.

多視点画像間の補間を行うイメージ・ベースド・レンダリングの代表的な方法として、「光線空間方式」があり、該光線空間方式を用いた補間画像の生成を説明する技術文献として、下記の特許文献1、2に示されているものがある。   As a typical image-based rendering method for performing interpolation between multi-viewpoint images, there is a “light space method”, and the following patent document is a technical document for explaining generation of an interpolated image using the light space method. There are those shown in 1 and 2.

しかしながら、被写体が被写体空間中に広範囲に分布していて、奥行きの違いによる視差(奥行き視差)が大きい場合には、前記従来技術によって奥行き視差を補正しようとすると、光線情報の補間処理が煩雑になり、実用的ではないという課題があった。   However, when the subject is distributed over a wide range in the subject space and the parallax due to the difference in depth (depth parallax) is large, the interpolation processing of the light ray information becomes complicated when trying to correct the depth parallax by the conventional technique. There was a problem that it was not practical.

そこで、本発明者等は、被写体空間を奥行き視差の無視できる小さな局所領域に分割し、それぞれの局所領域に対して個別にイメージ・ベースド・レンダリングの手法を適用して補間を行う発明をし、特許出願した(特願2006−185648号)。この出願発明によれば、被写体が被写体空間中の広範囲に分布していて奥行きの違いによる視差が大きい場合であっても、局所領域内の物体は、その局所領域の中心軸を通る平面で近似できるので光線情報の補間処理が容易になり、現実に近い被写体空間上の任意の視点の画像を生成することができるようになる。   Therefore, the present inventors divide the subject space into small local regions in which depth parallax can be ignored, and invent an invention that performs interpolation by applying an image-based rendering method to each local region individually, A patent application was filed (Japanese Patent Application No. 2006-185648). According to the present invention, even if the subject is distributed over a wide range in the subject space and the parallax due to the difference in depth is large, the object in the local region is approximated by a plane passing through the central axis of the local region. Therefore, the interpolation process of the ray information is facilitated, and an image of an arbitrary viewpoint on the subject space close to reality can be generated.

例えば、図8(a)のような実視点画像があった場合、これを多数の局所領域に分割する。そして、同図(b)のような1つの局所領域の人物に着目する。いま、この人物が、周囲に疎に配置された複数のビデオカメラで撮影されているとすると、それぞれのカメラで撮影された同図(c)のような画像が得られる。これらの画像を、例えばイメージ・ベースド・レンダリングを用いて処理すると、人物の例えば腰のラインの光線情報は同図(d)のようになり、該光線情報からなる光線空間を内挿補間すると同図(e)のように螺旋状になる。図示はされていないが、人物の頭から足先までの各部位の光線情報も前記図(d)のように得られ、該各部位の光線情報からなる光線空間を内挿補間すると同図(f)のようになる。この図(f)は、人物の例えば頭、肩、腿、足などの光線情報からなる光線空間を内挿補間した図である。そこで、任意の角度から見た画像を得るために、図(e)、(f)から該角度の光線情報を切り出して合成すると同図(g)の人物全体の任意視点画像が得られる。これを元の画像位置に戻せば同図(h)の仮想視点画像を生成することができる。
特開2004−258775号公報 特開平10−111951号公報
For example, when there is a real viewpoint image as shown in FIG. 8A, it is divided into a large number of local regions. Then, pay attention to a person in one local area as shown in FIG. Assuming that this person is photographed by a plurality of video cameras arranged sparsely around the person, an image as shown in FIG. 6C obtained by each camera is obtained. When these images are processed using, for example, image-based rendering, the ray information of a person's waist line, for example, becomes as shown in FIG. It becomes a spiral as shown in FIG. Although not shown, the ray information of each part from the person's head to the toe is also obtained as shown in Fig. (D), and the ray space composed of the ray information of each part is interpolated in the same figure ( It becomes like f). This figure (f) is the figure which interpolated the light space which consists of light information, such as a head, a shoulder, a thigh, a leg, etc. of a person. Therefore, in order to obtain an image viewed from an arbitrary angle, the ray information of the angle is cut out and synthesized from FIGS. (E) and (f) to obtain an arbitrary viewpoint image of the entire person in FIG. If this is returned to the original image position, the virtual viewpoint image of FIG.
JP 2004-258775 A JP-A-10-111951

上記の出願発明では、各局所領域の自由視点画像を統合する処理に際して、ユーザが選択した仮想視点の位置から見て遠い所にある局所領域から先に描画し、近い局所領域を後から上書き描画している。このため、図9に示されているように、カメラ位置から見て奥の局所領域60から描画された被写体50に、手前の局所領域61による被写体51のオクルージョン(occlusion;すなわち、隠蔽)が生ずる。このような通常のオクルージョンは、局所領域間のオクルージョン関係を求め、多視点画像毎にオクルージョン部分を求め、オクルージョン部分の光線情報を消去して光線情報の内挿補間をすることで、オクルージョン部分を正常な画像に復元できるので格別の問題は生じない。   In the above invention, in the process of integrating the free viewpoint images of each local area, the local area far from the virtual viewpoint position selected by the user is drawn first, and the near local area is overwritten later. is doing. For this reason, as shown in FIG. 9, occlusion of the subject 51 by the local region 61 in front is generated in the subject 50 drawn from the local region 60 in the back as viewed from the camera position. . In such normal occlusion, the occlusion relation between local regions is obtained, the occlusion part is obtained for each multi-viewpoint image, the ray information in the occlusion part is erased, and the interpolation of the ray information is performed, thereby removing the occlusion part Since it can be restored to a normal image, no particular problem occurs.

しかしながら、例えば図10に示されているように、被写体52の表面53が隣接する2個の局所領域62,63の境界線上にある場合には、仮想視点から見て奥の局所領域62から描画された被写体表面が、手前の局所領域63によるオクルージョンとみなされ、手前の局所領域63から描画された被写体表面で上書きされてしまう。つまり、被写体52が自分の被写体の一部53で隠されているという誤判断が生ずる。そうすると、それぞれの局所領域62,63から描画された被写体表面の間には、局所領域内の物体が平面で近似されている都合上、位置のズレがあるため、奥の局所領域62から描画された範囲よりも手前の局所領域63から描画された範囲の方が狭い場合、生成された自由視点映像の中に網目状の雑音が生じるという課題があった。   However, for example, as shown in FIG. 10, when the surface 53 of the subject 52 is on the boundary line between two adjacent local regions 62 and 63, drawing is performed from the local region 62 at the back as viewed from the virtual viewpoint. The subject surface thus formed is regarded as occlusion by the local region 63 in the foreground, and is overwritten with the surface of the subject drawn from the local region 63 in the foreground. That is, an erroneous determination that the subject 52 is hidden by a part 53 of the subject is generated. Then, there is a positional shift between the subject surfaces drawn from the local regions 62 and 63 because the object in the local region is approximated by a plane. When the range drawn from the local region 63 in front is smaller than the previous range, there is a problem that mesh-like noise is generated in the generated free viewpoint video.

本発明は、前記した従来技術の課題を解消するためになされたものであり、その目的は、被写体の表面が隣接する2個の局所領域の境界線上にある場合であっても、生成された自由視点画像に網目状の雑音が生じないようにする、または該雑音を軽減する局所領域分割型自由視点映像生成におけるオクルージョン処理方式を提供することにある。 The present invention has been made to solve the above-described problems of the prior art, and the object is to be generated even when the surface of the subject is on the boundary line between two adjacent local regions. An object of the present invention is to provide an occlusion processing method in local area division type free viewpoint video generation that prevents or reduces the mesh noise in a free viewpoint image.

前記した目的を達成するために、本発明は、被写体空間を奥行き視差の無視できる小さな局所領域に分割し、それぞれの局所領域に対して補間を行い自由視点映像を生成する局所領域分割型自由視点映像生成におけるオクルージョン処理方式であって、被写体空間を複数の局所領域に分割する際に、各局所領域が重なりを持たぬように配置し、それぞれの局所領域で自由視点画像を生成し、全体空間で合成するようにした点に特徴がある。 In order to achieve the above-described object, the present invention divides a subject space into small local regions where depth parallax can be ignored, and performs local region interpolation to generate a free-viewpoint video by interpolating each local region. This is an occlusion processing method for video generation. When the subject space is divided into a plurality of local areas, the local areas are arranged so as not to overlap each other, and free viewpoint images are generated in the respective local areas. It is characterized in that it is synthesized with.

また、被写体空間を複数の局所領域に分割し、それぞれの局所領域で自由視点からの画像を補間生成し、それらを合成する際に、オクルージョン領域の画像を単一の局所領域では生成できない場合のみ、別の局所領域の画像で上書きするようにした点に他の特徴がある。   Also, when the subject space is divided into a plurality of local areas, images from free viewpoints are interpolated in each local area, and when they are combined, an occlusion area image cannot be generated in a single local area Another feature is that the image is overwritten with an image of another local area.

本発明によれば、生成された自由視点映像の中に網目状の雑音が生じることが防がれ、高精度な自由視点映像を生成することが可能となる。   According to the present invention, it is possible to prevent mesh-like noise from being generated in the generated free viewpoint video, and to generate a highly accurate free viewpoint video.

以下に、図面を参照して、本発明を詳細に説明する。まず、本発明の前提となる局所領域分割による自由視点画像の生成方法について、その概略を説明する。なお、詳細は、前記出願発明(特願2006−185648号)に説明されている。   Hereinafter, the present invention will be described in detail with reference to the drawings. First, an outline of a method for generating a free viewpoint image by local region division, which is a premise of the present invention, will be described. Details are described in the invention of the present application (Japanese Patent Application No. 2006-185648).

図1は、前記局所領域分割による自由視点画像の生成方法で使用する被写体とビデオカメラ(以下、単にカメラと呼ぶ)との位置関係を示す概念図である。   FIG. 1 is a conceptual diagram showing a positional relationship between a subject and a video camera (hereinafter simply referred to as a camera) used in the method for generating a free viewpoint image by local region division.

図示されているように、撮影対象2である被写体を取り囲む被写体空間1の外周(例えば、円周、楕円、四角形などの多角形の外周上)に、光軸が水平な複数のカメラ3a、3b、3c、・・・、3nが疎の間隔で配置されている。この被写体2には、無視できない奥行き視差があるものとする。本発明は、該カメラ3a、3b、3c、・・・、3nで撮影した画像を合成して、カメラの置かれていない仮想視点(例えば、3X)から見た自由視点画像を得ようとするものである。   As shown in the drawing, a plurality of cameras 3a, 3b whose optical axes are horizontal on the outer periphery (for example, on the outer periphery of a polygon such as a circle, an ellipse, a quadrangle, etc.) of the subject space 1 surrounding the subject that is the subject 2 to be photographed. 3c,..., 3n are arranged at sparse intervals. It is assumed that the subject 2 has a depth parallax that cannot be ignored. The present invention combines images captured by the cameras 3a, 3b, 3c,..., 3n to obtain a free viewpoint image viewed from a virtual viewpoint (eg, 3X) where no camera is placed. Is.

次に、図2のブロック図を参照して、本発明の一実施形態の自由視点画像生成方法の概略を説明する。   Next, an outline of a free viewpoint image generation method according to an embodiment of the present invention will be described with reference to the block diagram of FIG.

ステップS1では、前記複数のカメラ3a、3b、3c、・・・、3nで多視点映像を撮影する。ステップS2では、該多視点画像からボクセルデータを取得する。なお、ボクセルは、3次元の空間を格子状に区切った1つ1つの区画を意味する。ステップS3では、被写体空間を局所領域に分割する。例えば、図3,図4に示されているように、撮影した舞台の全体を余すことなく覆うように、円筒状の局所領域4a、4b、4c、・・・、4n、5に分割する。ステップS4では、前記局所領域間のオクルージョン関係を求める。次いで、ステップS5では、多視点画像毎にオクルージョン部分を求める。   In step S1, multi-viewpoint images are taken by the plurality of cameras 3a, 3b, 3c,. In step S2, voxel data is acquired from the multi-viewpoint image. A voxel means a section obtained by dividing a three-dimensional space in a lattice pattern. In step S3, the subject space is divided into local regions. For example, as shown in FIG. 3 and FIG. 4, it is divided into cylindrical local regions 4 a, 4 b, 4 c,. In step S4, an occlusion relationship between the local regions is obtained. Next, in step S5, an occlusion portion is obtained for each multi-viewpoint image.

一方、ステップS6では、各局所領域において、光線空間に光線情報が格納される(図8(c)、(d)参照)。ステップS7では、ステップS5で求められたオクルージョン部分の光線情報を消去する。ステップS8では、光線情報の内挿補間および光線空間の充填を行う(図8(e)、(f)参照)。次いで、ステップS9に進み、光線空間から仮想視点の光線情報を切り出し、局所的な自由視点画像を生成する(図8(g)参照)。なお、前記仮想視点の位置情報は、ユーザによって与えられる。   On the other hand, in step S6, the light ray information is stored in the light ray space in each local region (see FIGS. 8C and 8D). In step S7, the ray information of the occlusion portion obtained in step S5 is deleted. In step S8, the interpolation of the ray information and the filling of the ray space are performed (see FIGS. 8E and 8F). Next, the process proceeds to step S9, where the ray information of the virtual viewpoint is cut out from the ray space, and a local free viewpoint image is generated (see FIG. 8 (g)). Note that the position information of the virtual viewpoint is given by the user.

ステップS10では、仮想視点から見て奥の局所領域の自由視点画像を手前の局所領域の自由視点画像で上書きする。ステップS11では、全体の自由視点画像を生成する。ステップS12では、前記の処理により得られた自由視点画像を出力する。なお、前記ステップS2,S3,S4,S5,S10,S11は、フレーム毎に繰り返し行われる処理であり、前記ステップS6,S7,S8,S9は局所領域毎に、光線空間を構築するために行われる処理である。また、細い線は、データのやり取りを表している。   In step S10, the free viewpoint image in the back local area as viewed from the virtual viewpoint is overwritten with the free viewpoint image in the local area in front. In step S11, the entire free viewpoint image is generated. In step S12, the free viewpoint image obtained by the above process is output. The steps S2, S3, S4, S5, S10, and S11 are processes repeatedly performed for each frame, and the steps S6, S7, S8, and S9 are performed for constructing a ray space for each local region. Process. Thin lines represent data exchange.

上記ステップS8〜S11の処理は、ステップS7でオクルージョン部分の光線情報を消去した光線情報についてなされているので、図9のような、カメラ位置から見て手前の局所領域61による被写体51により、奥の局所領域60から描画された被写体50が隠されるという、通常のオクルージョンは解消されるが、図10のように、被写体52の表面53が隣接する2個の局所領域62,63の境界線上にあり、仮想視点から見て奥の局所領域62から描画された被写体表面が、手前の局所領域63によるオクルージョンとみなされる場合、つまり、被写体52が自分の被写体の一部53で隠されているという誤判断が生じた場合には、生成された自由視点映像の中に色の違う網目状の雑音が生じるという問題が生じる。   The processes in steps S8 to S11 are performed on the ray information obtained by erasing the ray information of the occlusion portion in step S7. Therefore, as shown in FIG. The normal occlusion that the subject 50 drawn from the local region 60 is hidden is eliminated, but the surface 53 of the subject 52 is on the boundary line between two adjacent local regions 62 and 63 as shown in FIG. Yes, when the subject surface drawn from the local region 62 at the back as viewed from the virtual viewpoint is regarded as occlusion by the local region 63 in the foreground, that is, the subject 52 is hidden by a part 53 of the subject. When an erroneous determination occurs, there arises a problem that mesh-like noise of different colors occurs in the generated free viewpoint video.

そこで、該オクルージョンの問題に対処する第1の実施形態を以下に説明する。   Therefore, a first embodiment that addresses the occlusion problem will be described below.

本実施形態では、前記ステップS3の局所領域への分割の処理(図2参照)で、被写体空間を局所領域に分割する際に、図5に示すように、局所領域4a、4b、4c、・・・同士の間隔を空け、被写体の表面が局所領域の境界上に生じないようにする。ただし、撮影視点および仮想視点のいずれ(例えば、矢視のa、b等)から見ても、撮影画像または仮想視点から見た場合の画像(仮想画像)の全ての画素がいずれか1個以上の局所領域に射影されるように、局所領域の間隔と大きさを調整する。例えば、円筒形の局所領域をハニカム状に配置する場合は、円筒の半径が隣接する円筒の中心軸間の距離Rの√3/4(≒0.433)倍よりも大きく、1/2倍よりも小さければよい。   In the present embodiment, when the subject space is divided into local areas in the process of dividing into local areas in step S3 (see FIG. 2), as shown in FIG. 5, the local areas 4a, 4b, 4c,. .. Make sure that the surface of the subject does not appear on the boundary of the local area. However, when viewed from either the shooting viewpoint or the virtual viewpoint (for example, a, b, etc.), all the pixels of the image (virtual image) when viewed from the captured image or the virtual viewpoint are any one or more. The interval and the size of the local area are adjusted so that the local area is projected. For example, when the cylindrical local region is arranged in a honeycomb shape, the radius of the cylinder is larger than √3 / 4 (≈0.433) times the distance R between the central axes of adjacent cylinders, and more than 1/2 times. Small is enough.

上記のように局所領域を分割すれば、被写体52の表面は、図6に示すように、1つの局所領域4b内に収まり、他の局所領域4aとの境界上に位置することはなくなる。したがって、被写体52が自分の被写体の一部で隠されていると誤判断することがなくなる。つまり、仮想視点から見て奥の局所領域から描画された被写体表面が、手前の局所領域によるオクルージョンとみなされる心配は無くなる。   If the local area is divided as described above, the surface of the subject 52 is within one local area 4b as shown in FIG. 6, and is not positioned on the boundary with the other local area 4a. Therefore, it is not erroneously determined that the subject 52 is hidden by a part of the subject. That is, there is no concern that the subject surface drawn from the deep local area viewed from the virtual viewpoint is considered as occlusion by the local area in front.

上記のように局所領域を分割した後、図2のステップS4以下の処理を行うが、この処理の説明は省略する。なお、本実施形態では、局所領域の間隔と大きさを前記のように調整してあるため、被写体の表面が局所領域の隙間に存在する場合でも、その画素情報はいすれかの局所領域に射影されることになり、欠落することはない。   After the local region is divided as described above, the processing in step S4 and subsequent steps in FIG. 2 is performed, but description of this processing is omitted. In this embodiment, since the interval and size of the local area are adjusted as described above, even if the surface of the subject exists in the gap between the local areas, the pixel information is projected onto any of the local areas. Will not be missing.

次に、本発明の第2の実施形態を説明する。   Next, a second embodiment of the present invention will be described.

この実施形態では、まず、被写体空間中の被写体が存在する領域にのみ局所領域を設定する。例えば、1個々々の被写体に対して、その重心を通る鉛直線を中心軸とし、その被写体を内包する円筒型の局所領域を設定する。そのため、各局所領域において、それが内包する被写体の画素情報は、その局所領域に射影される。   In this embodiment, first, a local region is set only in a region where a subject exists in the subject space. For example, for each subject, a cylindrical local region including the subject is set with the vertical line passing through the center of gravity as the central axis. Therefore, in each local area, the pixel information of the subject included in the local area is projected onto the local area.

本実施形態によれば、被写体は円筒型の局所領域に内包されているから被写体52の表面は1つの局所領域内に収まり、局所領域の境界上に位置することはなくなる。   According to the present embodiment, since the subject is included in the cylindrical local region, the surface of the subject 52 is within one local region and is not positioned on the boundary of the local region.

次に、本発明の第3の実施形態を説明する。この実施形態では、被写体空間を複数の局所領域に分割し、それぞれの局所領域で自由視点からの画像を補間生成し、それらを合成する際に、オクルージョン領域の画像を単一の局所領域では生成できない場合のみ、別の局所領域の画像で上書きするようにする。   Next, a third embodiment of the present invention will be described. In this embodiment, the subject space is divided into a plurality of local regions, and an image from a free viewpoint is generated by interpolation in each local region, and an image of the occlusion region is generated in a single local region when they are combined. Only when it is not possible, overwrite the image with another local area.

まず、被写体空間を、隙間無く密着させて配置された局所領域に分割する。次に、各局所領域で実撮影画像の画素情報を処理する。局所領域は隙間無く密着させて配置されているため、その画素情報はいずれかの局所領域に射影される。   First, the subject space is divided into local areas arranged in close contact with each other without a gap. Next, pixel information of the actual captured image is processed in each local region. Since the local area is arranged in close contact with no gap, the pixel information is projected onto any of the local areas.

続いて、局所領域同士の位置関係から、各局所領域におけるオクルージョン部分を把握し、オクルージョンと判定された部分の画素情報を消去する。ただし、オクルージョン領域の画像を単一の局所領域で生成できるか判定し、生成できる場合はこれらの画素情報を消去しない。その上で、局所領域に射影された画素情報を内挿補間する。   Subsequently, the occlusion portion in each local region is grasped from the positional relationship between the local regions, and the pixel information of the portion determined to be occlusion is deleted. However, it is determined whether an image of the occlusion area can be generated in a single local area. If it can be generated, these pieces of pixel information are not erased. Then, the pixel information projected on the local area is interpolated.

この実施形態によれば、図10のような被写体52は、1つの局所領域62で生成できると判定されるから、被写体52の表面53はオクルージョンとみなされなくなり、前記ステップS7(図2参照)で該表面53は消去されなくなる。よって、従来技術の問題は解消される。   According to this embodiment, since it is determined that the subject 52 as shown in FIG. 10 can be generated in one local region 62, the surface 53 of the subject 52 is not regarded as occlusion, and the step S7 (see FIG. 2). Thus, the surface 53 is not erased. Therefore, the problems of the prior art are solved.

次に、本発明の第4の実施形態を説明する。   Next, a fourth embodiment of the present invention will be described.

この実施形態は、上記の第3の実施形態において、オクルージョン領域の画像が単一の局所領域で生成できない場合でも、予め定めた閾値を超える割合(例えば95%)の画素が生成できているか、もしくは、特定の1個の被写体の予め定めていた閾値を超える割合(例えば80%)の体積がその局所領域に属しているような場合には、図7に示されているように、その局所領域10に隣接する局所領域11〜16による上書き描画は行わないようにする。   In this embodiment, in the above third embodiment, even when an image of the occlusion area cannot be generated in a single local area, pixels with a ratio exceeding a predetermined threshold (for example, 95%) can be generated. Alternatively, when a volume of a specific subject that exceeds a predetermined threshold (for example, 80%) belongs to the local region, as shown in FIG. The overwriting by the local areas 11 to 16 adjacent to the area 10 is not performed.

この実施形態によれば、例えば図10の表面53は隣接する局所領域による上書き描画はなくなるので、該表面に網目状の雑音が生ずることはなくなる。   According to this embodiment, for example, the surface 53 in FIG. 10 is not overwritten by an adjacent local region, so that no mesh noise is generated on the surface.

なお、被写体空間内の物体と空間のうち、物体が占める面積の大きい局所領域から優先的に画像を補間生成するようにしてもよい。   It should be noted that an image may be preferentially generated by interpolation from a local area having a large area occupied by the object among objects and spaces in the subject space.

カメラが疎の間隔に配置された多視点映像の撮影現場の概念図である。It is a conceptual diagram of the shooting site of a multi-view video in which cameras are arranged at sparse intervals. 本発明が適用される自由視点画像生成方法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the free viewpoint image generation method to which this invention is applied. 被写体空間を局所領域に分割する一例の説明図である。It is explanatory drawing of an example which divides | segments to-be-photographed object space into a local area | region. 分割された局所領域を上から見た場合の図である。It is a figure at the time of seeing the divided | segmented local area | region from the top. 本発明の第1実施形態の局所領域分割の説明図である。It is explanatory drawing of the local region division | segmentation of 1st Embodiment of this invention. 被写体の表面が1つの局所領域内に収まり、他の局所領域との境界上に位置することがなくなることを説明する図である。It is a figure explaining the surface of a to-be-photographed object being settled in one local region, and not being located on the boundary with another local region. 本発明の第3、第4実施形態のオクルージョン処理の説明図である。It is explanatory drawing of the occlusion process of 3rd, 4th embodiment of this invention. 出願発明の自由視点画像生成方法の概略の説明図である。It is explanatory drawing of the outline of the free viewpoint image generation method of application invention. 局所領域分割におけるオクルージョンの発生を説明する図である。It is a figure explaining generation | occurrence | production of the occlusion in a local area | region division. 従来技術の課題を説明する図である。It is a figure explaining the subject of a prior art.

符号の説明Explanation of symbols

1・・・被写体空間、3a、3b、3c・・・ビデオカメラ、3X・・・仮想視点位置、4a、4b、4c、・・・、5、10〜16、60〜63・・・局所領域、50,51,52・・・被写体、53・・・表面。   DESCRIPTION OF SYMBOLS 1 ... Subject space, 3a, 3b, 3c ... Video camera, 3X ... Virtual viewpoint position, 4a, 4b, 4c, ..., 5, 10-16, 60-63 ... Local region , 50, 51, 52... Subject, 53.

Claims (7)

被写体空間を奥行き視差の無視できる小さな局所領域に分割し、それぞれの局所領域に対して補間を行い自由視点映像を生成する局所領域分割型自由視点映像生成におけるオクルージョン処理方式であって、
多視点映像を撮影する手段と、
被写体空間を各局所領域が重なりを持たぬように複数の局所領域に分割する手段と、
前記多視点映像毎にオクルージョン部分を求め、該オクルージョン部分を消去する手段と、
それぞれの局所領域で自由視点画像を生成する手段と
該自由視点画像を全体空間で合成する手段と、
を具備することを特徴とするオクルージョン処理方式
A occlusion processing method in a local region division type free viewpoint video generation dividing the object space into small local region negligible depth parallax to generate a free viewpoint video performs interpolation for each local region,
Means for shooting multi-viewpoint images;
Means for dividing the subject space into a plurality of local regions so that each local region does not overlap ;
Obtaining an occlusion part for each of the multi-viewpoint images, and erasing the occlusion part;
Means for generating a free viewpoint image in each local region;
Means for synthesizing the free viewpoint image in the whole space ;
An occlusion processing method characterized by comprising:
請求項1に記載のオクルージョン処理方式において、
実撮影画像上のすべての画素が、いずれか1個以上の局所領域に射影されるように、局所領域を配置することを特徴とするオクルージョン処理方式
In the occlusion processing method according to claim 1,
An occlusion processing system characterized in that local regions are arranged so that all pixels on an actual captured image are projected onto any one or more local regions.
請求項1に記載のオクルージョン処理方式において、
被写体の存在位置に合わせて、各局所領域を配置することを特徴とするオクルージョン処理方式
In the occlusion processing method according to claim 1,
An occlusion processing method characterized in that each local region is arranged in accordance with the position of the subject.
被写体空間を奥行き視差の無視できる小さな局所領域に分割し、それぞれの局所領域に対して補間を行い自由視点映像を生成する局所領域分割型自由視点映像生成におけるオクルージョン処理方式であって、
多視点映像を撮影する手段と、
被写体空間を隙間なく密着されて各局所領域が重なりを持たぬように複数の局所領域に分割する手段と、
前記多視点映像毎にオクルージョン部分を求め、該オクルージョン部分を消去する手段と、
それぞれの局所領域で自由視点からの画像を補間生成する手段と、
該補間生成された画像を合成する際に、オクルージョン領域の画像を単一の局所領域では生成できない場合のみ、別の局所領域の画像で上書きする手段と、
を具備することを特徴とするオクルージョン処理方式
A occlusion processing method in a local region division type free viewpoint video generation dividing the object space into small local region negligible depth parallax to generate a free viewpoint video performs interpolation for each local region,
Means for shooting multi-viewpoint images;
Means for dividing the subject space into a plurality of local areas so that the local areas are closely contacted and the local areas do not overlap ;
Obtaining an occlusion part for each of the multi-viewpoint images, and erasing the occlusion part;
Means for generating an interpolation image from a free viewpoint in each local region ;
Means for overwriting an image of an occlusion area with an image of another local area only when the image of the occlusion area cannot be generated in a single local area when the interpolated image is synthesized ;
An occlusion processing method characterized by comprising:
請求項4に記載のオクルージョン処理方式において、
仮想視点から見て、オクルージョンと判定された部分の面積の内で、他の部分の光線情報を用いて補間できている部分の面積の占める割合が、予め定めておいた閾値よりも大きい場合には、その局所領域に隣接する局所領域による上書き描画を行わないことを特徴とするオクルージョン処理方式
In the occlusion processing method according to claim 4,
When the ratio of the area of the part that is interpolated using the light ray information of the other part in the area of the part determined to be occlusion from the virtual viewpoint is larger than a predetermined threshold Is an occlusion processing method characterized by not performing overwriting by a local region adjacent to the local region.
請求項4に記載のオクルージョン処理方式において、
被写体空間内の物体と空間のうち、物体が占める面積の大きい局所領域から優先的に画像を補間生成することを特徴とするオクルージョン処理方式
In the occlusion processing method according to claim 4,
An occlusion processing method characterized in that an image is preferentially interpolated and generated from a local area having a large area occupied by an object among objects and spaces in the subject space.
請求項1ないし6のいずれかに記載のオクルージョン処理方式において、
各局所領域で光線空間を生成し、その上で自由視点画像を補間生成することを特徴とするオクルージョン処理方式
In the occlusion processing method according to any one of claims 1 to 6,
An occlusion processing method characterized by generating a ray space in each local region and interpolating and generating a free viewpoint image thereon.
JP2007088737A 2007-03-29 2007-03-29 Occlusion processing method for free-viewpoint video generation with local region division Active JP4993355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007088737A JP4993355B2 (en) 2007-03-29 2007-03-29 Occlusion processing method for free-viewpoint video generation with local region division

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007088737A JP4993355B2 (en) 2007-03-29 2007-03-29 Occlusion processing method for free-viewpoint video generation with local region division

Publications (2)

Publication Number Publication Date
JP2008250477A JP2008250477A (en) 2008-10-16
JP4993355B2 true JP4993355B2 (en) 2012-08-08

Family

ID=39975383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007088737A Active JP4993355B2 (en) 2007-03-29 2007-03-29 Occlusion processing method for free-viewpoint video generation with local region division

Country Status (1)

Country Link
JP (1) JP4993355B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5106378B2 (en) * 2008-12-26 2012-12-26 Kddi株式会社 Image processing apparatus, method, and program
KR102156402B1 (en) * 2013-11-05 2020-09-16 삼성전자주식회사 Method and apparatus for image processing

Also Published As

Publication number Publication date
JP2008250477A (en) 2008-10-16

Similar Documents

Publication Publication Date Title
CN111243071A (en) Texture rendering method, system, chip, device and medium for real-time three-dimensional human body reconstruction
JP4947593B2 (en) Apparatus and program for generating free viewpoint image by local region segmentation
US9013482B2 (en) Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium
US8270704B2 (en) Method and apparatus for reconstructing 3D shape model of object by using multi-view image information
CN103426163B (en) System and method for rendering affected pixels
JP6094863B2 (en) Image processing apparatus, image processing method, program, integrated circuit
US20100085423A1 (en) Stereoscopic imaging
JP3524147B2 (en) 3D image display device
JP2014056466A (en) Image processing device and method
CN109791704B (en) Texture rendering method, system and device based on multi-layer UV mapping for free-running FVV application
JP6683307B2 (en) Optimal spherical image acquisition method using multiple cameras
CN105488771B (en) Light field image edit methods and device
JP2010140097A (en) Method of creating image, method of authenticating image, image creation device, image authentication device, program, and recording medium
JP7479729B2 (en) Three-dimensional representation method and device
CN107480615A (en) U.S. face processing method, device and mobile device
CN115439616B (en) Heterogeneous object characterization method based on multi-object image alpha superposition
JP6128748B2 (en) Image processing apparatus and method
JP4993355B2 (en) Occlusion processing method for free-viewpoint video generation with local region division
CN113989434A (en) Human body three-dimensional reconstruction method and device
KR102358854B1 (en) Apparatus and method for color synthesis of face images
CN116503536B (en) Scene layering-based light field rendering method
CN106412562A (en) Method and system for displaying stereoscopic content in three-dimensional scene
KR20120118462A (en) Concave surface modeling in image-based visual hull
JP2022029239A (en) Image processing apparatus, image processing method, and program
Bielski et al. Order independent image compositing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120425

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120427

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4993355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150