JP5011168B2 - Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and computer-readable recording medium recording the program - Google Patents

Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and computer-readable recording medium recording the program Download PDF

Info

Publication number
JP5011168B2
JP5011168B2 JP2008052768A JP2008052768A JP5011168B2 JP 5011168 B2 JP5011168 B2 JP 5011168B2 JP 2008052768 A JP2008052768 A JP 2008052768A JP 2008052768 A JP2008052768 A JP 2008052768A JP 5011168 B2 JP5011168 B2 JP 5011168B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
image
subject
viewpoint image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008052768A
Other languages
Japanese (ja)
Other versions
JP2009211335A (en
Inventor
信哉 志水
英明 木全
一人 上倉
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008052768A priority Critical patent/JP5011168B2/en
Publication of JP2009211335A publication Critical patent/JP2009211335A/en
Application granted granted Critical
Publication of JP5011168B2 publication Critical patent/JP5011168B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new technology for generating a virtual viewpoint image with high subjective quality with a small amount of calculation when the virtual viewpoint image is generated seeing the subject from a different viewpoint from a camera when using an image for the subject photographed by the camera. <P>SOLUTION: In a case using a method for generating the virtual viewpoint image by the small amount of calculation using simple geometrical information which is the distance from cameras to the subject in a multiviewpoint image and with each element in the multiviewpoint image, when the virtual viewpoint image is generated by synthesizing sampled beam information by the multiviewpoint image, a boundary region in which a plurality of beam information with different distances from the cameras is mixed is determined. Then, the sampled beam in the boundary region among the sampled beams by the multiviewpoint image is treated as the beam with lower intensity than the beam sampled in other regions and the virtual viewpoint image is generated by carrying out its synthesis. <P>COPYRIGHT: (C)2009,JPO&amp;INPIT

Description

本発明は、カメラで撮影した被写体の画像を用いて、そのカメラとは異なる位置や向き(仮想視点)からその被写体を見たときの画像(仮想視点画像)を生成する仮想視点画像生成方法およびその装置と、その仮想視点画像生成方法の実現に用いられる仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。   The present invention relates to a virtual viewpoint image generation method for generating an image (virtual viewpoint image) when the subject is viewed from a position or orientation (virtual viewpoint) different from that of the camera using an image of the subject photographed by the camera, and The present invention relates to an apparatus, a virtual viewpoint image generation program used to realize the virtual viewpoint image generation method, and a computer-readable recording medium on which the program is recorded.

コンピュータグラフィックス(CG)やバーチャルリアリティ(VR)の分野では、カメラで撮影した画像に写っている物体(被写体)について、それらのカメラとは異なる位置や向きからその被写体を見たときの画像を生成する技術が盛んに研究されている。   In the field of computer graphics (CG) and virtual reality (VR), images of objects (subjects) appearing in images taken with cameras are viewed from different positions and orientations of those cameras. The technology to generate is actively researched.

以下では、生成する画像の位置や向きを仮想視点と称し、生成される画像を仮想視点画像と称する。この概念図を図6に示す。   Hereinafter, the position and orientation of the image to be generated are referred to as a virtual viewpoint, and the generated image is referred to as a virtual viewpoint image. This conceptual diagram is shown in FIG.

仮想視点画像を生成する方法には、大きく分けて幾何ベースと画像ベースの2種類がある。   There are two types of methods for generating a virtual viewpoint image: a geometric base and an image base.

典型的な幾何ベースの仮想視点画像生成法では、多視点画像と呼ばれる複数台のカメラにより撮影した画像から、ポリゴンやボクセルを用いて表現される被写体の幾何学的な三次元モデルを取得した後に、その三次元モデルに仮想視点のカメラに対応した射影変換を施すことで仮想視点画像を生成する(例えば非特許文献1参照)。   In a typical geometry-based virtual viewpoint image generation method, after obtaining a geometric three-dimensional model of a subject expressed using polygons and voxels from images taken by multiple cameras called multi-viewpoint images. The virtual viewpoint image is generated by performing projective transformation corresponding to the virtual viewpoint camera on the three-dimensional model (see, for example, Non-Patent Document 1).

この三次元モデルを取得して仮想視点画像を生成する方法は、三次元モデルから任意の仮想視点画像を生成する処理が非常に軽量であるという利点を持つが、その三次元モデルを高精度に取得するのが実環境では非常に困難であるという問題をもつ。また、1つの三次元モデルに変換されてしまうことで、多視点画像によって取得されていた視点による見え方の違いが失われ、生成される画像の品質が悪いという問題を持つ。   This method of acquiring a 3D model and generating a virtual viewpoint image has the advantage that the process of generating an arbitrary virtual viewpoint image from the 3D model is very lightweight, but the 3D model is highly accurate. It has a problem that it is very difficult to acquire in a real environment. In addition, since it is converted into one three-dimensional model, there is a problem that the difference in appearance depending on the viewpoint acquired by the multi-viewpoint image is lost, and the quality of the generated image is poor.

一方、画像ベースの仮想視点画像生成法は、イメージベースドレンダリングと呼ばれ、多視点画像をもとにして、明示的には被写体のモデルを求めずに、2次元画像処理を用いて仮想視点画像を生成する(例えば非特許文献2参照)。   On the other hand, the image-based virtual viewpoint image generation method is called image-based rendering, and based on the multi-viewpoint image, the virtual viewpoint image is obtained by using the two-dimensional image processing without explicitly obtaining the object model. Is generated (see, for example, Non-Patent Document 2).

理論的に述べれば、画像ベースの仮想視点画像生成法では、カメラを実空間における光線情報をサンプリングする装置であると考え、多視点画像として離散的に得られた光線情報から被写体の存在する空間の光線空間を構築し、その光線空間を仮想視点のカメラでサンプリングを行うことで仮想視点画像を生成する。   Theoretically speaking, in the image-based virtual viewpoint image generation method, the camera is considered to be a device that samples light information in real space, and the space where the subject exists from light information discretely obtained as a multi-viewpoint image. A virtual viewpoint image is generated by sampling the ray space with a virtual viewpoint camera.

画像ベースの仮想視点画像生成法を用いることで、きわめて高品質な画像を生成することができるのだが、要求される多視点画像の視点位置の密度が高く、非常に多くのカメラを用意する必要があるだけでなく、膨大なデータを処理する必要がある。この膨大なデータは処理時間だけでなく蓄積・伝送にも影響するため、リアルタイム処理・オフライン処理に関わらず大きな問題となる。   The image-based virtual viewpoint image generation method can be used to generate extremely high-quality images, but the required multi-viewpoint image has a high viewpoint position density and requires a large number of cameras. Not only is there a need to process huge amounts of data. This enormous amount of data affects not only the processing time but also storage / transmission, so it becomes a big problem regardless of real-time processing / offline processing.

そこで、被写体の三次元モデルではなく、多視点画像と多視点画像の各画素におけるカメラから被写体までの距離という簡易な幾何情報とを用いて仮想視点画像を生成する方法が提案されている(例えば非特許文献3参照)。   Therefore, a method of generating a virtual viewpoint image using a multi-view image and simple geometric information such as a distance from the camera to the subject in each pixel of the multi-view image instead of a three-dimensional model of the subject has been proposed (for example, Non-Patent Document 3).

具体的には、およそ被写体のある位置に多層平面を想定し、そこに上記距離情報を用いて、多視点画像の各画素にサンプリングされた光線情報を適切にマッピングした後、その多層平面から仮想視点のカメラによってサンプリングされる光線情報を推定することで仮想視点画像を生成する。   Specifically, a multilayer plane is assumed at a certain position of the subject, and the distance information is used to appropriately map the light ray information sampled to each pixel of the multi-viewpoint image, and then the virtual plane is virtualized from the multilayer plane. A virtual viewpoint image is generated by estimating light ray information sampled by the viewpoint camera.

この手法では、距離情報によって光源(被写体の位置)を知ることができるため、画像ベースの手法のように多数のカメラが必要となることがなく、また、多視点画像によってサンプリングされた情報を1つのモデルにまとめてしまうのではなくて、それぞれを特定の位置と向きから発せられた光線情報として取り扱うため、生成される仮想視点画像の品質が極端に悪いこともない。また、仮想視点のカメラによる多層平面における光線情報のサンプリング処理は、幾何ベースの手法と同様に、単純なレンダリング処理で実現可能なため、非常に高速に仮想視点画像を生成することができる。   In this method, since the light source (subject position) can be known from the distance information, a large number of cameras are not required unlike the image-based method, and information sampled from a multi-viewpoint image is 1 Instead of combining them into one model, each is handled as light ray information emitted from a specific position and orientation, so that the quality of the generated virtual viewpoint image is not extremely bad. Further, since the sampling process of the ray information in the multilayer plane by the virtual viewpoint camera can be realized by a simple rendering process as in the geometry-based method, the virtual viewpoint image can be generated at a very high speed.

一方、この手法では、多視点画像の1つの画素でサンプリングされた光線情報が被写体上のある点から生じていると仮定している。   On the other hand, in this method, it is assumed that light ray information sampled by one pixel of the multi-viewpoint image is generated from a certain point on the subject.

しかしながら、現実のカメラでは、1つの画素には実空間上のある領域を通過する光線が取得されている。そのため、被写体の境界部分では、異なる被写体から生じた複数の光線が1つの画素でサンプリングされている場合がある。   However, in an actual camera, a light beam passing through a certain area in real space is acquired for one pixel. For this reason, in some cases, a plurality of light rays generated from different subjects are sampled by one pixel at the boundary portion of the subject.

各画素でサンプリングされた光線は1つの距離を用いて多層平面上にマッピングされるため、この混ざり合った光線に対して、前景の被写体の距離を用いてマッピングを行えば、混ざりあった光線のうち背景の被写体の光線が誤った位置にマッピングされることになり、逆に、背景の被写体の距離を用いてマッピングを行えば、混ざりあった光線のうち前景の被写体の光線が誤った位置にマッピングされることになる。   Since the light sampled at each pixel is mapped on the multilayer plane using one distance, if the mapping is performed using the distance of the foreground object to this mixed light, the mixed light Of course, the rays of the subject in the background will be mapped to the wrong position, and conversely, if the mapping is performed using the distance of the subject of the background, the rays of the foreground subject out of the mixed rays will be in the wrong position. Will be mapped.

このズレは生成される仮想視点画像にゴーストのようなノイズを発生させ、仮想視点画像の主観品質を著しく低下させてしまう。   This deviation causes noise such as a ghost in the generated virtual viewpoint image, and significantly reduces the subjective quality of the virtual viewpoint image.

この問題を解決するために、下記の非特許文献4では、1つの画素でサンプリングされた光線に対して前景と背景の距離と光線とを求めて分離して、別々に多層平面にマッピングする方法が取られている。
P.E.Debevec, C.J.Taylor, and J.Malik, "Modeling and rendering architecture from photographs: A hybrid geometry- and image-based approach," In Proc. ACM Annu. Computer Graphics Conf., Aug.1996, pp.11-20. Marc Levoy and Pat Hanrahan:“Light Field Rendering," In Proc. SIGGRAPH, 1996, pp.34-41. 國田豊ほか, “多眼カメラを用いた任意視点人物像の実時間生成システム, ”電子情報通信学会誌, Vol.J84-DII, No.1, 2001, pp.129-138. A.Fitzgibbon, Y.Wexler, A.Zisserman, "Image-based rendering using image-based priors," In International Conference on Computer Vision, vol.2, 2003, pp.1176-1183.
In order to solve this problem, the following Non-Patent Document 4 describes a method of obtaining and separating foreground and background distances and light rays from light rays sampled by one pixel and separately mapping them on a multilayer plane. Has been taken.
PEDebevec, CJTaylor, and J. Malik, "Modeling and rendering architecture from photographs: A hybrid geometry- and image-based approach," In Proc. ACM Annu. Computer Graphics Conf., Aug. 1996, pp. 11-20. Marc Levoy and Pat Hanrahan: “Light Field Rendering,” In Proc. SIGGRAPH, 1996, pp.34-41. Yutaka Kunida et al., “Real-time system for generating arbitrary viewpoint images using multi-lens cameras,” IEICE Journal, Vol.J84-DII, No.1, 2001, pp.129-138. A. Fitzgibbon, Y. Wexler, A. Zisserman, "Image-based rendering using image-based priors," In International Conference on Computer Vision, vol.2, 2003, pp.1176-1183.

非特許文献4のように、1つの画素における光線情報を前景と背景に分離して、それぞれを適切な距離を用いて多層平面にマッピングし、その多層平面から仮想視点のカメラによってサンプリングされる光線情報を推定することで、主観品質の高い仮想視点画像を生成することができる。   As in Non-Patent Document 4, ray information in one pixel is separated into foreground and background, and each is mapped to a multilayer plane using appropriate distances, and rays sampled from the multilayer plane by a virtual viewpoint camera. By estimating the information, a virtual viewpoint image with high subjective quality can be generated.

しかしながら、このような手法では、多視点画像によってサンプリングされた光線情報を最も適切に表すような前景と背景の光線を求めなければならないため、非常に多くの計算が必要になってしまうという問題があった。   However, this method has a problem that a lot of calculations are required because the foreground and background rays that best represent the ray information sampled by the multi-viewpoint image must be obtained. there were.

本発明はかかる事情に鑑みてなされたものであって、カメラで撮影した画像に写っている被写体を、そのカメラの視点とは異なる仮想視点から見たときの仮想視点画像を生成する場合に、主観品質が高い仮想視点画像を少ない演算量で生成することを可能にする新たな仮想視点画像生成技術の提供を目的とする。   The present invention has been made in view of such circumstances, in the case of generating a virtual viewpoint image when a subject reflected in an image captured by a camera is viewed from a virtual viewpoint different from the viewpoint of the camera, An object of the present invention is to provide a new virtual viewpoint image generation technique that enables generation of a virtual viewpoint image with high subjective quality with a small amount of calculation.

[1]第1の発明
[1−1]第1の発明の構成
上記の目的を達成するために、本発明の第1の発明は、視点の異なる複数のカメラからある被写体を撮影したn枚の被写体画像からなる多視点画像と、その多視点画像を撮影したカメラから被写体画像の各画素に写っている被写体上のある点までの、前記n枚の各被写体画像に対応する距離情報とを用いて、あらかじめ指定した仮想視点から見た被写体の画像であるところの仮想視点画像を生成する仮想視点画像生成方法であって、(イ)前記n枚の各被写体画像ごとに、前記被写体画像とその距離情報とから、前記各被写体画像に対して被写体の境界領域を設定する境界領域設定ステップと、(ロ)前記n枚の各被写体画像ごとに、前記各被写体画像上の座標と仮想視点画像上の座標との対応関係を、前記各被写体画像に対応する距離情報を用いて決定する対応関係決定ステップと、(ハ)前記n枚の各被写体画像ごとに、対応関係決定ステップで決定した対応関係を用いて、被写体画像から合成被写体画像(仮想視点画像の合成元となる画像)を生成する合成画像生成ステップと、(ニ)対応関係決定ステップで決定した対応関係を用いて、前記各被写体画像に対して設定された前記境界領域の情報から、前記各合成被写体画像に対して合成境界領域(合成被写体画像における被写体の境界領域)を設定する合成境界領域設定ステップと、(ホ)n枚の前記合成被写体画像を、前記各合成被写体画像に対して設定された前記合成境界領域の情報に従って重み付け加算するか、前記各合成被写体画像に対して設定された前記合成境界領域の情報と仮想視点の情報とに従って重み付け加算して、仮想視点画像を生成する仮想視点画像生成ステップとを備えることを特徴とする。
[1] First Invention [1-1] Configuration of First Invention In order to achieve the above object, the first invention of the present invention provides n images obtained by photographing a subject from a plurality of cameras with different viewpoints. A multi-viewpoint image composed of a plurality of subject images, and distance information corresponding to each of the n subject images from a camera that has photographed the multi-viewpoint image to a certain point on the subject reflected in each pixel of the subject image. A virtual viewpoint image generation method for generating a virtual viewpoint image that is an image of a subject viewed from a virtual viewpoint specified in advance, and (a) for each of the n subject images, A boundary region setting step for setting a boundary region of a subject for each of the subject images based on the distance information; and (b) coordinates and virtual viewpoint images on the subject images for each of the n subject images. Pair with top coordinate The relationship, said a corresponding relationship determining step of determining by using the distance information corresponding to each object image, for each (c) the n pieces of each object image, by using the correspondence determined in correspondence decision step, the subject A composite image generation step for generating a composite subject image (image that is a composition source of the virtual viewpoint image) from the image, and (d) the correspondence relationship determined in the correspondence relationship determination step is set for each subject image. A combined boundary region setting step for setting a combined boundary region (a boundary region of a subject in the combined subject image) for each of the combined subject images based on the information on the boundary region; and (e) n combined subject images. , whether the weighted addition in accordance with the information of the synthesis boundary area set for each synthetic subject image, wherein the synthetic boundary set for each synthesis object image And weighted addition in accordance with the information of the virtual viewpoint information area, characterized in that it comprises a virtual viewpoint image generation step of generating a virtual viewpoint image.

ここで、第1の発明を実現する本発明の仮想視点画像生成装置は、視点の異なる複数のカメラからある被写体を撮影したn枚の被写体画像からなる多視点画像と、その多視点画像を撮影したカメラから被写体画像の各画素に写っている被写体上のある点までの、前記n枚の各被写体画像に対応する距離情報とを用いて、あらかじめ指定した仮想視点から見た被写体の画像であるところの仮想視点画像を生成するために、(イ)前記n枚の各被写体画像ごとに、前記被写体画像とその距離情報とから、前記各被写体画像に対して被写体の境界領域を設定する境界領域設定手段と、(ロ)前記n枚の各被写体画像ごとに、前記各被写体画像上の座標と仮想視点画像上の座標との対応関係を、前記各被写体画像に対応する距離情報を用いて決定する対応関係決定手段と、(ハ)前記n枚の各被写体画像ごとに、対応関係決定手段の決定した対応関係を用いて、被写体画像から合成被写体画像(仮想視点画像の合成元となる画像)を生成する合成画像生成手段と、(ニ)対応関係決定手段の決定した対応関係を用いて、前記各被写体画像に対して設定された前記境界領域の情報から、前記各合成被写体画像に対して合成境界領域(合成被写体画像における被写体の境界領域)を設定する合成境界領域設定手段と、(ホ)n枚の前記合成被写体画像を、前記各合成被写体画像に対して設定された前記合成境界領域の情報に従って重み付け加算するか、前記各合成被写体画像に対して設定された前記合成境界領域の情報と仮想視点の情報とに従って重み付け加算して、仮想視点画像を生成する仮想視点画像生成手段とを備える。 Here, the virtual viewpoint image generation device of the present invention that realizes the first invention captures a multi-view image composed of n subject images obtained by capturing a subject from a plurality of cameras having different viewpoints, and the multi-view image. This is an image of a subject viewed from a virtual viewpoint designated in advance using distance information corresponding to each of the n subject images from a camera to a certain point on the subject reflected in each pixel of the subject image. However, in order to generate a virtual viewpoint image, (a) for each of the n subject images, a boundary region for setting a subject boundary region for each subject image from the subject image and its distance information And (b) for each of the n subject images , a correspondence relationship between the coordinates on the subject images and the coordinates on the virtual viewpoint image is determined using distance information corresponding to the subject images. Do And response relationship determining means, and (c) for each of said n pieces of each object image, using the determined correspondence relationship relationship determining means (Synthesis originated the image of a virtual viewpoint image) synthesized subject image from the subject image Using the composite image generation means to be generated and (d) the correspondence determined by the correspondence determination means, the information on the boundary region set for each subject image is combined with each composite subject image. A composite boundary region setting means for setting a boundary region (a subject boundary region in the composite subject image); and (e) n composite subject images of the composite boundary region set for each composite subject image. or weighted addition in accordance with the information, and weighted addition the following information and the information and the virtual viewpoint of the synthesis boundary area set for each synthetic subject image, the temporary generating a virtual viewpoint image And a viewpoint image generation unit.

[1−2]第1の発明について
本発明の第1の発明では、カメラからの距離の異なる複数の被写体の光線情報が混合されている境界領域を判定し、重み付け加算時にのみ、多視点画像によってサンプリングされた光線のうち、その境界領域でサンプリングされた光線を、それ以外の領域でサンプリングされた光線よりも強度の低い光線として扱って仮想視点画像を生成する。
[1-2] About the first invention In the first invention of the present invention, a boundary region in which light ray information of a plurality of subjects having different distances from the camera is mixed is determined, and a multi-viewpoint image is displayed only at the time of weighted addition. Among the light rays sampled by the above, the light ray sampled in the boundary region is treated as a light ray having a lower intensity than the light ray sampled in the other region to generate a virtual viewpoint image.

これによって、複数の被写体からの光線情報が混ざり合った光線の影響を少なくすることができ、高品質な仮想視点画像を生成することができる。また、本手法では、仮想視点における光線を求める処理が、境界領域でサンプリングされた光線であるか否かに従って合成時の比率を変更するだけで行えるため、従来手法のようにサンプリングされた光線を最も適切に表すような前景と背景の光線に分離して、そこから仮想視点画像における光線を合成する処理のような膨大な演算を必要としない。   As a result, the influence of light rays mixed with light ray information from a plurality of subjects can be reduced, and a high-quality virtual viewpoint image can be generated. In addition, in this method, the process for obtaining the ray at the virtual viewpoint can be performed simply by changing the ratio at the time of synthesis according to whether or not the ray is sampled in the boundary region. It does not require enormous operations such as a process of separating the foreground and background light rays that are most appropriately represented and combining the light rays in the virtual viewpoint image therefrom.

なお、境界領域の判定にはどのような方法を用いても構わない。最も単純な例として、距離情報が急激に変化する部分を境界領域と判定することができる。また、距離情報だけでなく、多視点画像におけるエッジ情報を用いて判定することもできる。   Any method may be used to determine the boundary region. As the simplest example, a portion where the distance information changes rapidly can be determined as the boundary region. Further, not only distance information but also edge information in a multi-viewpoint image can be used for determination.

[2]第2の発明
[2−1]第2の発明の構成
本発明の第2の発明は、第1の発明と同様に、仮想視点画像生成ステップにおいて、多視点画像の境界領域の画像をその他の領域の画像と区別して重み付け加算を行うのだが、生成される仮想視点画像の各画素において、合成境界領域ではない合成被写体画像が1つでも存在する場合は、それらの合成被写体画像のみを用いて重み付け加算することを特徴とする。
[2] Second Invention [2-1] Configuration of Second Invention The second invention of the present invention is similar to the first invention, in the virtual viewpoint image generation step, the image of the boundary region of the multi-viewpoint image Is differentiated from images in other regions and weighted addition is performed. However, if there is at least one composite subject image that is not a composite boundary region in each pixel of the generated virtual viewpoint image, only those composite subject images Is used for weighted addition.

[2−2]第2の発明について
すなわち、本発明の第2の発明では、境界領域における光線の強度を弱くするのではなくて、信頼度の低い光線として取り扱う。そして、仮想視点のある画素における光線を求める際に、境界領域以外の領域でサンプリングされた光線、つまり信頼度の低くない光線が1つでも存在するならば、その光線のみを用いて仮想視点の光線を求める。
[2-2] Regarding the second invention That is, in the second invention of the present invention, the intensity of the light beam in the boundary region is not weakened but is treated as a light beam with low reliability. Then, when obtaining a ray at a pixel with a virtual viewpoint, if there is even one ray sampled in an area other than the boundary area, that is, a ray with low reliability, only the ray is used for the virtual viewpoint. Find the rays.

多視点画像は複数の位置と向きから被写体を撮影した画像群であるため、背景の被写体において境界領域となる実空間上の領域は、サンプリングされた被写体画像ごとに異なる。そのため、ある点において境界領域と判定された光線とそうではない光線がサンプリングされていることになる。そのような場所では、複数の被写体の光線が混合した境界領域と判定された光線は使用せずに仮想視点における光線を求めることで、品質の高い仮想視点画像を生成することができる。   Since the multi-viewpoint image is a group of images obtained by photographing the subject from a plurality of positions and orientations, the region in the real space that becomes the boundary region in the background subject is different for each sampled subject image. For this reason, light rays determined as boundary regions at a certain point and light rays that are not so are sampled. In such a place, it is possible to generate a high-quality virtual viewpoint image by obtaining the light ray at the virtual viewpoint without using the light ray determined to be a boundary region in which the light rays of a plurality of subjects are mixed.

[3]第3の発明
[3−1]第3の発明の構成
本発明の第3の発明は、第1の発明や第2の発明に加えて、境界領域における被写体画像を補正する多視点画像補正ステップを備え、合成画像生成ステップにおいて、多視点画像補正ステップで補正した被写体画像を用いて合成被写体画像を生成することを特徴とする。
[3] Third Invention [3-1] Configuration of Third Invention In addition to the first invention and the second invention, the third invention of the present invention is a multi-viewpoint that corrects a subject image in a boundary region. An image correction step is provided, and in the composite image generation step, a composite subject image is generated using the subject image corrected in the multi-viewpoint image correction step.

[3−2]第3の発明について
境界領域においてサンプリングされた光線もまた、与えられた1つの距離情報を用いて、三次元空間上の光線にマッピングされる。このとき、使用する距離情報が前景の被写体に対応するものであれば、サンプリングされた光線から背景の被写体に依存する光線の影響を取り除いたほうが仮想視点画像を生成する際により正確な光線を使用したことになる。また、使用する距離情報が背景の被写体に対応するものであれば、サンプリングされた光線から前景の被写体に依存する光線の影響を取り除いたほうが仮想視点画像を生成する際により正確な光線を使用したことになる。
[3-2] About 3rd invention The light ray sampled in the boundary region is also mapped to the light ray in three-dimensional space using the given one distance information. At this time, if the distance information to be used corresponds to the foreground subject, more accurate rays are used when generating the virtual viewpoint image by removing the influence of the rays depending on the background subject from the sampled rays. It will be done. If the distance information used corresponds to the subject in the background, more accurate rays were used when generating the virtual viewpoint image by removing the influence of the rays depending on the foreground subject from the sampled rays. It will be.

そのため、本発明の第3の発明では、境界領域において、その距離情報に応じて適切にサンプリングされた光線に補正を加えるようにしており、これにより、より高品質な仮想視点画像を生成することができる。   Therefore, in the third invention of the present invention, in the boundary region, correction is made to the light beam appropriately sampled according to the distance information, thereby generating a higher-quality virtual viewpoint image. Can do.

本発明の第3の発明の方法では、光線に被写体に応じた処理を加える領域を境界領域だけに限るため、莫大な演算量を必要とすることはない。また、前景の被写体と背景の被写体の光線を分離するのではなく、距離情報に応じた被写体の光線に近くなるように補正するだけであるため、それぞれを推定して分離するほどの演算も必要としない。   In the method according to the third aspect of the present invention, the region where the processing corresponding to the subject is applied to the light ray is limited to the boundary region, so that an enormous amount of calculation is not required. In addition, instead of separating the rays of the foreground subject and background subject, only correction is made so that they are close to the rays of the subject according to the distance information. And not.

[4]第4の発明
[4−1]第4の発明の構成
本発明の第4の発明は、第1の発明や第2の発明や第3の発明に加えて、境界領域における距離情報を補正する距離情報補正ステップを備え、対応関係設定ステップにおいて、距離情報補正ステップで補正した距離情報を用いて対応関係を決定することを特徴とする。
[4] Fourth Invention [4-1] Configuration of Fourth Invention In addition to the first invention, the second invention, and the third invention, the fourth invention of the present invention is distance information in the boundary region. A distance information correction step for correcting the relationship, and in the correspondence setting step, the correspondence is determined using the distance information corrected in the distance information correction step.

[4−2]第4の発明について
距離情報を求める方法には、多視点画像を用いて推定する方法と、特殊な装置を使用して求める方法とがある。どちらの方法を利用したとしてもノイズが含まれる。例えば、周囲の距離とはあまりにも異なる距離が与えられている場合がある。
[4-2] Fourth Invention As a method of obtaining distance information, there are a method of estimating using a multi-viewpoint image and a method of obtaining using a special device. Whichever method is used, noise is included. For example, a distance that is too different from the surrounding distance may be given.

本発明の第4の発明では、このようなノイズを除去することで、サンプリングされた光線を適切な三次元空間上の光線にマッピングすることが可能となり、より品質の高い仮想視点画像を生成することができる。   In the fourth aspect of the present invention, by removing such noise, it becomes possible to map the sampled light beam to a light beam in an appropriate three-dimensional space, and generate a higher-quality virtual viewpoint image. be able to.

一方、上述のようなインパルス雑音を除去するために、距離情報に対してあらかじめスムージングを施す場合がある。また、多視点画像から距離情報を推定する際には、実空間における被写体の連続性を加味して、隣接領域で距離が大きく変化しないような処理が加えられる場合もある。このような場合、本来は境界領域になるはずの領域で、誤った距離情報になってしまってしまい、生成される仮想視点画像に歪みを生じさせてしまう。   On the other hand, in order to remove the impulse noise as described above, the distance information may be smoothed beforehand. In addition, when estimating distance information from a multi-viewpoint image, there is a case where a process is performed in which the distance does not change greatly in the adjacent region in consideration of the continuity of the subject in real space. In such a case, the distance information is supposed to be a boundary area, and the distance information is incorrect, and the generated virtual viewpoint image is distorted.

本発明の第4の発明では、このような領域でエッジを先鋭化させる処理を行ったり、多視点画像から求められるエッジと距離画像のエッジとを一致させるような処理を行ったりすることで、背景と前景の被写体がつながっているような三次元空間上の光線にマッピングされることなく、より高品質な仮想視点画像を生成することができる。   In the fourth invention of the present invention, by performing the process of sharpening the edge in such a region, or by performing the process of matching the edge obtained from the multi-viewpoint image and the edge of the distance image, A higher-quality virtual viewpoint image can be generated without being mapped to a light beam in a three-dimensional space in which the background and the foreground subject are connected.

[5]第5の発明
[5−1]第5の発明の構成
本発明の第5の発明は、第1の発明や第2の発明や第3の発明や第4の発明に加えて、(イ)前記n枚の各被写体画像に対応する距離情報から、仮想視点画像の距離情報であるところの仮想視点距離情報を生成する仮想視点距離情報生成ステップと、(ロ)仮想視点距離情報と仮想視点画像とから、仮想視点画像に対して被写体の境界領域であるところの仮想視点境界領域を設定する仮想視点境界領域設定ステップと、(ハ)仮想視点画像の仮想視点境界領域における各画素の画素値を、周辺の画素の情報に従って変更する仮想視点画像補正ステップとを備えることを特徴とする。
[5] Fifth Invention [5-1] Configuration of Fifth Invention In addition to the first invention, the second invention, the third invention, and the fourth invention, the fifth invention of the present invention includes: (A) a virtual viewpoint distance information generating step for generating virtual viewpoint distance information as distance information of a virtual viewpoint image from distance information corresponding to each of the n subject images ; (b) virtual viewpoint distance information; A virtual viewpoint boundary region setting step for setting a virtual viewpoint boundary region that is a boundary region of a subject with respect to the virtual viewpoint image from the virtual viewpoint image; and (c) each pixel in the virtual viewpoint boundary region of the virtual viewpoint image. And a virtual viewpoint image correction step of changing the pixel value according to information on surrounding pixels.

[5−2]第5の発明について
多視点画像の境界領域においてサンプリングされた光線には、複数の被写体の光線が混合されていることは既に述べた。そのため、生成される仮想視点画像においても、境界領域では前景の被写体の光線と背景の被写体の光線が混合されているほうが自然である。実際に、境界領域の前景の被写体に近い部分において、背景の被写体の光線が混合されていない場合、前景の被写体が浮いているような感じに見える。これは風景を撮影した写真に人の写真を切り抜いたものを張り合わせたとしても、違和感のある画像になることからも分かる。
[5-2] About the fifth invention As described above, the light rays sampled in the boundary region of the multi-viewpoint image are mixed with the light rays of a plurality of subjects. Therefore, even in the generated virtual viewpoint image, it is natural that the light rays of the foreground subject and the background subject are mixed in the boundary region. Actually, when the rays of the background subject are not mixed in the portion near the foreground subject in the boundary area, it looks as if the foreground subject is floating. This can also be seen from the fact that even if a photograph of a landscape is combined with a clip of a person's photograph, the image becomes uncomfortable.

本発明の第5の発明によると、仮想視点画像に対して境界領域を求め、その領域内の画素の画素値を、別の被写体が写っていると考えられる周辺の画素の画素値を用いて補正することで、上述のような違和感を低減し、主観品質の高い仮想視点画像を生成することができるようになる。   According to the fifth aspect of the present invention, a boundary area is obtained for the virtual viewpoint image, and the pixel values of the pixels in the area are determined using the pixel values of surrounding pixels that are considered to be another subject. By correcting, it is possible to reduce the above-mentioned uncomfortable feeling and generate a virtual viewpoint image with high subjective quality.

[6]第1の関連発明
[6−1]第1の関連発明の構成
本発明の第1の関連発明は、ある被写体を撮影した画像であるところの被写体画像と、その被写体画像を撮影したカメラからその被写体画像の各画素に写っている被写体上のある点までの距離情報とを用いて、あらかじめ指定した仮想視点から見た被写体の画像であるところの仮想視点画像を生成する仮想視点画像生成方法であって、(イ)被写体画像と距離情報とから、被写体画像に対して被写体の境界領域を設定する境界領域設定ステップと、(ロ)境界領域における距離情報を補正する距離情報補正ステップと、(ハ)境界領域における被写体画像を補正する被写体画像補正ステップと、(ニ)被写体画像上の座標と仮想視点画像上の座標との対応関係を、距離情報補正ステップで補正した距離情報を用いて決定する対応関係決定ステップと、(ホ)対応関係決定ステップで決定した対応関係を用いて、被写体画像補正ステップで補正した被写体画像から仮想視点画像を生成する仮想視点画像生成ステップとを備えることを特徴とする。
[6] The first related inventions [6-1] first relevant aspect of structure present invention of the first related invention, the subject image where an image obtained by photographing a certain subject, were taken the subject image A virtual viewpoint image that generates a virtual viewpoint image that is an image of a subject viewed from a virtual viewpoint specified in advance using distance information from the camera to a certain point on the subject that appears in each pixel of the subject image (A) a boundary region setting step for setting a boundary region of a subject with respect to the subject image from the subject image and distance information; and (b) a distance information correction step for correcting distance information in the boundary region. And (c) a subject image correction step for correcting the subject image in the boundary region, and (d) a distance information correction step that shows the correspondence between the coordinates on the subject image and the coordinates on the virtual viewpoint image. And (v) a virtual viewpoint that generates a virtual viewpoint image from the subject image corrected in the subject image correction step using the correspondence relationship determined in the correspondence relationship determination step. An image generation step.

ここで、第1の関連発明を実現する仮想視点画像生成装置は、ある被写体を撮影した画像であるところの被写体画像と、その被写体画像を撮影したカメラからその被写体画像の各画素に写っている被写体上のある点までの距離情報とを用いて、あらかじめ指定した仮想視点から見た被写体の画像であるところの仮想視点画像を生成するために、(イ)被写体画像と距離情報とから、被写体画像に対して被写体の境界領域を設定する境界領域設定手段と、(ロ)境界領域における距離情報を補正する距離情報補正手段と、(ハ)境界領域における被写体画像を補正する被写体画像補正手段と、(ニ)被写体画像上の座標と仮想視点画像上の座標との対応関係を、距離情報補正手段の補正した距離情報を用いて決定する対応関係決定手段と、(ホ)対応関係決定手段の決定した対応関係を用いて、被写体画像補正手段の補正した被写体画像から仮想視点画像を生成する仮想視点画像生成手段とを備える。 Here, the virtual viewpoint image generation device that realizes the first related invention is shown in a subject image that is an image obtained by photographing a certain subject and each pixel of the subject image from the camera that photographed the subject image. In order to generate a virtual viewpoint image that is an image of the subject viewed from the virtual viewpoint specified in advance using the distance information to a certain point on the subject, (a) from the subject image and the distance information, Boundary area setting means for setting a boundary area of a subject with respect to an image; (b) distance information correction means for correcting distance information in the boundary area; and (c) subject image correction means for correcting a subject image in the boundary area. (D) correspondence determining means for determining the correspondence between the coordinates on the subject image and the coordinates on the virtual viewpoint image using the distance information corrected by the distance information correcting means; Using the determined correspondence relationship relationship determining means, and a virtual viewpoint image generation means for generating a virtual viewpoint image from the corrected subject image of the subject image correction means.

[6−2]第1の関連発明について
本発明の第1の関連発明では、カメラからの距離の異なる複数の被写体の光線情報が混合されている境界領域を判定し、その領域でのみサンプリングされた光線情報を距離情報に応じた被写体の光線に補正して仮想視点画像を生成する。
[6-2] In the first related aspect of the present invention for the first associated invention, to determine the boundary region where light information is mixed different subjects of the distance from the camera is sampled only in that region The virtual ray image is generated by correcting the ray information to the ray of the subject according to the distance information.

これによって、複数の被写体からの光線情報が混ざり合った光線の影響を少なくすることができ、高品質な仮想視点画像を生成することができる。また、本手法は新たに境界領域と呼ぶ情報を設定し、その領域でのみ光線を補正する処理だけを行うため、サンプリングされた光線情報を最も適切に表すような前景と背景の光線を求める計算のような膨大な演算を必要としない。   As a result, the influence of light rays mixed with light ray information from a plurality of subjects can be reduced, and a high-quality virtual viewpoint image can be generated. In addition, since this method newly sets information called boundary areas and performs only the process of correcting the light rays only in those areas, the calculation for obtaining the foreground and background rays that best represents the sampled ray information. Does not require a huge amount of operations.

[7]第2の関連発明
[7−1]第2の関連発明の構成
本発明の第2の関連発明は、第1の関連発明に加えて、(イ)対応関係決定ステップで決定した対応関係を用いて、被写体画像の境界領域の情報から仮想視点境界領域(仮想視点画像における被写体の境界領域)を設定する仮想視点境界領域設定ステップと、(ロ)仮想視点境界領域設定ステップで設定した仮想視点境界領域によって境界領域とされる仮想視点画像生成ステップで生成した仮想視点画像上の各画素の画素値を、周辺の画素の情報に従って変更する仮想視点画像補正ステップとを備えることを特徴とする。
[7] The second associated invention [7-1] second related aspect of construction the invention of the second associated invention, in addition to the first associated invention, corresponding determined in (i) correspondence relationship determining step Using the relationship, the virtual viewpoint boundary region setting step for setting the virtual viewpoint boundary region (the subject boundary region in the virtual viewpoint image) from the information on the boundary region of the subject image, and (b) the virtual viewpoint boundary region setting step A virtual viewpoint image correction step of changing the pixel value of each pixel on the virtual viewpoint image generated in the virtual viewpoint image generation step which is defined as a boundary region by the virtual viewpoint boundary region, according to information on surrounding pixels. To do.

[7−2]第2の関連発明について
本発明の第2の関連発明によると、仮想視点画像における境界領域を被写体画像の境界領域から生成した仮想視点境界領域を用いて判定し、その領域内の画素の画素値を、別の被写体が写っていると考えられる周辺の画素の画素値を用いて補正することで、前景の被写体が背景から分離しているような違和感を低減し、主観品質の高い仮想視点画像を生成することができるようになる。
[7-2] Second related invention According to the second related invention of the present invention, the boundary region in the virtual viewpoint image is determined using the virtual viewpoint boundary region generated from the boundary region of the subject image, and the inside of the region is determined. By correcting the pixel values of the pixels with the pixel values of neighboring pixels that are considered to be another subject, the discomfort that the foreground subject is separated from the background is reduced, and the subjective quality High virtual viewpoint images can be generated.

[8]第3の関連発明
[8−1]第3の関連発明の構成
本発明の第3の関連発明は、第1の関連発明に加えて、(イ)距離情報補正ステップで補正した距離情報から、仮想視点画像生成ステップで生成した仮想視点画像の距離情報であるところの仮想視点距離情報を生成する仮想視点距離情報生成ステップと、(ロ)仮想視点距離情報生成ステップで生成した仮想視点距離情報と仮想視点画像生成ステップで生成した仮想視点画像とから、仮想視点画像生成ステップで生成した仮想視点画像に対して被写体の境界領域であるところの仮想視点境界領域を設定する仮想視点境界領域設定ステップと、(ハ)仮想視点境界領域設定ステップで設定した仮想視点境界領域によって境界領域とされる仮想視点画像生成ステップで生成した仮想視点画像上の各画素の画素値を、周辺の画素の情報に従って変更する仮想視点画像補正ステップとを備えることを特徴とする。
[8] distance third related invention [8-1] Third related aspect of construction the invention of the third associated invention, in addition to the first related inventions, corrected by (i) the distance information correction step A virtual viewpoint distance information generating step for generating virtual viewpoint distance information, which is distance information of the virtual viewpoint image generated in the virtual viewpoint image generating step, and (b) a virtual viewpoint generated in the virtual viewpoint distance information generating step. A virtual viewpoint boundary region that sets a virtual viewpoint boundary region that is a boundary region of a subject with respect to the virtual viewpoint image generated in the virtual viewpoint image generation step from the distance information and the virtual viewpoint image generated in the virtual viewpoint image generation step A virtual viewpoint image generated in the virtual viewpoint image generation step that is set as a boundary region by the setting step and (c) the virtual viewpoint boundary region set in the virtual viewpoint boundary region setting step The pixel value of each pixel of the upper, characterized in that it comprises a virtual viewpoint image correction step of changing in accordance with information of the surrounding pixels.

[8−2]第3の関連発明について
本発明の第3の関連発明によると、仮想視点画像における境界領域を仮想視点距離情報(被写体画像の距離情報から生成される)から生成した仮想視点境界領域を用いて判定し、その領域内の画素の画素値を、別の被写体が写っていると考えられる周辺の画素の画素値を用いて補正することで、前景の被写体が背景から分離しているような違和感を低減し、主観品質の高い仮想視点画像を生成することができるようになる。
[8-2] Third related invention According to the third related invention of the present invention, a virtual viewpoint boundary in which a boundary region in a virtual viewpoint image is generated from virtual viewpoint distance information (generated from distance information of a subject image) The foreground subject is separated from the background by determining using the region and correcting the pixel values of the pixels in that region using the pixel values of surrounding pixels that are considered to be another subject. It is possible to reduce a sense of discomfort and to generate a virtual viewpoint image with high subjective quality.

本発明によれば、仮想視点画像を生成するときに、被写体の境界領域において取得された光線情報を、強度の弱い光線や信頼度の低い光線として扱うことで、主観品質の高い仮想視点画像を少ない演算量で生成することができる。   According to the present invention, when generating a virtual viewpoint image, by treating the light ray information acquired in the boundary region of the subject as a light beam with low intensity or a light beam with low reliability, a virtual viewpoint image with high subjective quality can be obtained. It can be generated with a small amount of calculation.

以下、実施の形態に従って本発明を詳細に説明する。   Hereinafter, the present invention will be described in detail according to embodiments.

ここで、以下に説明する実施形態例では、N個のカメラで撮影された多視点画像と、その多視点画像の各画像に対して求められるその画像を撮影したカメラから各画素に写っている被写体上の点までの距離情報(画素ごとに定義される)とから、指定された仮想視点から被写体を見た場合の仮想視点画像を生成する方法について説明を行う。   Here, in the embodiment described below, a multi-viewpoint image captured by N cameras and a camera that captures the image required for each image of the multi-viewpoint image are reflected in each pixel. A method of generating a virtual viewpoint image when the subject is viewed from a specified virtual viewpoint based on distance information (defined for each pixel) to a point on the subject will be described.

なお、距離情報は多視点画像を用いて推定したものを入力しても構わないし、特別な装置を用いて計測したものを入力しても構わない。ただし、使用する多視点画像のカメラパラメータの座標系定義と合致したものでなければならない。   The distance information may be input using information estimated using a multi-viewpoint image, or may be input using information measured using a special device. However, it must match the coordinate system definition of the camera parameters of the multi-viewpoint image to be used.

[1]第1の実施形態例
図1に、本発明の仮想視点画像生成装置100の一実施形態例を図示する。
[1] First Embodiment FIG. 1 illustrates an embodiment of a virtual viewpoint image generation apparatus 100 according to the present invention.

この図に示すように、本実施形態例の仮想視点画像生成装置100は、仮想視点入力部101と、画像入力部102と、距離情報入力部103と、入力情報解析部104と、対応関係設定部105と、合成画像生成部106と、合成画像メモリ107と、合成境界領域設定部108と、合成境界領域メモリ109と、仮想視点画像生成部110と、仮想視点距離情報生成部111と、仮想視点境界領域設定部112と、仮想視点画像補正部113と、仮想視点画像出力部114とを備える。   As shown in this figure, the virtual viewpoint image generation device 100 according to the present embodiment includes a virtual viewpoint input unit 101, an image input unit 102, a distance information input unit 103, an input information analysis unit 104, and a correspondence setting. Unit 105, composite image generation unit 106, composite image memory 107, composite boundary region setting unit 108, composite boundary region memory 109, virtual viewpoint image generation unit 110, virtual viewpoint distance information generation unit 111, virtual A viewpoint boundary region setting unit 112, a virtual viewpoint image correction unit 113, and a virtual viewpoint image output unit 114 are provided.

この仮想視点入力部101は、生成する仮想視点の情報を入力する。画像入力部102は、多視点画像を入力する。距離情報入力部103は、多視点画像の各画素における距離情報(カメラから多視点画像の各画素に写っている被写体上の点までの距離情報)を入力する。   The virtual viewpoint input unit 101 inputs information on a virtual viewpoint to be generated. The image input unit 102 inputs a multi-viewpoint image. The distance information input unit 103 inputs distance information on each pixel of the multi-viewpoint image (distance information from the camera to a point on the subject shown in each pixel of the multi-viewpoint image).

入力情報解析部104は、入力された多視点画像と距離情報とを解析して入力情報の補正を行い、それらを用いて境界領域(被写体の境界領域)を設定する。対応関係設定部105は、多視点画像の各画像と仮想視点画像との対応関係(画素と画素との対応関係)を設定する。   The input information analysis unit 104 analyzes the input multi-viewpoint image and the distance information, corrects the input information, and sets a boundary region (a subject boundary region) using them. The correspondence setting unit 105 sets a correspondence (a correspondence between pixels) between each image of the multi-viewpoint image and the virtual viewpoint image.

合成画像生成部106は、対応関係設定部105の求めた対応関係に従って、多視点画像の各画像を用いて仮想視点画像の合成元となる合成画像を生成する。合成画像メモリ107は、合成画像生成部106の生成した合成画像群を蓄積する。   The composite image generation unit 106 generates a composite image that is a synthesis source of the virtual viewpoint image using each image of the multi-viewpoint image according to the correspondence relationship obtained by the correspondence relationship setting unit 105. The composite image memory 107 stores the composite image group generated by the composite image generation unit 106.

合成境界領域設定部108は、対応関係設定部105の求めた対応関係に従って、多視点画像の各画像に対して設定された境界領域を用いて、その境界領域が仮想視点画像上で現れる位置を示す合成境界領域(合成画像上の境界領域)を求める。合成境界領域メモリ109は、合成境界領域設定部108の求めた合成境界領域の情報を蓄積する。   The composite boundary region setting unit 108 uses the boundary region set for each image of the multi-viewpoint image according to the correspondence obtained by the correspondence relationship setting unit 105, and determines the position where the boundary region appears on the virtual viewpoint image. A composite boundary region to be shown (a boundary region on the composite image) is obtained. The composite boundary area memory 109 stores information on the composite boundary area obtained by the composite boundary area setting unit 108.

仮想視点画像生成部110は、合成画像生成部106の生成した合成画像群から仮想視点画像を生成する。仮想視点距離情報生成部111は、仮想視点画像に対する距離情報(仮想視点のカメラから仮想視点画像の各画素に写っている被写体上の点までの距離情報)を生成する。仮想視点境界領域設定部112は、仮想視点画像における被写体の境界領域を求める。仮想視点画像補正部113は、仮想視点画像を補正する。仮想視点画像出力部114は、仮想視点画像補正部113により最終的に生成された仮想視点画像を出力する。   The virtual viewpoint image generation unit 110 generates a virtual viewpoint image from the composite image group generated by the composite image generation unit 106. The virtual viewpoint distance information generation unit 111 generates distance information for the virtual viewpoint image (distance information from the camera of the virtual viewpoint to the point on the subject reflected in each pixel of the virtual viewpoint image). The virtual viewpoint boundary area setting unit 112 obtains the boundary area of the subject in the virtual viewpoint image. The virtual viewpoint image correcting unit 113 corrects the virtual viewpoint image. The virtual viewpoint image output unit 114 outputs the virtual viewpoint image finally generated by the virtual viewpoint image correction unit 113.

図2に、このように構成される本実施形態例の仮想視点画像生成装置100の実行するフローチャートを図示する。ここで、このフローチャートは、本実施形態例の仮想視点画像生成装置100によってカメラ同期して撮影された多視点画像から指定された仮想視点における画像を生成する際の処理を示している。   FIG. 2 illustrates a flowchart executed by the virtual viewpoint image generation device 100 of the present embodiment configured as described above. Here, this flowchart shows processing when generating an image at a specified virtual viewpoint from a multi-viewpoint image photographed in synchronism with the camera by the virtual viewpoint image generation apparatus 100 of the present embodiment.

以下では、このフローチャートに従って、本実施形態例の仮想視点画像生成装置100の実行する処理について詳細に説明する。なお、多視点画像を撮影した各カメラのカメラパラメータが与えられているものとする。   Below, according to this flowchart, the process which the virtual viewpoint image generation apparatus 100 of the example of this embodiment performs is demonstrated in detail. It is assumed that camera parameters of each camera that has captured a multi-viewpoint image are given.

[ステップA1〜ステップA11の処理の概要]
まず、仮想視点入力部101にて、仮想視点の情報を入力する[ステップA1]。ここでは、仮想視点として、カメラの内部パラメータAと外部パラメータR,tとが指定されるものとする。
[Overview of Step A1 to Step A11]
First, the virtual viewpoint input unit 101 inputs virtual viewpoint information [step A1]. Here, it is assumed that an internal parameter A and external parameters R and t of the camera are designated as the virtual viewpoint.

なお、撮影を行った多視点画像のカメラに対する相対的な位置関係等で指定しても構わない。その場合には、指定された相対的な関係と多視点画像のカメラのカメラパラメータとから、仮想視点におけるカメラの内部パラメータAと外部パラメータR,tとを計算する。   In addition, you may designate with the relative positional relationship etc. with respect to the camera of the multiview image which image | photographed. In that case, the camera internal parameter A and the external parameters R, t at the virtual viewpoint are calculated from the designated relative relationship and the camera parameters of the camera of the multi-viewpoint image.

次に、本実施形態例では、多視点画像を構成する各画像に対して、合成画像・合成境界領域を生成する処理を繰り返す。   Next, in this embodiment, the process of generating a composite image / composite boundary region is repeated for each image constituting the multi-viewpoint image.

本実施形態例では、多視点画像を構成する各画像を示すインデックスをView 、多視点画像を構成する画像の数を numViewsと表す。従って、View を0に初期化した後[ステップA2]、View に1を加算しながら[ステップA10]、View が numViewsになるまで[ステップA11]、以下の処理[ステップA3〜ステップA9]を繰り返すことで、多視点画像を構成する各画像に対して、合成画像・合成境界領域を生成する。   In the present embodiment example, an index indicating each image constituting the multi-viewpoint image is denoted as View, and the number of images constituting the multi-viewpoint image is denoted as numViews. Therefore, after initializing View to 0 [Step A2], while adding 1 to View [Step A10], the following processing [Step A3 to Step A9] is repeated until View becomes numViews [Step A11]. Thus, a composite image / composite boundary region is generated for each image constituting the multi-viewpoint image.

なお、以下では、混同を生じないので、インデックスView の指す多視点画像を撮影したカメラをView で表すことがある。また、記載の便宜上、式中ではView をviewと記載することがある。   In the following, since confusion does not occur, a camera that captures a multi-viewpoint image indicated by the index View may be represented by View. For convenience of description, View may be described as view in the formula.

[ステップA3,ステップA4の処理]
多視点画像を構成する画像ごとに繰り返す処理[ステップA3〜ステップA9]では、まず、画像入力部102にて、View に対応する画像を入力する[ステップA3]。以下では、入力画像をORGview[・]と表す。また、画像に対して記号[]で挟まれた位置情報を付加することで、特定の領域の画像信号を表す。
[Step A3, Step A4 Processing]
In the process [Step A3 to Step A9] that is repeated for each image constituting the multi-viewpoint image, first, the image input unit 102 inputs an image corresponding to View [Step A3]. Hereinafter, the input image is represented as ORG view [•]. Further, by adding position information sandwiched between symbols [] to an image, an image signal of a specific region is represented.

続いて、距離情報入力部103にて、View の画像に対応する距離情報を入力する[ステップA4]。以下では、距離情報をDview[・]と表す。また、距離情報に対して記号[]で挟まれた位置情報を付加することで、対応する画像の特定の領域の距離情報を表す。 Subsequently, the distance information input unit 103 inputs the distance information corresponding to the View image [step A4]. Hereinafter, the distance information is represented as D view [•]. Further, by adding position information sandwiched between the symbols [] to the distance information, the distance information of a specific area of the corresponding image is represented.

[ステップA5の処理]
続いて、入力情報解析部104にて、入力された画像及び距離情報を解析及び補正する。
[Process of Step A5]
Subsequently, the input information analysis unit 104 analyzes and corrects the input image and distance information.

入力情報解析部104では、まず、入力された距離情報を使って、オブジェクトの境界領域を設定してその境界領域情報を生成する[ステップA5]。以下では、境界領域情報をBOUNDview[・]と表す。また、境界領域情報に対して記号[]で挟まれた位置情報を付加することで、画像の特定の領域の境界領域情報を表す。なお、境界領域情報を設定する処理の詳細については後で詳しく述べる。 The input information analysis unit 104 first sets the boundary region of the object using the input distance information and generates the boundary region information [step A5]. In the following, the boundary area information is represented as BOUND view [•]. Further, by adding position information sandwiched between symbols [] to the boundary area information, the boundary area information of a specific area of the image is represented. Details of the processing for setting the boundary area information will be described in detail later.

境界領域情報はどのように表しても構わないが、ここでは、位置pにある画素が被写体の境界領域でなければBOUNDview[p]≠0、境界領域であればBOUNDview[p]=0となるような境界領域情報とする。また、境界領域でない場合、どの程度境界から離れているかを示すような情報を含んでも構わない。例えば、隣接画素との連続性がないと判断された画素では0、全ての隣接画素と連続性があると判断された画素では隣接画素のもつ境界領域情報の最小値に1を加えた値を境界領域情報とする。なお、この場合においても、全ての画素において境界からの距離を示す必要はなく、境界領域情報の最大値MaxDistance を定めて、一定の範囲の画素についてだけ距離を表すものとしても構わない。 The boundary area information may be expressed in any way, but here, if the pixel at the position p is not the boundary area of the subject, BOUND view [p] ≠ 0, and if it is the boundary area, BOUND view [p] = 0 The boundary area information is as follows. Further, when it is not a boundary region, it may include information indicating how far away from the boundary. For example, a value determined by adding 0 to a minimum value of boundary area information of an adjacent pixel is 0 for a pixel determined not to be continuous with an adjacent pixel, and a pixel determined to be continuous with all adjacent pixels. This is boundary area information. Even in this case, it is not necessary to indicate the distance from the boundary in all the pixels, and the maximum value MaxDistance of the boundary area information may be determined to represent the distance only for a certain range of pixels.

本実施形態例では、このようなどの程度境界から離れているかを示すような情報を含む境界領域情報を生成するものとし、その値の最大値を3とする。   In this embodiment, boundary region information including information indicating how far away from the boundary is generated, and the maximum value is 3.

[ステップA6の処理]
入力情報解析部104では、境界領域情報を設定した後、境界領域において入力された画像及び距離情報を補正する[ステップA6]。
[Process of Step A6]
The input information analysis unit 104 corrects the image and distance information input in the boundary area after setting the boundary area information [step A6].

このステップA6で実行する距離情報の補正では、境界領域において誤って平滑化されている距離情報や画像と一致しないような距離情報等を修正する。ここでは、境界領域において距離情報のエッジ位置と画像のエッジ位置とが整数画素単位で一致していない場合、そのエッジが一致するように距離情報を書き換える処理を施すものとする。   In the distance information correction executed in step A6, distance information that is erroneously smoothed in the boundary region, distance information that does not match the image, and the like are corrected. Here, when the edge position of the distance information and the edge position of the image do not match in integer pixel units in the boundary region, a process of rewriting the distance information is performed so that the edges match.

また、このステップA6で実行する画像の補正では、境界領域において有限かつ離散的な画素で光線をサンプリングした結果生じてしまっている、複数のオブジェクトの光線が混合されてしまっている状態を補正する。ここでは、周囲の画素において対象画素に近い距離情報を持つ画素の画像情報で、対象画素の画像情報を書き換える処理を施す。   Further, in the image correction executed in step A6, a state in which the light rays of a plurality of objects that have been generated as a result of sampling light rays with finite and discrete pixels in the boundary region are mixed is corrected. . Here, processing is performed to rewrite the image information of the target pixel with the image information of the pixel having distance information close to the target pixel in the surrounding pixels.

ここで、周辺の画素のうち対象画素のもつ距離情報と近い距離情報を持つ画素の画像情報からではなくて、距離情報と画像情報とから領域分割を行い、同じ領域に属すると判定された画素の画像情報で対象画素の画像情報を書き換える処理を行っても良い。   Here, a pixel that is determined to belong to the same region by performing region division from the distance information and the image information, not from the image information of the pixels having the distance information close to the distance information of the target pixel among the surrounding pixels The image information of the target pixel may be rewritten with the image information.

さらに、単純に周辺画素の画像情報の平均値で書き換えるのではなくて、対象画素からの距離や画素の持つ距離情報などを使って重み計算し、その重みを用いて周辺画素の画像情報を重み付け加算して計算した値を用いて対象画素の画像情報を書き換えても構わない。重みの計算式の例として下記の式(1)〜式(4)のようなものが挙げられる。   Furthermore, instead of simply rewriting with the average value of the image information of the surrounding pixels, the weight calculation is performed using the distance from the target pixel and the distance information of the pixel, and the image information of the surrounding pixels is weighted using the weight. The image information of the target pixel may be rewritten using the value calculated by addition. Examples of weight calculation formulas include the following formulas (1) to (4).

Figure 0005011168
Figure 0005011168

これらの数式において、pが対象画素の位置を表し、pi が重みの計算対象の画素位置を表す。また、exp()はネイピア数の指数乗を返す関数である。また、‖‖はノルムを表す。ここで、σI とσD はコントロールパラメータであり、どのような数値を使っても構わないが、画像の統計的性質に依存した値を設定することで、より高品質な画像情報生成が可能になる。なお、これらの重みを用いる場合、加算対象となっている画素の数や位置などによって重みの合計値が1にならないため、正規化して用いる必要がある。 In these mathematical expressions, p represents the position of the target pixel, and p i represents the pixel position of the weight calculation target. Exp () is a function that returns the exponent of the number of Napiers. ‖‖ represents the norm. Here, σ I and σ D are control parameters, and any values can be used, but by setting values depending on the statistical properties of the image, higher quality image information can be generated. become. Note that when these weights are used, the total value of the weights does not become 1 depending on the number or position of pixels to be added, and thus it is necessary to normalize and use them.

[ステップA7の処理]
入力情報解析部104により境界領域における入力画像及び距離情報が補正されると、続いて、対応関係設定部105にて、カメラパラメータと距離情報とを用いて、仮想視点画像の画素に対する入力画像(インデックスView の指す多視点画像)の画素の対応関係を計算する[ステップA7]。
[Process of Step A7]
After the input information analysis unit 104 corrects the input image and distance information in the boundary region, the correspondence setting unit 105 uses the camera parameter and the distance information to input the input image ( The correspondence relationship between the pixels of the multi-viewpoint image pointed to by the index View is calculated [step A7].

ここでの処理についてはカメラパラメータによって数式に違いが生じるため概念的に説明すると、まず、入力画像に対するカメラパラメータを用いて入力画像の各画素を三次元空間に逆射影する。この際に距離情報を用いることで、カメラ焦点と逆射影対象の画素とを結ぶ直線状で、その画素の対応する点を求めることができる。そして、三次元上の点が計算できたら、その点を仮想視点画像に対するカメラパラメータを用いて画像平面へ再投影することで、仮想視点画像上の座標値を計算でき、これにより、入力画像の画素と仮想視点画像の画素との対応関係が得られる。   The processing here is conceptually described because the mathematical formula varies depending on the camera parameter. First, each pixel of the input image is back-projected into a three-dimensional space using the camera parameter for the input image. At this time, by using the distance information, it is possible to obtain a corresponding point of the pixel in a straight line connecting the camera focus and the pixel to be reverse projected. Once the three-dimensional point can be calculated, the coordinate value on the virtual viewpoint image can be calculated by reprojecting the point onto the image plane using the camera parameters for the virtual viewpoint image. A correspondence relationship between the pixels and the pixels of the virtual viewpoint image is obtained.

具体的には、画像座標mと世界座標Mとの対応関係が下記の式(5)で得られるカメラパラメータ表現を用いている場合には、下記の式(6)を用いて対応関係を計算することができる。なお、チルダ記号は任意スカラ倍を許した斉次座標を表す。   Specifically, when the correspondence between the image coordinate m and the world coordinate M uses the camera parameter expression obtained by the following equation (5), the correspondence is calculated using the following equation (6). can do. Note that the tilde symbol represents a homogeneous coordinate that allows arbitrary scalar multiplication.

Figure 0005011168
Figure 0005011168

ここで、A、R、tはそれぞれカメラの内部パラメータ行列、回転行列、並進ベクトルを表す。また、添え字はそのパラメータがどのカメラの情報であるかを示しており、New(記載の便宜上、式中ではNewをnew と記載することがある)は仮想視点カメラを表す。また、AとRは3×3の行列であり、tは三次元ベクトルである。また、(u,v)は仮想視点画像上の位置を表し、(x,y)は入力画像上の位置を表す。   Here, A, R, and t represent the internal parameter matrix, rotation matrix, and translation vector of the camera, respectively. Also, the subscript indicates which camera information the parameter is, and New (for convenience of description, New may be described as new in the formula) represents a virtual viewpoint camera. A and R are 3 × 3 matrices, and t is a three-dimensional vector. (U, v) represents a position on the virtual viewpoint image, and (x, y) represents a position on the input image.

また、Dview[x,y]は、カメラView (入力画像を撮影したカメラ)から入力画像の各画素に写っている被写体上の点までの距離情報を表し、Dnew,view[u,v]は、仮想視点カメラNewから仮想視点画像の各画素に写っている被写体上の点までの距離情報を表す。なお、Dnew,view[u,v]において、添え字viewを記載しているのは、どの入力画像から求められた距離情報であるのかを示すためである。 D view [x, y] represents distance information from the camera View (the camera that captured the input image) to a point on the subject that is captured in each pixel of the input image, and D new, view [u, v ] Represents the distance information from the virtual viewpoint camera New to the point on the subject shown in each pixel of the virtual viewpoint image. Note that the subscript view is described in D new, view [u, v] in order to indicate from which input image the distance information is obtained.

この変換では、入力画像の複数画素が仮想視点画像の1画素に対応付けられるため、有効な距離情報の得られない画素が大量に発生する場合がある。しかしながら、オクルージョン領域以外においては、距離情報が得られないことはない。そこで、入力画像における画素間の連続性を考慮して、仮想視点画像の画素に対応点を求めても構わない。   In this conversion, since a plurality of pixels of the input image are associated with one pixel of the virtual viewpoint image, a large number of pixels for which effective distance information cannot be obtained may occur. However, distance information is not obtained outside the occlusion area. Therefore, in consideration of continuity between pixels in the input image, corresponding points may be obtained for the pixels of the virtual viewpoint image.

連続性を考慮して変換する方法としては、例えば、入力画像上で隣接する画素に対して、距離情報の違いがある一定範囲内であれば被写体が実空間で連続していると仮定して、仮想視点画像上での対応画素を求めた後に、求まった仮想視点上の画素の間を入力画像上の小数画素位置を用いて補間する方法がある。そのほかには、三次元点を生成した後に連続性からポリゴンモデルを構築し、その立体モデルを再投影することで仮想視点画像の画素に対して入力画像上の対応画素を求めても構わない。   As a conversion method considering continuity, for example, it is assumed that the subject is continuous in the real space if the distance information is within a certain range with respect to adjacent pixels on the input image. There is a method of interpolating between the obtained pixels on the virtual viewpoint using the decimal pixel positions on the input image after obtaining the corresponding pixels on the virtual viewpoint image. In addition, after generating a three-dimensional point, a polygon model may be constructed from continuity, and the corresponding model on the input image may be obtained for the pixel of the virtual viewpoint image by reprojecting the stereo model.

なお、上記の式(6)の説明ではオクルージョンを考慮していないが、入力画像の複数の画素が仮想視点画像の同一の画素に対応する場合、得られた距離情報の値から、仮想視点のカメラに近い画素との対応関係が正しい対応関係であるとする処理が必要である。逆に、仮想視点画像の画素に対して入力画像上では対応点が求まらないものが存在するが、そのような画素に対しては対応画素なしとして区別する必要がある。   In the description of the above formula (6), occlusion is not considered, but when a plurality of pixels of the input image correspond to the same pixel of the virtual viewpoint image, the value of the obtained distance information is used to calculate the virtual viewpoint. Processing that assumes that the correspondence with the pixels close to the camera is the correct correspondence is necessary. On the contrary, there are some pixels whose corresponding points cannot be obtained on the input image for the pixels of the virtual viewpoint image, but such pixels need to be distinguished as having no corresponding pixels.

上記の式(6)から分かるとおり、ここでの処理では、入力画像と仮想視点画像との対応関係((x,y)と(u,v)との対応関係)のほかに、入力視点View (入力画像を撮影したカメラView の視点)の画像から推定される仮想視点における距離情報Dnew,view[u,v]を同時に計算することになるが、この値は仮想視点の距離情報を計算するために利用するため仮想視点距離情報生成部111に送られる。 As can be seen from the above equation (6), in this processing, in addition to the correspondence between the input image and the virtual viewpoint image (correspondence between (x, y) and (u, v)), the input viewpoint View The distance information D new, view [u, v] in the virtual viewpoint estimated from the image of the camera (ie, the viewpoint of the camera View that captured the input image) is calculated at the same time. This value calculates the distance information of the virtual viewpoint. Is sent to the virtual viewpoint distance information generation unit 111 for use.

[ステップA8の処理]
対応関係設定部105にて入力画像と仮想視点画像との対応関係が計算されると、続いて、合成画像生成部106にて、入力画像とその対応関係とから合成画像(仮想視点画像の合成元となる画像)を生成して、その生成した合成画像を合成画像メモリ107に格納する[ステップA8]。
[Process of Step A8]
When the correspondence relationship between the input image and the virtual viewpoint image is calculated by the correspondence relationship setting unit 105, the composite image generation unit 106 then combines the input image and the corresponding relationship from the composite image (synthesis of the virtual viewpoint image). (Original image) is generated, and the generated composite image is stored in the composite image memory 107 [step A8].

ここでの処理は、仮想視点画像の各画素に対して、与えられた対応関係を用いて、入力画像の画素値をコピーすることで行われる。つまり、入力視点View で観測された画像情報から推定される仮想視点における画像であるところの合成画像が生成される。対応画素が存在しない画素に関しては、画像情報なしという情報がコピーされるものとする。   The processing here is performed by copying the pixel value of the input image to each pixel of the virtual viewpoint image using a given correspondence relationship. That is, a composite image that is an image at the virtual viewpoint estimated from the image information observed at the input viewpoint View is generated. For a pixel for which no corresponding pixel exists, information that there is no image information is copied.

なお、対応関係が小数画素単位で与えられた場合には、入力画像に対してフィルタ処理を行い、入力画像の小数画素位置の画像情報を生成しコピーを行うことで、最終的に得られる仮想視点画像はより高品質なものとなる。以下では、入力画像View を用いて生成された合成画像をSYNview[・]と表す。また、合成画像に対して記号[]で挟まれた位置情報を付加することで画像の特定の領域の合成画像の画素値を表す。 When the correspondence is given in decimal pixel units, the input image is subjected to filter processing, the image information at the decimal pixel position of the input image is generated and copied, and finally obtained virtual The viewpoint image is of higher quality. In the following, a composite image generated using the input image View is represented as SYN view [•]. In addition, by adding position information sandwiched between symbols [] to the composite image, the pixel value of the composite image in a specific region of the image is represented.

[ステップA9の処理]
続いて、合成境界領域設定部108にて、入力画像における境界領域が存在する合成画像上の合成境界領域を設定してその位置を表す合成境界領域情報を生成し、その生成した合成境界領域情報を合成境界領域メモリ109に格納する[ステップA9]。
[Process of Step A9]
Subsequently, the composite boundary region setting unit 108 sets a composite boundary region on the composite image where the boundary region in the input image exists, generates composite boundary region information representing the position, and generates the generated composite boundary region information. Is stored in the composite boundary area memory 109 [step A9].

ここでの処理は、仮想視点画像の各画素に対して、与えられた対応関係を用いて、入力画像の境界領域情報の値をコピーすることで行われる。つまり、入力視点View で観測された境界領域が合成画像上で現れる位置の情報が生成される。ステップA8の処理とはコピーする値が異なるだけなので同時に行っても構わない。以下では、入力画像View に対する境界領域情報を用いて生成された合成境界領域情報をSBOUNDview[・]と表す。また、合成境界領域情報に対して記号[]で挟まれた位置情報を付加することで画像の特定の領域の合成境界領域情報の値を表す。 The process here is performed by copying the value of the boundary area information of the input image to each pixel of the virtual viewpoint image using the given correspondence. That is, information on the position where the boundary region observed at the input viewpoint View appears on the composite image is generated. Since only the value to be copied is different from the processing in step A8, it may be performed simultaneously. Hereinafter, the combined boundary area information generated using the boundary area information for the input image View is represented as SBOUND view [•]. Further, the value of the combined boundary area information of a specific area of the image is represented by adding position information sandwiched between the symbols [] to the combined boundary area information.

[ステップA1〜ステップA11の処理のまとめ]
このようにして、ステップA1〜ステップA11の処理を実行することで、多視点画像を構成する画像ごとに繰り返す処理が終了したときには、合成画像メモリ107には、 numViews個の仮想視点における合成画像が蓄積され、合成境界領域メモリ109には、それぞれの合成画像に対応する numViews個の合成境界領域情報が蓄積されている。
[Summary of Step A1 to Step A11]
In this way, by executing the processing of Step A1 to Step A11, when the processing that is repeated for each image constituting the multi-viewpoint image is completed, the composite image at the numViews virtual viewpoints is stored in the composite image memory 107. The composite boundary area memory 109 stores numViews pieces of composite boundary area information corresponding to each composite image.

[ステップA12〜ステップA17の処理の概要]
続いて、これらの情報を用いて、仮想視点画像生成部110で仮想視点画像の生成が行われ、仮想視点距離情報生成部111で仮想視点距離情報の生成が行われる[ステップA12〜ステップA17]。
[Overview of Step A12 to Step A17]
Subsequently, using these pieces of information, the virtual viewpoint image generation unit 110 generates a virtual viewpoint image, and the virtual viewpoint distance information generation unit 111 generates virtual viewpoint distance information [Step A12 to Step A17]. .

仮想視点画像を生成する処理は、仮想視点画像の画素ごとに画素値を生成する処理を繰り返すことで行われ、仮想視点距離情報を生成する処理は、仮想視点画像の画素ごとに仮想視点距離情報を生成する処理を繰り返すことで行われる。つまり、仮想視点画像の各画素を示すインデックスをPix、仮想視点画像を構成する画素の総数を numPixs と表すと、Pixを0に初期化した後[ステップA12]、Pixに1を加算しながら[ステップA16]、Pixが numPixs になるまで[ステップA17]、次の処理[ステップA13〜ステップA15]を繰り返す。   The process for generating the virtual viewpoint image is performed by repeating the process for generating the pixel value for each pixel of the virtual viewpoint image, and the process for generating the virtual viewpoint distance information is performed for each pixel of the virtual viewpoint image. This is done by repeating the process of generating. That is, if the index indicating each pixel of the virtual viewpoint image is represented by Pix and the total number of pixels constituting the virtual viewpoint image is represented by numPixs, Pix is initialized to 0 [Step A12], while adding 1 to Pix [ Step A16], and the next process [Step A13 to Step A15] is repeated until Pix reaches numPixs [Step A17].

[ステップA13の処理]
仮想視点画像の画素ごとに繰り返す処理[ステップA13〜ステップA15]では、まず、仮想視点画像生成部110にて、各合成画像に対して重みを決定する[ステップA13]。
[Process of Step A13]
In the process of repeating for each pixel of the virtual viewpoint image [Step A13 to Step A15], first, the virtual viewpoint image generation unit 110 determines a weight for each composite image [Step A13].

本実施形態例では重みの決定において境界領域情報を用いる。様々な方法が考えられるが、例えば最も単純な方法としては、以下の式(7)で決定する方法がある。   In this embodiment, boundary area information is used in determining the weight. Various methods are conceivable. For example, as the simplest method, there is a method of determining by the following equation (7).

Figure 0005011168
Figure 0005011168

ここで、Wviewが入力画像View (インデックスView の指す入力画像)を用いて生成された合成画像に対する重みを表す。 Here, W view represents the weight for the composite image generated using the input image View (the input image indicated by the index View).

この式(7)で決定される重みWviewについて具体的に説明するならば、例えば、多視点画像が5つの画像で構成され、Pixの指す画素の持つSBOUNDview[Pix]がそれぞれ(0,0,0,0,0)である場合には、 sum_bound _info=0となるので、すべての重みWviewは等しい値となってWview=1/5となる。一方、例えば、Pixの指す画素の持つSBOUNDview[Pix]がそれぞれ(0,0,1,2,3)である場合には、 sum_bound _info=6となるので、5つの重みWviewはそれぞれWview=0,0,1/6,2/6,3/6となる。 If the weight W view determined by the equation (7) is specifically described, for example, a multi-viewpoint image is composed of five images, and SBOUND view [Pix] of the pixel indicated by Pix is (0, 0, 0, 0, 0), sum_bound_info = 0, so all the weights W view are equal and W view = 1/5. On the other hand, for example, when SBOUND view [Pix] of the pixel indicated by Pix is (0, 0, 1, 2, 3), sum_bound_info = 6, and therefore, each of the five weights W view is W view = 0, 0, 1/6, 2/6, 3/6.

なお、上記の式(7)では、仮想視点画像において入力画像View における対応点が存在しない場合は考慮していない。対応点が存在するか否かについては、ステップA8の合成画像生成時やステップA9の合成境界領域情報生成時に、対応点が存在しない領域には有効な値が割り当てられないことになるため把握することが可能である。Pixにおいてそのような合成境界領域情報が存在する場合は、上記の sum_bound _infoを計算する際の和の計算から該当する合成境界領域情報を除外し、Wview=0とする。 In the above equation (7), the case where there is no corresponding point in the input image View in the virtual viewpoint image is not considered. Whether or not there is a corresponding point is grasped because a valid value is not assigned to an area where no corresponding point exists at the time of generating a composite image in step A8 or generating composite boundary area information in step A9. It is possible. When such combined boundary area information exists in Pix, the corresponding combined boundary area information is excluded from the calculation of the sum when calculating the above sum_bound_info, and W view = 0 is set.

上記の式(7)は、境界領域に属していた画素しかなかった場合には、全ての入力画像を平等に扱うが、そうでない場合には、境界領域に属していた入力画像からの情報は除外し、境界領域からの距離に応じて重みを設定することを意味する。なお、あくまでも上記の式(7)は一例であり、境界領域に属していた入力画像からの情報を無視するのではなくて、境界領域に属していない入力画像に対する重みよりも小さな重みを設定しても構わない。   The above equation (7) treats all input images equally when there are only pixels belonging to the boundary region, but if not, information from the input images belonging to the boundary region is It means to exclude and set the weight according to the distance from the boundary region. Note that the above equation (7) is merely an example, and instead of ignoring information from the input image belonging to the boundary region, a weight smaller than the weight for the input image not belonging to the boundary region is set. It doesn't matter.

また、仮想視点とその合成画像の元となった入力画像の視点との類似度を考慮した重み付けの項を追加しても構わない。つまり、視点間の距離や向きが仮想視点と近い視点に対する重みを大きくしても構わない。この類似度を考慮する場合には、上記の式(7)を次の式(8)ように変形することが可能である。   Also, a weighting term may be added in consideration of the similarity between the virtual viewpoint and the viewpoint of the input image that is the basis of the composite image. That is, the weight for the viewpoint whose distance and direction between the viewpoints are close to the virtual viewpoint may be increased. When this similarity is taken into consideration, the above equation (7) can be transformed into the following equation (8).

Figure 0005011168
Figure 0005011168

ここで、α,βはコントロールパラメータ変数であり、Sは与えられた2つの視点間の類似度を返す関数、Newは生成対象の仮想視点を表す。   Here, α and β are control parameter variables, S is a function that returns the similarity between two given viewpoints, and New represents a virtual viewpoint to be generated.

また、本実施形態例では合成画像に対する距離情報を考慮していないが、上述したステップA7の式(6)で生成されるDnew,view[u,v]が合成画像に対する距離情報を表すため、ステップA7の処理の際にこの値を蓄積しておき、この値を用いて重み付けを行っても構わない。 In this embodiment, distance information for the composite image is not taken into consideration, but D new, view [u, v] generated by the above-described equation (6) in step A7 represents the distance information for the composite image. This value may be accumulated in the process of step A7 and weighted using this value.

例えば、全View に対するDnew,view[Pix]の最小値(最も仮想視点カメラに近い値)をMinDとした場合に、MinDとDnew,view[Pix]との差がある閾値を超えるようであれば、そのView に対する重みをゼロにするという方法がある。これは距離情報が前後関係を表すため、遮蔽物体が存在する場合には背景に位置するものは考慮しないという処理になる。 For example, if the minimum value of D new, view [Pix] for all Views (the value closest to the virtual viewpoint camera) is MinD, the difference between MinD and D new, view [Pix] seems to exceed a certain threshold. If there is, there is a method of setting the weight for View to zero. In this case, since the distance information represents the context, when there is a shielding object, the object located in the background is not considered.

[ステップA14の処理]
このようにして重みの計算が終了したら、次に、仮想視点画像生成部110にて、Pixにおける仮想視点画像を生成する[ステップA14]。
[Process of Step A14]
When the calculation of the weights is completed in this way, the virtual viewpoint image generation unit 110 generates a virtual viewpoint image in Pix [Step A14].

ここでの処理は、ステップA13で決定した重みWviewを用いた単純な合成画像SYNview[Pix]の重み付け加算であり、次の式(9)で表される。 The process here is a weighted addition of a simple synthesized image SYN view [Pix] using the weight W view determined in step A13, and is expressed by the following equation (9).

Figure 0005011168
Figure 0005011168

ここで、Gen[・]は仮想視点画像を表し、仮想視点画像に対して記号[]で挟まれた位置情報を付加することで仮想視点画像の特定の領域の画素値を表す。   Here, Gen [•] represents a virtual viewpoint image, and represents the pixel value of a specific region of the virtual viewpoint image by adding position information sandwiched between symbols [] to the virtual viewpoint image.

[ステップA15の処理]
続いて、仮想視点距離情報生成部111にて、Pixにおける仮想視点距離情報を生成する[ステップA15]。
[Process of Step A15]
Subsequently, the virtual viewpoint distance information generation unit 111 generates virtual viewpoint distance information in Pix [Step A15].

ここでの処理も、ステップA13で決定した重みWviewを用いた単純な距離情報Dnew,view[Pix]の重み付け加算であり、次の式(10)で表される。 The processing here is also weighted addition of simple distance information D new, view [Pix] using the weight W view determined in step A13, and is expressed by the following equation (10).

Figure 0005011168
Figure 0005011168

なお、このようにして入力された距離情報から仮想視点距離情報を生成する方法以外に、仮想視点画像の生成が終了した後(ステップA17とステップA18の間)で、入力画像とステレオマッチング法などの距離情報生成法を用いて、仮想視点距離情報を生成する方法を用いても構わない。ただし、その場合には膨大な演算が必要になる可能性がある。そのため、両者を組み合わせて、Dnew,view[Pix]の分散が大きな画素に対してのみステレオマッチング法で距離画像生成を行うハイブリッド手法を用いても構わない。 In addition to the method of generating the virtual viewpoint distance information from the distance information input in this way, after the generation of the virtual viewpoint image is completed (between step A17 and step A18), the input image and the stereo matching method, etc. Alternatively, a method of generating virtual viewpoint distance information using the distance information generation method described above may be used. However, in that case, enormous operations may be required. For this reason, a hybrid technique may be used in which both are combined and a distance image is generated by the stereo matching method only for pixels with a large variance of D new, view [Pix].

[ステップA18の処理]
このようにして、ステップA12〜ステップA17の処理を実行することで、仮想視点画像を構成する画素ごとに繰り返す処理が終了すると、続いて、仮想視点境界領域設定部112にて、ステップA15で生成した仮想視点距離情報を用いて仮想視点境界領域を設定する[ステップA18]。
[Process of Step A18]
In this way, by executing the processing of Step A12 to Step A17, when the processing that is repeated for each pixel constituting the virtual viewpoint image is completed, the virtual viewpoint boundary region setting unit 112 subsequently generates the processing in Step A15. A virtual viewpoint boundary region is set using the virtual viewpoint distance information thus obtained [step A18].

ここでの処理は、入力情報解析部104で行われる入力画像における境界領域を設定する処理(ステップA5の処理:距離情報を使って境界領域を設定する処理)と同じ処理を用いることが可能である。ステップA5の処理の詳細については後述するが、ステップA18では、入力画像に対するインデックスView を仮想視点Newで読み替えることで、この処理を実行する。   This process can use the same process as the process of setting the boundary area in the input image performed by the input information analysis unit 104 (the process of step A5: the process of setting the boundary area using distance information). is there. Although details of the processing in step A5 will be described later, in step A18, this processing is executed by replacing the index View for the input image with the virtual viewpoint New.

[ステップA19の処理]
続いて、仮想視点画像補正部113にて、ステップA18で生成した仮想視点境界領域情報を用いて仮想視点画像を補正する[ステップA19]。
[Process of Step A19]
Subsequently, the virtual viewpoint image correcting unit 113 corrects the virtual viewpoint image using the virtual viewpoint boundary region information generated in Step A18 [Step A19].

ここでの処理では、境界領域における画素値を前景オブジェクトの画素値と背景オブジェクトの画素値とを用いて補正する処理が行われる。様々な処理方法が考えられるが、最も簡単な方法としては境界領域においてローパスフィルタを適用する方法がある。境界領域にのみ適用しても構わないし、境界領域の周辺も含めて適用しても構わない。例えば、BOUNDnew の値がMaxDistance (上述した境界領域情報の最大値)の部分ではフィルタなしで、BOUNDnew の値が小さいほどフィルタ強度が強くなるようにする方法がある。 In this process, a process of correcting the pixel value in the boundary region using the pixel value of the foreground object and the pixel value of the background object is performed. Various processing methods are conceivable, but the simplest method is to apply a low-pass filter in the boundary region. It may be applied only to the boundary region, or may be applied to the periphery of the boundary region. For example, there is a method in which the filter strength becomes stronger as the value of BOUND new becomes smaller without the filter in the portion where the value of BOUND new is MaxDistance (the maximum value of the boundary area information described above).

また、周辺画素から背景オブジェクトの画素値を推定して、BOUNDnew の値に応じた混合比を用いて、仮想視点画像の画素値に背景オブジェクトの画素値を混合する方法もある。背景オブジェクトの推定画素値には、周辺画素のうち最もカメラから遠いことを表す仮想視点距離情報を持つ画素の画素値を用いる方法もあるし、周辺画素の画素値から画素間距離や仮想視点距離情報を用いて重み付け平均して求める方法もある。後者の方法では例えば次の式(11)を用いて重みを決定してもよい。 There is also a method in which the pixel value of the background object is estimated from the peripheral pixels, and the pixel value of the background object is mixed with the pixel value of the virtual viewpoint image using a mixing ratio according to the value of BOUND new . There is a method of using the pixel value of a pixel having virtual viewpoint distance information indicating that it is the farthest from the camera among the neighboring pixels as the estimated pixel value of the background object, and the inter-pixel distance or virtual viewpoint distance from the pixel value of the peripheral pixel There is also a method of calculating the weighted average using information. In the latter method, for example, the weight may be determined using the following equation (11).

Figure 0005011168
Figure 0005011168

ここで、qが対象画素の位置を表し、qi が周辺画素の画素位置を表す。iは周辺画素を識別するためのインデックスであり、weighti がインデックスiの周辺画素に対する重みを表す。σ’I とσ’D はコントロールパラメータであり、どのような数値を使っても構わないが、画像の統計的性質に依存した値を設定することでより高画質な画像情報生成が可能になる。 Here, q represents the position of the target pixel, and q i represents the pixel position of the surrounding pixels. i is an index for identifying peripheral pixels, and weight i represents a weight for the peripheral pixel of index i. σ ' I and σ' D are control parameters, and any numerical value can be used, but it is possible to generate image information with higher image quality by setting values that depend on the statistical properties of the image. .

BOUNDnew の値に応じた混合比は、補正対象画素の仮想視点距離情報が周辺画素の仮想視点距離情報と比較して小さい(カメラに近い)ならば、補正対象画素が前景オブジェクトであることを考慮して、BOUNDnew の値が大きいほど前景オブジェクトの側に入り込んでいることに対応させて背景オブジェクトの画素値の比率が小さくなるように設定し、逆に、補正対象画素の仮想視点距離情報が周辺画素の仮想視点距離情報と比較して大きい(カメラから遠い)ならば、補正対象画素が後景オブジェクトであることを考慮して、BOUNDnew の値が大きいほど後景オブジェクトの側に入り込んでいることに対応させて背景オブジェクトの画素値の比率が大きくなるように設定する。 When the virtual viewpoint distance information of the correction target pixel is smaller than the virtual viewpoint distance information of the surrounding pixels (closer to the camera), the mixture ratio corresponding to the value of BOUND new indicates that the correction target pixel is a foreground object. Considering this, the larger the value of BOUND new, the smaller the ratio of the pixel value of the background object corresponding to the fact that it enters the foreground object side. Conversely, the virtual viewpoint distance information of the correction target pixel Is larger than the virtual viewpoint distance information of the surrounding pixels (far from the camera), considering that the correction target pixel is a foreground object, the larger the value of BOUND new , the closer to the foreground object side. The ratio of the pixel values of the background object is set so as to increase correspondingly.

さらに、仮想視点画像の補正処理では、境界領域における補正に加えて、有効な画素値が得られていない画素に対して有効な画素値を生成する処理を行ってもよい。そのような領域は入力画像からはオクルージョンのため観察できなかった領域になるため、前景オブジェクトが存在することはない。そこで、背景オブジェクトの画素値を推定することになる。具体的な処理には、上述した境界領域における背景オブジェクトの画素値を推定する処理を用いることが可能である。   Further, in the virtual viewpoint image correction process, in addition to the correction in the boundary region, a process of generating an effective pixel value for a pixel for which an effective pixel value is not obtained may be performed. Since such an area is an area that cannot be observed due to occlusion from the input image, there is no foreground object. Therefore, the pixel value of the background object is estimated. For the specific processing, the above-described processing for estimating the pixel value of the background object in the boundary region can be used.

[ステップA20の処理]
最後に、仮想視点画像出力部114にて、仮想視点画像補正部113による補正が終了した仮想視点画像を出力する[ステップA20]。
[Process of Step A20]
Finally, the virtual viewpoint image output unit 114 outputs the virtual viewpoint image that has been corrected by the virtual viewpoint image correction unit 113 [step A20].

[ステップA5の処理の詳細]
次に、図3のフローチャートに従って、ステップA5で実行する境界領域情報の生成処理の詳細について説明する。
[Details of processing in step A5]
Next, details of the boundary area information generation processing executed in step A5 will be described with reference to the flowchart of FIG.

境界領域情報を生成する処理では、まず最初に、インデックスView によって示される画像の全ての画素位置pに対して、境界領域情報BOUNDview[p]にMaxDistance を代入して初期化する[ステップB1]。ここで、図3のフローチャートでは、画素位置の集合をImageと表した。 In the process of generating the boundary area information, first, for every pixel position p of the image indicated by the index View, initialization is performed by substituting MaxDistance into the boundary area information BOUND view [p] [step B1]. . Here, in the flowchart of FIG. 3, a set of pixel positions is represented as Image.

次に、各画素に対して、その画素が境界領域に含まれるか否かを判定する。本実施形態例では、画素インデックスをidPix、画像に含まれる画素の数を numPixと表す。従って、idPixを0に初期化した後[ステップB2]、idPixに1を加算しながら[ステップB6]、idPixが numPixになるまで[ステップB7]、以下の処理を繰り返す[ステップB3〜ステップB5]。   Next, for each pixel, it is determined whether the pixel is included in the boundary region. In this embodiment, the pixel index is represented as idPix, and the number of pixels included in the image is represented as numPix. Therefore, after initializing idPix to 0 [Step B2], adding 1 to idPix [Step B6], and until idPix reaches numPix [Step B7], the following processing is repeated [Step B3 to Step B5]. .

画素ごとに繰り返す境界領域判定処理(ステップB3〜ステップB5)では、pにidPixで表される画素位置を代入した後[ステップB3]、pの距離情報との差があらかじめ定められた閾値TH_SAME_PLANE より大きくなる距離情報を持つpに隣接する画素が少なくとも1つ存在するか否かを調べる[ステップB4]。そのような隣接画素が存在する場合、pは境界領域であると判断してBOUNDview[p]に0を代入する[ステップB5]。なお、隣接画素は上下左右で隣接する4画素のみを対象としてもよいし、斜め方向も入れた8画素を対象としても構わない。 In the boundary region determination process (step B3 to step B5) that is repeated for each pixel, after substituting the pixel position represented by idPix for p [step B3], the difference from the distance information of p is determined from a predetermined threshold TH_SAME_PLANE. It is checked whether or not there is at least one pixel adjacent to p having distance information that increases (step B4). If such an adjacent pixel exists, it is determined that p is a boundary region, and 0 is substituted into BOUND view [p] [step B5]. Note that the adjacent pixels may target only four pixels that are vertically and horizontally adjacent, or may be eight pixels including diagonal directions.

境界領域の判定が終了した後、境界領域ではない画素に対して、境界領域からの距離を境界領域情報として設定する。   After the determination of the boundary region is completed, the distance from the boundary region is set as boundary region information for pixels that are not boundary regions.

本実施形態例では、境界領域からの距離が少ない画素を順に特定し、MaxDistance より少ない距離だけ離れた画素に対して適切な境界領域情報を生成する。従って、対象とする距離の値distanceを1に初期化した後[ステップB8]、distanceがMaxDistance になるまで[ステップB9]、distanceに1を加算しながら[ステップB18]、以下の処理を繰り返す[ステップB10〜ステップB17]。   In the present embodiment example, pixels having a short distance from the boundary region are sequentially specified, and appropriate boundary region information is generated for pixels separated by a distance smaller than MaxDistance. Accordingly, after initializing the target distance value distance to 1 [Step B8], until the distance becomes MaxDistance [Step B9], while adding 1 to the distance [Step B18], the following processing is repeated [ Step B10 to Step B17].

境界領域からの距離がdistanceであるような画素の境界領域情報を設定する処理では、各画素に対して、その画素が境界領域からの距離がdistanceであるか否かを判定する。従って、画素インデックスidPixを0で初期化した後[ステップB10]、idPixに1を加算しながら[ステップB16]、idPixが numPixになるまで[ステップB17]、以下の処理を繰り返す[ステップB11〜ステップB15]。   In the process of setting the boundary area information of a pixel whose distance from the boundary area is distance, it is determined for each pixel whether the distance from the boundary area of the pixel is distance. Therefore, after initializing the pixel index idPix with 0 [Step B10], while adding 1 to idPix [Step B16], until idPix becomes numPix [Step B17], the following processing is repeated [Step B11 to Step B11] B15].

画素ごとに繰り返される境界領域からの距離判定処理では、pにidPixで表される画素位置を代入した後[ステップB11]、pの境界領域情報が判定中のdistanceよりも小さい場合[ステップB12]、その画素に対する判定を終了する。そうでない場合は判定処理を継続する。つまり、pに隣接する画素のBOUNDviewの最小値を min_distanceに代入し[ステップB13]、 min_distanceがMaxDistance より小さければ[ステップB14]、BOUNDview[p]にmin _distance+1を代入する[ステップB15]。なお、この処理における隣接画素も上下左右で隣接する4画素のみを対象としてもよいし、斜め方向も入れた8画素を対象としても構わない。 In the distance determination process repeated for each pixel, after substituting the pixel position represented by idPix for p [Step B11], the boundary area information of p is smaller than the distance being determined [Step B12]. Then, the determination for the pixel is finished. Otherwise, the determination process is continued. That is, the minimum value of BOUND view of the pixel adjacent to p is substituted into min_distance [Step B13], and if min_distance is smaller than MaxDistance [Step B14], min_distance + 1 is substituted into BOUND view [p] [Step B15]. In addition, the adjacent pixels in this process may be targeted only for four pixels that are vertically and horizontally adjacent, or may be targeted for 8 pixels including an oblique direction.

このフローチャートは境界領域情報を設定するための1つの例であり、このほかの方法を用いて被写体ごとの境界領域を示す情報を設定することも可能である。   This flowchart is one example for setting the boundary area information, and information indicating the boundary area for each subject can be set by using another method.

このようにして、本実施形態例によれば、被写体の境界領域において取得された光線情報を、強度の弱い光線や信頼度の低い光線として扱うことで、主観品質の高い仮想視点画像を少ない演算量で生成することができるようになる。   In this way, according to the present embodiment, the light ray information acquired in the boundary region of the subject is treated as a light beam with low intensity or a light beam with low reliability, thereby reducing the virtual viewpoint image with high subjective quality. Will be able to produce in quantity.

[2]第2の実施形態例
以上に説明した第1の実施形態例では、図2のフローチャートのステップA6において、入力情報解析部104で、境界領域において入力された画像及び距離情報を補正する処理を行ったが、この補正処理は必ず実行しなければならないというものではない。
[2] Second Embodiment In the first embodiment described above, the input information analysis unit 104 corrects the image and distance information input in the boundary region in step A6 of the flowchart of FIG. Although processing has been performed, this correction processing is not necessarily executed.

すなわち、以上に説明した第1の実施形態例では、多視点画像によってサンプリングされた光線を合成することで仮想視点画像を生成するときに(上述したように合成画像を生成して合成する)、複数の被写体の光線情報が混合されている境界領域を判定して、境界領域に属する仮想視点画像の画素について、その画素に対応付けられる多視点画像の画素(境界領域に属すると判定される場合もあるし非境界領域に属すると判定される場合もある)によってサンプリングされた光線のうち、境界領域でサンプリングされた光線を非境界領域でサンプリングされた光線よりも強度の低い光線として取り扱って、その合成を行うようにすることで、複数の被写体からの光線情報が混ざり合うことによる影響を少なくするようにしている。   That is, in the first embodiment described above, when a virtual viewpoint image is generated by combining light rays sampled by a multi-viewpoint image (as described above, a combined image is generated and combined), When a boundary area where light information of a plurality of subjects is mixed is determined and a pixel of a virtual viewpoint image belonging to the boundary area is determined to belong to a pixel of a multi-viewpoint image that is associated with the pixel (which belongs to the boundary area) Of the light sampled by the boundary region as a light beam having a lower intensity than the light sampled by the non-boundary region. By performing the synthesis, the influence of mixing light ray information from a plurality of subjects is reduced.

このように、境界領域でサンプリングされた光線を非境界領域でサンプリングされた光線よりも強度の低い光線として取り扱って光線の合成を行うことから、図2のフローチャートのステップA6で実行した画像及び距離情報の補正処理を行わなくても、複数の被写体からの光線情報が混ざり合うことによる影響を少なくすることができる。   In this way, since the light beam sampled in the boundary region is treated as a light beam having a lower intensity than the light beam sampled in the non-boundary region, the light beam is synthesized, so that the image and distance executed in step A6 of the flowchart of FIG. Even if information correction processing is not performed, it is possible to reduce the influence caused by mixing light ray information from a plurality of subjects.

一方、図2のフローチャートのステップA6で実行した画像及び距離情報の補正処理を行う場合には、その補正により、仮想視点画像の同一の画素に対応付けられる多視点画像の画素について、それらの画素が前景オブジェクトの光線をサンプリングする場合には、それらの全ての画素が前景オブジェクトの光線をサンプリングすることになる可能性が高くなり、逆に、それらの画素が後景オブジェクトの光線をサンプリングする場合には、それらの全ての画素が後景オブジェクトの光線をサンプリングすることになる可能性が高くなる。   On the other hand, when the image and distance information correction processing executed in step A6 of the flowchart of FIG. 2 is performed, the pixels of the multi-viewpoint image associated with the same pixel of the virtual viewpoint image are corrected. If you sample the foreground object rays, it is more likely that all those pixels will sample the foreground object rays, and conversely if those pixels sample the foreground object rays. Is more likely that all those pixels will sample the rays of the foreground object.

これから、図2のフローチャートのステップA6で実行した画像及び距離情報の補正処理を行う場合には、多視点画像によってサンプリングされた光線を合成することで仮想視点画像を生成するときに、それらの光線について同一の重みで合成するようにするだけでも、複数の被写体からの光線情報が混ざり合うことによる影響を少なくすることができる。   From now on, when the image and distance information correction processing executed in step A6 of the flowchart of FIG. 2 is performed, when the virtual viewpoint image is generated by synthesizing the light rays sampled by the multi-viewpoint image, those light rays are used. Even if it is made to synthesize | combine with the same weight about, it can reduce the influence by the light ray information from several subjects being mixed.

ここで、この補正処理の考え方は、多視点画像から仮想視点画像を生成する場合にだけ適用できるものではなくて、1つのカメラにより撮影された被写体画像から仮想視点画像を生成する場合にも適用できるものである。   Here, this concept of correction processing is not only applicable when generating a virtual viewpoint image from a multi-viewpoint image, but also applied when generating a virtual viewpoint image from a subject image taken by one camera. It can be done.

この構成(第2の実施形態例)を採る場合には、本発明の仮想視点画像生成装置100は、図2のフローチャートを実行することに代えて、図4のフローチャートを実行することになる。   In the case of adopting this configuration (second embodiment), the virtual viewpoint image generation device 100 of the present invention executes the flowchart of FIG. 4 instead of executing the flowchart of FIG.

すなわち、本発明の仮想視点画像生成装置100は、第2の実施形態例を実現する場合には、図4のフローチャートに示すように、まず最初に、ステップC1で、上述のステップA1と同様の処理を実行することで、仮想視点の情報を入力し、続くステップC2で、インデックスView を0に初期化する。   That is, when realizing the second embodiment, the virtual viewpoint image generation device 100 according to the present invention is first similar to step A1 in step C1 as shown in the flowchart of FIG. By executing the process, information on the virtual viewpoint is input, and the index View is initialized to 0 in the subsequent step C2.

続いて、ステップC3で、上述のステップA3と同様の処理を実行することで、画像を入力する。続いて、ステップC4で、上述のステップA4と同様の処理を実行することで、距離情報を入力する。続いて、ステップC5で、上述のステップA5と同様の処理を実行することで、オブジェクトの境界領域を設定する。続いて、ステップC6で、上述のステップA6と同様の処理を実行することで、境界領域において入力された画像及び距離情報を補正する。続いて、ステップC7で、上述のステップA7と同様の処理を実行することで、仮想視点画像の画素に対する入力画像の画素の対応関係を計算する。続いて、ステップC8で、上述のステップA8と同様の処理を実行することで、合成画像を生成する。続いて、ステップC9で、上述のステップA9と同様の処理を実行することで、合成画像上の合成境界領域を設定する。   Subsequently, in step C3, an image is input by executing the same processing as in step A3 described above. Subsequently, in step C4, distance information is input by executing the same processing as in step A4 described above. Subsequently, in step C5, the boundary region of the object is set by executing the same processing as in step A5 described above. Subsequently, in step C6, the same process as in step A6 described above is executed to correct the image and distance information input in the boundary region. Subsequently, in step C7, the same processing as in step A7 described above is executed to calculate the correspondence relationship between the pixels of the virtual viewpoint image and the pixels of the input image. Subsequently, in step C8, a composite image is generated by executing the same process as in step A8 described above. Subsequently, in step C9, a combined boundary region on the combined image is set by executing the same processing as in step A9 described above.

続いて、ステップC10で、インデックスView の値を1つインクリメントし、続くステップC11で、インデックスView の値が numViewsに到達したのか否かを判断して、 numViewsに到達していないことを判断するときには、ステップC3の処理に戻り、 numViewsに到達したことを判断するときには、ステップC12に進んで、インデックスPixを0に初期化する。   Subsequently, in step C10, the value of the index View is incremented by one. In the subsequent step C11, it is determined whether or not the value of the index View has reached numViews, and it is determined that the value has not reached numViews. Returning to the process of step C3, when it is determined that numViews has been reached, the process proceeds to step C12, where the index Pix is initialized to zero.

続いて、ステップC13で、各合成画像の重みを同一として、インデックスPixの指す画素について、ステップC8で生成した合成画像の画素値の平均値を求め、それをコピーすることで仮想視点画像を生成する。   Subsequently, in step C13, the weights of the respective synthesized images are made the same, and the average value of the pixel values of the synthesized image generated in step C8 is obtained for the pixel indicated by the index Pix, and a virtual viewpoint image is generated by copying the average value. To do.

続いて、ステップC14で、インデックスPixの値を1つインクリメントし、続くステップC15で、インデックスPixの値が numPixs に到達したのか否かを判断して、 numPixs に到達していないことを判断するときには、ステップC13の処理に戻る。   Subsequently, in step C14, the value of the index Pix is incremented by one. In the subsequent step C15, it is determined whether or not the value of the index Pix has reached numPixs, and it is determined that the value has not reached numPixs. The process returns to step C13.

一方、インデックスPixの値が numPixs に到達したことを判断するときには、ステップC16に進んで、各合成境界領域情報の重みを同一として、ステップC9で生成した合成境界領域情報の平均値を求め、それをコピーすることで、ステップA18で設定する仮想視点境界領域に相当する仮想視点境界領域を設定する。   On the other hand, when it is determined that the value of the index Pix has reached numPixs, the process proceeds to step C16, the weight of each composite boundary area information is made the same, and the average value of the composite boundary area information generated in step C9 is obtained. Is copied to set a virtual viewpoint boundary region corresponding to the virtual viewpoint boundary region set in step A18.

続いて、ステップC17で、上述のステップA19と同様の処理を実行することで、ステップC16で設定した仮想視点境界領域を用いて仮想視点画像を補正し、続くステップC18で、上述のステップA20と同様の処理を実行することで、補正が終了した仮想視点画像を出力する。   Subsequently, in step C17, the virtual viewpoint image is corrected using the virtual viewpoint boundary region set in step C16 by executing the same processing as in step A19, and in step C18, By executing the same processing, the virtual viewpoint image that has been corrected is output.

このようにして、第2の実施形態例でも、主観品質の高い仮想視点画像を少ない演算量で生成することができるようになる。   Thus, also in the second embodiment, a virtual viewpoint image with high subjective quality can be generated with a small amount of calculation.

ここで、第2の実施形態例を実現する場合、この図4のフローチャートを実行することに代えて、図5のフローチャートを実行するという構成を採ることも可能である。   Here, when realizing the second embodiment, it is possible to adopt a configuration in which the flowchart of FIG. 5 is executed instead of the flowchart of FIG.

すなわち、図5のフローチャートでは、図4のフローチャートのステップC9の処理を省略し、図4のフローチャートのステップC13とステップC14との間に、上述のステップA15と同様の処理を実行することで仮想視点距離情報を生成するステップC100を設け、さらに、図4のフローチャートのステップC16に代えて、ステップC100で生成した仮想視点距離情報を使って仮想視点境界領域を設定する上述のステップA18と同様の処理を実行するステップC200を設けるようにしているが、この図5のフローチャートを実行することでも第2の実施形態例を実現することは可能である。   That is, in the flowchart of FIG. 5, the process of step C9 of the flowchart of FIG. Step C100 for generating viewpoint distance information is provided. Further, instead of Step C16 in the flowchart of FIG. 4, the virtual viewpoint boundary area is set using the virtual viewpoint distance information generated in Step C100, and the same as Step A18 described above. Step C200 for executing the processing is provided, but the second embodiment can also be realized by executing the flowchart of FIG.

以上説明した処理は、コンピュータとソフトウェアプログラムとによっても実現することができ、そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも、ネットワークを通して提供することも可能である。   The processing described above can also be realized by a computer and a software program, and the program can be provided by being recorded on a computer-readable recording medium or can be provided through a network.

また、以上の実施の形態では仮想視点画像生成装置を中心に説明したが、これら仮想視点画像生成装置の各部の動作に対応したステップによって本発明の仮想視点画像生成方法を実現することができる。   In the above embodiment, the virtual viewpoint image generation device has been described mainly. However, the virtual viewpoint image generation method of the present invention can be realized by steps corresponding to the operations of the respective units of these virtual viewpoint image generation devices.

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものでないことは明らかである。したがって、本発明の精神及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行っても良い。   As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. . Accordingly, additions, omissions, substitutions, and other modifications of components may be made without departing from the spirit and scope of the present invention.

本発明の仮想視点画像生成装置の装置構成図である。It is an apparatus block diagram of the virtual viewpoint image generation apparatus of this invention. 本発明の仮想視点画像生成装置の実行するフローチャートである。It is a flowchart which the virtual viewpoint image generation apparatus of this invention performs. 境界領域情報の生成処理のフローチャートである。It is a flowchart of the production | generation process of boundary area information. 本発明の仮想視点画像生成装置の実行するフローチャートである。It is a flowchart which the virtual viewpoint image generation apparatus of this invention performs. 本発明の仮想視点画像生成装置の実行するフローチャートである。It is a flowchart which the virtual viewpoint image generation apparatus of this invention performs. 仮想視点を説明する図である。It is a figure explaining a virtual viewpoint.

符号の説明Explanation of symbols

100 仮想視点画像生成装置
101 仮想視点入力部
102 画像入力部
103 距離情報入力部
104 入力情報解析部
105 対応関係設定部
106 合成画像生成部
107 合成画像メモリ
108 合成境界領域設定部
109 合成境界領域メモリ
110 仮想視点画像生成部
111 仮想視点距離情報生成部
112 仮想視点境界領域設定部
113 仮想視点画像補正部
114 仮想視点画像出力部
DESCRIPTION OF SYMBOLS 100 Virtual viewpoint image generation apparatus 101 Virtual viewpoint input part 102 Image input part 103 Distance information input part 104 Input information analysis part 105 Correspondence setting part 106 Composite image generation part 107 Composite image memory 108 Composite boundary area setting part 109 Synthetic boundary area memory DESCRIPTION OF SYMBOLS 110 Virtual viewpoint image generation part 111 Virtual viewpoint distance information generation part 112 Virtual viewpoint boundary area setting part 113 Virtual viewpoint image correction part 114 Virtual viewpoint image output part

Claims (8)

視点の異なる複数のカメラからある被写体を撮影したn枚の被写体画像からなる多視点画像と、その多視点画像を撮影したカメラから被写体画像の各画素に写っている被写体上のある点までの、前記n枚の各被写体画像に対応する距離情報とを用いて、あらかじめ指定した仮想視点から見た被写体の画像であるところの仮想視点画像を生成する仮想視点画像生成方法であって、
前記n枚の各被写体画像ごとに、前記被写体画像とその距離情報とから、前記各被写体画像に対して被写体の境界領域を設定する境界領域設定ステップと、
前記n枚の各被写体画像ごとに、前記各被写体画像上の座標と前記仮想視点画像上の座標との対応関係を、前記各被写体画像に対応する距離情報を用いて決定する対応関係決定ステップと、
前記n枚の各被写体画像ごとに、前記決定した対応関係を用いて、前記被写体画像から合成被写体画像を生成する合成画像生成ステップと、
記決定した対応関係を用いて、前記各被写体画像に対して設定された前記境界領域の情報から、前記各合成被写体画像に対して合成境界領域を設定する合成境界領域設定ステップと、
n枚の前記合成被写体画像を、前記各合成被写体画像に対して設定された前記合成境界領域の情報に従って重み付け加算するか、前記各合成被写体画像に対して設定された前記合成境界領域の情報と前記仮想視点の情報とに従って重み付け加算して、前記仮想視点画像を生成する仮想視点画像生成ステップとを備えることを、
特徴とする仮想視点画像生成方法。
From a multi-viewpoint image consisting of n subject images taken from a plurality of cameras with different viewpoints, to a certain point on the subject appearing in each pixel of the subject image from the camera that took the multi-viewpoint images , A virtual viewpoint image generation method for generating a virtual viewpoint image that is an image of a subject viewed from a virtual viewpoint designated in advance using distance information corresponding to each of the n subject images ,
A boundary region setting step for setting a boundary region of a subject for each of the subject images from the subject image and its distance information for each of the n subject images ;
A correspondence determining step of determining , for each of the n subject images , a correspondence relationship between coordinates on each subject image and coordinates on the virtual viewpoint image using distance information corresponding to each subject image ; ,
A composite image generation step for generating a composite subject image from the subject image using the determined correspondence for each of the n subject images;
Using pre Symbol determined relationship, from said information of the boundary area set for each object image, a synthesis boundary region setting step of setting a synthesis boundary region with respect to each synthetic subject image,
The n pieces of the synthetic subject image, or the weighted addition in accordance with the information of the synthesis boundary area set for each synthetic subject image, and wherein the synthesis boundary area of the information set for each synthesis object image A virtual viewpoint image generation step of generating the virtual viewpoint image by weighting and adding according to the virtual viewpoint information,
A featured virtual viewpoint image generation method.
請求項1に記載の仮想視点画像生成方法において、
前記仮想視点画像生成ステップでは、前記仮想視点画像の各画素において、前記合成境界領域ではない前記合成被写体画像が1つでも存在する場合には、それらの合成被写体画像のみを用いて重み付け加算することを、
特徴とする仮想視点画像生成方法。
The virtual viewpoint image generation method according to claim 1,
In the virtual viewpoint image generation step, if any one of the synthesized subject images that are not the synthesized boundary region exists in each pixel of the virtual viewpoint image, weighted addition is performed using only those synthesized subject images. The
A featured virtual viewpoint image generation method.
請求項1又は2に記載の仮想視点画像生成方法において、
前記境界領域における前記被写体画像を補正する多視点画像補正ステップを備え、
前記合成画像生成ステップでは、前記補正した被写体画像を用いて前記合成被写体画像を生成することを、
特徴とする仮想視点画像生成方法。
The virtual viewpoint image generation method according to claim 1 or 2,
A multi-viewpoint image correcting step for correcting the subject image in the boundary region;
In the composite image generation step, generating the composite subject image using the corrected subject image,
A featured virtual viewpoint image generation method.
請求項1ないし3のいずれか1項に記載の仮想視点画像生成方法において、
前記境界領域における前記距離情報を補正する距離情報補正ステップを備え、
前記対応関係決定ステップでは、前記補正した距離情報を用いて前記対応関係を決定することを、
特徴とする仮想視点画像生成方法。
The virtual viewpoint image generation method according to any one of claims 1 to 3,
A distance information correction step for correcting the distance information in the boundary region;
In the correspondence determination step, the correspondence is determined using the corrected distance information.
A featured virtual viewpoint image generation method.
請求項1ないし4のいずれか1項に記載の仮想視点画像生成方法において、
前記n枚の各被写体画像に対応する距離情報から、前記仮想視点画像の距離情報であるところの仮想視点距離情報を生成する仮想視点距離情報生成ステップと、
前記仮想視点距離情報と前記仮想視点画像とから、前記仮想視点画像に対して被写体の境界領域であるところの仮想視点境界領域を設定する仮想視点境界領域設定ステップと、
前記仮想視点画像の前記仮想視点境界領域における各画素の画素値を、周辺の画素の情報に従って変更する仮想視点画像補正ステップとを備えることを、
特徴とする仮想視点画像生成方法。
The virtual viewpoint image generation method according to any one of claims 1 to 4,
A virtual viewpoint distance information generating step of generating virtual viewpoint distance information that is distance information of the virtual viewpoint image from distance information corresponding to each of the n subject images ;
A virtual viewpoint boundary region setting step for setting a virtual viewpoint boundary region that is a boundary region of a subject with respect to the virtual viewpoint image from the virtual viewpoint distance information and the virtual viewpoint image;
A virtual viewpoint image correction step of changing a pixel value of each pixel in the virtual viewpoint boundary region of the virtual viewpoint image according to information of surrounding pixels,
A featured virtual viewpoint image generation method.
視点の異なる複数のカメラからある被写体を撮影したn枚の被写体画像からなる多視点画像と、その多視点画像を撮影したカメラから被写体画像の各画素に写っている被写体上のある点までの、前記n枚の各被写体画像に対応する距離情報とを用いて、あらかじめ指定した仮想視点から見た被写体の画像であるところの仮想視点画像を生成する仮想視点画像生成装置であって、
前記n枚の各被写体画像ごとに、前記被写体画像とその距離情報とから、前記各被写体画像に対して被写体の境界領域を設定する境界領域設定手段と、
前記n枚の各被写体画像ごとに、前記各被写体画像上の座標と前記仮想視点画像上の座標との対応関係を、前記各被写体画像に対応する距離情報を用いて決定する対応関係決定手段と、
前記n枚の各被写体画像ごとに、前記決定した対応関係を用いて、前記被写体画像から合成被写体画像を生成する合成画像生成手段と、
記決定した対応関係を用いて、前記各被写体画像に対して設定された前記境界領域の情報から、前記各合成被写体画像に対して合成境界領域を設定する合成境界領域設定手段と、
n枚の前記合成被写体画像を、前記各合成被写体画像に対して設定された前記合成境界領域の情報に従って重み付け加算するか、前記各合成被写体画像に対して設定された前記合成境界領域の情報と前記仮想視点の情報とに従って重み付け加算して、前記仮想視点画像を生成する仮想視点画像生成手段とを備えることを、
特徴とする仮想視点画像生成装置。
From a multi-viewpoint image consisting of n subject images taken from a plurality of cameras with different viewpoints, to a certain point on the subject appearing in each pixel of the subject image from the camera that took the multi-viewpoint images , A virtual viewpoint image generation device that generates a virtual viewpoint image that is an image of a subject viewed from a virtual viewpoint specified in advance using distance information corresponding to each of the n subject images ,
Boundary region setting means for setting a boundary region of a subject for each subject image from the subject image and distance information thereof for each of the n subject images ;
Correspondence determining means for determining , for each of the n subject images , the correspondence between the coordinates on the subject images and the coordinates on the virtual viewpoint image using distance information corresponding to the subject images ; ,
Composite image generation means for generating a composite subject image from the subject image using the determined correspondence for each of the n subject images;
Using pre Symbol determined relationship, from said information of the boundary area set for each object image, a synthesis boundary area setting means for setting a synthesis boundary region with respect to each synthetic subject image,
The n pieces of the synthetic subject image, or the weighted addition in accordance with the information of the synthesis boundary area set for each synthetic subject image, and wherein the synthesis boundary area of the information set for each synthesis object image A virtual viewpoint image generation means for generating the virtual viewpoint image by weighting and adding according to the virtual viewpoint information;
A featured virtual viewpoint image generation device.
請求項1ないし5のいずれか1項に記載の仮想視点画像生成方法をコンピュータに実行させるための仮想視点画像生成プログラム。 A virtual viewpoint image generation program for causing a computer to execute the virtual viewpoint image generation method according to any one of claims 1 to 5 . 請求項1ないし5のいずれか1項に記載の仮想視点画像生成方法をコンピュータに実行させるための仮想視点画像生成プログラムを記録したコンピュータ読み取り可能な記録媒体。 Virtual viewpoint image generation program computer-readable recording medium recording a for executing a virtual viewpoint image generation method according to the computer in any one of claims 1 to 5.
JP2008052768A 2008-03-04 2008-03-04 Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and computer-readable recording medium recording the program Active JP5011168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008052768A JP5011168B2 (en) 2008-03-04 2008-03-04 Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and computer-readable recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008052768A JP5011168B2 (en) 2008-03-04 2008-03-04 Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and computer-readable recording medium recording the program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012065546A Division JP5373931B2 (en) 2012-03-22 2012-03-22 Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, and virtual viewpoint image generation program

Publications (2)

Publication Number Publication Date
JP2009211335A JP2009211335A (en) 2009-09-17
JP5011168B2 true JP5011168B2 (en) 2012-08-29

Family

ID=41184418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008052768A Active JP5011168B2 (en) 2008-03-04 2008-03-04 Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and computer-readable recording medium recording the program

Country Status (1)

Country Link
JP (1) JP5011168B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10848748B2 (en) 2016-05-25 2020-11-24 Canon Kabushiki Kaisha Method for generating virtual viewpoint image and image processing apparatus

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011096136A1 (en) * 2010-02-02 2011-08-11 コニカミノルタホールディングス株式会社 Simulated image generating device and simulated image generating method
US8489906B2 (en) * 2010-05-25 2013-07-16 Freescale Semiconductor, Inc. Data processor having multiple low power modes
JP4939639B2 (en) * 2010-09-28 2012-05-30 シャープ株式会社 Image processing apparatus, image processing method, program, and recording medium
JP5766077B2 (en) * 2011-09-14 2015-08-19 キヤノン株式会社 Image processing apparatus and image processing method for noise reduction
KR101641606B1 (en) * 2012-07-09 2016-07-21 니폰 덴신 덴와 가부시끼가이샤 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
JP6021541B2 (en) * 2012-09-13 2016-11-09 キヤノン株式会社 Image processing apparatus and method
KR102227129B1 (en) 2013-09-11 2021-03-12 소니 주식회사 Image processing device and method
CN106464853B (en) 2014-05-21 2019-07-16 索尼公司 Image processing equipment and method
WO2017163588A1 (en) * 2016-03-24 2017-09-28 キヤノン株式会社 Image processing apparatus, image pickup apparatus, and control methods therefor, and program
JP6757184B2 (en) 2016-03-24 2020-09-16 キヤノン株式会社 Image processing equipment, imaging equipment and their control methods and programs
US11232627B2 (en) 2016-03-25 2022-01-25 Outward, Inc. Arbitrary view generation
US9996914B2 (en) 2016-03-25 2018-06-12 Outward, Inc. Arbitrary view generation
US11222461B2 (en) 2016-03-25 2022-01-11 Outward, Inc. Arbitrary view generation
US10163251B2 (en) 2016-03-25 2018-12-25 Outward, Inc. Arbitrary view generation
US10163250B2 (en) 2016-03-25 2018-12-25 Outward, Inc. Arbitrary view generation
US10163249B2 (en) 2016-03-25 2018-12-25 Outward, Inc. Arbitrary view generation
JP6808357B2 (en) * 2016-05-25 2021-01-06 キヤノン株式会社 Information processing device, control method, and program
JP2018036898A (en) * 2016-08-31 2018-03-08 キヤノン株式会社 Image processing device and control method of the same
JP7179515B2 (en) 2018-07-13 2022-11-29 キヤノン株式会社 Apparatus, control method and program
JP6632703B2 (en) * 2018-12-27 2020-01-22 キヤノン株式会社 CONTROL DEVICE, CONTROL METHOD, AND PROGRAM
CN111612915B (en) * 2019-02-25 2023-09-15 苹果公司 Rendering objects to match camera noise
GB2582315B (en) 2019-03-19 2023-05-17 Sony Interactive Entertainment Inc Method and system for generating an image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3593466B2 (en) * 1999-01-21 2004-11-24 日本電信電話株式会社 Method and apparatus for generating virtual viewpoint image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10848748B2 (en) 2016-05-25 2020-11-24 Canon Kabushiki Kaisha Method for generating virtual viewpoint image and image processing apparatus

Also Published As

Publication number Publication date
JP2009211335A (en) 2009-09-17

Similar Documents

Publication Publication Date Title
JP5011168B2 (en) Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and computer-readable recording medium recording the program
JP7080613B2 (en) Image processing equipment, image processing methods and programs
US9288476B2 (en) System and method for real-time depth modification of stereo images of a virtual reality environment
Xu et al. Unstructuredfusion: realtime 4d geometry and texture reconstruction using commercial rgbd cameras
JP4679033B2 (en) System and method for median fusion of depth maps
WO2019135979A1 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
TW201915944A (en) Image processing method, apparatus, and storage medium
JP4828506B2 (en) Virtual viewpoint image generation device, program, and recording medium
KR101560508B1 (en) Method and arrangement for 3-dimensional image model adaptation
CN111325693B (en) Large-scale panoramic viewpoint synthesis method based on single viewpoint RGB-D image
JP2006053694A (en) Space simulator, space simulation method, space simulation program and recording medium
JP2006065862A (en) Improvement in view morphing method
KR101851338B1 (en) Device for displaying realistic media contents
JP5373931B2 (en) Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, and virtual viewpoint image generation program
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
CN112233165A (en) Baseline extension implementation method based on multi-plane image learning view synthesis
WO2020075252A1 (en) Information processing device, program, and information processing method
JP2022518773A (en) 3D asteroid dynamic map generation method and portable terminal
JP2011170487A (en) Virtual point of view image generation method and program based on geometric information of camera placement in large space
WO2022098606A1 (en) Deferred neural rendering for view extrapolation
US10163250B2 (en) Arbitrary view generation
JP2004234350A (en) Image processing device, image processing method, and image processing program
JP4370672B2 (en) 3D image generating apparatus, 3D image generating method, and program providing medium
KR101566459B1 (en) Concave surface modeling in image-based visual hull
JP2020173726A (en) Virtual viewpoint conversion device and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

R150 Certificate of patent or registration of utility model

Ref document number: 5011168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350