JP2010020487A - Optional viewpoint video generation device and optional viewpoint video generation program - Google Patents
Optional viewpoint video generation device and optional viewpoint video generation program Download PDFInfo
- Publication number
- JP2010020487A JP2010020487A JP2008179455A JP2008179455A JP2010020487A JP 2010020487 A JP2010020487 A JP 2010020487A JP 2008179455 A JP2008179455 A JP 2008179455A JP 2008179455 A JP2008179455 A JP 2008179455A JP 2010020487 A JP2010020487 A JP 2010020487A
- Authority
- JP
- Japan
- Prior art keywords
- texture
- blend
- texture image
- image
- virtual viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
本発明は、任意視点映像生成装置及び任意視点映像生成プログラムに関し、特に、立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する任意視点映像生成装置及び任意視点映像生成プログラムに関する。 The present invention relates to an arbitrary viewpoint video generation device and an arbitrary viewpoint video generation program, and in particular, a specified arbitrary virtual viewpoint using a texture image obtained by shooting a three-dimensional object from a plurality of shooting points. The present invention relates to an arbitrary viewpoint video generation device and an arbitrary viewpoint video generation program for generating an image that can be seen from a user.
従来から、ユーザが指定した任意の視点(以下、「仮想視点」という。)から視認した立体形状の実体を有する対象物の映像を表示するにあたっては、対象物を複数の撮影点から撮影し、撮影した画像を用いて3次元モデルの表面にテクスチャマッピングすることにより、映像を生成・表示する手法が提案されている。 Conventionally, when displaying an image of an object having a solid shape viewed from an arbitrary viewpoint designated by the user (hereinafter referred to as a “virtual viewpoint”), the object is imaged from a plurality of imaging points, There has been proposed a technique for generating and displaying a video by texture mapping on the surface of a three-dimensional model using a photographed image.
かかる手法において、テクスチャマッピングで用いるテクスチャデータの選択を、目視による作業に依存せず、適切なテクスチャデータを自動的に選択でき、鮮明でリアルな立体モデルを得るため、3次元モデルの表面を構成する面の法線ベクトルと撮影点の視線方向のベクトルを比較し、撮影点の光軸ベクトルが面の表面ベクトルに対して平行に近い撮影点から撮影した画像のテクスチャをモデル表面の面に張り付ける手法が提案されている(例えば、特許文献1参照)。 In this method, the selection of texture data used in texture mapping does not depend on visual work, and appropriate texture data can be automatically selected, and the surface of a three-dimensional model is constructed in order to obtain a clear and realistic three-dimensional model. Compare the normal vector of the target surface with the vector of the line-of-sight direction of the shooting point, and paste the texture of the image shot from the shooting point where the optical axis vector of the shooting point is almost parallel to the surface vector of the surface to the surface of the model surface Has been proposed (see, for example, Patent Document 1).
また、高精細にテクスチャマッピングされた3次元モデルを表示するため、表示視点からの視線方向のベクトル(表示ベクトル)と撮影ベクトルとが平行に近いカメラ映像に優先を与え、優先順位の高いカメラのうち、各頂点から可視状態(Visibility)なカメラの映像をマッピングする視点依存型テクスチャマッピングも提案されている(例えば、特許文献2参照)。
しかしながら、上述した一般的なテクスチャマッピング手法は、撮影点の3次元位置や視線方向などのパラメータを正確に取得できなかったり、3次元モデルの正確な形状を生成することができなかったりして、マッピングされるテクスチャの位置がずれ、不自然な任意視点映像が生成されてしまうという問題があった。 However, the general texture mapping method described above cannot accurately acquire parameters such as the three-dimensional position of the shooting point and the direction of the line of sight, or cannot generate an accurate shape of the three-dimensional model, There is a problem that the position of the texture to be mapped is shifted and an unnatural arbitrary viewpoint video is generated.
また、上述の特許文献1に記載されている3次元モデル表面の各頂点及び各面へマッピングするテクスチャ画像データを選択する手法は、3次元モデルを表示する視点の3次元位置及び視点方向によっては、必ずしも適切なテクスチャ画像データが選択されず、状況によって高画質な3次元モデルを表示できるとは必ずしも限らないという問題があった。
In addition, the method of selecting texture image data to be mapped to each vertex and each surface of the 3D model surface described in
また、特許文献2に記載されている視点依存型テクスチャマッピング手法は、3次元モデルの表面の場所によって、各カメラの可視状態が異なるため、マッピングするテクスチャ画像も異なり、マッピングされるテクスチャ画像が異なる部分の境界付近において不連続なテクスチャが生成されてしまう。また視点を移動させると、視点の位置に応じて可視状態が変更されるため、マッピングされるテクスチャ画像もまた変更されてしまい、ちらつきのような現象が生じてしまうという問題があった。更に、この手法で動画を表示する場合には、同じような位置にある3次元モデル上の表面の、ある一部においても、時間の経過に伴って各カメラの可視状態が変わるため、マッピングされる画像も切り替わり、時間軸方向への連続性が薄くなって、やはりちらつきなどの現象が生じてしまうという問題があった。
In addition, the viewpoint-dependent texture mapping method described in
本発明は、上述した問題点に鑑みなされたものであり、高品位な内挿映像を生成することができる任意視点映像生成装置及び任意視点映像生成プログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object thereof is to provide an arbitrary viewpoint video generation apparatus and an arbitrary viewpoint video generation program capable of generating a high-quality interpolated video.
上記目的を達成するため、第1の発明に係る任意視点映像生成装置は、立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する任意視点映像生成装置であって、
前記テクスチャ画像の各撮影点の3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ画像選択手段と、
該ブレンドテクスチャ画像選択手段により選択された前記複数のテクスチャ画像の各撮影点における3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、混合する各テクスチャ画像のブレンド率を決定し、該ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成手段と、
該ブレンドテクスチャ画像生成手段により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成手段と、を有することを特徴とする。
In order to achieve the above object, an arbitrary viewpoint video generation device according to a first invention uses a texture image obtained by shooting a three-dimensional target object from a plurality of shooting points, and specifies an arbitrary virtual image. An arbitrary viewpoint video generation device that generates video viewed from a viewpoint,
A plurality of textures that give priority to each texture image based on the three-dimensional position and line-of-sight direction of each photographing point of the texture image and the three-dimensional position and line-of-sight direction of the virtual viewpoint and mix according to the priority order Blend texture image selection means for selecting an image;
Blending of texture images to be mixed based on the three-dimensional position and line-of-sight direction at each photographing point of the plurality of texture images selected by the blend texture image selection means and the three-dimensional position and line-of-sight direction of the virtual viewpoint Blend texture image generation means for determining a rate and mixing the plurality of texture images according to the blend rate to generate a blend texture image;
Interpolation video generation means for texture-mapping the blend texture image generated by the blend texture image generation means into a three-dimensional model and generating a two-dimensional interpolation video of the object seen from the virtual viewpoint; It is characterized by that.
これにより、撮影したカメラの3次元位置や視線方向などのカメラパラメータに誤差が生じたり、また3次元モデルに誤差が生じたりしても、3次元モデルにマッピングされるテクスチャ画像は、複数のテクスチャをブレンドすることで生成されているため、誤差によって生じるテクスチャの不連続性が顕著に現れない。また、仮想視点とカメラとの3次元位置及び視線方向の関係に応じたブレンド率となっているため、高品位な内挿映像を生成することができる。 As a result, even if an error occurs in the camera parameters such as the 3D position and line-of-sight direction of the photographed camera, or an error occurs in the 3D model, the texture image mapped to the 3D model has a plurality of textures. Therefore, the discontinuity of the texture caused by the error does not appear remarkably. In addition, since the blend rate is in accordance with the relationship between the virtual viewpoint and the camera in the three-dimensional position and the line-of-sight direction, a high-quality interpolated video can be generated.
第2の発明は、第1の発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、前記各撮影点の3次元位置と前記仮想視点の3次元位置との距離が近い順に前記優先順位を付与するか、又は前記各撮影点の視線方向が前記仮想視点の視線方向に近い順に前記優先順位を付与することを特徴とする。
A second invention is an arbitrary viewpoint video generation device according to the first invention, wherein:
The blend texture image selection means assigns the priorities in order of increasing distance between the three-dimensional position of each shooting point and the three-dimensional position of the virtual viewpoint, or the line-of-sight direction of each shooting point is the virtual viewpoint. The priorities are assigned in order from the closest to the viewing direction.
これにより、仮想視点から距離的に近い、もしくは仮想視点方向に近い撮影点から撮影されたテクスチャが優先的に選択され、適切なテクスチャ画像を選択することができる。また、高品位に内挿された映像を生成・表示することができる。 As a result, a texture photographed from a photographing point close to the virtual viewpoint or close to the virtual viewpoint direction is preferentially selected, and an appropriate texture image can be selected. In addition, a high-quality interpolated video can be generated and displayed.
第3の発明は、第1又は第2の発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像生成手段は、前記撮影点の3次元位置と前記仮想視点の3次元位置との距離が近い程、又は前記撮影点の視線方向が前記仮想視点の視線方向に近い程、混合率を高く決定することを特徴とする。
3rd invention is the arbitrary viewpoint image | video production | generation apparatus which concerns on 1st or 2nd invention,
The blended texture image generation means determines that the blending rate increases as the distance between the three-dimensional position of the shooting point and the three-dimensional position of the virtual viewpoint is shorter, or as the line-of-sight direction of the shooting point is closer to the line-of-sight direction of the virtual viewpoint. Is determined to be high.
これにより、仮想視点から距離的に近い、又は仮想視点の方向に近い撮影点から撮影されたテクスチャ画像ほど高い重み付けでブレンドテクスチャ画像に反映されるように混合されるため、信頼度が高くより高品位な内挿映像を生成できる。 As a result, the texture image shot from the shooting point closer to the virtual viewpoint or closer to the virtual viewpoint direction is mixed so as to be reflected in the blend texture image with higher weighting, so the reliability is higher and higher. A high quality interpolated video can be generated.
第4の発明は、第1〜3のいずれかの発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、所定時間が経過するか、又は前記仮想視点の位置が所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする。
A fourth invention is an arbitrary viewpoint video generation device according to any one of the first to third inventions,
The blend texture image selection means re-selects the blend texture image when a predetermined time elapses or the position of the virtual viewpoint is moved by a predetermined distance or more.
これにより、時間経過や仮想視点の移動に追従して、ブレンドテクスチャ画像を再選択し、再選択されたブレンドテクスチャ画像を利用してテクスチャマッピングを再実行することで、時間経過により仮想視点が移動した際も、その時刻での仮想視点において高品位に内挿された2次元映像を生成することができる。 This allows the virtual viewpoint to move over time by re-selecting the blend texture image following the passage of time and movement of the virtual viewpoint, and re-executing the texture mapping using the re-selected blend texture image. In such a case, it is possible to generate a two-dimensional video interpolated with high quality at the virtual viewpoint at that time.
第5の発明は、第1〜4のいずれかの発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、前記対象物が所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする。
A fifth invention is an arbitrary viewpoint video generation device according to any one of the first to fourth inventions,
The blend texture image selection means reselects the blend texture image when the object has moved a predetermined distance or more.
これにより、人間や動物等の動く対象物の任意視点映像を生成して動画表示する場合にも高品位に内挿された動画を生成して表示することができる。 Thus, even when an arbitrary viewpoint video of a moving object such as a human being or an animal is generated and displayed as a moving image, a high-quality interpolated moving image can be generated and displayed.
第6の発明は、第1〜5のいずれかの発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、前記仮想視点と前記3次元モデルが相対的に所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする。
A sixth invention is an arbitrary viewpoint video generation device according to any one of the first to fifth inventions,
The blend texture image selection means reselects the blend texture image when the virtual viewpoint and the three-dimensional model move relative to each other by a predetermined distance or more.
これにより、仮想視点と対象物とが相対的に移動した場合にブレンドテクスチャ画像を再選択し、再選択されたブレンドテクスチャ画像を利用してテクスチャマッピングを再実行するため、仮想視点又は対象物の単独移動自体は小さくても、相対的に大きく移動している場合には適切に再選択を行うことができる。また、仮想視点と対象物とが相対的に移動した場合にのみブレンドテクスチャ画像を再選択し、再選択されたブレンドテクスチャ画像を利用してテクスチャマッピングを実行するようにすれば、効率的に内挿映像を生成することができる。 As a result, when the virtual viewpoint and the target object move relatively, the blend texture image is reselected, and texture mapping is performed again using the reselected blend texture image. Even if the single movement itself is small, reselection can be appropriately performed when the movement is relatively large. In addition, if the blend texture image is reselected only when the virtual viewpoint and the target object move relatively, and texture mapping is executed using the reselected blend texture image, the internal efficiency can be improved. An inset image can be generated.
第7の発明は、第1〜6のいずれかの発明に係る任意視点映像生成装置において、
前記3次元モデルを構成する面のテクスチャ描画単位毎に、撮影点からの可視領域を取得する可視領域抽出手段を更に備え、
前記ブレンドテクスチャ画像選択手段は、前記優先順位の高い順から所定数のテクスチャ画像を選択するように設定されており、前記可視領域抽出手段により取得された前記可視領域に含まれるテクスチャ画像の中から前記所定数を選択することを特徴とする。
A seventh invention is an arbitrary viewpoint video generation device according to any one of the first to sixth inventions,
Visible area extraction means for acquiring a visible area from the photographing point for each texture drawing unit of the surface constituting the three-dimensional model,
The blend texture image selection means is set to select a predetermined number of texture images in order from the highest priority, and is selected from among the texture images included in the visible area acquired by the visible area extraction means. The predetermined number is selected.
これにより、マッピングするポリゴンから可視状態にある(Visibilityがある)撮影点から撮影されたテクスチャ画像のみを、ポリゴン毎に選択して混合を行うことができ、適切で有効性の高いテクスチャ画像のみを選択して混合することにより、確実に高品位な内挿映像を生成することができる。 As a result, only texture images shot from shooting points that are visible from the mapping polygon (with visibility) can be selected and mixed for each polygon, and only appropriate and highly effective texture images can be selected. By selecting and mixing, it is possible to reliably generate a high-quality interpolated image.
第8の発明は、第1〜6のいずれかの発明に係る任意視点映像生成装置において、
前記3次元モデルを構成する面のテクスチャ描画単位毎に、撮影点からの可視領域を取得する可視領域抽出手段を更に備え、
前記ブレンドテクスチャ画像生成手段は、選択された前記複数のテクスチャ画像に、前記可視領域抽出手段により取得された前記可視領域内にないテクスチャ画像が含まれているときには、該テクスチャ画像を排除してから前記ブレンド率を決定することを特徴とする。
An eighth invention is the arbitrary viewpoint video generation device according to any one of the first to sixth inventions,
Visible area extraction means for acquiring a visible area from the photographing point for each texture drawing unit of the surface constituting the three-dimensional model,
The blended texture image generating means excludes the texture image when the selected texture images include a texture image not within the visible area acquired by the visible area extracting means. The blend ratio is determined.
これにより、選択したテクスチャ画像に、マッピングするポリゴンから可視状態にない撮影点から撮影されたテクスチャ画像が含まれていた場合には、これを排除し、可視状態にあるテクスチャ画像のみからブレンド率を決定することができ、適切なテクスチャ画像のみを用いてテクスチャ画像の混合を行い、高品位な任意視点映像を取得することができる。 As a result, if the selected texture image contains a texture image taken from a shooting point that is not visible from the polygon to be mapped, this is excluded, and the blend rate is determined only from the texture image that is visible. It is possible to determine a high-quality arbitrary viewpoint video by mixing texture images using only appropriate texture images.
第9の発明に係る任意視点映像生成プログラムは、立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する処理をコンピュータに実行させるための任意視点映像生成プログラムであって、
前記テクスチャ画像の各撮影点の3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ選択処理と、
該ブレンドテクスチャ選択処理により選択された前記複数のテクスチャ画像の各撮影点における3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、混合する各テクスチャ画像のブレンド率を決定し、該ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成処理と、
該ブレンドテクスチャ画像生成処理により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成処理と、をコンピュータに実行させることを特徴とする。
An arbitrary viewpoint video generation program according to a ninth aspect of the invention generates an image that can be seen from a specified arbitrary virtual viewpoint, using texture images obtained by shooting a three-dimensional object from a plurality of shooting points. An arbitrary viewpoint video generation program for causing a computer to execute processing,
A plurality of textures that give priority to each texture image based on the three-dimensional position and line-of-sight direction of each photographing point of the texture image and the three-dimensional position and line-of-sight direction of the virtual viewpoint and mix according to the priority order Blend texture selection process to select an image,
The blend ratio of each texture image to be mixed based on the three-dimensional position and the line-of-sight direction at each photographing point of the plurality of texture images selected by the blend texture selection process and the three-dimensional position and the line-of-sight direction of the virtual viewpoint Blend texture image generation processing for generating a blend texture image by mixing the plurality of texture images according to the blend rate;
An interpolated image generating process for texture-mapping the blended texture image generated by the blended texture image generating process into a three-dimensional model and generating a two-dimensional interpolated image of the object seen from the virtual viewpoint; It is made to perform.
これにより、対象物を撮影した複数の撮影点の3次元位置及び視線方向と、仮想視点の3次元位置及び視線方向を比較し、テクスチャ画像に優先順位を付与した上でブレンドの対象となるテクスチャ画像を出力し、それらのテクスチャをブレンド率に応じてブレンドしたブレンドテクスチャ画像を前記3次元モデルにテクスチャマッピングすることで、高品位に内挿された映像を表示することができる。また、特別な装置構成を必要とせず、低コストで内挿映像生成処理を実現することができる。更に、プログラムをインストールすることにより、容易に内挿映像生成処理を実現することができる。 As a result, the three-dimensional position and line-of-sight direction of a plurality of shooting points at which the object is photographed are compared with the three-dimensional position and line-of-sight direction of the virtual viewpoint, and priorities are given to the texture images, and the texture to be blended By outputting an image and texture-mapping the blended texture image obtained by blending these textures according to the blending ratio onto the three-dimensional model, a high-quality interpolated video can be displayed. In addition, it is possible to realize the interpolated image generation process at a low cost without requiring a special device configuration. Furthermore, by installing the program, it is possible to easily realize the interpolated video generation process.
本発明によれば、複数の撮影点から撮影された画像を用いて、指定された任意の視点からの映像を内挿によって高品位に生成することができる。 According to the present invention, it is possible to generate a high-quality image from an arbitrary designated viewpoint by interpolation using images photographed from a plurality of photographing points.
以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。 The best mode for carrying out the present invention will be described below with reference to the drawings.
図1は、本発明を適用した実施例に係る任意視点映像生成装置及び任意視点映像プログラムにおけるカメラ配置の一例を示した図である。図1において、複数台のカメラCamが、立体形状を有する対象物80の周囲を囲むように配置されている。カメラCamは、図1においては、40台のカメラCamが対象物80の周囲に配置されている。
FIG. 1 is a diagram illustrating an example of a camera arrangement in an arbitrary viewpoint video generation apparatus and an arbitrary viewpoint video program according to an embodiment to which the present invention is applied. In FIG. 1, a plurality of cameras Cam are arranged so as to surround the periphery of an
本実施例に係る任意視点映像生成装置及び任意視点映像生成プログラムは、このような、複数のカメラCamが立体形状を有する対象物80の周囲に配置され、各カメラCam1〜Cam40が対象物80を各々撮影したテクスチャ画像を用いて、対象物80を立体的に再現する画像を生成する。その際、画像を視認するユーザは、対象物80を視認する視点を自由に、任意の3次元位置に仮想視点として選択することができる。本実施例に係る任意視点映像生成装置及び任意視点映像表示プログラムは、例えば図1に示したような多数配置されたカメラCamを用いて、対象物80の映像を様々な角度から撮影し、テクスチャ画像として取得する。そして、テクスチャ画像を、対象物80を再現したポリゴンに貼り付け、立体的な画像を取得する。対象物80は、実体を有し、様々な立体形状を有する3次元の物体を対象物80とすることができ、その形状や形態は問わない。また、図1においては、40台のカメラCamのうち、Cam1〜Cam24が対象物80を環状に水平に囲み、その上下にも対象物80を取り囲むように配置された例を示しているが、カメラCamの数はもっと多くても少なくてもよいし、カメラCamの配置も、対象物80の映像を種々の角度から取得できれば、様々な形態とすることができる。
In the arbitrary viewpoint video generation apparatus and the arbitrary viewpoint video generation program according to the present embodiment, such a plurality of cameras Cam are arranged around the
図2は、本発明を適用した実施例に係る任意視点映像生成装置70を含む任意視点映像生成システムの実施形態の概要構成例を示す図である。図2において、任意視点映像生成システムは、撮像装置としての複数のカメラCamと、可視視点情報取得手段10と、可視領域抽出装置30と、3次元形状生成装置20と、任意視点映像生成装置70とを有する。また、任意視点映像生成装置70は、ブレンドテクスチャ画像選択手段40とブレンドテクスチャ画像生成手段50と内挿映像生成手段60とを有するよう構成されている。なお、可視領域抽出手段30は、任意視点映像生成装置70の一部に含まれて構成されてもよい。
FIG. 2 is a diagram illustrating a schematic configuration example of an embodiment of an arbitrary viewpoint video generation system including an arbitrary viewpoint
複数のカメラCamは、それぞれが異なる撮影点から対象物(実体)80を撮影する撮像手段である。対象物80を撮影できれば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ、アナログカメラ等の種々のカメラを適用することができる。
The plurality of cameras Cam are image capturing means for capturing the object (entity) 80 from different image capturing points. If the
図3は、複数のカメラCamにより対象物80を撮影する様子を説明するための一例の図である。なお、図3以降、図中に示すカメラCamの台数は、説明の容易のために4台としているが、上述のように、本実施例に係る任意視点映像生成装置70に適用されるカメラの設置台数については、更に多くのカメラCamを設けるようにしてよい。
FIG. 3 is a diagram illustrating an example of how the
図3に示すように、複数のカメラCam1〜Cam4は、それぞれの撮影点CS1〜CS4から対象物(実体)80について同期させて撮影を行い、撮影された多視点画像を取得する。図3においては、カメラCam1が設けられた撮影点CS1からは、猫の対象物80の正面視映像が取得され、カメラCam2が設けられた撮影点CS2からは、対象物80の左側面視映像が取得されている。同様に、カメラCam3が配置された撮影点CS3からは、対象物80の背面視映像が撮影され、カメラCam4が配置された撮影点CS4からは、対象物80である猫の右側面視映像が撮影されている。
As shown in FIG. 3, the plurality of cameras Cam <b> 1 to Cam <b> 4 perform shooting in synchronization with the object (entity) 80 from the respective shooting points CS <b> 1 to CS <b> 4 and acquire the shot multi-viewpoint images. In FIG. 3, a front view image of the
このように、多視点から対象物80の画像を撮像取得するが、このとき、複数のカメラCam1〜Cam4の各撮影点CS1〜CS4(以下、総称して「CS」と標記する。)における3次元位置(図3では、XYZ軸からなる3次元座標)の情報及び複数カメラCam1〜Cam4の視線方向も取得する。また、予めカメラCam1〜Cam4に記録されているカメラレンズの焦点距離や、CCDカメラを使用している場合には、その大きさ等の内部パラメータからなる構造情報も取得する。
In this way, images of the
図2に戻る。仮想視点情報取得手段10は、ユーザにより選択される仮想視点の情報を取得する手段であり、具体的には、仮想視点の3次元位置及び視線方向を含む情報を取得する。仮想視点情報取得手段10は、例えば、ユーザが仮想視点の入力が可能な画面のコントローラや、マウスやポインタ等の入力手段に接続され、ユーザの入力操作から、仮想視点の3次元位置や視線方向等の情報を取得するようにしてよい。
Returning to FIG. The virtual viewpoint
3次元形状生成装置20は、複数のカメラCam1、Cam2…、Camn(以下、総称して「Cam」と標記する。)の撮影から得られる対象物80の画像から、3次元モデルを生成する。例えば、視体積交差法や、特許文献1に示されているように、視体積交差法とステレオマッチング法を併用した手法等の公知の手法を用いることで生成することができる。
The three-dimensional
ここで、視体積交差法は、物体の撮影画像から物体領域を抽出した複数のシルエット画像を、元の3次元空間に逆投影し、それぞれの視体積の交差部分を求めることにより、物体の3次元形状データを得る手法である。また、ステレオマッチング法は、左右に配置された2台のカメラで撮影された2枚1組の画像を用いて、左のカメラで撮影された画像が、右のカメラで撮影された画像のどの部分に対応するかを面積相関の計算により求め、その対応関係を使った三角測量により、各点の3次元位置を推測する手法である。本実施例に係る任意視点映像生成システムの3次元形状生成装置は、例えば、このような、公知の手法を用いて、3次元モデルを生成するようにしてよい。なお、3次元モデルは、XYZ座標等を用いて生成されてよい。 Here, in the visual volume intersection method, a plurality of silhouette images obtained by extracting an object region from a captured image of an object are back-projected into the original three-dimensional space, and the intersection of the respective visual volumes is obtained, thereby obtaining the 3 of the object. This is a technique for obtaining dimensional shape data. In addition, the stereo matching method uses a set of two images taken by two cameras arranged on the left and right, and the image taken by the left camera is the image of the image taken by the right camera. This is a technique for determining whether or not to correspond to a part by calculating area correlation and estimating the three-dimensional position of each point by triangulation using the correspondence. For example, the three-dimensional shape generation apparatus of the arbitrary viewpoint video generation system according to the present embodiment may generate a three-dimensional model using such a known method. Note that the three-dimensional model may be generated using XYZ coordinates or the like.
可視領域抽出装置30は、複数のカメラCamの撮影等から得られる対象物80の3次元モデルと、複数の撮影点CSから対象物80を撮影したテクスチャ画像と、テクスチャ画像を撮影した撮影点CSの3次元位置及び視線方向と、対象物80を撮影した各カメラCamの構造情報に基づいて、撮影点CS毎に3次元モデルの可視部分の領域を構成する頂点又は面を求め、テクスチャ画像に対して撮影点CSからの3次元モデルの可視部分の領域情報(可視領域情報)を取得する手段である。可視領域抽出装置30による可視領域の抽出は、例えば、特許文献2などに示された公知の手法を用いることで取得できる。
The visible
図2において、可視領域抽出装置30は、可視領域抽出装置30は、ブレンドテクスチャ画像選定手段40とブレンドテクスチャ画像生成手段50の双方に抽出結果が送られるように示されているが、いずれか一方に送るようにしてもよいし、双方に送れるように構成してもよい。
In FIG. 2, the visible
任意視点映像生成装置70におけるブレンドテクスチャ画像選択手段40は、はじめに、仮想視点情報取得手段10で取得された仮想視点の3次元位置及び視線方向からなる仮想視点情報と、複数の撮影点CSの3次元位置及び視線方向とを比較し、複数の撮影点CSから撮影したテクスチャ画像の中で優先順位を付与する手段である。
The blended texture image selection means 40 in the arbitrary viewpoint
優先順位を付与する方法としては、例えば複数の撮影点CSから撮影したテクスチャ画像の中から、撮影点CSの3次元座標と仮想視点の3次元座標とで距離が近い順番に優先順位を与えるようにしてもよい。この場合には、撮影点CSの3次元座標と、仮想視点の3次元座標との距離を各撮影点CSに対して算出することにより、優先順位を定めることができる。 As a method of assigning priorities, for example, among the texture images photographed from a plurality of photographing points CS, the priorities are given in the order of the closest distance between the three-dimensional coordinates of the photographing point CS and the three-dimensional coordinates of the virtual viewpoint. It may be. In this case, the priority order can be determined by calculating the distance between the three-dimensional coordinates of the shooting point CS and the three-dimensional coordinates of the virtual viewpoint for each shooting point CS.
また、撮影点CSの視線方向を比較して、仮想視点の視線方向と平行に近い順にテクスチャマッピングの優先順位を与えるようにしてもよい。この場合、撮影点CSの3次元座標と、3次元モデルに含まれる重心等の所定の点とから、撮影点CSからの視線ベクトルを求めるとともに、仮想視点の3次元座標と、3次元モデルに含まれる重心等の所定の点とから、仮想視点からの視線ベクトルを求め、両者の視線ベクトルの内積を算出し、内積の小さい順に優先順位を定めるようにしてもよい。また、例えば、重心を用いる他、キャリブレーションから各カメラCamの撮影方向を算出し、これを視線ベクトルとしてもよい。このように、撮影点CSからの視線方向の算出及び比較は、種々の方法を用いて行うことができる。 Alternatively, the line-of-sight directions of the imaging point CS may be compared, and texture mapping priorities may be given in the order of being parallel to the line-of-sight direction of the virtual viewpoint. In this case, the line-of-sight vector from the photographing point CS is obtained from the three-dimensional coordinates of the photographing point CS and a predetermined point such as the center of gravity included in the three-dimensional model, and the three-dimensional coordinates of the virtual viewpoint and the three-dimensional model are obtained. A line-of-sight vector from a virtual viewpoint may be obtained from a predetermined point such as the center of gravity included, an inner product of both line-of-sight vectors may be calculated, and a priority order may be determined in ascending order of the inner product. Further, for example, in addition to using the center of gravity, the shooting direction of each camera Cam may be calculated from the calibration, and this may be used as the line-of-sight vector. Thus, the calculation and comparison of the line-of-sight direction from the imaging point CS can be performed using various methods.
更に、上述の3次元座標により優先順位を付与する方法と、視線方向により優先順位を付与する方法を組み合わせてもよい。さらに付与されたテクスチャ画像から優先順位の高い2枚以上のテクスチャ画像を選出する。 Furthermore, the method of assigning priority by the above-described three-dimensional coordinates and the method of assigning priority by the line-of-sight direction may be combined. Further, two or more texture images with high priority are selected from the assigned texture images.
ここで、図4を用いて、仮想視点について説明する。図4は、仮想視点VPを説明するための一例の図である。図4は、図3において対象物80を撮影した複数の画像から生成した3次元モデル90を、ディスプレイ等の表示装置の画面上に表示する際の視点を示すものである。つまり、仮想視点VPは、再生時のユーザの設定によりXYZ軸のどの方向にも移動することができる。
Here, the virtual viewpoint will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of the virtual viewpoint VP. FIG. 4 shows a viewpoint when the three-
図2に戻る。ブレンドテクスチャ画像生成手段50は、ブレンドテクスチャ画像選択手段40から出力された複数のテクスチャ画像を、撮影点CSの3次元位置及び視線方向や仮想視点VPの3次元位置及び視線方向から算出するブレンド率にしたがって混合し、ブレンドテクスチャ画像を生成して出力する手段である。
Returning to FIG. The blend texture
ブレンド率を付与する手法としては、例えば仮想視点VPの3次元座標と撮影点CSの3次元座標との距離が近いほど、ブレンド率を高く付与し、影響度を高めるような手法がある。 As a method for giving the blend rate, for example, there is a method in which the blend rate is given higher and the degree of influence is increased as the distance between the three-dimensional coordinate of the virtual viewpoint VP and the three-dimensional coordinate of the shooting point CS is closer.
図5は、ブレンド率を仮想視点VPとの距離に基づいて定める方法の一例を示した図である。例えば、図5に示すように、優先順位の高い2つの撮影点CS1、CS2のカメラCam1、Cam2と対象物80の重心Gとで構成される平面Pへ仮想視点VPから垂線V1を下ろし、平面Pと交わった点aを算出する。なお、図5において、仮想視点VPに対応して、仮想カメラVCamを示している。次に、平面P上で対象物80の重心Gと点aとを通る直線L1を伸ばし、2つの撮影点CS1、CS2のカメラCam1、Cam2を結んだ直線L2と交わる点bを算出する。2つの撮影点CS1、CS2のカメラCam1、Cam2から点bまでの距離d1、d2をブレンド率として算出することができる。選出された2枚のテクスチャ画像を距離d1、d2のブレンド率から下記の(1)式に従って混合することで、ブレンドテクスチャ画像を取得することができる。
FIG. 5 is a diagram showing an example of a method for determining the blend rate based on the distance from the virtual viewpoint VP. For example, as shown in FIG. 5, a perpendicular line V1 is dropped from a virtual viewpoint VP to a plane P composed of the cameras Cam1 and Cam2 of the two shooting points CS1 and CS2 having a high priority and the center of gravity G of the
(1)式から、カメラCam1が仮想視点VPに接近する程、d1は小さくなるので、カメラCam1の係数(1−d1/(d1+d2))は大きくなり、カメラCam1によるテクスチャ画像の混合比率が高くなることが分かる。同様に、カメラCam2の方が仮想視点VPに接近した場合には、d1が大きくなるので、カメラCam2の係数(d1/(d1+d2))が大きくなり、カメラCam2によるテクスチャ画像の混合比率が高くなることが分かる。
From the equation (1), as the camera Cam1 approaches the virtual viewpoint VP, d1 decreases, so the coefficient (1-d1 / (d1 + d2)) of the camera Cam1 increases and the texture image mixing ratio by the camera Cam1 increases. I understand that Similarly, when the camera Cam2 is closer to the virtual viewpoint VP, d1 increases, so the coefficient (d1 / (d1 + d2)) of the camera Cam2 increases and the texture image mixing ratio by the camera Cam2 increases. I understand that.
このように、ブレンド率決定の方法としては、優先順位の高いカメラCam1、Cam2を複数選択した後、それらの仮想視点VPとの距離に応じて、仮想視点VPにより近い撮影点CS1、CS2のカメラCam1、Cam2の方のテクスチャ画像の混合比率が高くなるようにブレンド率を定めるようにしてよい。これにより、仮想視点VPからの実際の視認状態に、より近い映像を生成することができる。 As described above, as a method of determining the blend ratio, after selecting a plurality of cameras Cam1 and Cam2 having higher priorities, the cameras at the shooting points CS1 and CS2 that are closer to the virtual viewpoint VP according to the distance from the virtual viewpoint VP. The blend ratio may be determined so that the mixing ratio of the texture images of Cam1 and Cam2 is higher. Thereby, an image closer to the actual visual recognition state from the virtual viewpoint VP can be generated.
次に、図6を用いて、図5とは異なるブレンド率の決定方法について説明する。図6は、図5とは異なる、仮想視点方向と撮影方向のなす角に応じたブレンド率の算出方法の一例を説明するための図である。 Next, a method for determining a blend ratio different from that in FIG. 5 will be described with reference to FIG. FIG. 6 is a diagram for explaining an example of a blend rate calculation method according to the angle formed by the virtual viewpoint direction and the shooting direction, which is different from FIG. 5.
図6において、優先順位の高い2つの撮影点CS1、CS2のカメラCam1、Cam2と対象物80の重心Gとで構成される平面Qへ、仮想カメラVCamが設けられた仮想視点VPから垂線V2を下ろし、平面Qと交わる点cが算出されている。次に、平面Q上で対象物80の重心Gと点cとを結ぶ直線L3を考え、重心Gと各撮影点CS1、CS2のカメラCam1、Cam2とを結ぶ直線L4、L5となす角度φ1、φ2をブレンド率とすることができる。混合にあたっては、下記の(2)式により、ブレンドテクスチャ画像を取得する。
In FIG. 6, a perpendicular line V2 is drawn from a virtual viewpoint VP at which the virtual camera VCam is provided to a plane Q composed of the cameras Cam1 and Cam2 of the two shooting points CS1 and CS2 having high priority and the center of gravity G of the
このように、ブレンド率の算出は、仮想視点VPの視線方向と、選択された優先順位の高い撮影点CS1、CS2のカメラCam1、Cam2の視線方向との関係に基づいて行うようにしてもよい。これにより、仮想視点VPの視線方向に近い方の撮影点CS1、CS2のカメラCam1、Cam2の混合比率を高めることができ、より仮想視点VPからの視認状態に近いブレンド画像を生成することができる。 As described above, the calculation of the blend ratio may be performed based on the relationship between the line-of-sight direction of the virtual viewpoint VP and the line-of-sight direction of the selected camera points CS1 and CS2 of the photographing points CS1 and CS2. . As a result, the mixing ratio of the cameras Cam1 and Cam2 at the photographing points CS1 and CS2 closer to the visual line direction of the virtual viewpoint VP can be increased, and a blended image closer to the viewing state from the virtual viewpoint VP can be generated. .
図5及び図6においては、ブレンドテクスチャ選定手段40で2枚の優先順位の高いテクスチャ画像が選択され、2枚のテクスチャ画像を混合する例について説明したが、次に図7を用いて、3枚のテクスチャ画像を混合する場合について説明する。
5 and 6, an example in which two texture images with high priority are selected by the blend
図7は、3枚のテクスチャ画像を混合する場合のブレンド率の算出方法の一例について説明するための図である。図7において、仮想視点VPに距離的に近い、又は視線方向が近い優先順位の高い撮影点CS1、CS2、CS3のカメラCam1、Cam2、Cam3が3台選択されている。 FIG. 7 is a diagram for explaining an example of a blend rate calculation method when three texture images are mixed. In FIG. 7, three cameras Cam1, Cam2, and Cam3 of the shooting points CS1, CS2, and CS3 with high priority that are close to the virtual viewpoint VP or close to the line-of-sight direction are selected.
本ブレンド率の算出方法においては、図7に示されるように、優先順位の高い3つの撮影点CS1、CS2、CS3のカメラCam1、Cam2、Cam3で構成される平面Rに対して、仮想カメラVCamが設けられた仮想視点VPから垂線V3を下ろし、平面Rと交わる点Oを算出する。 In this blend ratio calculation method, as shown in FIG. 7, a virtual camera VCam is applied to a plane R composed of cameras Cam1, Cam2, and Cam3 of three shooting points CS1, CS2, and CS3 having a high priority. A vertical line V3 is dropped from the virtual viewpoint VP provided with the point O, and a point O that intersects the plane R is calculated.
点Oから各撮影点Cam1、Cam2、Cam3同士を結んだ辺L6、L7、L8に対して垂線を下ろし、それぞれの長さd1、d2、d3をブレンド率とすることができる。これらのブレンド率に従い、下記の(3)式を用いてブレンドテクスチャ画像を取得することができる。 A perpendicular is drawn from the point O to the sides L6, L7, and L8 connecting the photographing points Cam1, Cam2, and Cam3, and the respective lengths d1, d2, and d3 can be set as the blend ratio. According to these blend ratios, a blend texture image can be acquired using the following formula (3).
このように、選択する複数の撮影点CSは、複数であれば、2つであってもよいし、3つであってもよく、用途に応じて所定数に設定することができる。図5乃至図7においては、選択する撮影点CSの数が2つの場合と3つの場合のみを挙げて説明しているが、例えば、4つであってもよいし、4つ以上であってもよい。いずれの場合においても、仮想視点VPに距離が接近又は視線方向が近くなる撮影点CSほど、混合比率が高くなるようにブレンド率を算出すれば、ちらつきの少ない滑らかなブレンドテクスチャ画像を生成することができる。 As described above, the plurality of imaging points CS to be selected may be two or three as long as they are plural, and can be set to a predetermined number according to the application. In FIGS. 5 to 7, the case where the number of shooting points CS to be selected is only two and three is described. However, for example, the number may be four or four or more. Also good. In any case, if the blend rate is calculated so that the blending ratio becomes higher as the shooting point CS is closer to the virtual viewpoint VP or closer to the visual line direction, a smooth blend texture image with less flickering is generated. Can do.
ここで、図2で説明した可視領域抽出装置30を用いることで、高品位なブレンドテクスチャ画像を取得することができる。はじめに、仮想カメラから上述の優先順位により、N台のカメラCamを選択する。次に、テクスチャ画像の最小構成単位であるポリゴン毎にブレンドする上位M台のカメラCamを、ブレンドテクスチャ選定手段40の優先順位に従って選出する。ただし、このとき当該ポリゴンから可視状態(Visible)でないカメラCamは排除する。選出されたM台のテクスチャ画像を、上述のブレンド手法により混合し、ブレンドテクスチャ画像を生成する。
Here, by using the visible
なお、可視状態でないカメラCamのテクスチャ画像の排除は、ブレンドテクスチャ画像選択手段40でブレンドテクスチャ画像を選択するときに行ってもよいし、ブレンドテクスチャ画像生成手段50でブレンドテクスチャ画像を生成する直前に行ってもよい。ブレンドテクスチャ画像選択手段40で不可視状態のカメラCamによるテクスチャ画像を排除する場合には、可視状態にあるテクスチャ画像の中から上位M台を選択するようにする。この場合には、M台のカメラCamは総て可視状態にあるが、ポリゴン毎にカメラの組み合わせが異なる場合が有り得る。一方、ブレンドテクスチャ画像生成手段50で不可視状態のカメラCamによるテクスチャ画像を排除する場合には、選択されたM台の優先順位の高いカメラCamのテクスチャ画像から、不可視状態のカメラによるテクスチャ画像を排除するようにする。これにより、ポリゴン毎に用いるテクスチャ画像の数が異なる場合が有り得るが、カメラの組み合わせは同じとなる。これらは、用途に応じて適宜適切な手法を採用するようにしてよい。
In addition, the texture image of the camera Cam that is not visible may be excluded when the blend texture
ここで、仮想視点VPの3次元座標及び視線方向は、例えば、OpenGL(Open Graphics Library)等の3次元プログラミング言語等を用いて求めることができる。また、複数の撮影点CSの3次元座標及び視線方向は、例えば撮影時に実空間の位置と、画像上の仮想空間の位置との対応を取るカメラキャリブレーション等を実施することにより取得することができる。 Here, the three-dimensional coordinates and the line-of-sight direction of the virtual viewpoint VP can be obtained using a three-dimensional programming language such as OpenGL (Open Graphics Library), for example. Further, the three-dimensional coordinates and the line-of-sight directions of the plurality of shooting points CS can be acquired by performing camera calibration or the like that takes a correspondence between the position of the real space and the position of the virtual space on the image at the time of shooting, for example. it can.
内挿映像生成装置60は、ブレンドテクスチャ画像と3次元モデル90と仮想視点VPの3次元座標及び視線方向等からなる仮想視点情報とを入力とし、ブレンドテクスチャ画像を3次元モデル90にテクスチャマッピングし、仮想視点VPから見える3次元モデル90を生成する。これにより、カメラの設置されていない仮想視点VPからの映像を高品位に生成することができる。
The interpolated
次に、動画像への対応方法について説明する。上述のように説明した任意視点映像生成装置70は、仮想視点VPに依存して内挿映像を生成するので、仮想視点VPが移動する場合や対象物80が移動する場合等においても、高品位な内挿映像を生成することができる。
Next, a method for dealing with moving images will be described. Since the arbitrary viewpoint
この場合には、所定の時間が経過した場合や、仮想視点VPが所定距離分の変化等に伴う仮想視点VPの移動に追従して、可視領域抽出装置30においても、表面頂点群または面群を再度求めて3次元モデル90の可視領域情報を取得する。また、ブレンドテクスチャ画像選択手段40にてテクスチャ画像を再選択し、ブレンドテクスチャ画像生成手段50でブレンド率を再計算した上で、ブレンドテクスチャ画像を生成する。更に、これらの情報を用いてブレンドテクスチャ画像生成手段50にて、新たにブレンドテクスチャ画像を生成した上で、内挿映像生成装置60にて3次元モデル90にテクスチャマッピングすることによって、動画像にも対応することができる。
In this case, the surface vertex group or the surface group also in the visible
なお、上述の追従については、仮想視点VPの移動に限定されず、例えば人や動物等のように、対象物80が移動する場合についても同様に対応することができる。これにより、人間や動物等の動く対象物80の3次元モデル90を動画表示する場合にも、高品位に内挿された内挿映像を生成することができる。
The follow-up described above is not limited to the movement of the virtual viewpoint VP, and can be similarly applied to the case where the
また、仮想視点VPと3次元モデル90とが相対的に移動した場合にのみテクスチャ画像を再選択し、ブレンド率を更新して、ブレンドテクスチャ画像を生成してもよい。なお、この場合に、3次元モデル90の位置として、例えば重心等の所定位置を基準にするようにしてよい。
Alternatively, a texture image may be reselected only when the virtual viewpoint VP and the three-
これにより、仮想視点VPと3次元モデル90とが相対的に移動した場合にのみテクスチャ画像を再選出し、再選出されたテクスチャを新たなブレンド率に従ってブレンドテクスチャのテクスチャマッピングを再実行することになるため、効率的に内挿された映像を生成することができる。
As a result, the texture image is re-selected only when the virtual viewpoint VP and the three-
ここで、本発明における内挿映像生成装置60の各構成における処理をコンピュータに実行させることができる実行プログラムを生成し、例えば、汎用のパーソナルコンピュータ、ワークステーション等にプログラムをインストールすることにより、本発明において生成された内挿映像の表示を実現することができる。
Here, an execution program capable of causing a computer to execute the processing in each configuration of the interpolated
次に、本実施例に係る任意視点映像生成装置70の内挿映像生成処理を実行可能なコンピュータのハードウェア構成例について、図8を用いて説明する。図8は、本発明を適用した実施例に係る任意視点映像生成装置70の内挿映像生成処理を実現可能なハードウェア構成の一例を示す図である。
Next, a hardware configuration example of a computer capable of executing the interpolated video generation processing of the arbitrary viewpoint
図8におけるコンピュータ本体には、入力装置110と出力装置120とドライブ装置130と補助記録装置140とメモリ装置150と各種制御を行うCPU(Central Processing Unit)160と、ネットワーク接続装置170とを有するよう構成されており、これらはシステムバス180で相互に接続されている。
8 includes an
入力装置110は、ユーザが操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザからのプログラムの実行等、各種操作信号を入力する。出力装置120は、本実施例における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU160が有する制御プログラムにより、プログラムの実行経過や内挿映像生成結果等を表示することができる。
The
ここで、本実施例においてコンピュータ本体にインストールされる実行プログラムは、例えば、CD−ROM等の記録媒体100等により提供される。プログラムを記録した記録媒体100は、ドライブ装置130にセット可能であり、記録媒体100に含まれる実行プログラムが、記録媒体100からドライブ装置130を介して補助記憶装置140にインストールされる。よって、図2に示した任意視点映像生成装置70のブレンドテクスチャ画像選定手段40、ブレンドテクスチャ画像生成手段50、内挿映像生成手段60で実行する処理を、コンピュータプログラムとして記録媒体100に記録しておけば、本実施例に係る任意視点映像生成装置70の機能を、本実施例に係る任意視点映像生成プログラムとして図8に示したコンピュータに実行させることができる。この場合には、任意視点映像生成プログラムは、ブレンドテクスチャ画像選定処理、ブレンドテクスチャ画像生成処理及び内挿映像生成処理を順次コンピュータに実行させるプログラムを構成することになる。
Here, the execution program installed in the computer main body in the present embodiment is provided by the
補助記憶装置140は、ハードディスク等のストレージ手段であり、本実施例における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。
The
CPU160は、OS(Operating System)等の制御プログラム、及びメモリ装置150により読み出され格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、内挿映像生成表示における各処理を実現することができる。プログラムの実行中に必要な各種情報等は、補助記憶装置140から取得することができ、また格納することもできる。
Based on a control program such as an OS (Operating System) and an execution program read and stored by the
ネットワーク接続装置170は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本実施例における実行プログラム自体を他の端末等に提供したりすることができる。
The
図8に示したハードウェア構成により、特別な装置構成を必要とせず、低コストで内挿映像の生成・表示処理を実現することができる。また、任意視点映像生成プログラムをインストールすることにより、容易に内挿映像生成・表示処理を実現することができる。 The hardware configuration shown in FIG. 8 does not require a special device configuration, and can realize the generation / display processing of the interpolated video at a low cost. Further, by installing the arbitrary viewpoint video generation program, it is possible to easily realize the interpolated video generation / display processing.
次に、図9を用いて、本実施例に係る任意視点映像生成装置70及び任意視点映像生成システムで実行される内挿映像生成・表示処理の処理フローについて説明する。図9は、本実施例に係る任意視点映像生成装置70及び任意視点映像生成プログラムで実行される内挿映像生成・表示処理を実現するための一例のフローチャートである。なお、本実施例に係る任意視点映像生成装置70及び任意視点映像生成プログラムにおいては、テクスチャ画像を取得してから、内挿映像の生成までの処理を行うが、図9の処理フローにおいては、その前に行われるテクスチャ画像の取得と、その後に行われる内挿映像の表示処理を含めて示している。
Next, the processing flow of the interpolated video generation / display process executed by the arbitrary viewpoint
ステップ200では、複数のカメラCamにより同期して撮影されたテクスチャ画像、撮影したカメラCamnの撮影点CSの3次元座標及び視線方向、及び仮想視点VPの3次元座標及び視線方向(仮想視点情報)が入力される。 In step 200, the texture image photographed synchronously by the plurality of cameras Cam, the three-dimensional coordinates and line-of-sight directions of the photographing point CS of the photographed camera Camn, and the three-dimensional coordinates and line-of-sight directions of the virtual viewpoint VP (virtual viewpoint information). Is entered.
ステップ210では、ステップ200で取得した各情報に基づいて、ブレンドテクスチャ画像選択手段40又はブレンドテクスチャ画像選択処理においてブレンドテクスチャ画像を選択する。ステップ210においては、複数のテクスチャ画像をブレンドしてブレンドテクスチャを生成するため、ブレンドするテクスチャ画像の候補をまず定める。ブレンド対象となる撮影点CSのテクスチャ画像を選択するにあたっては、例えば、仮想視点VPの3次元座標に撮影点CSの3次元座標の距離が近い順番に、撮影点CSに優先順位を与えてもよい。または、仮想視線の方向と各撮影点CSの撮影方向の視線方向とを比較して、仮想視線の方向と平行に近い順に撮影点CSに優先順位を与えてもよい。また、上述の3次元位置により優先順位を付与する方法と、と視線方向により優先順位を付与する方法を組み合わせてもよい。このようにして付与された優先順位に基づいて、ブレンドする複数のテクスチャ画像を選出する。 In step 210, based on each information acquired in step 200, a blend texture image is selected in the blend texture image selection means 40 or the blend texture image selection process. In step 210, in order to blend a plurality of texture images to generate a blend texture, texture image candidates to be blended are first determined. When selecting the texture image of the shooting point CS to be blended, for example, even when the priority order is given to the shooting point CS in the order that the distance of the three-dimensional coordinate of the shooting point CS is close to the three-dimensional coordinate of the virtual viewpoint VP. Good. Alternatively, the direction of the virtual line of sight may be compared with the line-of-sight direction of the shooting direction of each shooting point CS, and the priority order may be given to the shooting points CS in the order of being parallel to the direction of the virtual line of sight. Moreover, you may combine the method of giving a priority with the above-mentioned three-dimensional position, and the method of giving a priority with a gaze direction. A plurality of texture images to be blended are selected based on the priority order assigned in this way.
なお、選出にあたっては、可視領域抽出装置30によりポリゴン毎に各撮影点CSの可視状態を算出し、不可視状態の撮影点CSは選出の対象としない手法を用いると、より高品位な内挿映像を生成することが可能である。優先順位の高い候補に不可視状態の撮影点CSが存在する場合には、その撮影点CSのテクスチャ画像は破棄して排除し、優先順位の高いもう一つの撮影点CSを追加して選出する。したがって、この手法を用いる場合、ポリゴン毎にブレンドするテクスチャカメラCamnの構成は異なる場合があり得る。
When selecting, the visible
ステップ220では、ブレンドテクスチャ画像生成手段50又はブレンドテクスチャ画像生成処理により、ブレンドするにあたっての各テクスチャ画像のブレンド率(重みづけ)を算出する。ブレンド率は、撮影点CSの3次元座標と、仮想視点VPの3次元座標とで距離に応じて決める。または、仮想視線の方向と撮影方向の視線方向とを比較して、撮影方向の視線方向が仮想視線の方向に平行に近い度合いに応じて決める。また、上述の3次元位置によりブレンド率を付与する方法と視線方向によりブレンド率を付与する方法とを組み合わせてもよい。このようにして与えられたブレンド率に基づいてテクスチャをブレンドしてブレンドテクスチャを生成し、出力する。 In step 220, the blend texture image generation means 50 or the blend texture image generation process calculates the blend ratio (weighting) of each texture image for blending. The blend ratio is determined according to the distance between the three-dimensional coordinates of the photographing point CS and the three-dimensional coordinates of the virtual viewpoint VP. Alternatively, the direction of the visual line of sight and the line of sight of the shooting direction are compared, and the direction of the line of sight in the shooting direction is determined according to the degree of parallelism to the direction of the virtual line of sight. Moreover, you may combine the method of providing a blend rate by the above-mentioned three-dimensional position, and the method of providing a blend rate by a gaze direction. Based on the blend ratio thus given, the texture is blended to generate and output a blend texture.
なお、ステップ210において行った可視領域抽出装置30による可視状態の算出結果の反映は、ステップ220で行うようにしてもよい。つまり、ブレンド対象として選択されたテクスチャ画像に、不可視状態の撮影点CSのテクスチャ画像が含まれている場合には、この段階で、不可視状態の撮影点CSのテクスチャ画像を破棄して排除し、残りのテクスチャ画像を用いてブレンド率を算出してもよい。この手法を用いる場合には、ポリゴン毎にブレンドするテクスチャカメラCamnの構成は同じとなる。よって、用途に応じて、ステップ210の段階で可視領域情報に基づく不可視状態の撮影点CSのテクスチャ画像の削除を行うか、ステップ220の段階で不可視状態の撮影点CSのテクスチャ画像の排除を行うかを定めるようにしてよい。なお、いずれの場合においても、可視領域抽出装置30による可視領域の抽出は必須ではなく、必要に応じて可視領域抽出装置30を設け、可視領域抽出を行うようにしてよい。
The reflection of the calculation result of the visible state by the visible
ステップ230では、内挿映像生成手段60又は内挿映像生成処理において、各ブレンドテクスチャを3次元モデル90に貼り付けるテクスチャマッピングを行った上で、仮想視点VPからの映像を出力する。これにより、テクスチャ間の画像変化が滑らかで、ちらつきの少ない内挿映像を生成して表示することができる。
In
ステップ240では、3次元モデル90と仮想視点VPとの位置が相対的に所定の距離以上移動したかを判断する。仮想視点VPと3次元モデル90との位置が相対的に移動した場合、ステップ210に戻り、ブレンドテクスチャの選択及び生成を再び行い、移動後の内挿映像を生成・表示する。
In step 240, it is determined whether the positions of the three-
なお、3次元モデル90及び仮想視点VPの位置の移動の有無の判定は、両者の相対移動のみでなく、各々の移動自体で行うようにしてもよい。例えば、3次元モデル90が固定状態に近く、仮想視点VPのみ大きな移動が予想される場合には、仮想視点VPが所定の距離以上移動したか否かを判定し、所定の距離以上移動した場合に、ブレンドテクスチャ画像の生成を再び行うようにしてもよい。逆に、仮想視点VPの移動が少なく、3次元モデル90の大きな移動が予想される場合には、3次元モデル90が所定の距離以上移動したか否かを判定し、所定の距離以上移動した場合に、ブレンドテクスチャ画像の生成を再度行うようにしてもよい。また、これらの移動閾値を、仮想視点単独、3次元モデル90単独及び両者の相対移動の総てに対して設定するようにしてもよい。更に、位置の移動以外に、所定時間以上経過したら、ブレンドテクスチャ画像の再選択及び再生成を行うようにしてもよい。これらの移動や時間経過に伴うブレンドテクスチャ画像の再生成の場合も、総てのブレンドテクスチャ画像が適切なブレンド率で混合された画像間での再生性なので、滑らかに画像移動を行うことができる。
The determination of whether or not the positions of the three-
ステップ240において、仮想視点VPと3次元モデル90との位置が相対的に又は単独でも移動していないと判定された場合、ステップ250に進む。
If it is determined in step 240 that the positions of the virtual viewpoint VP and the three-
ステップ250では、内挿映像生成・表示を終了するかを判断する。内挿映像生成・表示を終了しない場合、ステップ240に戻り、3次元モデル90と仮想視点VPとの位置が相対的に移動するかの判断を繰り返す。また、内挿映像生成・表示を終了する場合、任意視点映像生成・表示処理を終了する。
In
このように、任意視点映像生成・表示処理を任意視点映像システム又はコンピュータで実行することにより、高品位に内挿された任意視点映像を表示することができる。また、特別な装置構成を必要とせず、汎用のコンピュータに実行プログラムをインストールして上述の任意視点映像生成・表示処理を実行させることで、低コストで任意視点生成・表示処理を実現することができる。 As described above, by executing the arbitrary viewpoint video generation / display processing by the arbitrary viewpoint video system or the computer, it is possible to display the arbitrary viewpoint video interpolated with high quality. Also, it is possible to realize the arbitrary viewpoint generation / display processing at a low cost by installing an execution program on a general-purpose computer and executing the above-described arbitrary viewpoint video generation / display processing without requiring a special device configuration. it can.
上述したように本実施例によれば、高品位にテクスチャマッピングされた3次元モデル90を表示することができる。これにより、手作業でテクスチャマッピングを実行している制作者側の負担が軽減できるだけでなく、ブレンドされている効果として、撮影点CSや取得した3次元モデル90に誤差があっても、ポリゴンの境目に顕著なテクスチャの不連続領域が発生しない。また、視点を移動させたり、動体の対象物を表示させたりしてもちらつきが顕著でない効果を得ることができる。
As described above, according to the present embodiment, the three-
具体的には、本実施例では立体形状を持つ対象物を複数の撮影点CSから撮影し、撮影された画像をもとに3次元モデル90を作成し、複数撮影点CSから撮影されたテクスチャを作成した3次元モデル90にテクスチャマッピングする際に、テクスチャを仮想視点VPに依存して選別し、それらをブレンドすることによって仮想視点VPに対応した適切な内挿映像を生成することができる。また、仮想視点VP等に追従したブレンドテクスチャマッピングを実行することで高品位な任意視点映像を出力することができる。
Specifically, in this embodiment, an object having a three-dimensional shape is photographed from a plurality of photographing points CS, a three-
また、本実施例では、表示する際の仮想視点位置に対応して、モデル表面にテクスチャを与える視点依存型の面テクスチャマッピング手法を行う際に、マッピングするテクスチャを複数のテクスチャをブレンドして生成することで高品位な任意視点映像を出力することができる。 In addition, in this embodiment, when performing a viewpoint-dependent surface texture mapping method that gives a texture to the model surface corresponding to the virtual viewpoint position at the time of display, a texture to be mapped is generated by blending multiple textures. By doing so, it is possible to output a high-quality arbitrary viewpoint video.
なお、本実施例は、3次元CG(Computer Graphics)の生成、表示技術で用いることができ、一般的なテクスチャマッピング技術、レンダリング技術に適用することができる。 Note that the present embodiment can be used in 3D CG (Computer Graphics) generation and display technology, and can be applied to general texture mapping technology and rendering technology.
以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。 The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.
10 仮想視点情報取得手段
20 3次元形状生成装置
30 可視領域抽出装置
40 ブレンドテクスチャ画像選定手段
50 ブレンドテクスチャ画像生成手段
60 内挿映像生成手段
70 任意視点映像生成装置
80 対象物
90 3次元モデル
100 記録媒体
110 入力装置
120 出力装置
130 ドライブ装置
140 補助記録装置
150 メモリ装置
160 CPU
170 ネットワーク接続装置
Cam カメラ
VCam 仮想カメラ
CS 撮影点
VP 仮想視点
DESCRIPTION OF
170 Network Connection Device Cam Camera VCam Virtual Camera CS Shooting Point VP Virtual Viewpoint
Claims (9)
前記テクスチャ画像の各撮影点の3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ画像選択手段と、
該ブレンドテクスチャ画像選択手段により選択された前記複数のテクスチャ画像の各撮影点における3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、混合する各テクスチャ画像のブレンド率を決定し、該ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成手段と、
該ブレンドテクスチャ画像生成手段により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成手段と、を有することを特徴とする任意視点映像生成装置。 An arbitrary viewpoint video generation device that generates an image that can be seen from a specified arbitrary virtual viewpoint using texture images obtained by shooting a three-dimensional object from a plurality of shooting points,
A plurality of textures that give priority to each texture image based on the three-dimensional position and line-of-sight direction of each photographing point of the texture image and the three-dimensional position and line-of-sight direction of the virtual viewpoint and mix according to the priority order Blend texture image selection means for selecting an image;
Blending of texture images to be mixed based on the three-dimensional position and line-of-sight direction at each photographing point of the plurality of texture images selected by the blend texture image selection means and the three-dimensional position and line-of-sight direction of the virtual viewpoint Blend texture image generation means for determining a rate and mixing the plurality of texture images according to the blend rate to generate a blend texture image;
Interpolation video generation means for texture-mapping the blend texture image generated by the blend texture image generation means into a three-dimensional model and generating a two-dimensional interpolation video of the object seen from the virtual viewpoint; An arbitrary viewpoint video generation device characterized by the above.
前記ブレンドテクスチャ画像選択手段は、前記優先順位の高い順から所定数のテクスチャ画像を選択するように設定されており、前記可視領域抽出手段により取得された前記可視領域に含まれるテクスチャ画像の中から前記所定数を選択することを特徴とする請求項1乃至6のいずれか一項に記載の任意視点映像生成装置。 Visible area extraction means for acquiring a visible area from the photographing point for each texture drawing unit of the surface constituting the three-dimensional model,
The blend texture image selection means is set to select a predetermined number of texture images in order from the highest priority, and is selected from among the texture images included in the visible area acquired by the visible area extraction means. The arbitrary viewpoint video generation apparatus according to any one of claims 1 to 6, wherein the predetermined number is selected.
前記ブレンドテクスチャ画像生成手段は、選択された前記複数のテクスチャ画像に、前記可視領域抽出手段により取得された前記可視領域内にないテクスチャ画像が含まれているときには、該テクスチャ画像を排除してから前記ブレンド率を決定することを特徴とする請求項1乃至6のいずれか一項に記載の任意視点映像生成装置。 Visible area extraction means for acquiring a visible area from the photographing point for each texture drawing unit of the surface constituting the three-dimensional model,
The blended texture image generating means excludes the texture image when the selected texture images include a texture image not within the visible area acquired by the visible area extracting means. The arbitrary viewpoint video generation apparatus according to claim 1, wherein the blend ratio is determined.
前記テクスチャ画像の各撮影点の3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ選択処理と、
該ブレンドテクスチャ選択処理により選択された前記複数のテクスチャ画像の各撮影点における3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、混合する各テクスチャ画像のブレンド率を決定し、該ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成処理と、
該ブレンドテクスチャ画像生成処理により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成処理と、をコンピュータに実行させることを特徴とする任意視点映像生成プログラム。 Arbitrary viewpoint video generation program for causing a computer to execute processing for generating an image viewed from an arbitrary virtual viewpoint using texture images obtained by photographing a three-dimensional object from a plurality of photographing points. Because
A plurality of textures that give priority to each texture image based on the three-dimensional position and line-of-sight direction of each photographing point of the texture image and the three-dimensional position and line-of-sight direction of the virtual viewpoint and mix according to the priority order Blend texture selection process to select an image,
The blend ratio of each texture image to be mixed based on the three-dimensional position and the line-of-sight direction at each photographing point of the plurality of texture images selected by the blend texture selection process and the three-dimensional position and the line-of-sight direction of the virtual viewpoint Blend texture image generation processing for generating a blend texture image by mixing the plurality of texture images according to the blend rate;
An interpolated image generating process for texture-mapping the blended texture image generated by the blended texture image generating process into a three-dimensional model and generating a two-dimensional interpolated image of the object seen from the virtual viewpoint; Arbitrary viewpoint video generation program, characterized in that the program is executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008179455A JP5011224B2 (en) | 2008-07-09 | 2008-07-09 | Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008179455A JP5011224B2 (en) | 2008-07-09 | 2008-07-09 | Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010020487A true JP2010020487A (en) | 2010-01-28 |
JP5011224B2 JP5011224B2 (en) | 2012-08-29 |
Family
ID=41705322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008179455A Expired - Fee Related JP5011224B2 (en) | 2008-07-09 | 2008-07-09 | Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5011224B2 (en) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012022403A (en) * | 2010-07-12 | 2012-02-02 | Nippon Hoso Kyokai <Nhk> | Image processor and computer program |
WO2012147664A1 (en) * | 2011-04-26 | 2012-11-01 | 株式会社東芝 | Image processing system and method |
WO2012169693A1 (en) * | 2011-06-10 | 2012-12-13 | 엘지전자 주식회사 | Method for processing image and apparatus for processing image |
EP2534832A2 (en) * | 2010-02-12 | 2012-12-19 | Telefónica, S.A. | Method of video playback |
JP2015169515A (en) * | 2014-03-06 | 2015-09-28 | 株式会社メガチップス | Posture estimation system, program and posture estimation method |
CN106462997A (en) * | 2014-07-17 | 2017-02-22 | 谷歌公司 | Blending between street view and earth view |
US9589362B2 (en) | 2014-07-01 | 2017-03-07 | Qualcomm Incorporated | System and method of three-dimensional model generation |
US9607388B2 (en) | 2014-09-19 | 2017-03-28 | Qualcomm Incorporated | System and method of pose estimation |
KR20180017108A (en) * | 2015-10-07 | 2018-02-20 | 구글 엘엘씨 | Display of objects based on multiple models |
US9911242B2 (en) | 2015-05-14 | 2018-03-06 | Qualcomm Incorporated | Three-dimensional model generation |
EP3343515A1 (en) | 2016-12-27 | 2018-07-04 | Canon Kabushiki Kaisha | Setting apparatus to set movement path of virtual viewpoint, setting method, and program |
KR101875047B1 (en) * | 2018-04-24 | 2018-07-06 | 주식회사 예간아이티 | System and method for 3d modelling using photogrammetry |
KR20190010650A (en) * | 2016-05-25 | 2019-01-30 | 캐논 가부시끼가이샤 | Information processing apparatus, image generation method, control method, |
JPWO2018021067A1 (en) * | 2016-07-29 | 2019-05-09 | ソニー株式会社 | Image processing apparatus and image processing method |
EP3487176A1 (en) | 2017-11-20 | 2019-05-22 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and program |
US10304203B2 (en) | 2015-05-14 | 2019-05-28 | Qualcomm Incorporated | Three-dimensional model generation |
JP2019101563A (en) * | 2017-11-29 | 2019-06-24 | 大日本印刷株式会社 | Information processing apparatus, information processing system, information processing method, and program |
US10341568B2 (en) | 2016-10-10 | 2019-07-02 | Qualcomm Incorporated | User interface to assist three dimensional scanning of objects |
US10373366B2 (en) | 2015-05-14 | 2019-08-06 | Qualcomm Incorporated | Three-dimensional model generation |
WO2019198501A1 (en) * | 2018-04-10 | 2019-10-17 | ソニー株式会社 | Image processing device, image processing method, program and image transmission system |
US20190340777A1 (en) * | 2018-05-07 | 2019-11-07 | Canon Kabushiki Kaisha | Image processing apparatus, control method of image processing apparatus, and non-transitory computer-readable storage medium |
WO2020004013A1 (en) * | 2018-06-25 | 2020-01-02 | ソニー株式会社 | Image processing device and image processing method |
JP2020068513A (en) * | 2018-10-26 | 2020-04-30 | キヤノン株式会社 | Image processing apparatus and image processing method |
WO2021079592A1 (en) * | 2019-10-21 | 2021-04-29 | ソニー株式会社 | Information processing device, 3d data generation method, and program |
US11037323B2 (en) | 2018-02-22 | 2021-06-15 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and storage medium |
US11076140B2 (en) | 2018-02-05 | 2021-07-27 | Canon Kabushiki Kaisha | Information processing apparatus and method of controlling the same |
US11138702B2 (en) | 2018-12-17 | 2021-10-05 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method and non-transitory computer readable storage medium |
WO2021200261A1 (en) * | 2020-04-03 | 2021-10-07 | ソニーグループ株式会社 | Information processing device, generation method, and rendering method |
WO2022014341A1 (en) * | 2020-07-17 | 2022-01-20 | ソニーグループ株式会社 | Information processing device and image data generation method |
WO2023276261A1 (en) * | 2021-07-02 | 2023-01-05 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
US11627256B2 (en) * | 2018-08-31 | 2023-04-11 | Canon Kabushiki Kaisha | Information processing apparatus, method, and non-transitory computer-readable storage medium |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104346822B (en) * | 2013-07-23 | 2017-07-21 | 富士通株式会社 | texture mapping method and device |
JP2018036898A (en) | 2016-08-31 | 2018-03-08 | キヤノン株式会社 | Image processing device and control method of the same |
JP6407225B2 (en) | 2016-09-30 | 2018-10-17 | キヤノン株式会社 | Image processing apparatus, image processing method, image processing system, and program |
JP7080613B2 (en) | 2017-09-27 | 2022-06-06 | キヤノン株式会社 | Image processing equipment, image processing methods and programs |
JP7062506B2 (en) | 2018-05-02 | 2022-05-06 | キヤノン株式会社 | Image processing equipment, image processing methods, and programs |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002324249A (en) * | 2001-02-26 | 2002-11-08 | Nabura:Kk | Image display system and its method |
JP2004151950A (en) * | 2002-10-30 | 2004-05-27 | Intec Web & Genome Informatics Corp | Generation and mapping system for texture image |
-
2008
- 2008-07-09 JP JP2008179455A patent/JP5011224B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002324249A (en) * | 2001-02-26 | 2002-11-08 | Nabura:Kk | Image display system and its method |
JP2004151950A (en) * | 2002-10-30 | 2004-05-27 | Intec Web & Genome Informatics Corp | Generation and mapping system for texture image |
Cited By (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2534832A2 (en) * | 2010-02-12 | 2012-12-19 | Telefónica, S.A. | Method of video playback |
JP2012022403A (en) * | 2010-07-12 | 2012-02-02 | Nippon Hoso Kyokai <Nhk> | Image processor and computer program |
WO2012147664A1 (en) * | 2011-04-26 | 2012-11-01 | 株式会社東芝 | Image processing system and method |
JP2012230556A (en) * | 2011-04-26 | 2012-11-22 | Toshiba Corp | Image processing system and method |
CN103403770A (en) * | 2011-04-26 | 2013-11-20 | 株式会社东芝 | Image processing system and method |
US9811942B2 (en) | 2011-04-26 | 2017-11-07 | Toshiba Medical Systems Corporation | Image processing system and method |
WO2012169693A1 (en) * | 2011-06-10 | 2012-12-13 | 엘지전자 주식회사 | Method for processing image and apparatus for processing image |
US9269177B2 (en) | 2011-06-10 | 2016-02-23 | Lg Electronics Inc. | Method for processing image and apparatus for processing image |
JP2015169515A (en) * | 2014-03-06 | 2015-09-28 | 株式会社メガチップス | Posture estimation system, program and posture estimation method |
US9589362B2 (en) | 2014-07-01 | 2017-03-07 | Qualcomm Incorporated | System and method of three-dimensional model generation |
CN106462997A (en) * | 2014-07-17 | 2017-02-22 | 谷歌公司 | Blending between street view and earth view |
US9607388B2 (en) | 2014-09-19 | 2017-03-28 | Qualcomm Incorporated | System and method of pose estimation |
US10304203B2 (en) | 2015-05-14 | 2019-05-28 | Qualcomm Incorporated | Three-dimensional model generation |
US10373366B2 (en) | 2015-05-14 | 2019-08-06 | Qualcomm Incorporated | Three-dimensional model generation |
US9911242B2 (en) | 2015-05-14 | 2018-03-06 | Qualcomm Incorporated | Three-dimensional model generation |
KR102111079B1 (en) * | 2015-10-07 | 2020-05-15 | 구글 엘엘씨 | Display of objects based on multiple models |
KR102232724B1 (en) * | 2015-10-07 | 2021-03-26 | 구글 엘엘씨 | Displaying objects based on a plurality of models |
JP7247276B2 (en) | 2015-10-07 | 2023-03-28 | グーグル エルエルシー | Viewing Objects Based on Multiple Models |
US11086927B2 (en) | 2015-10-07 | 2021-08-10 | Google Llc | Displaying objects based on a plurality of models |
KR20210034693A (en) * | 2015-10-07 | 2021-03-30 | 구글 엘엘씨 | Displaying objects based on a plurality of models |
JP2018526724A (en) * | 2015-10-07 | 2018-09-13 | グーグル エルエルシー | Display objects based on multiple models |
KR20200052984A (en) * | 2015-10-07 | 2020-05-15 | 구글 엘엘씨 | Displaying objects based on a plurality of models |
KR102340678B1 (en) * | 2015-10-07 | 2021-12-17 | 구글 엘엘씨 | Displaying objects based on a plurality of models |
KR20180017108A (en) * | 2015-10-07 | 2018-02-20 | 구글 엘엘씨 | Display of objects based on multiple models |
JP2021185484A (en) * | 2015-10-07 | 2021-12-09 | グーグル エルエルシーGoogle LLC | Display of object based on multiple models |
US11809487B2 (en) | 2015-10-07 | 2023-11-07 | Google Llc | Displaying objects based on a plurality of models |
US10474712B2 (en) | 2015-10-07 | 2019-11-12 | Google Llc | Displaying objects based on a plurality of models |
KR102129792B1 (en) | 2016-05-25 | 2020-08-05 | 캐논 가부시끼가이샤 | Information processing device, image generation method, control method and program |
US11012674B2 (en) | 2016-05-25 | 2021-05-18 | Canon Kabushiki Kaisha | Information processing apparatus, image generation method, control method, and program |
KR20190010650A (en) * | 2016-05-25 | 2019-01-30 | 캐논 가부시끼가이샤 | Information processing apparatus, image generation method, control method, |
JPWO2018021067A1 (en) * | 2016-07-29 | 2019-05-09 | ソニー株式会社 | Image processing apparatus and image processing method |
US10341568B2 (en) | 2016-10-10 | 2019-07-02 | Qualcomm Incorporated | User interface to assist three dimensional scanning of objects |
EP3343515A1 (en) | 2016-12-27 | 2018-07-04 | Canon Kabushiki Kaisha | Setting apparatus to set movement path of virtual viewpoint, setting method, and program |
EP3487176A1 (en) | 2017-11-20 | 2019-05-22 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and program |
US10986324B2 (en) | 2017-11-20 | 2021-04-20 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and storage medium for virtual viewpoint image creation |
JP2019101563A (en) * | 2017-11-29 | 2019-06-24 | 大日本印刷株式会社 | Information processing apparatus, information processing system, information processing method, and program |
US11076140B2 (en) | 2018-02-05 | 2021-07-27 | Canon Kabushiki Kaisha | Information processing apparatus and method of controlling the same |
US11037323B2 (en) | 2018-02-22 | 2021-06-15 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and storage medium |
WO2019198501A1 (en) * | 2018-04-10 | 2019-10-17 | ソニー株式会社 | Image processing device, image processing method, program and image transmission system |
KR101875047B1 (en) * | 2018-04-24 | 2018-07-06 | 주식회사 예간아이티 | System and method for 3d modelling using photogrammetry |
CN110460835A (en) * | 2018-05-07 | 2019-11-15 | 佳能株式会社 | Image processing apparatus and its control method and computer readable storage medium |
EP3567550A1 (en) * | 2018-05-07 | 2019-11-13 | Canon Kabushiki Kaisha | Image processing apparatus, control method of image processing apparatus, and computer-readable storage medium |
US20190340777A1 (en) * | 2018-05-07 | 2019-11-07 | Canon Kabushiki Kaisha | Image processing apparatus, control method of image processing apparatus, and non-transitory computer-readable storage medium |
US11189041B2 (en) | 2018-05-07 | 2021-11-30 | Canon Kabushiki Kaisha | Image processing apparatus, control method of image processing apparatus, and non-transitory computer-readable storage medium |
CN110460835B (en) * | 2018-05-07 | 2021-11-16 | 佳能株式会社 | Image processing apparatus, control method thereof, and computer-readable storage medium |
WO2020004013A1 (en) * | 2018-06-25 | 2020-01-02 | ソニー株式会社 | Image processing device and image processing method |
US11627256B2 (en) * | 2018-08-31 | 2023-04-11 | Canon Kabushiki Kaisha | Information processing apparatus, method, and non-transitory computer-readable storage medium |
US20230209180A1 (en) * | 2018-08-31 | 2023-06-29 | Canon Kabushiki Kaisha | Information processing apparatus, method, and non-transitory computer-readable storage medium |
JP2020068513A (en) * | 2018-10-26 | 2020-04-30 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP7249755B2 (en) | 2018-10-26 | 2023-03-31 | キヤノン株式会社 | Image processing system, its control method, and program |
US11627251B2 (en) | 2018-10-26 | 2023-04-11 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof, computer-readable storage medium |
US11138702B2 (en) | 2018-12-17 | 2021-10-05 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method and non-transitory computer readable storage medium |
WO2021079592A1 (en) * | 2019-10-21 | 2021-04-29 | ソニー株式会社 | Information processing device, 3d data generation method, and program |
WO2021200261A1 (en) * | 2020-04-03 | 2021-10-07 | ソニーグループ株式会社 | Information processing device, generation method, and rendering method |
WO2022014341A1 (en) * | 2020-07-17 | 2022-01-20 | ソニーグループ株式会社 | Information processing device and image data generation method |
WO2023276261A1 (en) * | 2021-07-02 | 2023-01-05 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5011224B2 (en) | 2012-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5011224B2 (en) | Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program | |
US10127722B2 (en) | Mobile capture visualization incorporating three-dimensional and two-dimensional imagery | |
US10893250B2 (en) | Free-viewpoint photorealistic view synthesis from casually captured video | |
WO2019242454A1 (en) | Object modeling movement method, apparatus and device | |
AU2016336030B2 (en) | Volumetric depth video recording and playback | |
US8655052B2 (en) | Methodology for 3D scene reconstruction from 2D image sequences | |
US20130321396A1 (en) | Multi-input free viewpoint video processing pipeline | |
JP6669063B2 (en) | Image processing apparatus and method | |
KR101212231B1 (en) | Method for displaying advanced virtual reality blended of freedom movement | |
US8624902B2 (en) | Transitioning between top-down maps and local navigation of reconstructed 3-D scenes | |
JP2019125929A (en) | Image processing apparatus, image processing method, and program | |
JP2015522959A (en) | Systems, methods, and media for providing interactive refocusing in images | |
CN109906600B (en) | Simulated depth of field | |
JP2009211335A (en) | Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and recording medium from which same recorded program can be read by computer | |
US10785469B2 (en) | Generation apparatus and method for generating a virtual viewpoint image | |
US11044398B2 (en) | Panoramic light field capture, processing, and display | |
JP2008140271A (en) | Interactive device and method thereof | |
JP6541920B1 (en) | INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD | |
TWI502546B (en) | System, method, and computer program product for extruding a model through a two-dimensional scene | |
CN111373347A (en) | Provision of virtual reality content | |
KR20190062102A (en) | Method and apparatus for operating 2d/3d augument reality technology | |
JP4464773B2 (en) | 3D model display device and 3D model display program | |
WO2022102476A1 (en) | Three-dimensional point cloud densification device, three-dimensional point cloud densification method, and program | |
CN111466113B (en) | Apparatus and method for image capture | |
GB2565301A (en) | Three-dimensional video processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120508 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120604 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5011224 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150608 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |