JP2010020487A - Optional viewpoint video generation device and optional viewpoint video generation program - Google Patents

Optional viewpoint video generation device and optional viewpoint video generation program Download PDF

Info

Publication number
JP2010020487A
JP2010020487A JP2008179455A JP2008179455A JP2010020487A JP 2010020487 A JP2010020487 A JP 2010020487A JP 2008179455 A JP2008179455 A JP 2008179455A JP 2008179455 A JP2008179455 A JP 2008179455A JP 2010020487 A JP2010020487 A JP 2010020487A
Authority
JP
Japan
Prior art keywords
texture
blend
texture image
image
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008179455A
Other languages
Japanese (ja)
Other versions
JP5011224B2 (en
Inventor
Kensuke Hisatomi
健介 久富
Hitohiro Tomiyama
仁博 冨山
Yoshikazu Katayama
美和 片山
Yuichi Iwadate
祐一 岩舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2008179455A priority Critical patent/JP5011224B2/en
Publication of JP2010020487A publication Critical patent/JP2010020487A/en
Application granted granted Critical
Publication of JP5011224B2 publication Critical patent/JP5011224B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an optional viewpoint video generation device and an optional viewpoint video generation program, allowing generation of a high-quality interpolation video. <P>SOLUTION: This optional viewpoint video generation device 70 generating a video of a three-dimensional object 80 viewed from an optional virtual viewpoint by use of texture images obtained from a plurality of photographic points includes: a blend texture image selection means 40 selecting a plurality of texture images according to priority order based on a view line direction and a three-dimensional position of each photographic point, and a view line direction and a three-dimensional position of the virtual viewpoint; a blend texture image generation means 50 determining a blend rate based on the view line direction and the three-dimensional position in each photographic point, and the view line direction and the three-dimensional position of the virtual viewpoint, and blending the plurality of texture images to generate a blend texture image; and an interpolation video generation means 60 texture-mapping the blend texture image to a three-dimensional model 90, and generating the two-dimensional interpolation video of the object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、任意視点映像生成装置及び任意視点映像生成プログラムに関し、特に、立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する任意視点映像生成装置及び任意視点映像生成プログラムに関する。   The present invention relates to an arbitrary viewpoint video generation device and an arbitrary viewpoint video generation program, and in particular, a specified arbitrary virtual viewpoint using a texture image obtained by shooting a three-dimensional object from a plurality of shooting points. The present invention relates to an arbitrary viewpoint video generation device and an arbitrary viewpoint video generation program for generating an image that can be seen from a user.

従来から、ユーザが指定した任意の視点(以下、「仮想視点」という。)から視認した立体形状の実体を有する対象物の映像を表示するにあたっては、対象物を複数の撮影点から撮影し、撮影した画像を用いて3次元モデルの表面にテクスチャマッピングすることにより、映像を生成・表示する手法が提案されている。   Conventionally, when displaying an image of an object having a solid shape viewed from an arbitrary viewpoint designated by the user (hereinafter referred to as a “virtual viewpoint”), the object is imaged from a plurality of imaging points, There has been proposed a technique for generating and displaying a video by texture mapping on the surface of a three-dimensional model using a photographed image.

かかる手法において、テクスチャマッピングで用いるテクスチャデータの選択を、目視による作業に依存せず、適切なテクスチャデータを自動的に選択でき、鮮明でリアルな立体モデルを得るため、3次元モデルの表面を構成する面の法線ベクトルと撮影点の視線方向のベクトルを比較し、撮影点の光軸ベクトルが面の表面ベクトルに対して平行に近い撮影点から撮影した画像のテクスチャをモデル表面の面に張り付ける手法が提案されている(例えば、特許文献1参照)。   In this method, the selection of texture data used in texture mapping does not depend on visual work, and appropriate texture data can be automatically selected, and the surface of a three-dimensional model is constructed in order to obtain a clear and realistic three-dimensional model. Compare the normal vector of the target surface with the vector of the line-of-sight direction of the shooting point, and paste the texture of the image shot from the shooting point where the optical axis vector of the shooting point is almost parallel to the surface vector of the surface to the surface of the model surface Has been proposed (see, for example, Patent Document 1).

また、高精細にテクスチャマッピングされた3次元モデルを表示するため、表示視点からの視線方向のベクトル(表示ベクトル)と撮影ベクトルとが平行に近いカメラ映像に優先を与え、優先順位の高いカメラのうち、各頂点から可視状態(Visibility)なカメラの映像をマッピングする視点依存型テクスチャマッピングも提案されている(例えば、特許文献2参照)。
特開平9−134449号公報 特開2006−72805号公報
In addition, in order to display a high-definition texture-mapped 3D model, priority is given to a camera image in which the vector (display vector) in the line-of-sight direction from the display viewpoint and the shooting vector are nearly parallel, Among them, viewpoint-dependent texture mapping is also proposed in which a video of a camera that is visible from each vertex is mapped (see, for example, Patent Document 2).
JP-A-9-134449 JP 2006-72805 A

しかしながら、上述した一般的なテクスチャマッピング手法は、撮影点の3次元位置や視線方向などのパラメータを正確に取得できなかったり、3次元モデルの正確な形状を生成することができなかったりして、マッピングされるテクスチャの位置がずれ、不自然な任意視点映像が生成されてしまうという問題があった。   However, the general texture mapping method described above cannot accurately acquire parameters such as the three-dimensional position of the shooting point and the direction of the line of sight, or cannot generate an accurate shape of the three-dimensional model, There is a problem that the position of the texture to be mapped is shifted and an unnatural arbitrary viewpoint video is generated.

また、上述の特許文献1に記載されている3次元モデル表面の各頂点及び各面へマッピングするテクスチャ画像データを選択する手法は、3次元モデルを表示する視点の3次元位置及び視点方向によっては、必ずしも適切なテクスチャ画像データが選択されず、状況によって高画質な3次元モデルを表示できるとは必ずしも限らないという問題があった。   In addition, the method of selecting texture image data to be mapped to each vertex and each surface of the 3D model surface described in Patent Document 1 described above depends on the 3D position and viewpoint direction of the viewpoint displaying the 3D model. However, there is a problem in that appropriate texture image data is not necessarily selected and a high-quality three-dimensional model cannot be displayed depending on the situation.

また、特許文献2に記載されている視点依存型テクスチャマッピング手法は、3次元モデルの表面の場所によって、各カメラの可視状態が異なるため、マッピングするテクスチャ画像も異なり、マッピングされるテクスチャ画像が異なる部分の境界付近において不連続なテクスチャが生成されてしまう。また視点を移動させると、視点の位置に応じて可視状態が変更されるため、マッピングされるテクスチャ画像もまた変更されてしまい、ちらつきのような現象が生じてしまうという問題があった。更に、この手法で動画を表示する場合には、同じような位置にある3次元モデル上の表面の、ある一部においても、時間の経過に伴って各カメラの可視状態が変わるため、マッピングされる画像も切り替わり、時間軸方向への連続性が薄くなって、やはりちらつきなどの現象が生じてしまうという問題があった。   In addition, the viewpoint-dependent texture mapping method described in Patent Document 2 has different visible states of each camera depending on the location of the surface of the three-dimensional model. Therefore, the texture image to be mapped is different, and the mapped texture image is different. A discontinuous texture is generated near the boundary of the part. Further, when the viewpoint is moved, the visible state is changed according to the position of the viewpoint, so that the texture image to be mapped is also changed, which causes a phenomenon such as flickering. Furthermore, when displaying a moving image using this method, the visible state of each camera changes over time on a part of the surface of the three-dimensional model at the same position. There is also a problem that the images to be switched also change, the continuity in the time axis direction becomes thin, and a phenomenon such as flickering occurs.

本発明は、上述した問題点に鑑みなされたものであり、高品位な内挿映像を生成することができる任意視点映像生成装置及び任意視点映像生成プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an arbitrary viewpoint video generation apparatus and an arbitrary viewpoint video generation program capable of generating a high-quality interpolated video.

上記目的を達成するため、第1の発明に係る任意視点映像生成装置は、立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する任意視点映像生成装置であって、
前記テクスチャ画像の各撮影点の3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ画像選択手段と、
該ブレンドテクスチャ画像選択手段により選択された前記複数のテクスチャ画像の各撮影点における3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、混合する各テクスチャ画像のブレンド率を決定し、該ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成手段と、
該ブレンドテクスチャ画像生成手段により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成手段と、を有することを特徴とする。
In order to achieve the above object, an arbitrary viewpoint video generation device according to a first invention uses a texture image obtained by shooting a three-dimensional target object from a plurality of shooting points, and specifies an arbitrary virtual image. An arbitrary viewpoint video generation device that generates video viewed from a viewpoint,
A plurality of textures that give priority to each texture image based on the three-dimensional position and line-of-sight direction of each photographing point of the texture image and the three-dimensional position and line-of-sight direction of the virtual viewpoint and mix according to the priority order Blend texture image selection means for selecting an image;
Blending of texture images to be mixed based on the three-dimensional position and line-of-sight direction at each photographing point of the plurality of texture images selected by the blend texture image selection means and the three-dimensional position and line-of-sight direction of the virtual viewpoint Blend texture image generation means for determining a rate and mixing the plurality of texture images according to the blend rate to generate a blend texture image;
Interpolation video generation means for texture-mapping the blend texture image generated by the blend texture image generation means into a three-dimensional model and generating a two-dimensional interpolation video of the object seen from the virtual viewpoint; It is characterized by that.

これにより、撮影したカメラの3次元位置や視線方向などのカメラパラメータに誤差が生じたり、また3次元モデルに誤差が生じたりしても、3次元モデルにマッピングされるテクスチャ画像は、複数のテクスチャをブレンドすることで生成されているため、誤差によって生じるテクスチャの不連続性が顕著に現れない。また、仮想視点とカメラとの3次元位置及び視線方向の関係に応じたブレンド率となっているため、高品位な内挿映像を生成することができる。   As a result, even if an error occurs in the camera parameters such as the 3D position and line-of-sight direction of the photographed camera, or an error occurs in the 3D model, the texture image mapped to the 3D model has a plurality of textures. Therefore, the discontinuity of the texture caused by the error does not appear remarkably. In addition, since the blend rate is in accordance with the relationship between the virtual viewpoint and the camera in the three-dimensional position and the line-of-sight direction, a high-quality interpolated video can be generated.

第2の発明は、第1の発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、前記各撮影点の3次元位置と前記仮想視点の3次元位置との距離が近い順に前記優先順位を付与するか、又は前記各撮影点の視線方向が前記仮想視点の視線方向に近い順に前記優先順位を付与することを特徴とする。
A second invention is an arbitrary viewpoint video generation device according to the first invention, wherein:
The blend texture image selection means assigns the priorities in order of increasing distance between the three-dimensional position of each shooting point and the three-dimensional position of the virtual viewpoint, or the line-of-sight direction of each shooting point is the virtual viewpoint. The priorities are assigned in order from the closest to the viewing direction.

これにより、仮想視点から距離的に近い、もしくは仮想視点方向に近い撮影点から撮影されたテクスチャが優先的に選択され、適切なテクスチャ画像を選択することができる。また、高品位に内挿された映像を生成・表示することができる。   As a result, a texture photographed from a photographing point close to the virtual viewpoint or close to the virtual viewpoint direction is preferentially selected, and an appropriate texture image can be selected. In addition, a high-quality interpolated video can be generated and displayed.

第3の発明は、第1又は第2の発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像生成手段は、前記撮影点の3次元位置と前記仮想視点の3次元位置との距離が近い程、又は前記撮影点の視線方向が前記仮想視点の視線方向に近い程、混合率を高く決定することを特徴とする。
3rd invention is the arbitrary viewpoint image | video production | generation apparatus which concerns on 1st or 2nd invention,
The blended texture image generation means determines that the blending rate increases as the distance between the three-dimensional position of the shooting point and the three-dimensional position of the virtual viewpoint is shorter, or as the line-of-sight direction of the shooting point is closer to the line-of-sight direction of the virtual viewpoint. Is determined to be high.

これにより、仮想視点から距離的に近い、又は仮想視点の方向に近い撮影点から撮影されたテクスチャ画像ほど高い重み付けでブレンドテクスチャ画像に反映されるように混合されるため、信頼度が高くより高品位な内挿映像を生成できる。   As a result, the texture image shot from the shooting point closer to the virtual viewpoint or closer to the virtual viewpoint direction is mixed so as to be reflected in the blend texture image with higher weighting, so the reliability is higher and higher. A high quality interpolated video can be generated.

第4の発明は、第1〜3のいずれかの発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、所定時間が経過するか、又は前記仮想視点の位置が所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする。
A fourth invention is an arbitrary viewpoint video generation device according to any one of the first to third inventions,
The blend texture image selection means re-selects the blend texture image when a predetermined time elapses or the position of the virtual viewpoint is moved by a predetermined distance or more.

これにより、時間経過や仮想視点の移動に追従して、ブレンドテクスチャ画像を再選択し、再選択されたブレンドテクスチャ画像を利用してテクスチャマッピングを再実行することで、時間経過により仮想視点が移動した際も、その時刻での仮想視点において高品位に内挿された2次元映像を生成することができる。   This allows the virtual viewpoint to move over time by re-selecting the blend texture image following the passage of time and movement of the virtual viewpoint, and re-executing the texture mapping using the re-selected blend texture image. In such a case, it is possible to generate a two-dimensional video interpolated with high quality at the virtual viewpoint at that time.

第5の発明は、第1〜4のいずれかの発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、前記対象物が所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする。
A fifth invention is an arbitrary viewpoint video generation device according to any one of the first to fourth inventions,
The blend texture image selection means reselects the blend texture image when the object has moved a predetermined distance or more.

これにより、人間や動物等の動く対象物の任意視点映像を生成して動画表示する場合にも高品位に内挿された動画を生成して表示することができる。   Thus, even when an arbitrary viewpoint video of a moving object such as a human being or an animal is generated and displayed as a moving image, a high-quality interpolated moving image can be generated and displayed.

第6の発明は、第1〜5のいずれかの発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、前記仮想視点と前記3次元モデルが相対的に所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする。
A sixth invention is an arbitrary viewpoint video generation device according to any one of the first to fifth inventions,
The blend texture image selection means reselects the blend texture image when the virtual viewpoint and the three-dimensional model move relative to each other by a predetermined distance or more.

これにより、仮想視点と対象物とが相対的に移動した場合にブレンドテクスチャ画像を再選択し、再選択されたブレンドテクスチャ画像を利用してテクスチャマッピングを再実行するため、仮想視点又は対象物の単独移動自体は小さくても、相対的に大きく移動している場合には適切に再選択を行うことができる。また、仮想視点と対象物とが相対的に移動した場合にのみブレンドテクスチャ画像を再選択し、再選択されたブレンドテクスチャ画像を利用してテクスチャマッピングを実行するようにすれば、効率的に内挿映像を生成することができる。   As a result, when the virtual viewpoint and the target object move relatively, the blend texture image is reselected, and texture mapping is performed again using the reselected blend texture image. Even if the single movement itself is small, reselection can be appropriately performed when the movement is relatively large. In addition, if the blend texture image is reselected only when the virtual viewpoint and the target object move relatively, and texture mapping is executed using the reselected blend texture image, the internal efficiency can be improved. An inset image can be generated.

第7の発明は、第1〜6のいずれかの発明に係る任意視点映像生成装置において、
前記3次元モデルを構成する面のテクスチャ描画単位毎に、撮影点からの可視領域を取得する可視領域抽出手段を更に備え、
前記ブレンドテクスチャ画像選択手段は、前記優先順位の高い順から所定数のテクスチャ画像を選択するように設定されており、前記可視領域抽出手段により取得された前記可視領域に含まれるテクスチャ画像の中から前記所定数を選択することを特徴とする。
A seventh invention is an arbitrary viewpoint video generation device according to any one of the first to sixth inventions,
Visible area extraction means for acquiring a visible area from the photographing point for each texture drawing unit of the surface constituting the three-dimensional model,
The blend texture image selection means is set to select a predetermined number of texture images in order from the highest priority, and is selected from among the texture images included in the visible area acquired by the visible area extraction means. The predetermined number is selected.

これにより、マッピングするポリゴンから可視状態にある(Visibilityがある)撮影点から撮影されたテクスチャ画像のみを、ポリゴン毎に選択して混合を行うことができ、適切で有効性の高いテクスチャ画像のみを選択して混合することにより、確実に高品位な内挿映像を生成することができる。   As a result, only texture images shot from shooting points that are visible from the mapping polygon (with visibility) can be selected and mixed for each polygon, and only appropriate and highly effective texture images can be selected. By selecting and mixing, it is possible to reliably generate a high-quality interpolated image.

第8の発明は、第1〜6のいずれかの発明に係る任意視点映像生成装置において、
前記3次元モデルを構成する面のテクスチャ描画単位毎に、撮影点からの可視領域を取得する可視領域抽出手段を更に備え、
前記ブレンドテクスチャ画像生成手段は、選択された前記複数のテクスチャ画像に、前記可視領域抽出手段により取得された前記可視領域内にないテクスチャ画像が含まれているときには、該テクスチャ画像を排除してから前記ブレンド率を決定することを特徴とする。
An eighth invention is the arbitrary viewpoint video generation device according to any one of the first to sixth inventions,
Visible area extraction means for acquiring a visible area from the photographing point for each texture drawing unit of the surface constituting the three-dimensional model,
The blended texture image generating means excludes the texture image when the selected texture images include a texture image not within the visible area acquired by the visible area extracting means. The blend ratio is determined.

これにより、選択したテクスチャ画像に、マッピングするポリゴンから可視状態にない撮影点から撮影されたテクスチャ画像が含まれていた場合には、これを排除し、可視状態にあるテクスチャ画像のみからブレンド率を決定することができ、適切なテクスチャ画像のみを用いてテクスチャ画像の混合を行い、高品位な任意視点映像を取得することができる。   As a result, if the selected texture image contains a texture image taken from a shooting point that is not visible from the polygon to be mapped, this is excluded, and the blend rate is determined only from the texture image that is visible. It is possible to determine a high-quality arbitrary viewpoint video by mixing texture images using only appropriate texture images.

第9の発明に係る任意視点映像生成プログラムは、立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する処理をコンピュータに実行させるための任意視点映像生成プログラムであって、
前記テクスチャ画像の各撮影点の3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ選択処理と、
該ブレンドテクスチャ選択処理により選択された前記複数のテクスチャ画像の各撮影点における3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、混合する各テクスチャ画像のブレンド率を決定し、該ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成処理と、
該ブレンドテクスチャ画像生成処理により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成処理と、をコンピュータに実行させることを特徴とする。
An arbitrary viewpoint video generation program according to a ninth aspect of the invention generates an image that can be seen from a specified arbitrary virtual viewpoint, using texture images obtained by shooting a three-dimensional object from a plurality of shooting points. An arbitrary viewpoint video generation program for causing a computer to execute processing,
A plurality of textures that give priority to each texture image based on the three-dimensional position and line-of-sight direction of each photographing point of the texture image and the three-dimensional position and line-of-sight direction of the virtual viewpoint and mix according to the priority order Blend texture selection process to select an image,
The blend ratio of each texture image to be mixed based on the three-dimensional position and the line-of-sight direction at each photographing point of the plurality of texture images selected by the blend texture selection process and the three-dimensional position and the line-of-sight direction of the virtual viewpoint Blend texture image generation processing for generating a blend texture image by mixing the plurality of texture images according to the blend rate;
An interpolated image generating process for texture-mapping the blended texture image generated by the blended texture image generating process into a three-dimensional model and generating a two-dimensional interpolated image of the object seen from the virtual viewpoint; It is made to perform.

これにより、対象物を撮影した複数の撮影点の3次元位置及び視線方向と、仮想視点の3次元位置及び視線方向を比較し、テクスチャ画像に優先順位を付与した上でブレンドの対象となるテクスチャ画像を出力し、それらのテクスチャをブレンド率に応じてブレンドしたブレンドテクスチャ画像を前記3次元モデルにテクスチャマッピングすることで、高品位に内挿された映像を表示することができる。また、特別な装置構成を必要とせず、低コストで内挿映像生成処理を実現することができる。更に、プログラムをインストールすることにより、容易に内挿映像生成処理を実現することができる。   As a result, the three-dimensional position and line-of-sight direction of a plurality of shooting points at which the object is photographed are compared with the three-dimensional position and line-of-sight direction of the virtual viewpoint, and priorities are given to the texture images, and the texture to be blended By outputting an image and texture-mapping the blended texture image obtained by blending these textures according to the blending ratio onto the three-dimensional model, a high-quality interpolated video can be displayed. In addition, it is possible to realize the interpolated image generation process at a low cost without requiring a special device configuration. Furthermore, by installing the program, it is possible to easily realize the interpolated video generation process.

本発明によれば、複数の撮影点から撮影された画像を用いて、指定された任意の視点からの映像を内挿によって高品位に生成することができる。   According to the present invention, it is possible to generate a high-quality image from an arbitrary designated viewpoint by interpolation using images photographed from a plurality of photographing points.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明を適用した実施例に係る任意視点映像生成装置及び任意視点映像プログラムにおけるカメラ配置の一例を示した図である。図1において、複数台のカメラCamが、立体形状を有する対象物80の周囲を囲むように配置されている。カメラCamは、図1においては、40台のカメラCamが対象物80の周囲に配置されている。   FIG. 1 is a diagram illustrating an example of a camera arrangement in an arbitrary viewpoint video generation apparatus and an arbitrary viewpoint video program according to an embodiment to which the present invention is applied. In FIG. 1, a plurality of cameras Cam are arranged so as to surround the periphery of an object 80 having a three-dimensional shape. In FIG. 1, 40 cameras Cam are arranged around the object 80.

本実施例に係る任意視点映像生成装置及び任意視点映像生成プログラムは、このような、複数のカメラCamが立体形状を有する対象物80の周囲に配置され、各カメラCam1〜Cam40が対象物80を各々撮影したテクスチャ画像を用いて、対象物80を立体的に再現する画像を生成する。その際、画像を視認するユーザは、対象物80を視認する視点を自由に、任意の3次元位置に仮想視点として選択することができる。本実施例に係る任意視点映像生成装置及び任意視点映像表示プログラムは、例えば図1に示したような多数配置されたカメラCamを用いて、対象物80の映像を様々な角度から撮影し、テクスチャ画像として取得する。そして、テクスチャ画像を、対象物80を再現したポリゴンに貼り付け、立体的な画像を取得する。対象物80は、実体を有し、様々な立体形状を有する3次元の物体を対象物80とすることができ、その形状や形態は問わない。また、図1においては、40台のカメラCamのうち、Cam1〜Cam24が対象物80を環状に水平に囲み、その上下にも対象物80を取り囲むように配置された例を示しているが、カメラCamの数はもっと多くても少なくてもよいし、カメラCamの配置も、対象物80の映像を種々の角度から取得できれば、様々な形態とすることができる。   In the arbitrary viewpoint video generation apparatus and the arbitrary viewpoint video generation program according to the present embodiment, such a plurality of cameras Cam are arranged around the object 80 having a three-dimensional shape, and each of the cameras Cam1 to Cam40 sets the object 80. Using each captured texture image, an image that three-dimensionally reproduces the object 80 is generated. In that case, the user who visually recognizes the image can freely select the viewpoint for visually recognizing the object 80 as a virtual viewpoint at an arbitrary three-dimensional position. The arbitrary viewpoint video generation apparatus and the arbitrary viewpoint video display program according to the present embodiment take images of the object 80 from various angles using, for example, a large number of cameras Cam as shown in FIG. Obtain as an image. Then, the texture image is pasted on the polygon that reproduces the object 80 to obtain a three-dimensional image. The object 80 has a substance and can be a three-dimensional object having various three-dimensional shapes as the object 80, and the shape and form thereof are not limited. In addition, in FIG. 1, among the 40 cameras Cam, Cam1 to Cam24 surround the object 80 in an annular shape and are arranged so as to surround the object 80 also above and below the object 80. The number of the cameras Cam may be larger or smaller, and the arrangement of the cameras Cam can be in various forms as long as the image of the object 80 can be acquired from various angles.

図2は、本発明を適用した実施例に係る任意視点映像生成装置70を含む任意視点映像生成システムの実施形態の概要構成例を示す図である。図2において、任意視点映像生成システムは、撮像装置としての複数のカメラCamと、可視視点情報取得手段10と、可視領域抽出装置30と、3次元形状生成装置20と、任意視点映像生成装置70とを有する。また、任意視点映像生成装置70は、ブレンドテクスチャ画像選択手段40とブレンドテクスチャ画像生成手段50と内挿映像生成手段60とを有するよう構成されている。なお、可視領域抽出手段30は、任意視点映像生成装置70の一部に含まれて構成されてもよい。   FIG. 2 is a diagram illustrating a schematic configuration example of an embodiment of an arbitrary viewpoint video generation system including an arbitrary viewpoint video generation device 70 according to an example to which the present invention is applied. In FIG. 2, the arbitrary viewpoint video generation system includes a plurality of cameras Cam as imaging devices, a visible viewpoint information acquisition unit 10, a visible region extraction device 30, a three-dimensional shape generation device 20, and an arbitrary viewpoint video generation device 70. And have. The arbitrary viewpoint video generation device 70 is configured to include a blend texture image selection unit 40, a blend texture image generation unit 50, and an interpolated video generation unit 60. The visible region extraction unit 30 may be configured to be included in a part of the arbitrary viewpoint video generation device 70.

複数のカメラCamは、それぞれが異なる撮影点から対象物(実体)80を撮影する撮像手段である。対象物80を撮影できれば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ、アナログカメラ等の種々のカメラを適用することができる。   The plurality of cameras Cam are image capturing means for capturing the object (entity) 80 from different image capturing points. If the object 80 can be photographed, various cameras such as a CCD (Charge Coupled Device) camera, a CMOS (Complementary Metal Oxide Semiconductor) camera, and an analog camera can be applied.

図3は、複数のカメラCamにより対象物80を撮影する様子を説明するための一例の図である。なお、図3以降、図中に示すカメラCamの台数は、説明の容易のために4台としているが、上述のように、本実施例に係る任意視点映像生成装置70に適用されるカメラの設置台数については、更に多くのカメラCamを設けるようにしてよい。   FIG. 3 is a diagram illustrating an example of how the object 80 is photographed by a plurality of cameras Cam. In FIG. 3 and subsequent figures, the number of cameras Cam shown in the figure is four for ease of explanation, but as described above, the number of cameras applied to the arbitrary viewpoint video generation apparatus 70 according to the present embodiment. About the number of installation, you may make it provide more cameras Cam.

図3に示すように、複数のカメラCam1〜Cam4は、それぞれの撮影点CS1〜CS4から対象物(実体)80について同期させて撮影を行い、撮影された多視点画像を取得する。図3においては、カメラCam1が設けられた撮影点CS1からは、猫の対象物80の正面視映像が取得され、カメラCam2が設けられた撮影点CS2からは、対象物80の左側面視映像が取得されている。同様に、カメラCam3が配置された撮影点CS3からは、対象物80の背面視映像が撮影され、カメラCam4が配置された撮影点CS4からは、対象物80である猫の右側面視映像が撮影されている。   As shown in FIG. 3, the plurality of cameras Cam <b> 1 to Cam <b> 4 perform shooting in synchronization with the object (entity) 80 from the respective shooting points CS <b> 1 to CS <b> 4 and acquire the shot multi-viewpoint images. In FIG. 3, a front view image of the cat object 80 is acquired from the shooting point CS1 where the camera Cam1 is provided, and a left side view image of the object 80 is acquired from the shooting point CS2 where the camera Cam2 is provided. Has been acquired. Similarly, a rear view image of the object 80 is taken from the photographing point CS3 where the camera Cam3 is arranged, and a right side view image of the cat which is the object 80 is taken from the photographing point CS4 where the camera Cam4 is arranged. Have been filmed.

このように、多視点から対象物80の画像を撮像取得するが、このとき、複数のカメラCam1〜Cam4の各撮影点CS1〜CS4(以下、総称して「CS」と標記する。)における3次元位置(図3では、XYZ軸からなる3次元座標)の情報及び複数カメラCam1〜Cam4の視線方向も取得する。また、予めカメラCam1〜Cam4に記録されているカメラレンズの焦点距離や、CCDカメラを使用している場合には、その大きさ等の内部パラメータからなる構造情報も取得する。   In this way, images of the object 80 are captured and acquired from multiple viewpoints. At this time, 3 at each of the shooting points CS1 to CS4 (hereinafter collectively referred to as “CS”) of the plurality of cameras Cam1 to Cam4. Information on the dimensional position (in FIG. 3, three-dimensional coordinates including XYZ axes) and the line-of-sight directions of the cameras Cam1 to Cam4 are also acquired. In addition, the camera lens focal length of the camera lens previously recorded in the cameras Cam1 to Cam4 and, when a CCD camera is used, structural information including internal parameters such as the size thereof are also acquired.

図2に戻る。仮想視点情報取得手段10は、ユーザにより選択される仮想視点の情報を取得する手段であり、具体的には、仮想視点の3次元位置及び視線方向を含む情報を取得する。仮想視点情報取得手段10は、例えば、ユーザが仮想視点の入力が可能な画面のコントローラや、マウスやポインタ等の入力手段に接続され、ユーザの入力操作から、仮想視点の3次元位置や視線方向等の情報を取得するようにしてよい。   Returning to FIG. The virtual viewpoint information acquisition unit 10 is a unit that acquires information on the virtual viewpoint selected by the user, and specifically acquires information including the three-dimensional position and the line-of-sight direction of the virtual viewpoint. The virtual viewpoint information acquisition unit 10 is connected to, for example, a screen controller that allows the user to input a virtual viewpoint, or an input unit such as a mouse or a pointer. Such information may be acquired.

3次元形状生成装置20は、複数のカメラCam1、Cam2…、Camn(以下、総称して「Cam」と標記する。)の撮影から得られる対象物80の画像から、3次元モデルを生成する。例えば、視体積交差法や、特許文献1に示されているように、視体積交差法とステレオマッチング法を併用した手法等の公知の手法を用いることで生成することができる。   The three-dimensional shape generation apparatus 20 generates a three-dimensional model from an image of the object 80 obtained by photographing a plurality of cameras Cam1, Cam2,..., Camn (hereinafter collectively referred to as “Cam”). For example, it can be generated by using a known method such as a view volume intersection method or a method using a combination of a view volume intersection method and a stereo matching method as disclosed in Patent Document 1.

ここで、視体積交差法は、物体の撮影画像から物体領域を抽出した複数のシルエット画像を、元の3次元空間に逆投影し、それぞれの視体積の交差部分を求めることにより、物体の3次元形状データを得る手法である。また、ステレオマッチング法は、左右に配置された2台のカメラで撮影された2枚1組の画像を用いて、左のカメラで撮影された画像が、右のカメラで撮影された画像のどの部分に対応するかを面積相関の計算により求め、その対応関係を使った三角測量により、各点の3次元位置を推測する手法である。本実施例に係る任意視点映像生成システムの3次元形状生成装置は、例えば、このような、公知の手法を用いて、3次元モデルを生成するようにしてよい。なお、3次元モデルは、XYZ座標等を用いて生成されてよい。   Here, in the visual volume intersection method, a plurality of silhouette images obtained by extracting an object region from a captured image of an object are back-projected into the original three-dimensional space, and the intersection of the respective visual volumes is obtained, thereby obtaining the 3 of the object. This is a technique for obtaining dimensional shape data. In addition, the stereo matching method uses a set of two images taken by two cameras arranged on the left and right, and the image taken by the left camera is the image of the image taken by the right camera. This is a technique for determining whether or not to correspond to a part by calculating area correlation and estimating the three-dimensional position of each point by triangulation using the correspondence. For example, the three-dimensional shape generation apparatus of the arbitrary viewpoint video generation system according to the present embodiment may generate a three-dimensional model using such a known method. Note that the three-dimensional model may be generated using XYZ coordinates or the like.

可視領域抽出装置30は、複数のカメラCamの撮影等から得られる対象物80の3次元モデルと、複数の撮影点CSから対象物80を撮影したテクスチャ画像と、テクスチャ画像を撮影した撮影点CSの3次元位置及び視線方向と、対象物80を撮影した各カメラCamの構造情報に基づいて、撮影点CS毎に3次元モデルの可視部分の領域を構成する頂点又は面を求め、テクスチャ画像に対して撮影点CSからの3次元モデルの可視部分の領域情報(可視領域情報)を取得する手段である。可視領域抽出装置30による可視領域の抽出は、例えば、特許文献2などに示された公知の手法を用いることで取得できる。   The visible region extraction device 30 includes a three-dimensional model of the object 80 obtained from photographing by a plurality of cameras Cam, a texture image obtained by photographing the object 80 from a plurality of photographing points CS, and a photographing point CS obtained by photographing the texture image. Based on the three-dimensional position and the line-of-sight direction and the structure information of each camera Cam that has photographed the object 80, the vertex or surface constituting the region of the visible portion of the three-dimensional model is obtained for each photographing point CS, and the texture image is obtained. On the other hand, it is means for acquiring region information (visible region information) of the visible portion of the three-dimensional model from the photographing point CS. Extraction of the visible region by the visible region extraction device 30 can be obtained by using a known method disclosed in Patent Document 2, for example.

図2において、可視領域抽出装置30は、可視領域抽出装置30は、ブレンドテクスチャ画像選定手段40とブレンドテクスチャ画像生成手段50の双方に抽出結果が送られるように示されているが、いずれか一方に送るようにしてもよいし、双方に送れるように構成してもよい。   In FIG. 2, the visible region extraction device 30 is shown so that the extraction result is sent to both the blend texture image selection unit 40 and the blend texture image generation unit 50. It may be configured to be sent to both, or may be configured to be sent to both.

任意視点映像生成装置70におけるブレンドテクスチャ画像選択手段40は、はじめに、仮想視点情報取得手段10で取得された仮想視点の3次元位置及び視線方向からなる仮想視点情報と、複数の撮影点CSの3次元位置及び視線方向とを比較し、複数の撮影点CSから撮影したテクスチャ画像の中で優先順位を付与する手段である。   The blended texture image selection means 40 in the arbitrary viewpoint video generation device 70 first includes virtual viewpoint information including the three-dimensional position and line-of-sight direction of the virtual viewpoint acquired by the virtual viewpoint information acquisition means 10, and a plurality of shooting points CS. This is a means for comparing the dimensional position and the line-of-sight direction and assigning priority among texture images photographed from a plurality of photographing points CS.

優先順位を付与する方法としては、例えば複数の撮影点CSから撮影したテクスチャ画像の中から、撮影点CSの3次元座標と仮想視点の3次元座標とで距離が近い順番に優先順位を与えるようにしてもよい。この場合には、撮影点CSの3次元座標と、仮想視点の3次元座標との距離を各撮影点CSに対して算出することにより、優先順位を定めることができる。   As a method of assigning priorities, for example, among the texture images photographed from a plurality of photographing points CS, the priorities are given in the order of the closest distance between the three-dimensional coordinates of the photographing point CS and the three-dimensional coordinates of the virtual viewpoint. It may be. In this case, the priority order can be determined by calculating the distance between the three-dimensional coordinates of the shooting point CS and the three-dimensional coordinates of the virtual viewpoint for each shooting point CS.

また、撮影点CSの視線方向を比較して、仮想視点の視線方向と平行に近い順にテクスチャマッピングの優先順位を与えるようにしてもよい。この場合、撮影点CSの3次元座標と、3次元モデルに含まれる重心等の所定の点とから、撮影点CSからの視線ベクトルを求めるとともに、仮想視点の3次元座標と、3次元モデルに含まれる重心等の所定の点とから、仮想視点からの視線ベクトルを求め、両者の視線ベクトルの内積を算出し、内積の小さい順に優先順位を定めるようにしてもよい。また、例えば、重心を用いる他、キャリブレーションから各カメラCamの撮影方向を算出し、これを視線ベクトルとしてもよい。このように、撮影点CSからの視線方向の算出及び比較は、種々の方法を用いて行うことができる。   Alternatively, the line-of-sight directions of the imaging point CS may be compared, and texture mapping priorities may be given in the order of being parallel to the line-of-sight direction of the virtual viewpoint. In this case, the line-of-sight vector from the photographing point CS is obtained from the three-dimensional coordinates of the photographing point CS and a predetermined point such as the center of gravity included in the three-dimensional model, and the three-dimensional coordinates of the virtual viewpoint and the three-dimensional model are obtained. A line-of-sight vector from a virtual viewpoint may be obtained from a predetermined point such as the center of gravity included, an inner product of both line-of-sight vectors may be calculated, and a priority order may be determined in ascending order of the inner product. Further, for example, in addition to using the center of gravity, the shooting direction of each camera Cam may be calculated from the calibration, and this may be used as the line-of-sight vector. Thus, the calculation and comparison of the line-of-sight direction from the imaging point CS can be performed using various methods.

更に、上述の3次元座標により優先順位を付与する方法と、視線方向により優先順位を付与する方法を組み合わせてもよい。さらに付与されたテクスチャ画像から優先順位の高い2枚以上のテクスチャ画像を選出する。   Furthermore, the method of assigning priority by the above-described three-dimensional coordinates and the method of assigning priority by the line-of-sight direction may be combined. Further, two or more texture images with high priority are selected from the assigned texture images.

ここで、図4を用いて、仮想視点について説明する。図4は、仮想視点VPを説明するための一例の図である。図4は、図3において対象物80を撮影した複数の画像から生成した3次元モデル90を、ディスプレイ等の表示装置の画面上に表示する際の視点を示すものである。つまり、仮想視点VPは、再生時のユーザの設定によりXYZ軸のどの方向にも移動することができる。   Here, the virtual viewpoint will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of the virtual viewpoint VP. FIG. 4 shows a viewpoint when the three-dimensional model 90 generated from a plurality of images obtained by photographing the object 80 in FIG. 3 is displayed on the screen of a display device such as a display. That is, the virtual viewpoint VP can be moved in any direction on the XYZ axes depending on the setting of the user at the time of reproduction.

図2に戻る。ブレンドテクスチャ画像生成手段50は、ブレンドテクスチャ画像選択手段40から出力された複数のテクスチャ画像を、撮影点CSの3次元位置及び視線方向や仮想視点VPの3次元位置及び視線方向から算出するブレンド率にしたがって混合し、ブレンドテクスチャ画像を生成して出力する手段である。   Returning to FIG. The blend texture image generation unit 50 calculates a plurality of texture images output from the blend texture image selection unit 40 from the three-dimensional position and line-of-sight direction of the shooting point CS and the three-dimensional position and line-of-sight direction of the virtual viewpoint VP. To generate and output a blended texture image.

ブレンド率を付与する手法としては、例えば仮想視点VPの3次元座標と撮影点CSの3次元座標との距離が近いほど、ブレンド率を高く付与し、影響度を高めるような手法がある。   As a method for giving the blend rate, for example, there is a method in which the blend rate is given higher and the degree of influence is increased as the distance between the three-dimensional coordinate of the virtual viewpoint VP and the three-dimensional coordinate of the shooting point CS is closer.

図5は、ブレンド率を仮想視点VPとの距離に基づいて定める方法の一例を示した図である。例えば、図5に示すように、優先順位の高い2つの撮影点CS1、CS2のカメラCam1、Cam2と対象物80の重心Gとで構成される平面Pへ仮想視点VPから垂線V1を下ろし、平面Pと交わった点aを算出する。なお、図5において、仮想視点VPに対応して、仮想カメラVCamを示している。次に、平面P上で対象物80の重心Gと点aとを通る直線L1を伸ばし、2つの撮影点CS1、CS2のカメラCam1、Cam2を結んだ直線L2と交わる点bを算出する。2つの撮影点CS1、CS2のカメラCam1、Cam2から点bまでの距離d1、d2をブレンド率として算出することができる。選出された2枚のテクスチャ画像を距離d1、d2のブレンド率から下記の(1)式に従って混合することで、ブレンドテクスチャ画像を取得することができる。   FIG. 5 is a diagram showing an example of a method for determining the blend rate based on the distance from the virtual viewpoint VP. For example, as shown in FIG. 5, a perpendicular line V1 is dropped from a virtual viewpoint VP to a plane P composed of the cameras Cam1 and Cam2 of the two shooting points CS1 and CS2 having a high priority and the center of gravity G of the object 80. A point a intersecting with P is calculated. In FIG. 5, a virtual camera VCam is shown corresponding to the virtual viewpoint VP. Next, a straight line L1 passing through the center of gravity G of the object 80 and the point a on the plane P is stretched, and a point b intersecting with the straight line L2 connecting the cameras Cam1 and Cam2 of the two photographing points CS1 and CS2 is calculated. The distances d1 and d2 from the cameras Cam1 and Cam2 of the two shooting points CS1 and CS2 to the point b can be calculated as the blend ratio. By blending the selected two texture images according to the following formula (1) from the blend ratios of the distances d1 and d2, a blend texture image can be acquired.

Figure 2010020487

(1)式から、カメラCam1が仮想視点VPに接近する程、d1は小さくなるので、カメラCam1の係数(1−d1/(d1+d2))は大きくなり、カメラCam1によるテクスチャ画像の混合比率が高くなることが分かる。同様に、カメラCam2の方が仮想視点VPに接近した場合には、d1が大きくなるので、カメラCam2の係数(d1/(d1+d2))が大きくなり、カメラCam2によるテクスチャ画像の混合比率が高くなることが分かる。
Figure 2010020487

From the equation (1), as the camera Cam1 approaches the virtual viewpoint VP, d1 decreases, so the coefficient (1-d1 / (d1 + d2)) of the camera Cam1 increases and the texture image mixing ratio by the camera Cam1 increases. I understand that Similarly, when the camera Cam2 is closer to the virtual viewpoint VP, d1 increases, so the coefficient (d1 / (d1 + d2)) of the camera Cam2 increases and the texture image mixing ratio by the camera Cam2 increases. I understand that.

このように、ブレンド率決定の方法としては、優先順位の高いカメラCam1、Cam2を複数選択した後、それらの仮想視点VPとの距離に応じて、仮想視点VPにより近い撮影点CS1、CS2のカメラCam1、Cam2の方のテクスチャ画像の混合比率が高くなるようにブレンド率を定めるようにしてよい。これにより、仮想視点VPからの実際の視認状態に、より近い映像を生成することができる。   As described above, as a method of determining the blend ratio, after selecting a plurality of cameras Cam1 and Cam2 having higher priorities, the cameras at the shooting points CS1 and CS2 that are closer to the virtual viewpoint VP according to the distance from the virtual viewpoint VP. The blend ratio may be determined so that the mixing ratio of the texture images of Cam1 and Cam2 is higher. Thereby, an image closer to the actual visual recognition state from the virtual viewpoint VP can be generated.

次に、図6を用いて、図5とは異なるブレンド率の決定方法について説明する。図6は、図5とは異なる、仮想視点方向と撮影方向のなす角に応じたブレンド率の算出方法の一例を説明するための図である。   Next, a method for determining a blend ratio different from that in FIG. 5 will be described with reference to FIG. FIG. 6 is a diagram for explaining an example of a blend rate calculation method according to the angle formed by the virtual viewpoint direction and the shooting direction, which is different from FIG. 5.

図6において、優先順位の高い2つの撮影点CS1、CS2のカメラCam1、Cam2と対象物80の重心Gとで構成される平面Qへ、仮想カメラVCamが設けられた仮想視点VPから垂線V2を下ろし、平面Qと交わる点cが算出されている。次に、平面Q上で対象物80の重心Gと点cとを結ぶ直線L3を考え、重心Gと各撮影点CS1、CS2のカメラCam1、Cam2とを結ぶ直線L4、L5となす角度φ1、φ2をブレンド率とすることができる。混合にあたっては、下記の(2)式により、ブレンドテクスチャ画像を取得する。   In FIG. 6, a perpendicular line V2 is drawn from a virtual viewpoint VP at which the virtual camera VCam is provided to a plane Q composed of the cameras Cam1 and Cam2 of the two shooting points CS1 and CS2 having high priority and the center of gravity G of the object 80. A point c that intersects with the plane Q is calculated. Next, a straight line L3 connecting the center of gravity G of the object 80 and the point c on the plane Q is considered, and an angle φ1 formed between the center of gravity G and the straight lines L4 and L5 connecting the cameras Cam1 and Cam2 of the photographing points CS1 and CS2. φ2 can be the blend rate. In mixing, a blend texture image is acquired by the following equation (2).

Figure 2010020487
(2)式においても、図5の場合と同様に、仮想視点VPと視線方向が平行に近く、角度φ1、φ2のより小さい方のテクスチャ画像の混合比率が高くなるような式となっている。つまり、カメラCam1の視線方向が仮想視点VPの視線方法により近く、角度φ1がより小さくなる程、カメラCam1の係数(1−φ1/(φ1+φ2))は大きくなり、カメラCam1によるテクスチャ画像の混合比率が高まる。同様に、カメラCam2の視線方向が仮想視点VPにより近くなると、角度φ2が小さくなり、角度φ1が大きくなるので、カメラCam2のテクスチャ画像の混合比率がより高まることになる。
Figure 2010020487
Also in the equation (2), as in the case of FIG. 5, the virtual viewpoint VP and the line-of-sight direction are nearly parallel, and the expression ratio of the texture image having the smaller angles φ1 and φ2 is increased. . That is, the closer the viewing direction of the camera Cam1 is to the viewing method of the virtual viewpoint VP and the smaller the angle φ1, the larger the coefficient of the camera Cam1 (1-φ1 / (φ1 + φ2)), and the mixing ratio of the texture image by the camera Cam1 Will increase. Similarly, when the line-of-sight direction of the camera Cam2 is closer to the virtual viewpoint VP, the angle φ2 becomes smaller and the angle φ1 becomes larger, so that the texture image mixing ratio of the camera Cam2 is further increased.

このように、ブレンド率の算出は、仮想視点VPの視線方向と、選択された優先順位の高い撮影点CS1、CS2のカメラCam1、Cam2の視線方向との関係に基づいて行うようにしてもよい。これにより、仮想視点VPの視線方向に近い方の撮影点CS1、CS2のカメラCam1、Cam2の混合比率を高めることができ、より仮想視点VPからの視認状態に近いブレンド画像を生成することができる。   As described above, the calculation of the blend ratio may be performed based on the relationship between the line-of-sight direction of the virtual viewpoint VP and the line-of-sight direction of the selected camera points CS1 and CS2 of the photographing points CS1 and CS2. . As a result, the mixing ratio of the cameras Cam1 and Cam2 at the photographing points CS1 and CS2 closer to the visual line direction of the virtual viewpoint VP can be increased, and a blended image closer to the viewing state from the virtual viewpoint VP can be generated. .

図5及び図6においては、ブレンドテクスチャ選定手段40で2枚の優先順位の高いテクスチャ画像が選択され、2枚のテクスチャ画像を混合する例について説明したが、次に図7を用いて、3枚のテクスチャ画像を混合する場合について説明する。   5 and 6, an example in which two texture images with high priority are selected by the blend texture selecting unit 40 and the two texture images are mixed has been described. Next, referring to FIG. A case where a plurality of texture images are mixed will be described.

図7は、3枚のテクスチャ画像を混合する場合のブレンド率の算出方法の一例について説明するための図である。図7において、仮想視点VPに距離的に近い、又は視線方向が近い優先順位の高い撮影点CS1、CS2、CS3のカメラCam1、Cam2、Cam3が3台選択されている。   FIG. 7 is a diagram for explaining an example of a blend rate calculation method when three texture images are mixed. In FIG. 7, three cameras Cam1, Cam2, and Cam3 of the shooting points CS1, CS2, and CS3 with high priority that are close to the virtual viewpoint VP or close to the line-of-sight direction are selected.

本ブレンド率の算出方法においては、図7に示されるように、優先順位の高い3つの撮影点CS1、CS2、CS3のカメラCam1、Cam2、Cam3で構成される平面Rに対して、仮想カメラVCamが設けられた仮想視点VPから垂線V3を下ろし、平面Rと交わる点Oを算出する。   In this blend ratio calculation method, as shown in FIG. 7, a virtual camera VCam is applied to a plane R composed of cameras Cam1, Cam2, and Cam3 of three shooting points CS1, CS2, and CS3 having a high priority. A vertical line V3 is dropped from the virtual viewpoint VP provided with the point O, and a point O that intersects the plane R is calculated.

点Oから各撮影点Cam1、Cam2、Cam3同士を結んだ辺L6、L7、L8に対して垂線を下ろし、それぞれの長さd1、d2、d3をブレンド率とすることができる。これらのブレンド率に従い、下記の(3)式を用いてブレンドテクスチャ画像を取得することができる。   A perpendicular is drawn from the point O to the sides L6, L7, and L8 connecting the photographing points Cam1, Cam2, and Cam3, and the respective lengths d1, d2, and d3 can be set as the blend ratio. According to these blend ratios, a blend texture image can be acquired using the following formula (3).

Figure 2010020487
(3)式においても、例えば仮想視点VPが撮影点CS1のカメラCam1に接近すれば、対角のd1が大きくなり、撮影点CS1のカメラCam1におけるテクスチャ画像の混合比率が高くなるような式となっている。これは、図7において、仮想視点VPから最も離れて距離の大きい撮影点CS2のカメラCam2の対角のd2が小さくなっていることからも理解できる。
Figure 2010020487
In formula (3), for example, if the virtual viewpoint VP approaches the camera Cam1 at the shooting point CS1, the diagonal d1 increases, and the texture image mixing ratio at the camera Cam1 at the shooting point CS1 increases. It has become. This can also be understood from the fact that the diagonal d2 of the camera Cam2 of the photographing point CS2 that is the farthest away from the virtual viewpoint VP in FIG. 7 is small.

このように、選択する複数の撮影点CSは、複数であれば、2つであってもよいし、3つであってもよく、用途に応じて所定数に設定することができる。図5乃至図7においては、選択する撮影点CSの数が2つの場合と3つの場合のみを挙げて説明しているが、例えば、4つであってもよいし、4つ以上であってもよい。いずれの場合においても、仮想視点VPに距離が接近又は視線方向が近くなる撮影点CSほど、混合比率が高くなるようにブレンド率を算出すれば、ちらつきの少ない滑らかなブレンドテクスチャ画像を生成することができる。   As described above, the plurality of imaging points CS to be selected may be two or three as long as they are plural, and can be set to a predetermined number according to the application. In FIGS. 5 to 7, the case where the number of shooting points CS to be selected is only two and three is described. However, for example, the number may be four or four or more. Also good. In any case, if the blend rate is calculated so that the blending ratio becomes higher as the shooting point CS is closer to the virtual viewpoint VP or closer to the visual line direction, a smooth blend texture image with less flickering is generated. Can do.

ここで、図2で説明した可視領域抽出装置30を用いることで、高品位なブレンドテクスチャ画像を取得することができる。はじめに、仮想カメラから上述の優先順位により、N台のカメラCamを選択する。次に、テクスチャ画像の最小構成単位であるポリゴン毎にブレンドする上位M台のカメラCamを、ブレンドテクスチャ選定手段40の優先順位に従って選出する。ただし、このとき当該ポリゴンから可視状態(Visible)でないカメラCamは排除する。選出されたM台のテクスチャ画像を、上述のブレンド手法により混合し、ブレンドテクスチャ画像を生成する。   Here, by using the visible region extraction device 30 described in FIG. 2, a high-quality blend texture image can be acquired. First, N cameras Cam are selected from the virtual cameras according to the above-described priority order. Next, the top M cameras Cam to be blended for each polygon, which is the minimum structural unit of the texture image, are selected according to the priority order of the blend texture selecting means 40. However, at this time, the camera Cam that is not visible (Visible) is excluded from the polygon. The selected M texture images are mixed by the blending method described above to generate a blended texture image.

なお、可視状態でないカメラCamのテクスチャ画像の排除は、ブレンドテクスチャ画像選択手段40でブレンドテクスチャ画像を選択するときに行ってもよいし、ブレンドテクスチャ画像生成手段50でブレンドテクスチャ画像を生成する直前に行ってもよい。ブレンドテクスチャ画像選択手段40で不可視状態のカメラCamによるテクスチャ画像を排除する場合には、可視状態にあるテクスチャ画像の中から上位M台を選択するようにする。この場合には、M台のカメラCamは総て可視状態にあるが、ポリゴン毎にカメラの組み合わせが異なる場合が有り得る。一方、ブレンドテクスチャ画像生成手段50で不可視状態のカメラCamによるテクスチャ画像を排除する場合には、選択されたM台の優先順位の高いカメラCamのテクスチャ画像から、不可視状態のカメラによるテクスチャ画像を排除するようにする。これにより、ポリゴン毎に用いるテクスチャ画像の数が異なる場合が有り得るが、カメラの組み合わせは同じとなる。これらは、用途に応じて適宜適切な手法を採用するようにしてよい。   In addition, the texture image of the camera Cam that is not visible may be excluded when the blend texture image selection unit 40 selects the blend texture image, or immediately before the blend texture image generation unit 50 generates the blend texture image. You may go. When the texture image by the camera Cam in the invisible state is excluded by the blend texture image selecting unit 40, the top M units are selected from the texture images in the visible state. In this case, the M cameras Cam are all visible, but there may be a case where the combination of cameras differs for each polygon. On the other hand, when the blended texture image generation unit 50 excludes the texture image from the invisible camera Cam, the texture image from the invisible camera is excluded from the selected texture images of the M high-priority cameras Cam. To do. Thereby, the number of texture images used for each polygon may be different, but the combination of cameras is the same. For these, an appropriate method may be adopted as appropriate according to the application.

ここで、仮想視点VPの3次元座標及び視線方向は、例えば、OpenGL(Open Graphics Library)等の3次元プログラミング言語等を用いて求めることができる。また、複数の撮影点CSの3次元座標及び視線方向は、例えば撮影時に実空間の位置と、画像上の仮想空間の位置との対応を取るカメラキャリブレーション等を実施することにより取得することができる。   Here, the three-dimensional coordinates and the line-of-sight direction of the virtual viewpoint VP can be obtained using a three-dimensional programming language such as OpenGL (Open Graphics Library), for example. Further, the three-dimensional coordinates and the line-of-sight directions of the plurality of shooting points CS can be acquired by performing camera calibration or the like that takes a correspondence between the position of the real space and the position of the virtual space on the image at the time of shooting, for example. it can.

内挿映像生成装置60は、ブレンドテクスチャ画像と3次元モデル90と仮想視点VPの3次元座標及び視線方向等からなる仮想視点情報とを入力とし、ブレンドテクスチャ画像を3次元モデル90にテクスチャマッピングし、仮想視点VPから見える3次元モデル90を生成する。これにより、カメラの設置されていない仮想視点VPからの映像を高品位に生成することができる。   The interpolated image generation device 60 receives the blended texture image, the three-dimensional model 90, and virtual viewpoint information including the three-dimensional coordinates and the line-of-sight direction of the virtual viewpoint VP, and texture-maps the blended texture image to the three-dimensional model 90. Then, a three-dimensional model 90 that is visible from the virtual viewpoint VP is generated. Thereby, the video from the virtual viewpoint VP in which no camera is installed can be generated with high quality.

次に、動画像への対応方法について説明する。上述のように説明した任意視点映像生成装置70は、仮想視点VPに依存して内挿映像を生成するので、仮想視点VPが移動する場合や対象物80が移動する場合等においても、高品位な内挿映像を生成することができる。   Next, a method for dealing with moving images will be described. Since the arbitrary viewpoint video generation device 70 described above generates an interpolated video depending on the virtual viewpoint VP, even when the virtual viewpoint VP moves or the object 80 moves, the high-definition video is generated. An interpolated video can be generated.

この場合には、所定の時間が経過した場合や、仮想視点VPが所定距離分の変化等に伴う仮想視点VPの移動に追従して、可視領域抽出装置30においても、表面頂点群または面群を再度求めて3次元モデル90の可視領域情報を取得する。また、ブレンドテクスチャ画像選択手段40にてテクスチャ画像を再選択し、ブレンドテクスチャ画像生成手段50でブレンド率を再計算した上で、ブレンドテクスチャ画像を生成する。更に、これらの情報を用いてブレンドテクスチャ画像生成手段50にて、新たにブレンドテクスチャ画像を生成した上で、内挿映像生成装置60にて3次元モデル90にテクスチャマッピングすることによって、動画像にも対応することができる。   In this case, the surface vertex group or the surface group also in the visible region extraction device 30 when the predetermined time has elapsed or the virtual viewpoint VP follows the movement of the virtual viewpoint VP accompanying a change of a predetermined distance or the like. Is obtained again to obtain the visible region information of the three-dimensional model 90. The blend texture image selection means 40 reselects the texture image, the blend texture image generation means 50 recalculates the blend rate, and then the blend texture image is generated. Further, the blended texture image generating means 50 newly generates a blended texture image using these pieces of information, and then the texture mapping is performed on the three-dimensional model 90 by the interpolated video generating device 60, whereby a moving image is generated. Can also respond.

なお、上述の追従については、仮想視点VPの移動に限定されず、例えば人や動物等のように、対象物80が移動する場合についても同様に対応することができる。これにより、人間や動物等の動く対象物80の3次元モデル90を動画表示する場合にも、高品位に内挿された内挿映像を生成することができる。   The follow-up described above is not limited to the movement of the virtual viewpoint VP, and can be similarly applied to the case where the object 80 moves, such as a person or an animal. Thereby, even when the moving object 80 such as a human being or an animal 80 is displayed as a moving image, it is possible to generate an interpolated video image with high quality.

また、仮想視点VPと3次元モデル90とが相対的に移動した場合にのみテクスチャ画像を再選択し、ブレンド率を更新して、ブレンドテクスチャ画像を生成してもよい。なお、この場合に、3次元モデル90の位置として、例えば重心等の所定位置を基準にするようにしてよい。   Alternatively, a texture image may be reselected only when the virtual viewpoint VP and the three-dimensional model 90 move relatively, and the blend rate may be updated to generate a blend texture image. In this case, as a position of the three-dimensional model 90, for example, a predetermined position such as the center of gravity may be used as a reference.

これにより、仮想視点VPと3次元モデル90とが相対的に移動した場合にのみテクスチャ画像を再選出し、再選出されたテクスチャを新たなブレンド率に従ってブレンドテクスチャのテクスチャマッピングを再実行することになるため、効率的に内挿された映像を生成することができる。   As a result, the texture image is re-selected only when the virtual viewpoint VP and the three-dimensional model 90 are relatively moved, and the texture mapping of the blend texture is re-executed according to the new blend rate for the re-selected texture. Therefore, an efficiently interpolated video can be generated.

ここで、本発明における内挿映像生成装置60の各構成における処理をコンピュータに実行させることができる実行プログラムを生成し、例えば、汎用のパーソナルコンピュータ、ワークステーション等にプログラムをインストールすることにより、本発明において生成された内挿映像の表示を実現することができる。   Here, an execution program capable of causing a computer to execute the processing in each configuration of the interpolated video generation apparatus 60 in the present invention is generated, and the program is installed in, for example, a general-purpose personal computer, workstation, etc. The display of the interpolated image generated in the invention can be realized.

次に、本実施例に係る任意視点映像生成装置70の内挿映像生成処理を実行可能なコンピュータのハードウェア構成例について、図8を用いて説明する。図8は、本発明を適用した実施例に係る任意視点映像生成装置70の内挿映像生成処理を実現可能なハードウェア構成の一例を示す図である。   Next, a hardware configuration example of a computer capable of executing the interpolated video generation processing of the arbitrary viewpoint video generation apparatus 70 according to the present embodiment will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of a hardware configuration capable of realizing the interpolated video generation processing of the arbitrary viewpoint video generation device 70 according to the embodiment to which the present invention is applied.

図8におけるコンピュータ本体には、入力装置110と出力装置120とドライブ装置130と補助記録装置140とメモリ装置150と各種制御を行うCPU(Central Processing Unit)160と、ネットワーク接続装置170とを有するよう構成されており、これらはシステムバス180で相互に接続されている。   8 includes an input device 110, an output device 120, a drive device 130, an auxiliary recording device 140, a memory device 150, a CPU (Central Processing Unit) 160 that performs various controls, and a network connection device 170. These are connected to each other by a system bus 180.

入力装置110は、ユーザが操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザからのプログラムの実行等、各種操作信号を入力する。出力装置120は、本実施例における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU160が有する制御プログラムにより、プログラムの実行経過や内挿映像生成結果等を表示することができる。   The input device 110 has a pointing device such as a keyboard and a mouse operated by a user, and inputs various operation signals such as execution of a program from the user. The output device 120 has a display for displaying various windows and data necessary for operating the computer main body for performing processing in the present embodiment, and the program execution progress and interpolation are controlled by the control program of the CPU 160. Video generation results and the like can be displayed.

ここで、本実施例においてコンピュータ本体にインストールされる実行プログラムは、例えば、CD−ROM等の記録媒体100等により提供される。プログラムを記録した記録媒体100は、ドライブ装置130にセット可能であり、記録媒体100に含まれる実行プログラムが、記録媒体100からドライブ装置130を介して補助記憶装置140にインストールされる。よって、図2に示した任意視点映像生成装置70のブレンドテクスチャ画像選定手段40、ブレンドテクスチャ画像生成手段50、内挿映像生成手段60で実行する処理を、コンピュータプログラムとして記録媒体100に記録しておけば、本実施例に係る任意視点映像生成装置70の機能を、本実施例に係る任意視点映像生成プログラムとして図8に示したコンピュータに実行させることができる。この場合には、任意視点映像生成プログラムは、ブレンドテクスチャ画像選定処理、ブレンドテクスチャ画像生成処理及び内挿映像生成処理を順次コンピュータに実行させるプログラムを構成することになる。   Here, the execution program installed in the computer main body in the present embodiment is provided by the recording medium 100 such as a CD-ROM, for example. The recording medium 100 on which the program is recorded can be set in the drive device 130, and an execution program included in the recording medium 100 is installed from the recording medium 100 to the auxiliary storage device 140 via the drive device 130. Therefore, the processing executed by the blend texture image selection unit 40, the blend texture image generation unit 50, and the interpolated video generation unit 60 of the arbitrary viewpoint video generation device 70 shown in FIG. 2 is recorded on the recording medium 100 as a computer program. In this case, the function of the arbitrary viewpoint video generation apparatus 70 according to the present embodiment can be executed by the computer shown in FIG. 8 as the arbitrary viewpoint video generation program according to the present embodiment. In this case, the arbitrary viewpoint video generation program constitutes a program that causes the computer to sequentially execute the blend texture image selection process, the blend texture image generation process, and the interpolated video generation process.

補助記憶装置140は、ハードディスク等のストレージ手段であり、本実施例における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。   The auxiliary storage device 140 is a storage unit such as a hard disk, and can store an execution program in this embodiment, a control program provided in a computer, and the like, and can perform input / output as necessary.

CPU160は、OS(Operating System)等の制御プログラム、及びメモリ装置150により読み出され格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、内挿映像生成表示における各処理を実現することができる。プログラムの実行中に必要な各種情報等は、補助記憶装置140から取得することができ、また格納することもできる。   Based on a control program such as an OS (Operating System) and an execution program read and stored by the memory device 150, the CPU 160 performs various operations and data input / output with each hardware component, etc. Each process in the interpolated image generation display can be realized by controlling the process. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 140 and can also be stored.

ネットワーク接続装置170は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本実施例における実行プログラム自体を他の端末等に提供したりすることができる。   The network connection device 170 obtains an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program or in this embodiment. The execution program itself can be provided to other terminals.

図8に示したハードウェア構成により、特別な装置構成を必要とせず、低コストで内挿映像の生成・表示処理を実現することができる。また、任意視点映像生成プログラムをインストールすることにより、容易に内挿映像生成・表示処理を実現することができる。   The hardware configuration shown in FIG. 8 does not require a special device configuration, and can realize the generation / display processing of the interpolated video at a low cost. Further, by installing the arbitrary viewpoint video generation program, it is possible to easily realize the interpolated video generation / display processing.

次に、図9を用いて、本実施例に係る任意視点映像生成装置70及び任意視点映像生成システムで実行される内挿映像生成・表示処理の処理フローについて説明する。図9は、本実施例に係る任意視点映像生成装置70及び任意視点映像生成プログラムで実行される内挿映像生成・表示処理を実現するための一例のフローチャートである。なお、本実施例に係る任意視点映像生成装置70及び任意視点映像生成プログラムにおいては、テクスチャ画像を取得してから、内挿映像の生成までの処理を行うが、図9の処理フローにおいては、その前に行われるテクスチャ画像の取得と、その後に行われる内挿映像の表示処理を含めて示している。   Next, the processing flow of the interpolated video generation / display process executed by the arbitrary viewpoint video generation device 70 and the arbitrary viewpoint video generation system according to the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart of an example for realizing the interpolated video generation / display processing executed by the arbitrary viewpoint video generation device 70 and the arbitrary viewpoint video generation program according to the present embodiment. In addition, in the arbitrary viewpoint video generation device 70 and the arbitrary viewpoint video generation program according to the present embodiment, the process from the acquisition of the texture image to the generation of the interpolated video is performed. In the processing flow of FIG. It includes the acquisition of the texture image performed before that and the display processing of the interpolated video performed after that.

ステップ200では、複数のカメラCamにより同期して撮影されたテクスチャ画像、撮影したカメラCamnの撮影点CSの3次元座標及び視線方向、及び仮想視点VPの3次元座標及び視線方向(仮想視点情報)が入力される。   In step 200, the texture image photographed synchronously by the plurality of cameras Cam, the three-dimensional coordinates and line-of-sight directions of the photographing point CS of the photographed camera Camn, and the three-dimensional coordinates and line-of-sight directions of the virtual viewpoint VP (virtual viewpoint information). Is entered.

ステップ210では、ステップ200で取得した各情報に基づいて、ブレンドテクスチャ画像選択手段40又はブレンドテクスチャ画像選択処理においてブレンドテクスチャ画像を選択する。ステップ210においては、複数のテクスチャ画像をブレンドしてブレンドテクスチャを生成するため、ブレンドするテクスチャ画像の候補をまず定める。ブレンド対象となる撮影点CSのテクスチャ画像を選択するにあたっては、例えば、仮想視点VPの3次元座標に撮影点CSの3次元座標の距離が近い順番に、撮影点CSに優先順位を与えてもよい。または、仮想視線の方向と各撮影点CSの撮影方向の視線方向とを比較して、仮想視線の方向と平行に近い順に撮影点CSに優先順位を与えてもよい。また、上述の3次元位置により優先順位を付与する方法と、と視線方向により優先順位を付与する方法を組み合わせてもよい。このようにして付与された優先順位に基づいて、ブレンドする複数のテクスチャ画像を選出する。   In step 210, based on each information acquired in step 200, a blend texture image is selected in the blend texture image selection means 40 or the blend texture image selection process. In step 210, in order to blend a plurality of texture images to generate a blend texture, texture image candidates to be blended are first determined. When selecting the texture image of the shooting point CS to be blended, for example, even when the priority order is given to the shooting point CS in the order that the distance of the three-dimensional coordinate of the shooting point CS is close to the three-dimensional coordinate of the virtual viewpoint VP. Good. Alternatively, the direction of the virtual line of sight may be compared with the line-of-sight direction of the shooting direction of each shooting point CS, and the priority order may be given to the shooting points CS in the order of being parallel to the direction of the virtual line of sight. Moreover, you may combine the method of giving a priority with the above-mentioned three-dimensional position, and the method of giving a priority with a gaze direction. A plurality of texture images to be blended are selected based on the priority order assigned in this way.

なお、選出にあたっては、可視領域抽出装置30によりポリゴン毎に各撮影点CSの可視状態を算出し、不可視状態の撮影点CSは選出の対象としない手法を用いると、より高品位な内挿映像を生成することが可能である。優先順位の高い候補に不可視状態の撮影点CSが存在する場合には、その撮影点CSのテクスチャ画像は破棄して排除し、優先順位の高いもう一つの撮影点CSを追加して選出する。したがって、この手法を用いる場合、ポリゴン毎にブレンドするテクスチャカメラCamnの構成は異なる場合があり得る。   When selecting, the visible region extraction device 30 calculates the visible state of each shooting point CS for each polygon, and if a method that does not select the shooting point CS in the invisible state is used as a selection target, a higher-quality interpolated image is obtained. Can be generated. When a shooting point CS in an invisible state exists in a candidate with high priority, the texture image of the shooting point CS is discarded and eliminated, and another shooting point CS with higher priority is added and selected. Therefore, when this method is used, the configuration of the texture camera Camn blended for each polygon may be different.

ステップ220では、ブレンドテクスチャ画像生成手段50又はブレンドテクスチャ画像生成処理により、ブレンドするにあたっての各テクスチャ画像のブレンド率(重みづけ)を算出する。ブレンド率は、撮影点CSの3次元座標と、仮想視点VPの3次元座標とで距離に応じて決める。または、仮想視線の方向と撮影方向の視線方向とを比較して、撮影方向の視線方向が仮想視線の方向に平行に近い度合いに応じて決める。また、上述の3次元位置によりブレンド率を付与する方法と視線方向によりブレンド率を付与する方法とを組み合わせてもよい。このようにして与えられたブレンド率に基づいてテクスチャをブレンドしてブレンドテクスチャを生成し、出力する。   In step 220, the blend texture image generation means 50 or the blend texture image generation process calculates the blend ratio (weighting) of each texture image for blending. The blend ratio is determined according to the distance between the three-dimensional coordinates of the photographing point CS and the three-dimensional coordinates of the virtual viewpoint VP. Alternatively, the direction of the visual line of sight and the line of sight of the shooting direction are compared, and the direction of the line of sight in the shooting direction is determined according to the degree of parallelism to the direction of the virtual line of sight. Moreover, you may combine the method of providing a blend rate by the above-mentioned three-dimensional position, and the method of providing a blend rate by a gaze direction. Based on the blend ratio thus given, the texture is blended to generate and output a blend texture.

なお、ステップ210において行った可視領域抽出装置30による可視状態の算出結果の反映は、ステップ220で行うようにしてもよい。つまり、ブレンド対象として選択されたテクスチャ画像に、不可視状態の撮影点CSのテクスチャ画像が含まれている場合には、この段階で、不可視状態の撮影点CSのテクスチャ画像を破棄して排除し、残りのテクスチャ画像を用いてブレンド率を算出してもよい。この手法を用いる場合には、ポリゴン毎にブレンドするテクスチャカメラCamnの構成は同じとなる。よって、用途に応じて、ステップ210の段階で可視領域情報に基づく不可視状態の撮影点CSのテクスチャ画像の削除を行うか、ステップ220の段階で不可視状態の撮影点CSのテクスチャ画像の排除を行うかを定めるようにしてよい。なお、いずれの場合においても、可視領域抽出装置30による可視領域の抽出は必須ではなく、必要に応じて可視領域抽出装置30を設け、可視領域抽出を行うようにしてよい。   The reflection of the calculation result of the visible state by the visible region extraction device 30 performed in step 210 may be performed in step 220. That is, when the texture image selected as the blend target includes a texture image of the shooting point CS in the invisible state, at this stage, the texture image of the shooting point CS in the invisible state is discarded and removed. The blend ratio may be calculated using the remaining texture image. When this method is used, the configuration of the texture camera Camn blended for each polygon is the same. Therefore, depending on the application, the texture image of the imaging point CS in the invisible state based on the visible region information is deleted in the step 210, or the texture image of the imaging point CS in the invisible state is excluded in the step 220. It may be determined. In any case, the visible region extraction by the visible region extraction device 30 is not essential, and the visible region extraction device 30 may be provided as necessary to perform the visible region extraction.

ステップ230では、内挿映像生成手段60又は内挿映像生成処理において、各ブレンドテクスチャを3次元モデル90に貼り付けるテクスチャマッピングを行った上で、仮想視点VPからの映像を出力する。これにより、テクスチャ間の画像変化が滑らかで、ちらつきの少ない内挿映像を生成して表示することができる。   In step 230, in the interpolated video generation means 60 or the interpolated video generation process, texture mapping for pasting each blend texture to the three-dimensional model 90 is performed, and then the video from the virtual viewpoint VP is output. As a result, it is possible to generate and display an interpolated video with smooth image changes between textures and less flicker.

ステップ240では、3次元モデル90と仮想視点VPとの位置が相対的に所定の距離以上移動したかを判断する。仮想視点VPと3次元モデル90との位置が相対的に移動した場合、ステップ210に戻り、ブレンドテクスチャの選択及び生成を再び行い、移動後の内挿映像を生成・表示する。   In step 240, it is determined whether the positions of the three-dimensional model 90 and the virtual viewpoint VP have moved relative to each other by a predetermined distance. When the positions of the virtual viewpoint VP and the three-dimensional model 90 are relatively moved, the process returns to step 210 to select and generate the blend texture again, and generate and display the interpolated image after the movement.

なお、3次元モデル90及び仮想視点VPの位置の移動の有無の判定は、両者の相対移動のみでなく、各々の移動自体で行うようにしてもよい。例えば、3次元モデル90が固定状態に近く、仮想視点VPのみ大きな移動が予想される場合には、仮想視点VPが所定の距離以上移動したか否かを判定し、所定の距離以上移動した場合に、ブレンドテクスチャ画像の生成を再び行うようにしてもよい。逆に、仮想視点VPの移動が少なく、3次元モデル90の大きな移動が予想される場合には、3次元モデル90が所定の距離以上移動したか否かを判定し、所定の距離以上移動した場合に、ブレンドテクスチャ画像の生成を再度行うようにしてもよい。また、これらの移動閾値を、仮想視点単独、3次元モデル90単独及び両者の相対移動の総てに対して設定するようにしてもよい。更に、位置の移動以外に、所定時間以上経過したら、ブレンドテクスチャ画像の再選択及び再生成を行うようにしてもよい。これらの移動や時間経過に伴うブレンドテクスチャ画像の再生成の場合も、総てのブレンドテクスチャ画像が適切なブレンド率で混合された画像間での再生性なので、滑らかに画像移動を行うことができる。   The determination of whether or not the positions of the three-dimensional model 90 and the virtual viewpoint VP have moved may be performed not only by the relative movement of the two but also by each movement itself. For example, when the three-dimensional model 90 is close to a fixed state and only a large movement of the virtual viewpoint VP is expected, it is determined whether or not the virtual viewpoint VP has moved a predetermined distance or more. In addition, the blended texture image may be generated again. Conversely, when there is little movement of the virtual viewpoint VP and a large movement of the three-dimensional model 90 is expected, it is determined whether or not the three-dimensional model 90 has moved by a predetermined distance and moved by a predetermined distance or more. In this case, the blend texture image may be generated again. These movement thresholds may be set for the virtual viewpoint alone, the three-dimensional model 90 alone, and all of the relative movements of both. Further, in addition to the movement of the position, the blend texture image may be reselected and regenerated when a predetermined time has elapsed. Even in the case of these movements and regeneration of blended texture images over time, it is possible to move images smoothly because all blended texture images are reproducible between images mixed at an appropriate blend rate. .

ステップ240において、仮想視点VPと3次元モデル90との位置が相対的に又は単独でも移動していないと判定された場合、ステップ250に進む。   If it is determined in step 240 that the positions of the virtual viewpoint VP and the three-dimensional model 90 have not moved relative or alone, the process proceeds to step 250.

ステップ250では、内挿映像生成・表示を終了するかを判断する。内挿映像生成・表示を終了しない場合、ステップ240に戻り、3次元モデル90と仮想視点VPとの位置が相対的に移動するかの判断を繰り返す。また、内挿映像生成・表示を終了する場合、任意視点映像生成・表示処理を終了する。   In step 250, it is determined whether or not to generate / display the interpolated video. If the interpolated video generation / display is not terminated, the process returns to step 240 and repeats the determination of whether the positions of the three-dimensional model 90 and the virtual viewpoint VP move relatively. When the interpolated video generation / display is to be ended, the arbitrary viewpoint video generation / display processing is ended.

このように、任意視点映像生成・表示処理を任意視点映像システム又はコンピュータで実行することにより、高品位に内挿された任意視点映像を表示することができる。また、特別な装置構成を必要とせず、汎用のコンピュータに実行プログラムをインストールして上述の任意視点映像生成・表示処理を実行させることで、低コストで任意視点生成・表示処理を実現することができる。   As described above, by executing the arbitrary viewpoint video generation / display processing by the arbitrary viewpoint video system or the computer, it is possible to display the arbitrary viewpoint video interpolated with high quality. Also, it is possible to realize the arbitrary viewpoint generation / display processing at a low cost by installing an execution program on a general-purpose computer and executing the above-described arbitrary viewpoint video generation / display processing without requiring a special device configuration. it can.

上述したように本実施例によれば、高品位にテクスチャマッピングされた3次元モデル90を表示することができる。これにより、手作業でテクスチャマッピングを実行している制作者側の負担が軽減できるだけでなく、ブレンドされている効果として、撮影点CSや取得した3次元モデル90に誤差があっても、ポリゴンの境目に顕著なテクスチャの不連続領域が発生しない。また、視点を移動させたり、動体の対象物を表示させたりしてもちらつきが顕著でない効果を得ることができる。   As described above, according to the present embodiment, the three-dimensional model 90 texture-mapped with high quality can be displayed. This not only reduces the burden on the producer who is manually performing texture mapping, but also as a blended effect, even if there is an error in the shooting point CS or the acquired 3D model 90, There are no texture discontinuities at the boundaries. Further, even if the viewpoint is moved or the moving object is displayed, an effect that the flicker is not remarkable can be obtained.

具体的には、本実施例では立体形状を持つ対象物を複数の撮影点CSから撮影し、撮影された画像をもとに3次元モデル90を作成し、複数撮影点CSから撮影されたテクスチャを作成した3次元モデル90にテクスチャマッピングする際に、テクスチャを仮想視点VPに依存して選別し、それらをブレンドすることによって仮想視点VPに対応した適切な内挿映像を生成することができる。また、仮想視点VP等に追従したブレンドテクスチャマッピングを実行することで高品位な任意視点映像を出力することができる。   Specifically, in this embodiment, an object having a three-dimensional shape is photographed from a plurality of photographing points CS, a three-dimensional model 90 is created based on the photographed images, and the texture photographed from the plurality of photographing points CS. When texture mapping is performed on the created three-dimensional model 90, textures are selected depending on the virtual viewpoint VP and blended with each other, thereby generating an appropriate interpolated image corresponding to the virtual viewpoint VP. Further, by executing blend texture mapping following the virtual viewpoint VP or the like, a high-quality arbitrary viewpoint video can be output.

また、本実施例では、表示する際の仮想視点位置に対応して、モデル表面にテクスチャを与える視点依存型の面テクスチャマッピング手法を行う際に、マッピングするテクスチャを複数のテクスチャをブレンドして生成することで高品位な任意視点映像を出力することができる。   In addition, in this embodiment, when performing a viewpoint-dependent surface texture mapping method that gives a texture to the model surface corresponding to the virtual viewpoint position at the time of display, a texture to be mapped is generated by blending multiple textures. By doing so, it is possible to output a high-quality arbitrary viewpoint video.

なお、本実施例は、3次元CG(Computer Graphics)の生成、表示技術で用いることができ、一般的なテクスチャマッピング技術、レンダリング技術に適用することができる。   Note that the present embodiment can be used in 3D CG (Computer Graphics) generation and display technology, and can be applied to general texture mapping technology and rendering technology.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

本実施例に係る任意視点映像生成装置及び任意視点映像表示プログラムにおけるカメラ配置の一例を示した図である。It is the figure which showed an example of the camera arrangement | positioning in the arbitrary viewpoint video generation apparatus and arbitrary viewpoint video display program which concern on a present Example. 本実施例に係る任意視点映像生成装置70を含む任意視点映像生成システムの概要構成例を示す図である。It is a figure which shows the example of a schematic structure of the arbitrary viewpoint video generation system containing the arbitrary viewpoint video generation apparatus 70 which concerns on a present Example. 複数のカメラCamにより対象物80を撮影する様子を説明する図の一例である。It is an example of the figure explaining a mode that the target object 80 is image | photographed with the some camera Cam. 仮想視点VPを説明するための図の一例である。It is an example of the figure for demonstrating the virtual viewpoint VP. ブレンド率を仮想視点VPとの距離により定める方法の一例を示した図である。It is the figure which showed an example of the method of determining a blend rate by the distance with the virtual viewpoint VP. 仮想視点方向と撮影方向のなす角に応じたブレンド率の算出方法の一例を説明するための図である。It is a figure for demonstrating an example of the calculation method of the blend rate according to the angle | corner which a virtual viewpoint direction and the imaging | photography direction make. 3枚のテクスチャを混合するブレンド率の算出方法の一例を説明する図である。It is a figure explaining an example of the calculation method of the blend rate which mixes three textures. 本実施例に係る内挿映像生成表示処理を実現するハードウェア構成の一例を示した図である。It is the figure which showed an example of the hardware constitutions which implement | achieve the interpolation video production | generation display process which concerns on a present Example. 本実施例に係る任意視点映像生成装置70及び任意視点映像生成プログラムで実行される内挿映像生成処理を実現するフローチャートの一例である。It is an example of the flowchart which implement | achieves the interpolation video production | generation process performed with the arbitrary viewpoint video production | generation apparatus 70 and arbitrary viewpoint video production | generation program which concern on a present Example.

符号の説明Explanation of symbols

10 仮想視点情報取得手段
20 3次元形状生成装置
30 可視領域抽出装置
40 ブレンドテクスチャ画像選定手段
50 ブレンドテクスチャ画像生成手段
60 内挿映像生成手段
70 任意視点映像生成装置
80 対象物
90 3次元モデル
100 記録媒体
110 入力装置
120 出力装置
130 ドライブ装置
140 補助記録装置
150 メモリ装置
160 CPU
170 ネットワーク接続装置
Cam カメラ
VCam 仮想カメラ
CS 撮影点
VP 仮想視点
DESCRIPTION OF SYMBOLS 10 Virtual viewpoint information acquisition means 20 3D shape generation apparatus 30 Visible region extraction apparatus 40 Blend texture image selection means 50 Blend texture image generation means 60 Interpolation image generation means 70 Arbitrary viewpoint image generation apparatus 80 Object 90 3D model 100 Recording Medium 110 Input device 120 Output device 130 Drive device 140 Auxiliary recording device 150 Memory device 160 CPU
170 Network Connection Device Cam Camera VCam Virtual Camera CS Shooting Point VP Virtual Viewpoint

Claims (9)

立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する任意視点映像生成装置であって、
前記テクスチャ画像の各撮影点の3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ画像選択手段と、
該ブレンドテクスチャ画像選択手段により選択された前記複数のテクスチャ画像の各撮影点における3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、混合する各テクスチャ画像のブレンド率を決定し、該ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成手段と、
該ブレンドテクスチャ画像生成手段により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成手段と、を有することを特徴とする任意視点映像生成装置。
An arbitrary viewpoint video generation device that generates an image that can be seen from a specified arbitrary virtual viewpoint using texture images obtained by shooting a three-dimensional object from a plurality of shooting points,
A plurality of textures that give priority to each texture image based on the three-dimensional position and line-of-sight direction of each photographing point of the texture image and the three-dimensional position and line-of-sight direction of the virtual viewpoint and mix according to the priority order Blend texture image selection means for selecting an image;
Blending of texture images to be mixed based on the three-dimensional position and line-of-sight direction at each photographing point of the plurality of texture images selected by the blend texture image selection means and the three-dimensional position and line-of-sight direction of the virtual viewpoint Blend texture image generation means for determining a rate and mixing the plurality of texture images according to the blend rate to generate a blend texture image;
Interpolation video generation means for texture-mapping the blend texture image generated by the blend texture image generation means into a three-dimensional model and generating a two-dimensional interpolation video of the object seen from the virtual viewpoint; An arbitrary viewpoint video generation device characterized by the above.
前記ブレンドテクスチャ画像選択手段は、前記各撮影点の3次元位置と前記仮想視点の3次元位置との距離が近い順に前記優先順位を付与するか、又は前記各撮影点の視線方向が前記仮想視点の視線方向に近い順に前記優先順位を付与することを特徴とする請求項1に記載の任意視点映像生成装置。   The blend texture image selection means assigns the priorities in order of increasing distance between the three-dimensional position of each shooting point and the three-dimensional position of the virtual viewpoint, or the line-of-sight direction of each shooting point is the virtual viewpoint. The arbitrary viewpoint video generation device according to claim 1, wherein the priorities are assigned in the order from the closest to the line-of-sight direction. 前記ブレンドテクスチャ画像生成手段は、前記撮影点の3次元位置と前記仮想視点の3次元位置との距離が近い程、又は前記撮影点の視線方向が前記仮想視点の視線方向に近い程、混合率を高く決定することを特徴とする請求項1又は2に記載の任意視点映像生成装置。   The blended texture image generation means determines that the blending rate increases as the distance between the three-dimensional position of the shooting point and the three-dimensional position of the virtual viewpoint is shorter, or the line-of-sight direction of the shooting point is closer to the line-of-sight direction of the virtual viewpoint. The arbitrary viewpoint video generation device according to claim 1, wherein the arbitrary viewpoint video generation device is determined. 前記ブレンドテクスチャ画像選択手段は、所定時間が経過するか、又は前記仮想視点の位置が所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする請求項1乃至3のいずれか一項に記載の任意視点映像生成装置。   4. The blend texture image selection unit re-selects the blend texture image when a predetermined time elapses or the position of the virtual viewpoint moves a predetermined distance or more. The arbitrary viewpoint video generation device according to claim 1. 前記ブレンドテクスチャ画像選択手段は、前記対象物が所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする請求項1乃至4のいずれか一項に記載の任意視点映像生成装置。   5. The arbitrary viewpoint video generation according to claim 1, wherein the blend texture image selection unit reselects the blend texture image when the object moves a predetermined distance or more. 6. apparatus. 前記ブレンドテクスチャ画像選択手段は、前記仮想視点と前記3次元モデルが相対的に所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする請求項1乃至5のいずれか一項に記載の任意視点映像生成装置。   The blend texture image selection unit reselects the blend texture image when the virtual viewpoint and the three-dimensional model move relative to each other by a predetermined distance or more. The arbitrary viewpoint video generation device according to the item. 前記3次元モデルを構成する面のテクスチャ描画単位毎に、撮影点からの可視領域を取得する可視領域抽出手段を更に備え、
前記ブレンドテクスチャ画像選択手段は、前記優先順位の高い順から所定数のテクスチャ画像を選択するように設定されており、前記可視領域抽出手段により取得された前記可視領域に含まれるテクスチャ画像の中から前記所定数を選択することを特徴とする請求項1乃至6のいずれか一項に記載の任意視点映像生成装置。
Visible area extraction means for acquiring a visible area from the photographing point for each texture drawing unit of the surface constituting the three-dimensional model,
The blend texture image selection means is set to select a predetermined number of texture images in order from the highest priority, and is selected from among the texture images included in the visible area acquired by the visible area extraction means. The arbitrary viewpoint video generation apparatus according to any one of claims 1 to 6, wherein the predetermined number is selected.
前記3次元モデルを構成する面のテクスチャ描画単位毎に、撮影点からの可視領域を取得する可視領域抽出手段を更に備え、
前記ブレンドテクスチャ画像生成手段は、選択された前記複数のテクスチャ画像に、前記可視領域抽出手段により取得された前記可視領域内にないテクスチャ画像が含まれているときには、該テクスチャ画像を排除してから前記ブレンド率を決定することを特徴とする請求項1乃至6のいずれか一項に記載の任意視点映像生成装置。
Visible area extraction means for acquiring a visible area from the photographing point for each texture drawing unit of the surface constituting the three-dimensional model,
The blended texture image generating means excludes the texture image when the selected texture images include a texture image not within the visible area acquired by the visible area extracting means. The arbitrary viewpoint video generation apparatus according to claim 1, wherein the blend ratio is determined.
立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する処理をコンピュータに実行させるための任意視点映像生成プログラムであって、
前記テクスチャ画像の各撮影点の3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ選択処理と、
該ブレンドテクスチャ選択処理により選択された前記複数のテクスチャ画像の各撮影点における3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、混合する各テクスチャ画像のブレンド率を決定し、該ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成処理と、
該ブレンドテクスチャ画像生成処理により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成処理と、をコンピュータに実行させることを特徴とする任意視点映像生成プログラム。
Arbitrary viewpoint video generation program for causing a computer to execute processing for generating an image viewed from an arbitrary virtual viewpoint using texture images obtained by photographing a three-dimensional object from a plurality of photographing points. Because
A plurality of textures that give priority to each texture image based on the three-dimensional position and line-of-sight direction of each photographing point of the texture image and the three-dimensional position and line-of-sight direction of the virtual viewpoint and mix according to the priority order Blend texture selection process to select an image,
The blend ratio of each texture image to be mixed based on the three-dimensional position and the line-of-sight direction at each photographing point of the plurality of texture images selected by the blend texture selection process and the three-dimensional position and the line-of-sight direction of the virtual viewpoint Blend texture image generation processing for generating a blend texture image by mixing the plurality of texture images according to the blend rate;
An interpolated image generating process for texture-mapping the blended texture image generated by the blended texture image generating process into a three-dimensional model and generating a two-dimensional interpolated image of the object seen from the virtual viewpoint; Arbitrary viewpoint video generation program, characterized in that the program is executed.
JP2008179455A 2008-07-09 2008-07-09 Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program Expired - Fee Related JP5011224B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008179455A JP5011224B2 (en) 2008-07-09 2008-07-09 Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008179455A JP5011224B2 (en) 2008-07-09 2008-07-09 Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program

Publications (2)

Publication Number Publication Date
JP2010020487A true JP2010020487A (en) 2010-01-28
JP5011224B2 JP5011224B2 (en) 2012-08-29

Family

ID=41705322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008179455A Expired - Fee Related JP5011224B2 (en) 2008-07-09 2008-07-09 Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program

Country Status (1)

Country Link
JP (1) JP5011224B2 (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022403A (en) * 2010-07-12 2012-02-02 Nippon Hoso Kyokai <Nhk> Image processor and computer program
WO2012147664A1 (en) * 2011-04-26 2012-11-01 株式会社東芝 Image processing system and method
WO2012169693A1 (en) * 2011-06-10 2012-12-13 엘지전자 주식회사 Method for processing image and apparatus for processing image
EP2534832A2 (en) * 2010-02-12 2012-12-19 Telefónica, S.A. Method of video playback
JP2015169515A (en) * 2014-03-06 2015-09-28 株式会社メガチップス Posture estimation system, program and posture estimation method
CN106462997A (en) * 2014-07-17 2017-02-22 谷歌公司 Blending between street view and earth view
US9589362B2 (en) 2014-07-01 2017-03-07 Qualcomm Incorporated System and method of three-dimensional model generation
US9607388B2 (en) 2014-09-19 2017-03-28 Qualcomm Incorporated System and method of pose estimation
KR20180017108A (en) * 2015-10-07 2018-02-20 구글 엘엘씨 Display of objects based on multiple models
US9911242B2 (en) 2015-05-14 2018-03-06 Qualcomm Incorporated Three-dimensional model generation
EP3343515A1 (en) 2016-12-27 2018-07-04 Canon Kabushiki Kaisha Setting apparatus to set movement path of virtual viewpoint, setting method, and program
KR101875047B1 (en) * 2018-04-24 2018-07-06 주식회사 예간아이티 System and method for 3d modelling using photogrammetry
KR20190010650A (en) * 2016-05-25 2019-01-30 캐논 가부시끼가이샤 Information processing apparatus, image generation method, control method,
JPWO2018021067A1 (en) * 2016-07-29 2019-05-09 ソニー株式会社 Image processing apparatus and image processing method
EP3487176A1 (en) 2017-11-20 2019-05-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
US10304203B2 (en) 2015-05-14 2019-05-28 Qualcomm Incorporated Three-dimensional model generation
JP2019101563A (en) * 2017-11-29 2019-06-24 大日本印刷株式会社 Information processing apparatus, information processing system, information processing method, and program
US10341568B2 (en) 2016-10-10 2019-07-02 Qualcomm Incorporated User interface to assist three dimensional scanning of objects
US10373366B2 (en) 2015-05-14 2019-08-06 Qualcomm Incorporated Three-dimensional model generation
WO2019198501A1 (en) * 2018-04-10 2019-10-17 ソニー株式会社 Image processing device, image processing method, program and image transmission system
US20190340777A1 (en) * 2018-05-07 2019-11-07 Canon Kabushiki Kaisha Image processing apparatus, control method of image processing apparatus, and non-transitory computer-readable storage medium
WO2020004013A1 (en) * 2018-06-25 2020-01-02 ソニー株式会社 Image processing device and image processing method
JP2020068513A (en) * 2018-10-26 2020-04-30 キヤノン株式会社 Image processing apparatus and image processing method
WO2021079592A1 (en) * 2019-10-21 2021-04-29 ソニー株式会社 Information processing device, 3d data generation method, and program
US11037323B2 (en) 2018-02-22 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium
US11076140B2 (en) 2018-02-05 2021-07-27 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
US11138702B2 (en) 2018-12-17 2021-10-05 Canon Kabushiki Kaisha Information processing apparatus, information processing method and non-transitory computer readable storage medium
WO2021200261A1 (en) * 2020-04-03 2021-10-07 ソニーグループ株式会社 Information processing device, generation method, and rendering method
WO2022014341A1 (en) * 2020-07-17 2022-01-20 ソニーグループ株式会社 Information processing device and image data generation method
WO2023276261A1 (en) * 2021-07-02 2023-01-05 ソニーグループ株式会社 Information processing device, information processing method, and program
US11627256B2 (en) * 2018-08-31 2023-04-11 Canon Kabushiki Kaisha Information processing apparatus, method, and non-transitory computer-readable storage medium

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104346822B (en) * 2013-07-23 2017-07-21 富士通株式会社 texture mapping method and device
JP2018036898A (en) 2016-08-31 2018-03-08 キヤノン株式会社 Image processing device and control method of the same
JP6407225B2 (en) 2016-09-30 2018-10-17 キヤノン株式会社 Image processing apparatus, image processing method, image processing system, and program
JP7080613B2 (en) 2017-09-27 2022-06-06 キヤノン株式会社 Image processing equipment, image processing methods and programs
JP7062506B2 (en) 2018-05-02 2022-05-06 キヤノン株式会社 Image processing equipment, image processing methods, and programs

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002324249A (en) * 2001-02-26 2002-11-08 Nabura:Kk Image display system and its method
JP2004151950A (en) * 2002-10-30 2004-05-27 Intec Web & Genome Informatics Corp Generation and mapping system for texture image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002324249A (en) * 2001-02-26 2002-11-08 Nabura:Kk Image display system and its method
JP2004151950A (en) * 2002-10-30 2004-05-27 Intec Web & Genome Informatics Corp Generation and mapping system for texture image

Cited By (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2534832A2 (en) * 2010-02-12 2012-12-19 Telefónica, S.A. Method of video playback
JP2012022403A (en) * 2010-07-12 2012-02-02 Nippon Hoso Kyokai <Nhk> Image processor and computer program
WO2012147664A1 (en) * 2011-04-26 2012-11-01 株式会社東芝 Image processing system and method
JP2012230556A (en) * 2011-04-26 2012-11-22 Toshiba Corp Image processing system and method
CN103403770A (en) * 2011-04-26 2013-11-20 株式会社东芝 Image processing system and method
US9811942B2 (en) 2011-04-26 2017-11-07 Toshiba Medical Systems Corporation Image processing system and method
WO2012169693A1 (en) * 2011-06-10 2012-12-13 엘지전자 주식회사 Method for processing image and apparatus for processing image
US9269177B2 (en) 2011-06-10 2016-02-23 Lg Electronics Inc. Method for processing image and apparatus for processing image
JP2015169515A (en) * 2014-03-06 2015-09-28 株式会社メガチップス Posture estimation system, program and posture estimation method
US9589362B2 (en) 2014-07-01 2017-03-07 Qualcomm Incorporated System and method of three-dimensional model generation
CN106462997A (en) * 2014-07-17 2017-02-22 谷歌公司 Blending between street view and earth view
US9607388B2 (en) 2014-09-19 2017-03-28 Qualcomm Incorporated System and method of pose estimation
US10304203B2 (en) 2015-05-14 2019-05-28 Qualcomm Incorporated Three-dimensional model generation
US10373366B2 (en) 2015-05-14 2019-08-06 Qualcomm Incorporated Three-dimensional model generation
US9911242B2 (en) 2015-05-14 2018-03-06 Qualcomm Incorporated Three-dimensional model generation
KR102111079B1 (en) * 2015-10-07 2020-05-15 구글 엘엘씨 Display of objects based on multiple models
KR102232724B1 (en) * 2015-10-07 2021-03-26 구글 엘엘씨 Displaying objects based on a plurality of models
JP7247276B2 (en) 2015-10-07 2023-03-28 グーグル エルエルシー Viewing Objects Based on Multiple Models
US11086927B2 (en) 2015-10-07 2021-08-10 Google Llc Displaying objects based on a plurality of models
KR20210034693A (en) * 2015-10-07 2021-03-30 구글 엘엘씨 Displaying objects based on a plurality of models
JP2018526724A (en) * 2015-10-07 2018-09-13 グーグル エルエルシー Display objects based on multiple models
KR20200052984A (en) * 2015-10-07 2020-05-15 구글 엘엘씨 Displaying objects based on a plurality of models
KR102340678B1 (en) * 2015-10-07 2021-12-17 구글 엘엘씨 Displaying objects based on a plurality of models
KR20180017108A (en) * 2015-10-07 2018-02-20 구글 엘엘씨 Display of objects based on multiple models
JP2021185484A (en) * 2015-10-07 2021-12-09 グーグル エルエルシーGoogle LLC Display of object based on multiple models
US11809487B2 (en) 2015-10-07 2023-11-07 Google Llc Displaying objects based on a plurality of models
US10474712B2 (en) 2015-10-07 2019-11-12 Google Llc Displaying objects based on a plurality of models
KR102129792B1 (en) 2016-05-25 2020-08-05 캐논 가부시끼가이샤 Information processing device, image generation method, control method and program
US11012674B2 (en) 2016-05-25 2021-05-18 Canon Kabushiki Kaisha Information processing apparatus, image generation method, control method, and program
KR20190010650A (en) * 2016-05-25 2019-01-30 캐논 가부시끼가이샤 Information processing apparatus, image generation method, control method,
JPWO2018021067A1 (en) * 2016-07-29 2019-05-09 ソニー株式会社 Image processing apparatus and image processing method
US10341568B2 (en) 2016-10-10 2019-07-02 Qualcomm Incorporated User interface to assist three dimensional scanning of objects
EP3343515A1 (en) 2016-12-27 2018-07-04 Canon Kabushiki Kaisha Setting apparatus to set movement path of virtual viewpoint, setting method, and program
EP3487176A1 (en) 2017-11-20 2019-05-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
US10986324B2 (en) 2017-11-20 2021-04-20 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for virtual viewpoint image creation
JP2019101563A (en) * 2017-11-29 2019-06-24 大日本印刷株式会社 Information processing apparatus, information processing system, information processing method, and program
US11076140B2 (en) 2018-02-05 2021-07-27 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
US11037323B2 (en) 2018-02-22 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium
WO2019198501A1 (en) * 2018-04-10 2019-10-17 ソニー株式会社 Image processing device, image processing method, program and image transmission system
KR101875047B1 (en) * 2018-04-24 2018-07-06 주식회사 예간아이티 System and method for 3d modelling using photogrammetry
CN110460835A (en) * 2018-05-07 2019-11-15 佳能株式会社 Image processing apparatus and its control method and computer readable storage medium
EP3567550A1 (en) * 2018-05-07 2019-11-13 Canon Kabushiki Kaisha Image processing apparatus, control method of image processing apparatus, and computer-readable storage medium
US20190340777A1 (en) * 2018-05-07 2019-11-07 Canon Kabushiki Kaisha Image processing apparatus, control method of image processing apparatus, and non-transitory computer-readable storage medium
US11189041B2 (en) 2018-05-07 2021-11-30 Canon Kabushiki Kaisha Image processing apparatus, control method of image processing apparatus, and non-transitory computer-readable storage medium
CN110460835B (en) * 2018-05-07 2021-11-16 佳能株式会社 Image processing apparatus, control method thereof, and computer-readable storage medium
WO2020004013A1 (en) * 2018-06-25 2020-01-02 ソニー株式会社 Image processing device and image processing method
US11627256B2 (en) * 2018-08-31 2023-04-11 Canon Kabushiki Kaisha Information processing apparatus, method, and non-transitory computer-readable storage medium
US20230209180A1 (en) * 2018-08-31 2023-06-29 Canon Kabushiki Kaisha Information processing apparatus, method, and non-transitory computer-readable storage medium
JP2020068513A (en) * 2018-10-26 2020-04-30 キヤノン株式会社 Image processing apparatus and image processing method
JP7249755B2 (en) 2018-10-26 2023-03-31 キヤノン株式会社 Image processing system, its control method, and program
US11627251B2 (en) 2018-10-26 2023-04-11 Canon Kabushiki Kaisha Image processing apparatus and control method thereof, computer-readable storage medium
US11138702B2 (en) 2018-12-17 2021-10-05 Canon Kabushiki Kaisha Information processing apparatus, information processing method and non-transitory computer readable storage medium
WO2021079592A1 (en) * 2019-10-21 2021-04-29 ソニー株式会社 Information processing device, 3d data generation method, and program
WO2021200261A1 (en) * 2020-04-03 2021-10-07 ソニーグループ株式会社 Information processing device, generation method, and rendering method
WO2022014341A1 (en) * 2020-07-17 2022-01-20 ソニーグループ株式会社 Information processing device and image data generation method
WO2023276261A1 (en) * 2021-07-02 2023-01-05 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP5011224B2 (en) 2012-08-29

Similar Documents

Publication Publication Date Title
JP5011224B2 (en) Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program
US10127722B2 (en) Mobile capture visualization incorporating three-dimensional and two-dimensional imagery
US10893250B2 (en) Free-viewpoint photorealistic view synthesis from casually captured video
WO2019242454A1 (en) Object modeling movement method, apparatus and device
AU2016336030B2 (en) Volumetric depth video recording and playback
US8655052B2 (en) Methodology for 3D scene reconstruction from 2D image sequences
US20130321396A1 (en) Multi-input free viewpoint video processing pipeline
JP6669063B2 (en) Image processing apparatus and method
KR101212231B1 (en) Method for displaying advanced virtual reality blended of freedom movement
US8624902B2 (en) Transitioning between top-down maps and local navigation of reconstructed 3-D scenes
JP2019125929A (en) Image processing apparatus, image processing method, and program
JP2015522959A (en) Systems, methods, and media for providing interactive refocusing in images
CN109906600B (en) Simulated depth of field
JP2009211335A (en) Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and recording medium from which same recorded program can be read by computer
US10785469B2 (en) Generation apparatus and method for generating a virtual viewpoint image
US11044398B2 (en) Panoramic light field capture, processing, and display
JP2008140271A (en) Interactive device and method thereof
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
TWI502546B (en) System, method, and computer program product for extruding a model through a two-dimensional scene
CN111373347A (en) Provision of virtual reality content
KR20190062102A (en) Method and apparatus for operating 2d/3d augument reality technology
JP4464773B2 (en) 3D model display device and 3D model display program
WO2022102476A1 (en) Three-dimensional point cloud densification device, three-dimensional point cloud densification method, and program
CN111466113B (en) Apparatus and method for image capture
GB2565301A (en) Three-dimensional video processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

R150 Certificate of patent or registration of utility model

Ref document number: 5011224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees