JP5011224B2 - 任意視点映像生成装置及び任意視点映像生成プログラム - Google Patents

任意視点映像生成装置及び任意視点映像生成プログラム Download PDF

Info

Publication number
JP5011224B2
JP5011224B2 JP2008179455A JP2008179455A JP5011224B2 JP 5011224 B2 JP5011224 B2 JP 5011224B2 JP 2008179455 A JP2008179455 A JP 2008179455A JP 2008179455 A JP2008179455 A JP 2008179455A JP 5011224 B2 JP5011224 B2 JP 5011224B2
Authority
JP
Japan
Prior art keywords
texture
blend
texture image
image
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008179455A
Other languages
English (en)
Other versions
JP2010020487A (ja
Inventor
健介 久富
仁博 冨山
美和 片山
祐一 岩舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2008179455A priority Critical patent/JP5011224B2/ja
Publication of JP2010020487A publication Critical patent/JP2010020487A/ja
Application granted granted Critical
Publication of JP5011224B2 publication Critical patent/JP5011224B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、任意視点映像生成装置及び任意視点映像生成プログラムに関し、特に、立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する任意視点映像生成装置及び任意視点映像生成プログラムに関する。
従来から、ユーザが指定した任意の視点(以下、「仮想視点」という。)から視認した立体形状の実体を有する対象物の映像を表示するにあたっては、対象物を複数の撮影点から撮影し、撮影した画像を用いて3次元モデルの表面にテクスチャマッピングすることにより、映像を生成・表示する手法が提案されている。
かかる手法において、テクスチャマッピングで用いるテクスチャデータの選択を、目視による作業に依存せず、適切なテクスチャデータを自動的に選択でき、鮮明でリアルな立体モデルを得るため、3次元モデルの表面を構成する面の法線ベクトルと撮影点の視線方向のベクトルを比較し、撮影点の光軸ベクトルが面の表面ベクトルに対して平行に近い撮影点から撮影した画像のテクスチャをモデル表面の面に張り付ける手法が提案されている(例えば、特許文献1参照)。
また、高精細にテクスチャマッピングされた3次元モデルを表示するため、表示視点からの視線方向のベクトル(表示ベクトル)と撮影ベクトルとが平行に近いカメラ映像に優先を与え、優先順位の高いカメラのうち、各頂点から可視状態(Visibility)なカメラの映像をマッピングする視点依存型テクスチャマッピングも提案されている(例えば、特許文献2参照)。
特開平9−134449号公報 特開2006−72805号公報
しかしながら、上述した一般的なテクスチャマッピング手法は、撮影点の3次元位置や視線方向などのパラメータを正確に取得できなかったり、3次元モデルの正確な形状を生成することができなかったりして、マッピングされるテクスチャの位置がずれ、不自然な任意視点映像が生成されてしまうという問題があった。
また、上述の特許文献1に記載されている3次元モデル表面の各頂点及び各面へマッピングするテクスチャ画像データを選択する手法は、3次元モデルを表示する視点の3次元位置及び視点方向によっては、必ずしも適切なテクスチャ画像データが選択されず、状況によって高画質な3次元モデルを表示できるとは必ずしも限らないという問題があった。
また、特許文献2に記載されている視点依存型テクスチャマッピング手法は、3次元モデルの表面の場所によって、各カメラの可視状態が異なるため、マッピングするテクスチャ画像も異なり、マッピングされるテクスチャ画像が異なる部分の境界付近において不連続なテクスチャが生成されてしまう。また視点を移動させると、視点の位置に応じて可視状態が変更されるため、マッピングされるテクスチャ画像もまた変更されてしまい、ちらつきのような現象が生じてしまうという問題があった。更に、この手法で動画を表示する場合には、同じような位置にある3次元モデル上の表面の、ある一部においても、時間の経過に伴って各カメラの可視状態が変わるため、マッピングされる画像も切り替わり、時間軸方向への連続性が薄くなって、やはりちらつきなどの現象が生じてしまうという問題があった。
本発明は、上述した問題点に鑑みなされたものであり、高品位な内挿映像を生成することができる任意視点映像生成装置及び任意視点映像生成プログラムを提供することを目的とする。
上記目的を達成するため、第1の発明に係る任意視点映像生成装置は、立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する任意視点映像生成装置であって、
前記テクスチャ画像の各撮影点の3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ画像選択手段と、
該ブレンドテクスチャ画像選択手段により選択された前記複数のテクスチャ画像の各撮影点における3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、混合する各テクスチャ画像のブレンド率を決定し、該ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成手段と、
該ブレンドテクスチャ画像生成手段により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成手段と、を有することを特徴とする。
これにより、撮影したカメラの3次元位置や視線方向などのカメラパラメータに誤差が生じたり、また3次元モデルに誤差が生じたりしても、3次元モデルにマッピングされるテクスチャ画像は、複数のテクスチャをブレンドすることで生成されているため、誤差によって生じるテクスチャの不連続性が顕著に現れない。また、仮想視点とカメラとの3次元位置及び視線方向の関係に応じたブレンド率となっているため、高品位な内挿映像を生成することができる。
第2の発明は、第1の発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、前記各撮影点の3次元位置と前記仮想視点の3次元位置との距離が近い順に前記優先順位を付与するか、又は前記各撮影点の視線方向が前記仮想視点の視線方向に近い順に前記優先順位を付与することを特徴とする。
これにより、仮想視点から距離的に近い、もしくは仮想視点方向に近い撮影点から撮影されたテクスチャが優先的に選択され、適切なテクスチャ画像を選択することができる。また、高品位に内挿された映像を生成・表示することができる。
第3の発明は、第1又は第2の発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像生成手段は、前記撮影点の3次元位置と前記仮想視点の3次元位置との距離が近い程、又は前記撮影点の視線方向が前記仮想視点の視線方向に近い程、混合率を高く決定することを特徴とする。
これにより、仮想視点から距離的に近い、又は仮想視点の方向に近い撮影点から撮影されたテクスチャ画像ほど高い重み付けでブレンドテクスチャ画像に反映されるように混合されるため、信頼度が高くより高品位な内挿映像を生成できる。
第4の発明は、第1〜3のいずれかの発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、所定時間が経過するか、又は前記仮想視点の位置が所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする。
これにより、時間経過や仮想視点の移動に追従して、ブレンドテクスチャ画像を再選択し、再選択されたブレンドテクスチャ画像を利用してテクスチャマッピングを再実行することで、時間経過により仮想視点が移動した際も、その時刻での仮想視点において高品位に内挿された2次元映像を生成することができる。
第5の発明は、第1〜4のいずれかの発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、前記対象物が所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする。
これにより、人間や動物等の動く対象物の任意視点映像を生成して動画表示する場合にも高品位に内挿された動画を生成して表示することができる。
第6の発明は、第1〜5のいずれかの発明に係る任意視点映像生成装置において、
前記ブレンドテクスチャ画像選択手段は、前記仮想視点と前記3次元モデルが相対的に所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする。
これにより、仮想視点と対象物とが相対的に移動した場合にブレンドテクスチャ画像を再選択し、再選択されたブレンドテクスチャ画像を利用してテクスチャマッピングを再実行するため、仮想視点又は対象物の単独移動自体は小さくても、相対的に大きく移動している場合には適切に再選択を行うことができる。また、仮想視点と対象物とが相対的に移動した場合にのみブレンドテクスチャ画像を再選択し、再選択されたブレンドテクスチャ画像を利用してテクスチャマッピングを実行するようにすれば、効率的に内挿映像を生成することができる。
第7の発明は、第1〜6のいずれかの発明に係る任意視点映像生成装置において、
前記3次元モデルを構成する面のテクスチャ描画単位毎に、撮影点からの可視領域を取得する可視領域抽出手段を更に備え、
前記ブレンドテクスチャ画像選択手段は、前記優先順位の高い順から所定数のテクスチャ画像を選択するように設定されており、前記可視領域抽出手段により取得された前記可視領域に含まれるテクスチャ画像の中から前記所定数を選択することを特徴とする。
これにより、マッピングするポリゴンから可視状態にある(Visibilityがある)撮影点から撮影されたテクスチャ画像のみを、ポリゴン毎に選択して混合を行うことができ、適切で有効性の高いテクスチャ画像のみを選択して混合することにより、確実に高品位な内挿映像を生成することができる。
第8の発明は、第1〜6のいずれかの発明に係る任意視点映像生成装置において、
前記3次元モデルを構成する面のテクスチャ描画単位毎に、撮影点からの可視領域を取得する可視領域抽出手段を更に備え、
前記ブレンドテクスチャ画像生成手段は、選択された前記複数のテクスチャ画像に、前記可視領域抽出手段により取得された前記可視領域内にないテクスチャ画像が含まれているときには、該テクスチャ画像を排除してから前記ブレンド率を決定することを特徴とする。
これにより、選択したテクスチャ画像に、マッピングするポリゴンから可視状態にない撮影点から撮影されたテクスチャ画像が含まれていた場合には、これを排除し、可視状態にあるテクスチャ画像のみからブレンド率を決定することができ、適切なテクスチャ画像のみを用いてテクスチャ画像の混合を行い、高品位な任意視点映像を取得することができる。
第9の発明に係る任意視点映像生成プログラムは、立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する処理をコンピュータに実行させるための任意視点映像生成プログラムであって、
前記テクスチャ画像の各撮影点の3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ選択処理と、
該ブレンドテクスチャ選択処理により選択された前記複数のテクスチャ画像の各撮影点における3次元位置及び視線方向と、前記仮想視点の3次元位置及び視線方向とに基づいて、混合する各テクスチャ画像のブレンド率を決定し、該ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成処理と、
該ブレンドテクスチャ画像生成処理により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成処理と、をコンピュータに実行させることを特徴とする。
これにより、対象物を撮影した複数の撮影点の3次元位置及び視線方向と、仮想視点の3次元位置及び視線方向を比較し、テクスチャ画像に優先順位を付与した上でブレンドの対象となるテクスチャ画像を出力し、それらのテクスチャをブレンド率に応じてブレンドしたブレンドテクスチャ画像を前記3次元モデルにテクスチャマッピングすることで、高品位に内挿された映像を表示することができる。また、特別な装置構成を必要とせず、低コストで内挿映像生成処理を実現することができる。更に、プログラムをインストールすることにより、容易に内挿映像生成処理を実現することができる。
本発明によれば、複数の撮影点から撮影された画像を用いて、指定された任意の視点からの映像を内挿によって高品位に生成することができる。
以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。
図1は、本発明を適用した実施例に係る任意視点映像生成装置及び任意視点映像プログラムにおけるカメラ配置の一例を示した図である。図1において、複数台のカメラCamが、立体形状を有する対象物80の周囲を囲むように配置されている。カメラCamは、図1においては、40台のカメラCamが対象物80の周囲に配置されている。
本実施例に係る任意視点映像生成装置及び任意視点映像生成プログラムは、このような、複数のカメラCamが立体形状を有する対象物80の周囲に配置され、各カメラCam1〜Cam40が対象物80を各々撮影したテクスチャ画像を用いて、対象物80を立体的に再現する画像を生成する。その際、画像を視認するユーザは、対象物80を視認する視点を自由に、任意の3次元位置に仮想視点として選択することができる。本実施例に係る任意視点映像生成装置及び任意視点映像表示プログラムは、例えば図1に示したような多数配置されたカメラCamを用いて、対象物80の映像を様々な角度から撮影し、テクスチャ画像として取得する。そして、テクスチャ画像を、対象物80を再現したポリゴンに貼り付け、立体的な画像を取得する。対象物80は、実体を有し、様々な立体形状を有する3次元の物体を対象物80とすることができ、その形状や形態は問わない。また、図1においては、40台のカメラCamのうち、Cam1〜Cam24が対象物80を環状に水平に囲み、その上下にも対象物80を取り囲むように配置された例を示しているが、カメラCamの数はもっと多くても少なくてもよいし、カメラCamの配置も、対象物80の映像を種々の角度から取得できれば、様々な形態とすることができる。
図2は、本発明を適用した実施例に係る任意視点映像生成装置70を含む任意視点映像生成システムの実施形態の概要構成例を示す図である。図2において、任意視点映像生成システムは、撮像装置としての複数のカメラCamと、可視視点情報取得手段10と、可視領域抽出装置30と、3次元形状生成装置20と、任意視点映像生成装置70とを有する。また、任意視点映像生成装置70は、ブレンドテクスチャ画像選択手段40とブレンドテクスチャ画像生成手段50と内挿映像生成手段60とを有するよう構成されている。なお、可視領域抽出手段30は、任意視点映像生成装置70の一部に含まれて構成されてもよい。
複数のカメラCamは、それぞれが異なる撮影点から対象物(実体)80を撮影する撮像手段である。対象物80を撮影できれば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ、アナログカメラ等の種々のカメラを適用することができる。
図3は、複数のカメラCamにより対象物80を撮影する様子を説明するための一例の図である。なお、図3以降、図中に示すカメラCamの台数は、説明の容易のために4台としているが、上述のように、本実施例に係る任意視点映像生成装置70に適用されるカメラの設置台数については、更に多くのカメラCamを設けるようにしてよい。
図3に示すように、複数のカメラCam1〜Cam4は、それぞれの撮影点CS1〜CS4から対象物(実体)80について同期させて撮影を行い、撮影された多視点画像を取得する。図3においては、カメラCam1が設けられた撮影点CS1からは、猫の対象物80の正面視映像が取得され、カメラCam2が設けられた撮影点CS2からは、対象物80の左側面視映像が取得されている。同様に、カメラCam3が配置された撮影点CS3からは、対象物80の背面視映像が撮影され、カメラCam4が配置された撮影点CS4からは、対象物80である猫の右側面視映像が撮影されている。
このように、多視点から対象物80の画像を撮像取得するが、このとき、複数のカメラCam1〜Cam4の各撮影点CS1〜CS4(以下、総称して「CS」と標記する。)における3次元位置(図3では、XYZ軸からなる3次元座標)の情報及び複数カメラCam1〜Cam4の視線方向も取得する。また、予めカメラCam1〜Cam4に記録されているカメラレンズの焦点距離や、CCDカメラを使用している場合には、その大きさ等の内部パラメータからなる構造情報も取得する。
図2に戻る。仮想視点情報取得手段10は、ユーザにより選択される仮想視点の情報を取得する手段であり、具体的には、仮想視点の3次元位置及び視線方向を含む情報を取得する。仮想視点情報取得手段10は、例えば、ユーザが仮想視点の入力が可能な画面のコントローラや、マウスやポインタ等の入力手段に接続され、ユーザの入力操作から、仮想視点の3次元位置や視線方向等の情報を取得するようにしてよい。
3次元形状生成装置20は、複数のカメラCam1、Cam2…、Camn(以下、総称して「Cam」と標記する。)の撮影から得られる対象物80の画像から、3次元モデルを生成する。例えば、視体積交差法や、特許文献1に示されているように、視体積交差法とステレオマッチング法を併用した手法等の公知の手法を用いることで生成することができる。
ここで、視体積交差法は、物体の撮影画像から物体領域を抽出した複数のシルエット画像を、元の3次元空間に逆投影し、それぞれの視体積の交差部分を求めることにより、物体の3次元形状データを得る手法である。また、ステレオマッチング法は、左右に配置された2台のカメラで撮影された2枚1組の画像を用いて、左のカメラで撮影された画像が、右のカメラで撮影された画像のどの部分に対応するかを面積相関の計算により求め、その対応関係を使った三角測量により、各点の3次元位置を推測する手法である。本実施例に係る任意視点映像生成システムの3次元形状生成装置は、例えば、このような、公知の手法を用いて、3次元モデルを生成するようにしてよい。なお、3次元モデルは、XYZ座標等を用いて生成されてよい。
可視領域抽出装置30は、複数のカメラCamの撮影等から得られる対象物80の3次元モデルと、複数の撮影点CSから対象物80を撮影したテクスチャ画像と、テクスチャ画像を撮影した撮影点CSの3次元位置及び視線方向と、対象物80を撮影した各カメラCamの構造情報に基づいて、撮影点CS毎に3次元モデルの可視部分の領域を構成する頂点又は面を求め、テクスチャ画像に対して撮影点CSからの3次元モデルの可視部分の領域情報(可視領域情報)を取得する手段である。可視領域抽出装置30による可視領域の抽出は、例えば、特許文献2などに示された公知の手法を用いることで取得できる。
図2において、可視領域抽出装置30は、可視領域抽出装置30は、ブレンドテクスチャ画像選定手段40とブレンドテクスチャ画像生成手段50の双方に抽出結果が送られるように示されているが、いずれか一方に送るようにしてもよいし、双方に送れるように構成してもよい。
任意視点映像生成装置70におけるブレンドテクスチャ画像選択手段40は、はじめに、仮想視点情報取得手段10で取得された仮想視点の3次元位置及び視線方向からなる仮想視点情報と、複数の撮影点CSの3次元位置及び視線方向とを比較し、複数の撮影点CSから撮影したテクスチャ画像の中で優先順位を付与する手段である。
優先順位を付与する方法としては、例えば複数の撮影点CSから撮影したテクスチャ画像の中から、撮影点CSの3次元座標と仮想視点の3次元座標とで距離が近い順番に優先順位を与えるようにしてもよい。この場合には、撮影点CSの3次元座標と、仮想視点の3次元座標との距離を各撮影点CSに対して算出することにより、優先順位を定めることができる。
また、撮影点CSの視線方向を比較して、仮想視点の視線方向と平行に近い順にテクスチャマッピングの優先順位を与えるようにしてもよい。この場合、撮影点CSの3次元座標と、3次元モデルに含まれる重心等の所定の点とから、撮影点CSからの視線ベクトルを求めるとともに、仮想視点の3次元座標と、3次元モデルに含まれる重心等の所定の点とから、仮想視点からの視線ベクトルを求め、両者の視線ベクトルの内積を算出し、内積の小さい順に優先順位を定めるようにしてもよい。また、例えば、重心を用いる他、キャリブレーションから各カメラCamの撮影方向を算出し、これを視線ベクトルとしてもよい。このように、撮影点CSからの視線方向の算出及び比較は、種々の方法を用いて行うことができる。
更に、上述の3次元座標により優先順位を付与する方法と、視線方向により優先順位を付与する方法を組み合わせてもよい。さらに付与されたテクスチャ画像から優先順位の高い2枚以上のテクスチャ画像を選出する。
ここで、図4を用いて、仮想視点について説明する。図4は、仮想視点VPを説明するための一例の図である。図4は、図3において対象物80を撮影した複数の画像から生成した3次元モデル90を、ディスプレイ等の表示装置の画面上に表示する際の視点を示すものである。つまり、仮想視点VPは、再生時のユーザの設定によりXYZ軸のどの方向にも移動することができる。
図2に戻る。ブレンドテクスチャ画像生成手段50は、ブレンドテクスチャ画像選択手段40から出力された複数のテクスチャ画像を、撮影点CSの3次元位置及び視線方向や仮想視点VPの3次元位置及び視線方向から算出するブレンド率にしたがって混合し、ブレンドテクスチャ画像を生成して出力する手段である。
ブレンド率を付与する手法としては、例えば仮想視点VPの3次元座標と撮影点CSの3次元座標との距離が近いほど、ブレンド率を高く付与し、影響度を高めるような手法がある。
図5は、ブレンド率を仮想視点VPとの距離に基づいて定める方法の一例を示した図である。例えば、図5に示すように、優先順位の高い2つの撮影点CS1、CS2のカメラCam1、Cam2と対象物80の重心Gとで構成される平面Pへ仮想視点VPから垂線V1を下ろし、平面Pと交わった点aを算出する。なお、図5において、仮想視点VPに対応して、仮想カメラVCamを示している。次に、平面P上で対象物80の重心Gと点aとを通る直線L1を伸ばし、2つの撮影点CS1、CS2のカメラCam1、Cam2を結んだ直線L2と交わる点bを算出する。2つの撮影点CS1、CS2のカメラCam1、Cam2から点bまでの距離d1、d2をブレンド率として算出することができる。選出された2枚のテクスチャ画像を距離d1、d2のブレンド率から下記の(1)式に従って混合することで、ブレンドテクスチャ画像を取得することができる。
Figure 0005011224

(1)式から、カメラCam1が仮想視点VPに接近する程、d1は小さくなるので、カメラCam1の係数(1−d1/(d1+d2))は大きくなり、カメラCam1によるテクスチャ画像の混合比率が高くなることが分かる。同様に、カメラCam2の方が仮想視点VPに接近した場合には、d1が大きくなるので、カメラCam2の係数(d1/(d1+d2))が大きくなり、カメラCam2によるテクスチャ画像の混合比率が高くなることが分かる。
このように、ブレンド率決定の方法としては、優先順位の高いカメラCam1、Cam2を複数選択した後、それらの仮想視点VPとの距離に応じて、仮想視点VPにより近い撮影点CS1、CS2のカメラCam1、Cam2の方のテクスチャ画像の混合比率が高くなるようにブレンド率を定めるようにしてよい。これにより、仮想視点VPからの実際の視認状態に、より近い映像を生成することができる。
次に、図6を用いて、図5とは異なるブレンド率の決定方法について説明する。図6は、図5とは異なる、仮想視点方向と撮影方向のなす角に応じたブレンド率の算出方法の一例を説明するための図である。
図6において、優先順位の高い2つの撮影点CS1、CS2のカメラCam1、Cam2と対象物80の重心Gとで構成される平面Qへ、仮想カメラVCamが設けられた仮想視点VPから垂線V2を下ろし、平面Qと交わる点cが算出されている。次に、平面Q上で対象物80の重心Gと点cとを結ぶ直線L3を考え、重心Gと各撮影点CS1、CS2のカメラCam1、Cam2とを結ぶ直線L4、L5となす角度φ1、φ2をブレンド率とすることができる。混合にあたっては、下記の(2)式により、ブレンドテクスチャ画像を取得する。
Figure 0005011224
(2)式においても、図5の場合と同様に、仮想視点VPと視線方向が平行に近く、角度φ1、φ2のより小さい方のテクスチャ画像の混合比率が高くなるような式となっている。つまり、カメラCam1の視線方向が仮想視点VPの視線方法により近く、角度φ1がより小さくなる程、カメラCam1の係数(1−φ1/(φ1+φ2))は大きくなり、カメラCam1によるテクスチャ画像の混合比率が高まる。同様に、カメラCam2の視線方向が仮想視点VPにより近くなると、角度φ2が小さくなり、角度φ1が大きくなるので、カメラCam2のテクスチャ画像の混合比率がより高まることになる。
このように、ブレンド率の算出は、仮想視点VPの視線方向と、選択された優先順位の高い撮影点CS1、CS2のカメラCam1、Cam2の視線方向との関係に基づいて行うようにしてもよい。これにより、仮想視点VPの視線方向に近い方の撮影点CS1、CS2のカメラCam1、Cam2の混合比率を高めることができ、より仮想視点VPからの視認状態に近いブレンド画像を生成することができる。
図5及び図6においては、ブレンドテクスチャ選定手段40で2枚の優先順位の高いテクスチャ画像が選択され、2枚のテクスチャ画像を混合する例について説明したが、次に図7を用いて、3枚のテクスチャ画像を混合する場合について説明する。
図7は、3枚のテクスチャ画像を混合する場合のブレンド率の算出方法の一例について説明するための図である。図7において、仮想視点VPに距離的に近い、又は視線方向が近い優先順位の高い撮影点CS1、CS2、CS3のカメラCam1、Cam2、Cam3が3台選択されている。
本ブレンド率の算出方法においては、図7に示されるように、優先順位の高い3つの撮影点CS1、CS2、CS3のカメラCam1、Cam2、Cam3で構成される平面Rに対して、仮想カメラVCamが設けられた仮想視点VPから垂線V3を下ろし、平面Rと交わる点Oを算出する。
点Oから各撮影点Cam1、Cam2、Cam3同士を結んだ辺L6、L7、L8に対して垂線を下ろし、それぞれの長さd1、d2、d3をブレンド率とすることができる。これらのブレンド率に従い、下記の(3)式を用いてブレンドテクスチャ画像を取得することができる。
Figure 0005011224
(3)式においても、例えば仮想視点VPが撮影点CS1のカメラCam1に接近すれば、対角のd1が大きくなり、撮影点CS1のカメラCam1におけるテクスチャ画像の混合比率が高くなるような式となっている。これは、図7において、仮想視点VPから最も離れて距離の大きい撮影点CS2のカメラCam2の対角のd2が小さくなっていることからも理解できる。
このように、選択する複数の撮影点CSは、複数であれば、2つであってもよいし、3つであってもよく、用途に応じて所定数に設定することができる。図5乃至図7においては、選択する撮影点CSの数が2つの場合と3つの場合のみを挙げて説明しているが、例えば、4つであってもよいし、4つ以上であってもよい。いずれの場合においても、仮想視点VPに距離が接近又は視線方向が近くなる撮影点CSほど、混合比率が高くなるようにブレンド率を算出すれば、ちらつきの少ない滑らかなブレンドテクスチャ画像を生成することができる。
ここで、図2で説明した可視領域抽出装置30を用いることで、高品位なブレンドテクスチャ画像を取得することができる。はじめに、仮想カメラから上述の優先順位により、N台のカメラCamを選択する。次に、テクスチャ画像の最小構成単位であるポリゴン毎にブレンドする上位M台のカメラCamを、ブレンドテクスチャ選定手段40の優先順位に従って選出する。ただし、このとき当該ポリゴンから可視状態(Visible)でないカメラCamは排除する。選出されたM台のテクスチャ画像を、上述のブレンド手法により混合し、ブレンドテクスチャ画像を生成する。
なお、可視状態でないカメラCamのテクスチャ画像の排除は、ブレンドテクスチャ画像選択手段40でブレンドテクスチャ画像を選択するときに行ってもよいし、ブレンドテクスチャ画像生成手段50でブレンドテクスチャ画像を生成する直前に行ってもよい。ブレンドテクスチャ画像選択手段40で不可視状態のカメラCamによるテクスチャ画像を排除する場合には、可視状態にあるテクスチャ画像の中から上位M台を選択するようにする。この場合には、M台のカメラCamは総て可視状態にあるが、ポリゴン毎にカメラの組み合わせが異なる場合が有り得る。一方、ブレンドテクスチャ画像生成手段50で不可視状態のカメラCamによるテクスチャ画像を排除する場合には、選択されたM台の優先順位の高いカメラCamのテクスチャ画像から、不可視状態のカメラによるテクスチャ画像を排除するようにする。これにより、ポリゴン毎に用いるテクスチャ画像の数が異なる場合が有り得るが、カメラの組み合わせは同じとなる。これらは、用途に応じて適宜適切な手法を採用するようにしてよい。
ここで、仮想視点VPの3次元座標及び視線方向は、例えば、OpenGL(Open Graphics Library)等の3次元プログラミング言語等を用いて求めることができる。また、複数の撮影点CSの3次元座標及び視線方向は、例えば撮影時に実空間の位置と、画像上の仮想空間の位置との対応を取るカメラキャリブレーション等を実施することにより取得することができる。
内挿映像生成装置60は、ブレンドテクスチャ画像と3次元モデル90と仮想視点VPの3次元座標及び視線方向等からなる仮想視点情報とを入力とし、ブレンドテクスチャ画像を3次元モデル90にテクスチャマッピングし、仮想視点VPから見える3次元モデル90を生成する。これにより、カメラの設置されていない仮想視点VPからの映像を高品位に生成することができる。
次に、動画像への対応方法について説明する。上述のように説明した任意視点映像生成装置70は、仮想視点VPに依存して内挿映像を生成するので、仮想視点VPが移動する場合や対象物80が移動する場合等においても、高品位な内挿映像を生成することができる。
この場合には、所定の時間が経過した場合や、仮想視点VPが所定距離分の変化等に伴う仮想視点VPの移動に追従して、可視領域抽出装置30においても、表面頂点群または面群を再度求めて3次元モデル90の可視領域情報を取得する。また、ブレンドテクスチャ画像選択手段40にてテクスチャ画像を再選択し、ブレンドテクスチャ画像生成手段50でブレンド率を再計算した上で、ブレンドテクスチャ画像を生成する。更に、これらの情報を用いてブレンドテクスチャ画像生成手段50にて、新たにブレンドテクスチャ画像を生成した上で、内挿映像生成装置60にて3次元モデル90にテクスチャマッピングすることによって、動画像にも対応することができる。
なお、上述の追従については、仮想視点VPの移動に限定されず、例えば人や動物等のように、対象物80が移動する場合についても同様に対応することができる。これにより、人間や動物等の動く対象物80の3次元モデル90を動画表示する場合にも、高品位に内挿された内挿映像を生成することができる。
また、仮想視点VPと3次元モデル90とが相対的に移動した場合にのみテクスチャ画像を再選択し、ブレンド率を更新して、ブレンドテクスチャ画像を生成してもよい。なお、この場合に、3次元モデル90の位置として、例えば重心等の所定位置を基準にするようにしてよい。
これにより、仮想視点VPと3次元モデル90とが相対的に移動した場合にのみテクスチャ画像を再選出し、再選出されたテクスチャを新たなブレンド率に従ってブレンドテクスチャのテクスチャマッピングを再実行することになるため、効率的に内挿された映像を生成することができる。
ここで、本発明における内挿映像生成装置60の各構成における処理をコンピュータに実行させることができる実行プログラムを生成し、例えば、汎用のパーソナルコンピュータ、ワークステーション等にプログラムをインストールすることにより、本発明において生成された内挿映像の表示を実現することができる。
次に、本実施例に係る任意視点映像生成装置70の内挿映像生成処理を実行可能なコンピュータのハードウェア構成例について、図8を用いて説明する。図8は、本発明を適用した実施例に係る任意視点映像生成装置70の内挿映像生成処理を実現可能なハードウェア構成の一例を示す図である。
図8におけるコンピュータ本体には、入力装置110と出力装置120とドライブ装置130と補助記録装置140とメモリ装置150と各種制御を行うCPU(Central Processing Unit)160と、ネットワーク接続装置170とを有するよう構成されており、これらはシステムバス180で相互に接続されている。
入力装置110は、ユーザが操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザからのプログラムの実行等、各種操作信号を入力する。出力装置120は、本実施例における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU160が有する制御プログラムにより、プログラムの実行経過や内挿映像生成結果等を表示することができる。
ここで、本実施例においてコンピュータ本体にインストールされる実行プログラムは、例えば、CD−ROM等の記録媒体100等により提供される。プログラムを記録した記録媒体100は、ドライブ装置130にセット可能であり、記録媒体100に含まれる実行プログラムが、記録媒体100からドライブ装置130を介して補助記憶装置140にインストールされる。よって、図2に示した任意視点映像生成装置70のブレンドテクスチャ画像選定手段40、ブレンドテクスチャ画像生成手段50、内挿映像生成手段60で実行する処理を、コンピュータプログラムとして記録媒体100に記録しておけば、本実施例に係る任意視点映像生成装置70の機能を、本実施例に係る任意視点映像生成プログラムとして図8に示したコンピュータに実行させることができる。この場合には、任意視点映像生成プログラムは、ブレンドテクスチャ画像選定処理、ブレンドテクスチャ画像生成処理及び内挿映像生成処理を順次コンピュータに実行させるプログラムを構成することになる。
補助記憶装置140は、ハードディスク等のストレージ手段であり、本実施例における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。
CPU160は、OS(Operating System)等の制御プログラム、及びメモリ装置150により読み出され格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、内挿映像生成表示における各処理を実現することができる。プログラムの実行中に必要な各種情報等は、補助記憶装置140から取得することができ、また格納することもできる。
ネットワーク接続装置170は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本実施例における実行プログラム自体を他の端末等に提供したりすることができる。
図8に示したハードウェア構成により、特別な装置構成を必要とせず、低コストで内挿映像の生成・表示処理を実現することができる。また、任意視点映像生成プログラムをインストールすることにより、容易に内挿映像生成・表示処理を実現することができる。
次に、図9を用いて、本実施例に係る任意視点映像生成装置70及び任意視点映像生成システムで実行される内挿映像生成・表示処理の処理フローについて説明する。図9は、本実施例に係る任意視点映像生成装置70及び任意視点映像生成プログラムで実行される内挿映像生成・表示処理を実現するための一例のフローチャートである。なお、本実施例に係る任意視点映像生成装置70及び任意視点映像生成プログラムにおいては、テクスチャ画像を取得してから、内挿映像の生成までの処理を行うが、図9の処理フローにおいては、その前に行われるテクスチャ画像の取得と、その後に行われる内挿映像の表示処理を含めて示している。
ステップ200では、複数のカメラCamにより同期して撮影されたテクスチャ画像、撮影したカメラCamnの撮影点CSの3次元座標及び視線方向、及び仮想視点VPの3次元座標及び視線方向(仮想視点情報)が入力される。
ステップ210では、ステップ200で取得した各情報に基づいて、ブレンドテクスチャ画像選択手段40又はブレンドテクスチャ画像選択処理においてブレンドテクスチャ画像を選択する。ステップ210においては、複数のテクスチャ画像をブレンドしてブレンドテクスチャを生成するため、ブレンドするテクスチャ画像の候補をまず定める。ブレンド対象となる撮影点CSのテクスチャ画像を選択するにあたっては、例えば、仮想視点VPの3次元座標に撮影点CSの3次元座標の距離が近い順番に、撮影点CSに優先順位を与えてもよい。または、仮想視線の方向と各撮影点CSの撮影方向の視線方向とを比較して、仮想視線の方向と平行に近い順に撮影点CSに優先順位を与えてもよい。また、上述の3次元位置により優先順位を付与する方法と、と視線方向により優先順位を付与する方法を組み合わせてもよい。このようにして付与された優先順位に基づいて、ブレンドする複数のテクスチャ画像を選出する。
なお、選出にあたっては、可視領域抽出装置30によりポリゴン毎に各撮影点CSの可視状態を算出し、不可視状態の撮影点CSは選出の対象としない手法を用いると、より高品位な内挿映像を生成することが可能である。優先順位の高い候補に不可視状態の撮影点CSが存在する場合には、その撮影点CSのテクスチャ画像は破棄して排除し、優先順位の高いもう一つの撮影点CSを追加して選出する。したがって、この手法を用いる場合、ポリゴン毎にブレンドするテクスチャカメラCamnの構成は異なる場合があり得る。
ステップ220では、ブレンドテクスチャ画像生成手段50又はブレンドテクスチャ画像生成処理により、ブレンドするにあたっての各テクスチャ画像のブレンド率(重みづけ)を算出する。ブレンド率は、撮影点CSの3次元座標と、仮想視点VPの3次元座標とで距離に応じて決める。または、仮想視線の方向と撮影方向の視線方向とを比較して、撮影方向の視線方向が仮想視線の方向に平行に近い度合いに応じて決める。また、上述の3次元位置によりブレンド率を付与する方法と視線方向によりブレンド率を付与する方法とを組み合わせてもよい。このようにして与えられたブレンド率に基づいてテクスチャをブレンドしてブレンドテクスチャを生成し、出力する。
なお、ステップ210において行った可視領域抽出装置30による可視状態の算出結果の反映は、ステップ220で行うようにしてもよい。つまり、ブレンド対象として選択されたテクスチャ画像に、不可視状態の撮影点CSのテクスチャ画像が含まれている場合には、この段階で、不可視状態の撮影点CSのテクスチャ画像を破棄して排除し、残りのテクスチャ画像を用いてブレンド率を算出してもよい。この手法を用いる場合には、ポリゴン毎にブレンドするテクスチャカメラCamnの構成は同じとなる。よって、用途に応じて、ステップ210の段階で可視領域情報に基づく不可視状態の撮影点CSのテクスチャ画像の削除を行うか、ステップ220の段階で不可視状態の撮影点CSのテクスチャ画像の排除を行うかを定めるようにしてよい。なお、いずれの場合においても、可視領域抽出装置30による可視領域の抽出は必須ではなく、必要に応じて可視領域抽出装置30を設け、可視領域抽出を行うようにしてよい。
ステップ230では、内挿映像生成手段60又は内挿映像生成処理において、各ブレンドテクスチャを3次元モデル90に貼り付けるテクスチャマッピングを行った上で、仮想視点VPからの映像を出力する。これにより、テクスチャ間の画像変化が滑らかで、ちらつきの少ない内挿映像を生成して表示することができる。
ステップ240では、3次元モデル90と仮想視点VPとの位置が相対的に所定の距離以上移動したかを判断する。仮想視点VPと3次元モデル90との位置が相対的に移動した場合、ステップ210に戻り、ブレンドテクスチャの選択及び生成を再び行い、移動後の内挿映像を生成・表示する。
なお、3次元モデル90及び仮想視点VPの位置の移動の有無の判定は、両者の相対移動のみでなく、各々の移動自体で行うようにしてもよい。例えば、3次元モデル90が固定状態に近く、仮想視点VPのみ大きな移動が予想される場合には、仮想視点VPが所定の距離以上移動したか否かを判定し、所定の距離以上移動した場合に、ブレンドテクスチャ画像の生成を再び行うようにしてもよい。逆に、仮想視点VPの移動が少なく、3次元モデル90の大きな移動が予想される場合には、3次元モデル90が所定の距離以上移動したか否かを判定し、所定の距離以上移動した場合に、ブレンドテクスチャ画像の生成を再度行うようにしてもよい。また、これらの移動閾値を、仮想視点単独、3次元モデル90単独及び両者の相対移動の総てに対して設定するようにしてもよい。更に、位置の移動以外に、所定時間以上経過したら、ブレンドテクスチャ画像の再選択及び再生成を行うようにしてもよい。これらの移動や時間経過に伴うブレンドテクスチャ画像の再生成の場合も、総てのブレンドテクスチャ画像が適切なブレンド率で混合された画像間での再生性なので、滑らかに画像移動を行うことができる。
ステップ240において、仮想視点VPと3次元モデル90との位置が相対的に又は単独でも移動していないと判定された場合、ステップ250に進む。
ステップ250では、内挿映像生成・表示を終了するかを判断する。内挿映像生成・表示を終了しない場合、ステップ240に戻り、3次元モデル90と仮想視点VPとの位置が相対的に移動するかの判断を繰り返す。また、内挿映像生成・表示を終了する場合、任意視点映像生成・表示処理を終了する。
このように、任意視点映像生成・表示処理を任意視点映像システム又はコンピュータで実行することにより、高品位に内挿された任意視点映像を表示することができる。また、特別な装置構成を必要とせず、汎用のコンピュータに実行プログラムをインストールして上述の任意視点映像生成・表示処理を実行させることで、低コストで任意視点生成・表示処理を実現することができる。
上述したように本実施例によれば、高品位にテクスチャマッピングされた3次元モデル90を表示することができる。これにより、手作業でテクスチャマッピングを実行している制作者側の負担が軽減できるだけでなく、ブレンドされている効果として、撮影点CSや取得した3次元モデル90に誤差があっても、ポリゴンの境目に顕著なテクスチャの不連続領域が発生しない。また、視点を移動させたり、動体の対象物を表示させたりしてもちらつきが顕著でない効果を得ることができる。
具体的には、本実施例では立体形状を持つ対象物を複数の撮影点CSから撮影し、撮影された画像をもとに3次元モデル90を作成し、複数撮影点CSから撮影されたテクスチャを作成した3次元モデル90にテクスチャマッピングする際に、テクスチャを仮想視点VPに依存して選別し、それらをブレンドすることによって仮想視点VPに対応した適切な内挿映像を生成することができる。また、仮想視点VP等に追従したブレンドテクスチャマッピングを実行することで高品位な任意視点映像を出力することができる。
また、本実施例では、表示する際の仮想視点位置に対応して、モデル表面にテクスチャを与える視点依存型の面テクスチャマッピング手法を行う際に、マッピングするテクスチャを複数のテクスチャをブレンドして生成することで高品位な任意視点映像を出力することができる。
なお、本実施例は、3次元CG(Computer Graphics)の生成、表示技術で用いることができ、一般的なテクスチャマッピング技術、レンダリング技術に適用することができる。
以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。
本実施例に係る任意視点映像生成装置及び任意視点映像表示プログラムにおけるカメラ配置の一例を示した図である。 本実施例に係る任意視点映像生成装置70を含む任意視点映像生成システムの概要構成例を示す図である。 複数のカメラCamにより対象物80を撮影する様子を説明する図の一例である。 仮想視点VPを説明するための図の一例である。 ブレンド率を仮想視点VPとの距離により定める方法の一例を示した図である。 仮想視点方向と撮影方向のなす角に応じたブレンド率の算出方法の一例を説明するための図である。 3枚のテクスチャを混合するブレンド率の算出方法の一例を説明する図である。 本実施例に係る内挿映像生成表示処理を実現するハードウェア構成の一例を示した図である。 本実施例に係る任意視点映像生成装置70及び任意視点映像生成プログラムで実行される内挿映像生成処理を実現するフローチャートの一例である。
符号の説明
10 仮想視点情報取得手段
20 3次元形状生成装置
30 可視領域抽出装置
40 ブレンドテクスチャ画像選定手段
50 ブレンドテクスチャ画像生成手段
60 内挿映像生成手段
70 任意視点映像生成装置
80 対象物
90 3次元モデル
100 記録媒体
110 入力装置
120 出力装置
130 ドライブ装置
140 補助記録装置
150 メモリ装置
160 CPU
170 ネットワーク接続装置
Cam カメラ
VCam 仮想カメラ
CS 撮影点
VP 仮想視点

Claims (7)

  1. 立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する任意視点映像生成装置であって、
    前記テクスチャ画像の各撮影点の視線方向と前記仮想視点の視線方向との間でなされる角度が小さい順に各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ画像選択手段と、
    該ブレンドテクスチャ画像選択手段により選択された前記複数のテクスチャ画像の各撮影点における前記角度が小さい程混合率が高くなるように各テクスチャ画像の各ブレンド率を決定し、該各ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成手段と、
    該ブレンドテクスチャ画像生成手段により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成手段と、を有することを特徴とする任意視点映像生成装置。
  2. 前記ブレンドテクスチャ画像選択手段は、所定時間が経過するか、又は前記仮想視点の位置が所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする請求項1に記載の任意視点映像生成装置。
  3. 前記ブレンドテクスチャ画像選択手段は、前記対象物が所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする請求項1又は2に記載の任意視点映像生成装置。
  4. 前記ブレンドテクスチャ画像選択手段は、前記仮想視点と前記3次元モデルが相対的に所定距離以上移動したときに、前記ブレンドテクスチャ画像を再選択することを特徴とする請求項1乃至3のいずれか一項に記載の任意視点映像生成装置。
  5. 前記3次元モデルを構成する面のテクスチャ描画単位毎に、撮影点からの可視領域を取得する可視領域抽出手段を更に備え、
    前記ブレンドテクスチャ画像選択手段は、前記優先順位の高い順から所定数のテクスチャ画像を選択するように設定されており、前記可視領域抽出手段により取得された前記可視領域に含まれるテクスチャ画像の中から前記所定数を選択することを特徴とする請求項1乃至4のいずれか一項に記載の任意視点映像生成装置。
  6. 前記3次元モデルを構成する面のテクスチャ描画単位毎に、撮影点からの可視領域を取得する可視領域抽出手段を更に備え、
    前記ブレンドテクスチャ画像生成手段は、選択された前記複数のテクスチャ画像に、前記可視領域抽出手段により取得された前記可視領域内にないテクスチャ画像が含まれているときには、該テクスチャ画像を排除してから前記ブレンド率を決定することを特徴とする請求項1乃至5のいずれか一項に記載の任意視点映像生成装置。
  7. 立体形状である対象物を複数の撮影点から撮影して得られたテクスチャ画像を用いて、指定された任意の仮想視点から見える映像を生成する処理をコンピュータに実行させるための任意視点映像生成プログラムであって、
    前記テクスチャ画像の各撮影点の視線方向前記仮想視点の視線方向との間でなされる角度が小さい順に各テクスチャ画像に優先順位を付与し、該優先順位に従って混合する複数のテクスチャ画像を選択するブレンドテクスチャ選択処理と、
    該ブレンドテクスチャ選択処理により選択された前記複数のテクスチャ画像の各撮影点における前記角度が小さい程混合率が高くなるように各テクスチャ画像の各ブレンド率を決定し、該ブレンド率に従って前記複数のテクスチャ画像を混合してブレンドテクスチャ画像を生成するブレンドテクスチャ画像生成処理と、
    該ブレンドテクスチャ画像生成処理により生成された前記ブレンドテクスチャ画像を3次元モデルにテクスチャマッピングし、前記仮想視点から見える前記対象物の2次元の内挿映像を生成する内挿映像生成処理と、をコンピュータに実行させることを特徴とする任意視点映像生成プログラム。
JP2008179455A 2008-07-09 2008-07-09 任意視点映像生成装置及び任意視点映像生成プログラム Expired - Fee Related JP5011224B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008179455A JP5011224B2 (ja) 2008-07-09 2008-07-09 任意視点映像生成装置及び任意視点映像生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008179455A JP5011224B2 (ja) 2008-07-09 2008-07-09 任意視点映像生成装置及び任意視点映像生成プログラム

Publications (2)

Publication Number Publication Date
JP2010020487A JP2010020487A (ja) 2010-01-28
JP5011224B2 true JP5011224B2 (ja) 2012-08-29

Family

ID=41705322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008179455A Expired - Fee Related JP5011224B2 (ja) 2008-07-09 2008-07-09 任意視点映像生成装置及び任意視点映像生成プログラム

Country Status (1)

Country Link
JP (1) JP5011224B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104346822A (zh) * 2013-07-23 2015-02-11 富士通株式会社 纹理贴图方法及装置
US10460461B2 (en) 2016-08-31 2019-10-29 Canon Kabushiki Kaisha Image processing apparatus and method of controlling the same
US10628993B2 (en) 2016-09-30 2020-04-21 Canon Kabushiki Kaisha Image processing apparatus that generates a virtual view image from multiple images captured from different directions and method controlling the same
US10728513B2 (en) 2017-09-27 2020-07-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US10841555B2 (en) 2018-05-02 2020-11-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110200303A1 (en) * 2010-02-12 2011-08-18 Telefonica, S.A. Method of Video Playback
JP5460499B2 (ja) * 2010-07-12 2014-04-02 日本放送協会 画像処理装置およびコンピュータプログラム
JP5804760B2 (ja) 2011-04-26 2015-11-04 株式会社東芝 画像処理システム及び方法
KR101779423B1 (ko) * 2011-06-10 2017-10-10 엘지전자 주식회사 영상처리방법 및 영상처리장치
JP6265784B2 (ja) * 2014-03-06 2018-01-24 株式会社メガチップス 姿勢推定システム、プログラムおよび姿勢推定方法
US9589362B2 (en) 2014-07-01 2017-03-07 Qualcomm Incorporated System and method of three-dimensional model generation
US9418472B2 (en) * 2014-07-17 2016-08-16 Google Inc. Blending between street view and earth view
US9607388B2 (en) 2014-09-19 2017-03-28 Qualcomm Incorporated System and method of pose estimation
US10304203B2 (en) 2015-05-14 2019-05-28 Qualcomm Incorporated Three-dimensional model generation
US9911242B2 (en) 2015-05-14 2018-03-06 Qualcomm Incorporated Three-dimensional model generation
US10373366B2 (en) 2015-05-14 2019-08-06 Qualcomm Incorporated Three-dimensional model generation
US9773022B2 (en) * 2015-10-07 2017-09-26 Google Inc. Displaying objects based on a plurality of models
JP6808357B2 (ja) 2016-05-25 2021-01-06 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム
WO2018021067A1 (ja) * 2016-07-29 2018-02-01 ソニー株式会社 画像処理装置および画像処理方法
US10341568B2 (en) 2016-10-10 2019-07-02 Qualcomm Incorporated User interface to assist three dimensional scanning of objects
JP6849430B2 (ja) 2016-12-27 2021-03-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7109907B2 (ja) 2017-11-20 2022-08-01 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2019101563A (ja) * 2017-11-29 2019-06-24 大日本印刷株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2019135617A (ja) 2018-02-05 2019-08-15 キヤノン株式会社 情報処理装置およびその制御方法、画像処理システム
JP2019144958A (ja) 2018-02-22 2019-08-29 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US20210152848A1 (en) * 2018-04-10 2021-05-20 Sony Corporation Image processing device, image processing method, program, and image transmission system
KR101875047B1 (ko) * 2018-04-24 2018-07-06 주식회사 예간아이티 사진측량을 이용한 3d 모델링 시스템 및 방법
JP7164968B2 (ja) * 2018-05-07 2022-11-02 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
CN112352264A (zh) * 2018-06-25 2021-02-09 索尼公司 图像处理装置和图像处理方法
WO2020045186A1 (ja) * 2018-08-31 2020-03-05 キヤノン株式会社 情報処理装置、方法、及びプログラム
JP7249755B2 (ja) 2018-10-26 2023-03-31 キヤノン株式会社 画像処理システムおよびその制御方法、プログラム
JP2020098412A (ja) 2018-12-17 2020-06-25 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2021079592A1 (ja) * 2019-10-21 2021-04-29 ソニー株式会社 情報処理装置、3dデータの生成方法及びプログラム
US20230196653A1 (en) * 2020-04-03 2023-06-22 Sony Group Corporation Information processing device, generation method, and rendering method
WO2022014341A1 (ja) * 2020-07-17 2022-01-20 ソニーグループ株式会社 情報処理装置および画像データの生成方法
CN117813629A (zh) * 2021-07-02 2024-04-02 索尼集团公司 信息处理装置、信息处理方法和程序

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3876142B2 (ja) * 2001-02-26 2007-01-31 株式会社ナブラ 画像表示システム
JP4168103B2 (ja) * 2002-10-30 2008-10-22 株式会社インテックシステム研究所 テクスチャ画像の生成・マッピングシステム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104346822A (zh) * 2013-07-23 2015-02-11 富士通株式会社 纹理贴图方法及装置
US10460461B2 (en) 2016-08-31 2019-10-29 Canon Kabushiki Kaisha Image processing apparatus and method of controlling the same
US10628993B2 (en) 2016-09-30 2020-04-21 Canon Kabushiki Kaisha Image processing apparatus that generates a virtual view image from multiple images captured from different directions and method controlling the same
US11017588B2 (en) 2016-09-30 2021-05-25 Canon Kabushiki Kaisha Image processing apparatus that generates a virtual view image from multiple images captured from different directions and method controlling the same
US10728513B2 (en) 2017-09-27 2020-07-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US10841555B2 (en) 2018-05-02 2020-11-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Also Published As

Publication number Publication date
JP2010020487A (ja) 2010-01-28

Similar Documents

Publication Publication Date Title
JP5011224B2 (ja) 任意視点映像生成装置及び任意視点映像生成プログラム
US10893250B2 (en) Free-viewpoint photorealistic view synthesis from casually captured video
US10127722B2 (en) Mobile capture visualization incorporating three-dimensional and two-dimensional imagery
US10176592B2 (en) Multi-directional structured image array capture on a 2D graph
US8655052B2 (en) Methodology for 3D scene reconstruction from 2D image sequences
AU2016336030B2 (en) Volumetric depth video recording and playback
JP5011168B2 (ja) 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20130321396A1 (en) Multi-input free viewpoint video processing pipeline
JP6669063B2 (ja) 画像処理装置および方法
KR101212231B1 (ko) 이동 자유도를 개선한 융합형 가상현실 구현 방법
US8624902B2 (en) Transitioning between top-down maps and local navigation of reconstructed 3-D scenes
JP2015522959A (ja) 画像において対話式再合焦を提供するためのシステム、方法、及び媒体
CN109906600B (zh) 模拟景深
US10785469B2 (en) Generation apparatus and method for generating a virtual viewpoint image
CN110648274B (zh) 鱼眼图像的生成方法及装置
US11044398B2 (en) Panoramic light field capture, processing, and display
TWI502546B (zh) 推擠一模型通過二維場景的系統、方法和電腦程式商品
KR20190062102A (ko) 비디오 영상기반 2d/3d ar 실감체험 방법 및 장치
JP4464773B2 (ja) 3次元モデル表示装置及び3次元モデル表示プログラム
Erat et al. Real-time view planning for unstructured lumigraph modeling
CN111466113B (zh) 图像捕获的装置和方法
Kang et al. Virtual navigation of complex scenes using clusters of cylindrical panoramic images
WO2023088127A1 (zh) 室内导航方法、服务器、装置和终端
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
Lechlek et al. Interactive hdr image-based rendering from unstructured ldr photographs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

R150 Certificate of patent or registration of utility model

Ref document number: 5011224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees