JP5945255B2 - 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム - Google Patents

仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム Download PDF

Info

Publication number
JP5945255B2
JP5945255B2 JP2013175502A JP2013175502A JP5945255B2 JP 5945255 B2 JP5945255 B2 JP 5945255B2 JP 2013175502 A JP2013175502 A JP 2013175502A JP 2013175502 A JP2013175502 A JP 2013175502A JP 5945255 B2 JP5945255 B2 JP 5945255B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
video generation
viewpoint video
depth map
visibility determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013175502A
Other languages
English (en)
Other versions
JP2015045920A (ja
Inventor
弾 三上
弾 三上
康輔 高橋
康輔 高橋
明 小島
明 小島
章平 延原
章平 延原
隆司 松山
隆司 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013175502A priority Critical patent/JP5945255B2/ja
Publication of JP2015045920A publication Critical patent/JP2015045920A/ja
Application granted granted Critical
Publication of JP5945255B2 publication Critical patent/JP5945255B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

本発明は、仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラムに関する。
あるシーンを複数のカメラを用いて撮影して得られた複数の映像を含む映像群から、実際にはカメラが存在しなかった視点からの映像を生成する技術を自由視点映像生成という。図9は、自由視点映像生成の概要を示す図である。同図には、6つのカメラc〜cが同一の被写体を撮影している例が示されている。自由視点映像生成では、6つのカメラ(実カメラ)を用いて撮影して得られた映像群から、ユーザなどから指定された視点であって実際にはカメラが存在していない視点からの映像を合成する。
自由視点映像生成の技術の中でも、Geometry−based approachは、シーン中の三次元形状を明示的に推定し、推定した三次元形状に対する任意の視点からの「見え」を合成するという手法である。この手法では、カメラの台数が比較的少ない(例えば数台から数十台程度)場合には有効であるとされる。なお、「見え」を合成する対象の視点を、仮想視点或いは仮想カメラという。また、映像の撮影に用いられるカメラであって実際に存在するカメラを仮想カメラと区別するために、実カメラという。
T.Matsuyama, et al., "Real-Time 3D Shape Reconstruction, Dynamic 3D Mesh Deformation, and High Fidelity Visualization for 3D Video," Computer Vision and Image Understandings, Pages 393-434, Volume 96, Issue3, December 2004
しかしながら、Geometry−based approachでは、3次元形状復元に処理時間(一般に数分から数十分)を要するため、撮影から自由視点映像生成までをリアルタイムに実現することは困難であるという課題がある。
上記事情に鑑み、本発明は、自由視点映像生成における処理時間を短縮することができる仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラムを提供することを目的としている。
本発明の一態様は、複数の視点で対象物を撮影した複数の映像に基づいて、前記対象物について仮想視点からの深度マップを生成する視点依存初期形状推定部と、前記深度マップに基づいて、前記仮想視点から前記対象物を撮影したときの映像を構成する画素ごとに、前記複数の視点それぞれから前記対象物を観測できるか否かを示す可視判定画像を生成する可視判定部と、前記可視判定画像に基づいて、色一致度を最大化するように前記深度マップを最適化する形状最適化部と、前記色一致度の改善幅が予め定めた閾値以下になると、最適化された深度マップと前記可視判定画像とに基づいて、前記複数の映像から仮想視点映像を生成する映像出力部とを備えることを特徴とする仮想視点映像生成装置である。
また、本発明の一態様は、上記に記載の仮想視点映像生成装置において、前記可視判定部は、前記複数の視点を符号化した符号化テクスチャを用いて前記可視判定画像を生成することを特徴とする。
また、本発明の一態様は、複数の視点で対象物を撮影した複数の映像に基づいて、前記対象物について仮想視点からの深度マップを生成する視点依存初期形状推定ステップと、前記深度マップに基づいて、前記仮想視点から前記対象物を撮影したときの映像を構成する画素ごとに、前記複数の視点それぞれから前記対象物を観測できるか否かを示す可視判定画像を生成する可視判定ステップと、前記可視判定画像に基づいて、色一致度を最大化するように前記深度マップを最適化する形状最適化ステップと、前記色一致度の改善幅が予め定めた閾値以下になると、最適化された深度マップと前記可視判定画像とに基づいて、前記複数の映像から仮想視点映像を生成する映像出力ステップとを有することを特徴とする仮想視点映像生成方法である。
また、本発明の一態様は、上記に記載の仮想視点映像生成装置としてコンピュータを機能させるための仮想視点映像生成プログラムである。
本発明によれば、仮想視点に基づいて対象物の深度マップを生成し、当該深度マップと可視判定画像とから仮想視点映像をする。ことのき、対象物の形状に関する処理を仮想視点から視線に限定して行うようにしているので、演算処理を削減して処理時間を短縮することができる。
本発明に係る実施形態における仮想視点映像生成装置10の構成を示すブロック図である。 カメラcの視錐体Vの一例を示す図である。 映像Icからシルエット輪郭Lの抽出と、その逆投影との一例を示す第1の図である。 映像Icからシルエット輪郭Lの抽出と、その逆投影との一例を示す第2の図である。 深度マップZの一例を示す図である。 同実施形態の可視判定部12が行う処理の概要を示す図である。 同実施形態における可視判定画像を表すデータの一例を示す図である。 同実施形態における仮想視点映像生成装置10における仮想視点映像生成処理を示すフローチャートである。 自由視点映像生成の概要を示す図である。
以下、図面を参照して、本発明に係る一実施形態における仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラムを説明する。
本実施形態における仮想視点映像生成装置には、対象物を異なる視点から撮影した複数の映像と、仮想視点を示す情報とが入力される。仮想視点映像生成装置は、入力された複数の映像に基づいて、仮想視点からの対象物についての「見え」に適した三次元形状復元を行うことにより、仮想視点から対象物を撮影した際の映像である仮想視点映像を生成して出力する。すなわち、本実施形態の仮想視点映像生成装置は、一般的なGeometry−based approachと異なり、複数の映像に基づいてすべての視点に対応できる三次元形状の復元を行わずに、仮想視点からの三次元形状復元を行う。
図1は、本発明に係る実施形態における仮想視点映像生成装置10の構成を示すブロック図である。仮想視点映像生成装置10は、視点依存初期形状推定部11、可視判定部12、形状最適化部13、終了判定部14、及び、映像出力部15を備えている。
視点依存初期形状推定部11には、複数の実カメラで撮影した複数の映像、及び仮想視点cを示す仮想視点情報が入力される。仮想視点は何らかの方法で指定される。例えば、三次元マウスなどの入力デバイスをユーザが操作することによりコンピュータ画面上において仮想視点を指定するようにしてもよいし、予めファイルなどに記憶されている三次元座標を逐次読み込むようにしてもよい。
視点依存初期形状推定部11が行う初期依存初期形状推定において必要な形状は、現在指定されている仮想視点cから見える範囲での概形である。言い換えると、仮想視点cvを構成する各画素について、その先に対象物が存在するか否か、存在する場合にはおおよその奥行き(仮想視点cvからの距離)である。以下、視点依存初期形状推定部11が概形を取得する際の初期依存初期形状推定について説明する。
(処理11−1):視点依存初期形状推定部11は、現在の仮想視点cを読み込む。
(処理11−2):視点依存初期形状推定部11は、複数の画像を撮影した実カメラcごとに以下の処理11−3から処理11−5を行い、各実カメラcの視錐体Vを多面体として取得する。なお、視錐体とは、例えば図2に示すように、カメラの投影中心を頂点としシルエット画像を底辺とする錐体である。図2は、カメラcの視錐体Vの一例を示す図である。
(処理11−3):視点依存初期形状推定部11は、実カメラcにより撮影される映像Iから、シルエット輪郭Lを抽出する。また、視点依存初期形状推定部11は、折れ線(線分)の組み合わせでシルエット輪郭Lを近似する。図3と図4とは、映像Icからシルエット輪郭Lの抽出と、その逆投影との一例を示す図である。図3(a)は映像の撮影状況を俯瞰した図である。図3(b)は実カメラcで撮影した撮影画像Iを示す図である。図4(a)は、撮影画像Iから抽出したシルエット輪郭Lを示す図である。図4(b)は、シルエット輪郭Lの逆投影を示す図である。なお、視点依存初期形状推定部11は、例えばクロマキー或いは背景差分などの手法を用いることにより、シルエット輪郭Lの抽出を行う(図4(a))。
(処理11−4):視点依存初期形状推定部11は、シルエット輪郭Lを構成する各点、すなわちシルエット輪郭Lを近似する各線分の両端点をシーンで想定する最大の奥行き(Z−farクリップ)まで逆投影し、得られた点群をs(i)(i=1,2,…,N)とする(図4(b))。
(処理11−5):視点依存初期形状推定部11は、実カメラcの投影中心を頂点とし、点群s(i)を底面にした錐体を視錐体Vにする。
(処理11−6):視点依存初期形状推定部11は、処理11−3から処理11−5間での処理を各実カメラcに対して得られた視錐体Vを用いて、仮想視点cにおける深度マップZを算出する。なお、仮想視点cにおける深度マップZの算出には、例えば非特許文献1や参考文献1に記載の技術を用いる。
[参考文献1] Jack Goldfeather, Jeff P.M. Hultquist, Henry Fuchs, "Fast Constructive Solid Geometry Display in the Pixel-Power Graphics System," ACM SIGGRAPH'86 Proc., Computer Graphics, pp.107-116, 1986
なお、深度マップZの算出は、前述の技術以外を用いるようにしてもよい。図5は、深度マップZの一例を示す図である。同図において、黒は物体が存在しないことを示し、輝度に応じて仮想視点cからの距離を示している。輝度が高くなるほど仮想視点cに近い位置に物体が存在していることを表している。
以上のように、視点依存初期形状推定部11は、複数の映像と仮想視点情報とに基づいて、仮想視点cの深度マップZを算出する。
可視判定部12は、視点依存初期形状推定部11が算出した深度マップZに基づいて、対象物の表面形状の各点を観測可能なカメラ群Cを点ごとに特定する。言い換えると、可視判定部12は、仮想視点cから観察されたシーン(映像)の各ピクセル(各画素)について、当該ピクセルを観測可能なカメラ群Cを特定する。可視判定部12は、例えば符号化テクスチャによる可視判定により、カメラ群Cを算出する。
符号化テクスチャによる可視判定は、仮想視点cの「見え」を構成する各画素について、その画素の先にある三次元形状の表面を観測可能なカメラを、その画素の色情報で表現する(符号化する)手法である。具体的には、各画素の色情報がXビットで表現されているとき、1ビット目、2ビット目、…、Xビット目それぞれに実カメラを一対一に割り当てる。ビットの値は、当該ビットに割り当てられた実カメラが当該画素の先にある三次元形状の表面を観測可能か否かを示す。
例えば、色情報がRGBそれぞれ8ビットで表現される場合、Xは24となり24台の実カメラを処理の対象とすることができる。また、色情報がRGBそれぞれ16ビットで表現される場合、Xは48となり48台の実カメラを処理対象とすることができる。なお、本実施形態の仮想視点映像生成装置10において扱える映像数、すなわち実カメラ数は各画素の色情報を表すビット数Xで制限される。
可視判定部12は、前述のような可視判定を符号化した色情報を画素ごとに以下のアルゴリズム(処理12−1から処理12−3)で処理する。
(処理12−1):可視判定部12は、視点依存初期形状推定部11により算出された深度マップZを三次元メッシュMに変換する。ここで、三次元メッシュとは、三次元コンピュータグラフィクスにおいて多面体オブジェクトの形状を定義する頂点、辺、及び面の集合のことである。通常は、三角形や、四角形又は他の単純な凸型のポリゴンで構成されているが、より一般的な凹面の多角形、又は穴のあるポリゴンで構成されることがある。本実施形態では、三次元メッシュMを三角形の集合で表すものとする。
(処理12−2):可視判定部12は、カメラc(c=1,2,…)ごとに、各画素の輝度値を当該カメラcに対応するビットのみ、すなわちcビット目のみを「1」とした画像を生成し、Projective Texture−mappingの原理によって、三次元メッシュMにテクスチャを与える。具体的には、カメラcの位置に、cビット目だけが「1」になっている光源を設置する。その結果、カメラcからの光が届く物体の形状の部分については、cビット目だけが「1」の色が付くことになる。物体の形状は、処理12−1で得られる三次元メッシュMとして与えられるので、カメラcからの光が届く表面を算出することが可能となる。なお、可視判定部12が生成する画像は、撮影画像と同じサイズの画像である。
(処理12−3):可視判定部12は、カメラcごとに生成した三次元メッシュMを混合して、仮想視点cからレンダリングする。前述の通り、各カメラcの位置に設置された光源は、どれか一つのビットだけが「1」になっているため、加算しても混ざり合うことなく、物体の表面に光が届く。すなわち、カメラcから観測できる物体の表面には、当該カメラcに対応するビットの値が「1」となっている。
可視判定部12は、処理12−1から処理12−3間での処理を行うことにより、各画素がいずれの実カメラから観測可能か否かを示す画像(以下、可視判定画像という。)を生成する。図6は、本実施形態の可視判定部12が行う処理の概要を示す図である。処理12−1から処理12−3を可視判定部12行うことにより、図7に示す可視判定画像が得られる。図7は、本実施形態における可視判定画像を表すデータの一例を示す図である。同図に示す例では、画素(0,0)はカメラ2とカメラcとから観測可能である。また、画素(W,H)はカメラ1とカメラXとから観測可能である。なお、Xはカメラの最大数を示し、WとHとはそれぞれが合成される仮想視点画像の幅と高さとを示す。
以上の処理により、可視判定部12は、仮想視点cから対象物を撮影した際の画像における対象物の領域の画素ごとに、当該画素に対応する対象物の部分が観測可能なカメラ群Cを特定することができる。また、画素ごとのカメラ群Cを示す情報は、可視判定画像として得られる。
視点依存初期形状推定部11と可視判定部12とにより、仮想視点cでの画像を構成する各画素にはシーンの奥行きを示す深度マップZと、どのカメラから観測可能かを示す可視判定画像とが得られる。形状最適化部13は、深度マップZと可視判定画像とに基づいて、photo−consistency(色一致度)を最大化するように深度マップZを最適化する。
(処理13−1):形状最適化部13は、仮想視点cでの画像を構成する各画素pについて、以下の処理を行う。なお、画素の奥行きをzとし、観測可能なカメラ群をVとする。奥行きzを中心として、d=±D/2の範囲で、photo−consistency ρ(z+d)を算出するとともに、その位置での画素値を記憶する。なお、Dは、最適化にあたって奥行きを探索する範囲を示す値であり、映像や、映像中の対象物などに応じて予め定められる値である。例えば人物の形状復元を3m程度離れたHDカメラ群十数台で撮影した複数の映像を用いて行う場合、D=5cm程度とする。
また、関数ρ(・)は、明度変化に頑健なZNCC(Zero-mean Normalized Cross Correlation)の平均値とする。すなわち、三次元空間中の一点zを観測可能なカメラv∈Vに投影した先における画素値をベクトルIとしたとき、2台のカメラv、v’に対して
と定義される。ただし、式(1)における ̄I及び ̄Iv’は、それぞれベクトルI及びベクトルIv’の要素の平均値である。なお、式(1)においてIやIv’の上に ̄(オーバーライン)を付したもの、明細書の文章においては「 ̄I」や「 ̄Iv’」と記載している。
また、全てのv、v’の組み合わせに対する平均値は
とする。ただし、式(2)における|V|は集合Vから二つの要素を選ぶ組み合わせの数とする。
(処理13−2):形状最適化部13は、仮想視点cでの画像を構成する各画素pにおいて、その隣接する画素との連続性を考慮しつつ、最もphoto−consistencyが高くなる奥行きを決定する。すなわち、
が最小化されるような奥行きの変化量dを±D/2の範囲で画素pごとに選択する。ただし、式(3)においてPは画素の集合を表し、Nは画素の隣接関係を表し、φ(z+d,z+d)は隣接する画素間での奥行きの連続性を評価した値である。関数φ(・)は対象物の形状に関する事前知識を表現する関数である。なお、隣接画素とは、互いに隣接する画素を指し、ある画素の上下左右のピクセルを隣接画素とする考え方を4連結、ある画素の上下左右に加えて斜めの画素も隣接画素とする考え方を8連結と呼ぶ。4連結あるいは8連結が一般的であるが、特に隣接の定義は問わず、任意に設定可能である。
関数φ(・)は形状に応じて選択されるべきであるが、一般的にはtruncated linear関数
が用いられることが多い。
ただし、式(4)におけるαは奥行きの変化量に対するペナルティを定める係数であり、βはペナルティの最大値である。なお、photo−consistencyを高くする最適化は、例えばGPU(Graphic Processing Unit)上でのloopy−belief−propagationによって近似的に行うことが可能である。
(処理13−3):形状最適化部13は、処理13−2において決定した奥行きに対応する画素値を、仮想視点cでの画像を構成する各画素pに割り当てて、仮想視点cにおけるシーンのレンダリング結果として出力する。
本実施形態における仮想視点映像生成装置10では、可視判定部12における処理と、形状最適化部13における処理とを繰り返すことにより、仮想視点cにおける仮想視点映像を生成する。終了判定部14は、繰り返し終了条件を満たしているか否かを判定する。終了判定部14は、形状最適化部13において算出されるphoto−consistency(式(3)におけるE)の改善幅(変化量)が、予め定めた閾値以下となったときに繰り返しを終了させる。なお、繰り返し終了の判定は、他の条件でもよく、例えば可視判定部12における可視判定結果に変化がなくなったときに繰り返しを終了させるなど、様々な判定が適用できる。
映像出力部15は、可視判定部12において生成された可視判定画像と、形状最適化部13において最適化された深度マップZと、複数の映像とに基づいて、仮想視点cにおける仮想視点映像を生成する。例えば、映像出力部15は、画素ごとに、深度マップZに基づいて可視判定画像が示すカメラの映像の画素を合成することにより、仮想視点映像を生成する。映像出力部15は、生成した仮想視点映像を出力する。
図8は、本実施形態における仮想視点映像生成装置10における仮想視点映像生成処理を示すフローチャートである。仮想視点映像生成装置10において、仮想視点映像生成処理が開始されると、視点依存初期形状推定部11は入力される複数の映像及び仮想視点cに基づいて、深度マップZの概形を算出する(ステップS11)。
可視判定部12は、仮想視点cからの画像のピクセルごとに、当該ピクセルを観察可能なカメラを特定し、各ピクセルについて観察可能なカメラを示す可視判定画像を生成する(ステップS12)。
形状最適化部13は、可視判定画像に基づいて、色一致度を最大化するように深度マップZを最適化する(ステップS13)。
終了判定部14は、ステップS13における色一致度の改善幅が閾値以下になったか否かを判定し(ステップS14)、改善幅が閾値より大きい場合(ステップS14:NO)、処理をステップS12に戻して、可視判定画像の生成と深度マップZの最適化とを繰り返して行う。
一方、改善幅が閾値以下の場合(ステップS14:YES)、終了判定部14は、最適化の終了を映像出力部15に通知する。映像出力部15は、終了判定部14から最適化の終了を通知されると、最適化された深度マップZ及び可視判定画像に基づいて、複数の映像から仮想視点映像を合成する。映像出力部15は、合成した仮想視点映像を出力し(ステップS15)、仮想視点映像生成処理を終了させる。
以上のように、本実施形態における仮想視点映像生成装置10では、一般的なGeometry−based approachと異なり、仮想視点cの情報を三次元形状復元で利用している。つまり、一般的なGeometry−based approachでは、どの仮想視点からの映像を生成するかを考慮せずに、すべての方向からの視線に対して精度のよい形状を復元していた。これに対して、仮想視点映像生成装置10では、仮想視点cから観測可能な範囲のみを復元対象とし、この範囲で映像品質が高くなるように最適化を行っている。仮想視点cから観測可能な範囲を復元対象とすることにより、復元範囲を減らすことができ、復元に要する演算処理や記憶容量などの処理コストを減らすことができる。その結果、仮想視点映像生成装置10は、仮想視点映像の生成に要する時間を削減することができ、実時間(リアルタイム)の自由視点映像生成を可能にすることができる。
上述した実施形態における仮想視点映像生成装置10をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、仮想視点映像生成処理を実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
10…仮想視点映像生成装置
11…視点依存初期形状推定部
12…可視判定部
13…形状最適化部
14…終了判定部
15…映像出力部

Claims (4)

  1. 複数の視点で対象物を撮影した複数の映像に基づいて、前記対象物について仮想視点からの深度マップを生成する視点依存初期形状推定部と、
    前記深度マップに基づいて、前記仮想視点から前記対象物を撮影したときの映像を構成する画素ごとに、前記複数の視点それぞれから前記対象物を観測できるか否かを示す可視判定画像を生成する可視判定部と、
    前記可視判定画像に基づいて、色一致度を最大化するように前記深度マップを最適化する形状最適化部と、
    前記色一致度の改善幅が予め定めた閾値以下になると、最適化された深度マップと前記可視判定画像とに基づいて、前記複数の映像から仮想視点映像を生成する映像出力部と
    を備えることを特徴とする仮想視点映像生成装置。
  2. 請求項1に記載の仮想視点映像生成装置において、
    前記可視判定部は、
    前記複数の視点を符号化した符号化テクスチャを用いて前記可視判定画像を生成する
    ことを特徴とする仮想視点映像生成装置。
  3. 複数の視点で対象物を撮影した複数の映像に基づいて、前記対象物について仮想視点からの深度マップを生成する視点依存初期形状推定ステップと、
    前記深度マップに基づいて、前記仮想視点から前記対象物を撮影したときの映像を構成する画素ごとに、前記複数の視点それぞれから前記対象物を観測できるか否かを示す可視判定画像を生成する可視判定ステップと、
    前記可視判定画像に基づいて、色一致度を最大化するように前記深度マップを最適化する形状最適化ステップと、
    前記色一致度の改善幅が予め定めた閾値以下になると、最適化された深度マップと前記可視判定画像とに基づいて、前記複数の映像から仮想視点映像を生成する映像出力ステップと
    を有することを特徴とする仮想視点映像生成方法。
  4. 請求項1又は請求項2のいずれかに記載の仮想視点映像生成装置としてコンピュータを機能させるための仮想視点映像生成プログラム。
JP2013175502A 2013-08-27 2013-08-27 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム Active JP5945255B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013175502A JP5945255B2 (ja) 2013-08-27 2013-08-27 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013175502A JP5945255B2 (ja) 2013-08-27 2013-08-27 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム

Publications (2)

Publication Number Publication Date
JP2015045920A JP2015045920A (ja) 2015-03-12
JP5945255B2 true JP5945255B2 (ja) 2016-07-05

Family

ID=52671399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013175502A Active JP5945255B2 (ja) 2013-08-27 2013-08-27 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム

Country Status (1)

Country Link
JP (1) JP5945255B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3460761A1 (en) * 2017-09-22 2019-03-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing system, and program

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015206477A1 (de) 2015-04-10 2016-10-13 Robert Bosch Gmbh Verfahren zur Darstellung einer Fahrzeugumgebung eines Fahrzeuges
KR101835434B1 (ko) * 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
JP7387434B2 (ja) * 2017-09-11 2023-11-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像生成方法および画像生成装置
JP7119425B2 (ja) * 2018-03-01 2022-08-17 ソニーグループ株式会社 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法
JP7179515B2 (ja) * 2018-07-13 2022-11-29 キヤノン株式会社 装置、制御方法、及びプログラム
JP6759300B2 (ja) * 2018-10-22 2020-09-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7297439B2 (ja) 2018-12-19 2023-06-26 キヤノン株式会社 ファイル生成装置及びファイル生成方法、画像生成装置及び画像生成方法、並びにプログラム
JP7289746B2 (ja) 2019-07-11 2023-06-12 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US11928831B2 (en) 2019-09-20 2024-03-12 Canon Kabushiki Kaisha Information processing apparatus, shape data generation method, and storage medium
US20230419605A1 (en) 2020-11-18 2023-12-28 Nec Corporation Map generation apparatus, map generation method, and non-transitory computer-readable medium storing program
JP2023132320A (ja) 2022-03-10 2023-09-22 キヤノン株式会社 画像処理システム、画像処理方法及びコンピュータプログラム
JP7459199B1 (ja) 2022-09-20 2024-04-01 キヤノン株式会社 画像処理システム
JP2024046244A (ja) 2022-09-22 2024-04-03 キヤノン株式会社 画像処理システム、画像処理方法及びコンピュータプログラム
JP2024113437A (ja) 2023-02-09 2024-08-22 キヤノン株式会社 情報処理装置、管理装置、情報処理方法、管理装置の制御方法、及びプログラム
JP2024140697A (ja) 2023-03-28 2024-10-10 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN117272758B (zh) * 2023-11-20 2024-03-15 埃洛克航空科技(北京)有限公司 基于三角格网的深度估计方法、装置、计算机设备和介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5015126B2 (ja) * 2008-12-09 2012-08-29 日本電信電話株式会社 画像生成方法、画像認証方法、画像生成装置、画像認証装置、プログラム、および記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3460761A1 (en) * 2017-09-22 2019-03-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing system, and program
US10701332B2 (en) 2017-09-22 2020-06-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing system, and storage medium

Also Published As

Publication number Publication date
JP2015045920A (ja) 2015-03-12

Similar Documents

Publication Publication Date Title
JP5945255B2 (ja) 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
KR101697184B1 (ko) 메쉬 생성 장치 및 그 방법, 그리고, 영상 처리 장치 및 그 방법
JP7003994B2 (ja) 画像処理装置および方法
KR101669820B1 (ko) 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법
JP2021535466A (ja) シーンの色及び深度の情報を再構成するための方法及びシステム
JP4880090B2 (ja) 3dテクスチャの超解像のための画像生成装置及び方法
JP5795384B2 (ja) 映像処理装置、照明処理装置及びその方法
KR20090064154A (ko) 다시점 영상 정보를 이용한 물체의 삼차원 형상복원 방법및 장치
Oliveira et al. Selective hole-filling for depth-image based rendering
JP2018180687A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6736422B2 (ja) 画像処理装置、画像処理の方法およびプログラム
JP4464773B2 (ja) 3次元モデル表示装置及び3次元モデル表示プログラム
KR20120071276A (ko) 2차원 영상의 해상도 레벨에 따른 3차원 복원 물체의 텍스처 생성 장치 및 그 방법
GB2458305A (en) Providing a volumetric representation of an object
JP7352374B2 (ja) 仮想視点変換装置及びプログラム
CN116468736A (zh) 基于空间结构的前景图像分割方法、装置、设备、介质
JP7316693B2 (ja) 多重視点テクスチャを利用した3dポリゴンメッシュレンダリング方法及びその装置
KR20120118462A (ko) 이미지 기반의 비주얼 헐에서의 오목 표면 모델링
Cho et al. Depth image processing technique for representing human actors in 3DTV using single depth camera
Chen et al. A quality controllable multi-view object reconstruction method for 3D imaging systems
JP2015103960A (ja) 画像奥行き指定方法、プログラム、および装置
JP6317180B2 (ja) 画像生成装置及びプログラム
JP6759300B2 (ja) 情報処理装置、情報処理方法及びプログラム
Park et al. 3D mesh construction from depth images with occlusion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160527

R150 Certificate of patent or registration of utility model

Ref document number: 5945255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150