JP2004526266A - 複数のビューを合成する方法 - Google Patents
複数のビューを合成する方法 Download PDFInfo
- Publication number
- JP2004526266A JP2004526266A JP2002588087A JP2002588087A JP2004526266A JP 2004526266 A JP2004526266 A JP 2004526266A JP 2002588087 A JP2002588087 A JP 2002588087A JP 2002588087 A JP2002588087 A JP 2002588087A JP 2004526266 A JP2004526266 A JP 2004526266A
- Authority
- JP
- Japan
- Prior art keywords
- image
- background
- output images
- images
- segmented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/23—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/286—Image signal generators having separate monoscopic and stereoscopic modes
- H04N13/289—Switching between monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Studio Circuits (AREA)
- Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
- Saccharide Compounds (AREA)
Abstract
単眼入力画像は、少なくとも2つの出力画像を形成することにより、単眼入力画像に、高められた3次元の様相が与えられるよう変換される。前景対象物と背景対象物は、入力画像においてセグメント化されて、互いに異なるように変換されて、それにより、前景対象物は背景から飛び出すように見えるようにされる。入力画像のシーケンスが与えられると、前景対象物は、出力画像において、背景対象物から異なるように動くように見える。
Description
【0001】
本発明は、ビデオ材料の合成、特に、ビデオ材料の3次元的な様相を高めるための合成の分野に係る。
【0002】
任意の視点からカメラにより捕捉されたかのように3Dシーンの画像を合成することは、周知の研究課題であり、幾つか異なるアプローチが提案されている。完全な3Dモデルが与えられて、任意の視点からシーンをレンダリングすることができる。レンダリング技術は、コンピュータグラフィックスの分野では公知である(例えば、J.D.フォーレイ(Foley)、A・バンダム(van Damm)、S.K.フェイナー(Feiner)、及び、J.F.ヒューゴス(Hughes)による、「Computer Graphics - Principles and Practice」(アディソン・ウェズリー(Addison Wesley)、1992年、第2版、第14章)に説明される)。しかし、モデルの生成は時間がかかって退屈であり、間違いを起こしやすく、労働集約的である。
【0003】
一方、一部の研究者は、画像から直接3D情報を推測することを試みている。画像シーケンスから対象物の形状とカメラ動作の両方を回収する様々な方法が考え出されている(例えば、O・ファーゲラス(Faugeras)による、「Three-Dimensional Computer Vision: a Geometric Viewpoint」、MITプレス、1993年)。これらの方法は一般的に、計算集約的である。さらに、多くの場合、入力シーケンスは、パン−チルト−ズームカメラにより捕捉され、このことは、シーンの3Dモデルの再生を阻止する。
【0004】
別のアプローチは、画像に基づいたレンダリングを行うことである(L.マクミラン:「An Image Based Approach to Three-Dimensional Computer Graphics」、博士論文、University of North Carolina、1997年)。このアプローチでは、対象物及び環境の明示的な3Dモデルを必要としない。これらの方法は、投影的な制約と不変量を用いることによって3Dにおける推論を回避している。
【0005】
本発明は、単眼画像シーケンスから始めてシーンの複数のビューを合成することを目的とする。
【0006】
このことは、各入力画像に対し、シーンの2つ以上の新しいビューが生成されることにより達成される。このようなビューは、3D−TV装置又は任意の他の好適なビューイング機器上で表示するのに適している。入力画像は、動く対象物と、静止した背景とにセグメント化される。背景は更に、複数の領域にセグメント化され得る。各領域に適切な変換を適用することにより、新しいビューが生成される。画像シーケンスから必要な情報が入手できない場合でも、簡単なドメイン知識を用いて、ビューの良好な近似が作成されて有利である。
【0007】
更なる目的及び利点は、以下において明らかとなる。
【0008】
本発明は、以下の添付図面を参照しながら、非制限的な例によって説明する。
【0009】
図1は、時として、バーチャルリアリティ装置とも称する一般的な3D画像ビューイング機器を示す。この装置は、プロセッサ101と、メモリ103と、選択的に、ディスプレイ102、ネットワーク接続104といった様々な周辺機器、又は、プリンタ、キーボード、マウス、マイクロホン、スピーカ、カメラ、及び/又は遠隔制御器といった図示しない他の種類の周辺機器を含む。接続は、有線でも無線でもよい。プロセッサは、PC、テレビジョン、又はセットトップボックスに組み込まれるような任意のタイプであり得る。この装置は、ネットワーク接続104を介して追加の処理又はメモリ出力にアクセスし得る。ネットワーク接続104は、インターネット、ケーブルテレビジョン、及び/又は、ローカルエリアネットワーク(LAN)といった任意の好適なネットワーク接続である。一般的に、3D効果は、ビューイング装置105を用いて達成されるが、ビューイング装置105は、目視者の2つの目のそれぞれに示される画像間の差が3次元の幻覚を与えて、ステレオ画像を形成する。
【0010】
図2は、本発明の方法のフローチャートを示す。本発明の方法は、プロセッサ101によって、又は、ネットワーク接続104を介してアクセスされる遠隔プロセッサにおいて実行され得る。好適な実施例は、ソフトウェアとして説明するが、当業者によって、ハードウェアにおいても同等に実施可能である。
【0011】
本発明は、更に、図3の概略図に関して説明する。図3は、テニスの試合を示す。二人の選手303、302が、観客が座るスタンド301の前にあるコート304で試合をしている。コート304及びスタンド301は、テニスの試合に対応する知識ドメインのうちの既知のタイプの対象物である。
【0012】
入力は、例えば、テニスの試合中に撮られた画像シーケンスI1、I2、I3、・・・である。図2は、シーンの2つの立体的なビューを生成するために適用される段階を示す。文字「L」は、立体出力の左のビューに関する画像及び変換を言及するために用い、文字「R」は、右のビューに関する画像及び変換を言及するために用いる。
【0013】
段階201において、動く対象物が、静止した背景からセグメント化される。ここでは、選手302及び303がセグメント化される。このセグメンテーション方法の詳細は、図4を参照しながら説明する。次に、段階202において、ドメイン知識を用いて、背景を個々の領域に更にセグメント化する。段階202の詳細については、図5を参照しながら説明する。
【0014】
段階203において、新しいビューが選択される。詳細は、図6を参照しながら説明する。段階202及び203の演算は、並列で行われ得る。段階204において、各領域mに対し、変換TLm及びTRmが計算される。図7に、この方法を示す。
【0015】
次に、段階205において、セグメント領域は、変換TLmを用いて、左のビューを形成するようワープされる。領域は更に、変換TRmを用いて、右のビューを形成するようワープされる。詳細は、図8を参照しながら説明する。
【0016】
動く対象物のセグメンテーション
図4は、段階201において行われる更なる段階を示すフローチャートである。段階402、405、及び、409において、記号「・」は、画像へのホモグラフィの適用を示す。
4a. 段階401において、各入力画像Ikに対し、ホモグラフィ変換Hkを予測し、それにより、HkがフレームIkに適用されるとき、変換されたフレームにおけるテニスコートの画像は、第1のフレームI1におけるテニスコートの画像と位置合わせされる。
【0017】
ホモグラフィは、3×3マトリクスHによって表され、これは、画像中の点(x,y)を、図9の式(1)により表される点にマッピングする。図9の式(1)において、hijホモグラフィパラメータは、ホモグラフィマトリクスHからの値である。このことは、例えば、上述した、O・ファーゲラスによる「Three-dimensional Computer Vision」におけるように当該技術において周知である。
【0018】
入力画像の位置合わせは、画像シーケンスの空間−時間的な導関数を計算し、通常のフローを予測し、更に、ホモグラフィパラメータを線形予測することにより行われる。このことを達成する1つの方法は、R.プレス(Pless)外による「Detecting Independent Motion: The Statistics of Temporal Continuity」(IEEE PAMI報告書、第22巻、第8号、2000年8月)に記載される。
【0019】
あるいは、バート(Burt)外に発行された米国特許第5,629,988号に示すように、特徴点(例えば、コーナ)及び/又はラインを見つけ出して、入力画像とマッチングされることが可能であり、また、ホモグラフィは、マッチングされた特徴から予測することができる。
【0020】
段階402において、Jkは、変換Hkを、画像Ikに適用した結果を表す。
4b. ドメイン知識から、多くのテニスシーケンスにおいて、カメラは、パンする、チルトする、及びズームすることが可能にされるが、そうでなければ、コートの周りを動かないことが知られている。パン−チルト−ズームカメラに対し、段階401において計算された変換は、テニスコートのみならず、シーン中の任意の他の静止特徴と位置合わせされる。動く選手だけが位置合わせされない。
【0021】
段階1からの変換された画像Jkは、段階403において、シーンのモザイクを形成するよう組合されることができる。モザイクにおける各画素に対し、画像Jkからの1つ以上の画素がある。動く対象物(選手)を取り除くためには、各画素における複数の値にメディアンフィルタが適用され、モザイクMに中央値が入れられる。
【0022】
中央値は、以下のように計算される。特定の画素に対し、値x1、x2、…、xkがあるとする。これらの値はソートされ、ソートされた値は、y1、y2、…、ykと示され、ただし、y1<=y2<=…<=ykである。その場合、中央値は、yk/2である。
【0023】
モザイクを作成する代替の方法は、米国特許第5,629,988号に記載される。
4c. 逆変換(Hk −1)が、モザイクMに適用され、結果が適切にクロッピングされると、背景画像Bkが、段階405にて得られる。背景画像は、動く対象物が取り除かれ、且つ、他のビューから見えた背景からの画素によって置換されること以外は、入力画像Ikと同じである。
4d. 次に、入力画像Ikは、対応する背景画像Bkと比較されて、段階406において、マスク画像Mkを形成する。マスク画像Mkの画素値は、IkとBkとの差が閾値より大きいと1であり、閾値より小さければ0である。次に、段階407において、画像Ikから、マスク画像Mkにおいて1と設定される画素が引かれ、残りの画素は、黒となるよう設定される。結果として、動く対象物の画像Fkが得られる。
【0024】
静止背景のセグメンテーション
図5は、段階202の展開を示す。ドメイン識別情報は、段階501において、電子番組ガイドデータから、又は、ブロードキャストビデオ中のクローズドキャプションデータを分析することにより得られる。ドメイン識別情報が入手可能でなくても、他と区別する特徴を検出する(段階502)ことによって、入力ビデオが正しいドメインからであるか否かをテストすることができる。予期される特徴が検出されると、処理は、ドメイン識別情報無しでも進めることができる。
【0025】
ドメイン知識は、更に、デジタルTVブロードキャスト内から入手可能であるMPEGストリームメタデータを介しても供給され得る。ドメイン識別情報のみが伝送される場合、そのドメイン知識は、あらかじめメモリ103内に格納されなければならない。
【0026】
図3の例では、ドメイン知識は、コート305の形状、センターネット304が垂直であるという事実、及び、スタンド301の形状に関するいくつかの想定を含み得る。
【0027】
段階502において、ドメインの他と区別する特徴が検出される。テニスの試合の場合、他と区別する特徴は、コート305のラインであり得る。追加の特徴は、テニスコートの色は一様であるという知識であり得る。特徴は、以下の通りに検出される。
5a. 画像中のラインを見つける。例えば、画像中のラインを検出する周知の方法は多数ある。
5b. 一様の色を有する大きい領域を見つけ、この大きい領域内における、段階5aにて見つけたラインのみを選択する。
5c. 検出したラインと格納されるモデルにおけるラインセグメントをマッチングする。このことは、2つ以上の検出したラインセグメントをランダムに選択し、且つ、それらを、モデル中のすべてのセグメントとマッチングすることにより行われる。各マッチングは、画像とモデル間の変換を決める(この変換はホモグラフィであり、というのは、コートは平面だからである)。
5d. 段階5cで得た各ホモグラフィについて、その変換を入力画像に適用し、モデルにおけるラインセグメントとマッチングする、変換された画像におけるラインセグメントの数と、マッチングするセグメントがどれだけ良好に合わさるのかを見つける。
5e. 段階5c及び5dが繰り返されて、最終変換が選択される。最終変換のもとで、ほとんどのセグメントはマッチングされ、変換された入力とモデルとの間に最高の位置合わせを有する。
【0028】
段階503において、背景は更に、テニスコートと他の領域にセグメント化される。テニスの試合の場合、これらの特徴には、ネット、審判スタンド、及び、観客スタンド301を含み得る。これらの領域は、ドメイン知識に基づいてセグメント化される。例えば、ネットは、コート上のラインに対し既知の位置にある。審判スタンドは、コート自体にあり、その色はコートの色とは異なることが知られており、従って、審判スタンドは、色に基づいてセグメント化することができる。必要なセグメンテーションの種類に関する詳細は、ビシブジット・S.ナルワ(Vishvjit S.Nalwa)による「A Guided Tour of Computer Vision」(アディソン・ウェズリー(Addison-Wesley)、1993年)の第3章3節「Image Segmentation」に記載される。
【0029】
この段階の結果、各領域に対し1つのマスク画像(段階406にて得られるマスク画像に類似する)が得られる。各領域について、領域における画素に対応するマスク画素は、1に設定され、それ以外の画素は、0に設定される。
【0030】
テニスコートの変換の決定
図6において、テニスコートの画像に適用される変換が決定される。ここでいうテニスコートとは、グランドのみを意味する。他のセグメント化された背景領域についての変換は、次のセッションである「他の領域の変換の決定」にて決定する。コートは平面なので、変換は、ホモグラフィである。HLとHRを決めるために、2つの選択的な方法がある。
6a. モデルと入力画像との間にマッチングが利用可能である場合(段階601、段階502から)段階602において、(コートに対する)本質的な及び非本質的な較正パラメータを決定することができる。これを行うための公知の技術があり、例えば、エマニュエル・トリュッコ(Emanuele Trucco)、アレッサンドロ・ヴェリ(Alessandro Verri)による「Introductory techniques for 3-D Computer Vision」(プレンティスホール(Prentice Hall)、1998年)に記載される。
6b. 完全に較正される場合、段階603において、任意の新しい所望のカメラ位置を選択することができる。例えば、新しいカメラをコートの近くに置いて、3D認識を高めることができる。ホモグラフィHL及びHRは、段階604において、閉じた形で、古いカメラパラメータ及び新しいカメラパラメータから決定することができる。どのようにこれを行うのかは、上述したトリュッコ及びヴェリの本に記載される。
6c. システムが完全に較正されない場合(較正が所望されない)、ヒューリスティック605を用いてHL及びHRが決定される。この特定の例では、ネットと遠くのベースラインが、入力画像において略水平であると仮定する。ネットの下の縁に対し、Y座標は、y1とし、画像の幅は、w1とする。遠くのベースラインに対し、y座標は、y2とし、幅は、w2とする。
【0031】
この2つのラインセグメントは、3Dの世界では同じ長さを有するので、w1/w2の比は、式(13)に従い、2つのラインの相違(disparity)の比と同じである。
【0032】
同様に、画像中の下の走査線のY座標は、yBとする。各ビューイング装置について、相違は、dMAXとする特定の最大値より小さいべきである。最大値dMAXは、例えば、20画素であり得る。
【0033】
式(4)を用いて、sL、sR、dL、及びdRの値を導き出し得る。当然のことながら、これは、可能な解のセットのうちのたった1つである。段階606において、sR=0とdR=0を選択することによって、右のビューを入力ビューと同一にすることができる。sL及びdLを得るには、(14)に示す2つの一次方程式が解かれ、1つは式(13)から得られ、1つは最大の相違の制約から得られる。
【0034】
y1、y2、w1、w2、及びyBの値は、入力画像における測定値であり、dMAXは、ビューイングシステムの既知のパラメータである。従って、sL及びdLは、上述の式において唯一の未知数である。
【0035】
従って、図9のホモグラフィの式(2)及び(3)を、段階607にて用いることができる。
【0036】
これらの2つのホモグラフィは、Y座標を変化せず、従って、修正されたステレオビューを形成し、このビューでは、対応する特徴は、両方の画像において同じ走査線上にある。
【0037】
上述したヒューリスティックは、一例に過ぎない。コートの他の既知の特徴を検出することができる場合、類似の方法を用いて、好適なホモグラフィHL及びHRを決定することができる。
【0038】
他の領域の変換の決定
テニスコートに加えて、シーンは、動く対象物(段階407においてセグメント化される)と、背景のセグメント化された部分(段階503から)を含む。図7を参照しながら、これらの領域に対し、変換TLm及びTRmを得る方法を説明する。説明は、セグメント化された選手の領域の処理に関してするが、同一の(又は非常に類似する)処理を、他の領域にも適用することができる。
【0039】
新しいビューが、オリジナルのビューに類似する(これは、一般的にそうである)場合、選手は、前−平行平面(fronto−parallel plane)にあるとして近似される。これは、選手とカメラとの間の距離を考慮に入れる有効な近似である。TLm変換は、前景対象物303を含む領域の周りの境界矩形701に対し決められる。左下の角をAとし、右下の角をBとし、AとBとの間の中間点をCとする。選手303は、コート上に立っているものと想定されるので、境界矩形701の下の線は、グランドの中にあることが想定される。テニスコートは、ホモグラフィHLにより変換される。具体的には、ホモグラフィHLは、点A、B、及びCを、新しいビューにおける点A’、B’、及びC’にそれぞれ変換する。
【0040】
TLmは、HLと対応していなければならない。点Cは、点C’に変換されるべきであり、変換された点Aと点Bとの間の水平距離は、点A’と点B’との間の水平距離と等しいべきである。最後に、境界矩形のアスペクト比(幅割る高さ)は、一定のままにされるべきである。従って、式(5)が得られる。
【0041】
図9の式(6)、(7)、(8)、(9)、(10)、及び(11)は、図10の式(12)の変数の定義である。各式(6)−(11)において、x及びy座標は、図7における点及びそれらの点の変換に対し決められる。
【0042】
式(18)に従って、右のビューの変換TRmは、同じように導き出すことができる。TRの式に現れる変数は、式(19)にて決められる。これらの変数は、ホモグラフィHRは、点A、B、及びCを、点A’’、B’’、及びC’’に変換するという前提から得られる。点A’’、B’’、及びC’’は、それぞれ、式(15)、(16)、及び(17)にて決められる。
【0043】
対象物(例えば、テニス選手)は、「飛び出す」ように見える。なぜなら、この対象物は、テニスコート(グランド)とは異なるように変換されるからである。テニスコートの変換(HL及びHRホモグラフィ)は、画像の高いほうにある点は、目視者から遠くにあるように見えるように設定される。それに対し、テニス選手上の全ての点は、目視者から略同じ距離に現れる。
【0044】
変換TLm及びTRmは、テニスコートのグランド部分に適用される変換HL及びHRとは異なる。従って、テニス選手は、背景から「飛び出して」見える。より具体的には、HL及びHR変換は、一般的に、コートの遠い方の点は、小さい相違を有し、従って、目視者からは遠くに見えるように構成される。これは、コートの正確な、傾斜した様相を形成する。それに対し、TLm及びTRm変換は、テニス選手の全ての点が略同一の距離にあるように見えさせる。
【0045】
選手の足は、コートの付近の点と略同一の相違を有する。更に、選手の頭部の相違も、略同じである。しかし、選手の頭部の付近にあるコートの点は、より小さい相違を有し、このことは、選手が背景から「飛び出す」ようにさせる。審判スタンドといった他の特徴も、テニス選手と同じように変換され、従って、背景から「飛び出す」ように見える。
【0046】
新しいビューの作成
図8に説明するように、新しいビューが作成される。前の段階では、入力画像は複数の領域にセグメント化され、各領域に対し変換が計算された。図8には2つの経路がある。左の経路は、左のビューの生成に対応し、右の経路は、右のビューの生成に対応する。2つの経路は、並列に実行されるかのように示すが、これらは、直列に実行されることも同等に可能である。
【0047】
段階801において、各左ビュー変換TLmが、画像領域Ik及び各マスクMkに適用されて、変換された画像領域ILmと変換されたマスクMLmを得る。HLも、段階405において作成される背景モザイクBkに適用される。テニスコートのグランド部分に対し、変換TLmはホモグラフィHLである。段階802において、変換された領域は、新しい左のビューを作成するよう組合される。変換されたマスクMLmにおける画素が1であるときは常に、ILmにおける対応する画素は、出力画像にコピーされる。
【0048】
段階803において、対象物が重なる結果生じるコンフリクトを解決する。
【0049】
一部のa、bについて、対象物が重なると、即ち、MLa(画素)=1及びMLb(画素)=1となると、Lk(画素)は、以下に決められるような対象物の順序付けで、最も近い対象物からの画素IL(画素)に設定されるべきである。
【0050】
対象物の順序付け
各対象物に対し、下の縁は、基準平面におけるその対象物の位置を得るために考慮に入れられるべきである。近い対象物は、入力画像におけるより低い下の縁を有する。基準平面(テニスコート)は、最も離れた対象物として順序付けされる。
【0051】
更に、段階804において、選択的に、セグメント化された対象物によってカバーされない画素である穴が埋められ得る。黒の画素が境界上にある場合、それらはそのままにされるべきである。何故なら、黒の画素は、シーン中の絶対に見られない場所に十中八九相当するからである。その一方で、背景モザイクからの適切な値は、そのような値がある場合には、画像中の穴を埋めることができる。
【0052】
段階801’、802’、803’、及び804’は、段階801−804にそれぞれ類似し、ただし、L、即ち、左のビューの代わりに、R、即ち、右のビューとなる。
【0053】
図4−8の例は、ステレオ画像を用いて3D効果を形成する装置に関して考えられた。しかし、この方法は、任意の数のビューでの実施にも拡張可能である。右のビューの計算、つまり、HR、TRm等の計算は、左のビューの計算(HL、TLm等)とは完全に独立していた。従って、アルゴリズムを、N回繰り返すことによって、シーンのN個の異なるビューを生成することは簡単である。一般的に、N個のビューは、特定の表示装置の要件に応じて生成される。
【0054】
背景画素の変換の別の実施例
背景領域を処理するための別の実施例は、同じシーンの第2の画像を用いることから導き出すことができる。以下において、動く対象物は既に画像からセグメント化されているものと仮定する。以下の演算は、以下に応じて、基準平面(テニスコート)上ではない静止対象物の様相を予測するよう用いられ得る。
1. 最初に、2つの画像における画素間の対応が、手動で、又は、自動的に確立される。オリビア・ファーゲラスによる「Three Dimensional Computer Vision」(MITプレス、1993年)の第6章「Stereo Vision」を参照されたい。
2. 第1の画像が、アフィン変換のために位置合わせされる。
【0055】
a.平面上の2つの対応する平行線対が、式(20)及び(21)に応じて識別される。線の対を、PL1=[L11,L12]及びPL2=[L21,L22]とし、ただし、L11、L12、L21、及び、L22は、端点Lij=[(sxij,syij),(exij,eyij)]により決められる。
【0056】
b.各平行線対についての(同次座標における)消点は、式(20)及び(21)に従って計算される。ただし、aとbの外積の表記を、式(22)に示す。
【0057】
c.vp1=[x1 y1 w1]及びvp2=[x2 y2 w2]を無限に動かす変換Haは、式(23)に従って計算される。
【0058】
d.Haを画像全体に適用し、即ち、式(24)に従う画素は、式(25)に従い動かされる。
3. 第1の画像における平面上の4つ以上の点と、第2の画像におけるそれらの対応点を見つける。式(26)に従い、変換Hbが計算される。この変換は、第2の画像における点q1、q2、q3、q4、・・・を、(Haを適用した後に)第1の画像における点q1’、q2’、q3’、q4’、・・・と合わせるように動かす。
【0059】
その後、Hbは、画像全体に適用され、即ち、式(2)に従う画素は、式(28)に従う画素に動かされる。
4. 第1の画像における対応点pa’及びpb’と第2の画像における対応点qa’及びqb’からなる2つの対を用いて、変換された入力画像と出力画像との間のエピポールが計算される。e12が、入力画像間のエピポールを示すとすると、e12’は、変換された第1の画像と出力画像との間のエピポールを示し、e22’’は、変換された第2の画像と出力画像との間のエピポールを示す。次に、同次座標において、式(29)及び(30)が得られる。これらは、実際の座標における式(31)に対応し、ただし、wは比率である。
5. 変換された第1の画像における各対応点piと変換された第2の画像における各対応点qiに対し、場所ri‘が、新しいビューにおける点について、式(32)に従って、同次座標において計算される。
6. すべての点ri‘は、式(33)に従い、点riに動かされ、ただし、e12’=[ex12’,ey12’]であり、dは定数である。
【0060】
従って、2つの画像が用いられる場合、静止背景の各画素に対し別個の変換が効果的にある。一方で、最初に説明した実施例では、背景は、1つ以上の変換でカバーされ、各変換は、多数の画素が関連する。
【0061】
位置合わせされる画像における相違は、2つのカメラの中心間の並進のみに依存する。新しいビューを生成する際に、相違を、新しいカメラの中心の場所に対する並進と合うよう変更することができる。このような変換は、M.イラニ(Irani)、P.アナンダン(Anandan)、D.ウエインシャル(Weinshall)による「From Reference Frames to Reference Planes: A New Framework for 3D Scene Analysis」(プロシーディング:第5回欧州コンピュータビジョン会議、フライブルグ、1998年6月)に記載される。
【0062】
本発明の開示を読むことにより、当業者には他の変形も明らかであろう。そのような変形は、設計、製造、及び、仮想現実タイプのシステムにおいて既に知られる他の特徴を含み、これらは、本願で説明した特徴の代わりに、又は、追加して用いられ得る。本願の請求項は、特徴の特定の組合せに対し形成されるが、本出願の開示の範囲は、本願に明示的又は暗示的に開示される新規の特徴又は新規の特徴の組合せ、又は、それらの一般化を、それが、本発明と同一の技術的問題を緩和するか否かに関わらず、含むことを理解するものとする。出願人は、本出願又は本出願から導き出される任意の更なる出願の手続きの際に、そのような特徴に対し新しい請求項を形成し得ることを明記する。特に、本出願では、請求項は方法に対し形成されるが、出願人は、将来において、装置及びソフトウェアの請求項を追加する権利を保持するものである。
【0063】
本願で用いる「含む」という用語は、追加の構成要素を排除すると考えるべきではない。また、単数形で示す構成要素も、その構成要素が複数あることを排除すると考えるべきではない。
【図面の簡単な説明】
【0064】
【図1】本発明を用いることのできるシステムを示す図である。
【図2】本発明のフローチャートである。
【図3】本発明に従って処理される画像を示す図である。
【図4】動く対象物のセグメンテーションを説明する図である。
【図5】ドメイン知識の利用及び静止背景の複数の領域への更なるセグメンテーションに関するフローチャートである。
【図6】新しいカメラ位置がどのように得られるのかを示す面である。
【図7】セグメント化された対象物の変換がどのように計算されるのかを説明する図である。
【図8】新しいビューが形成される方法を説明する図である。
【図9】好適な実施例の説明に用いられる幾つかの式を示す図である。
【図10】好適な実施例の説明に用いられる幾つかの式を示す図である。
【図11】好適な実施例の説明に用いられる幾つかの式を示す図である。
【図12】好適な実施例の説明に用いられる幾つかの式を示す図である。
【図13】好適な実施例の説明に用いられる幾つかの式を示す図である。
本発明は、ビデオ材料の合成、特に、ビデオ材料の3次元的な様相を高めるための合成の分野に係る。
【0002】
任意の視点からカメラにより捕捉されたかのように3Dシーンの画像を合成することは、周知の研究課題であり、幾つか異なるアプローチが提案されている。完全な3Dモデルが与えられて、任意の視点からシーンをレンダリングすることができる。レンダリング技術は、コンピュータグラフィックスの分野では公知である(例えば、J.D.フォーレイ(Foley)、A・バンダム(van Damm)、S.K.フェイナー(Feiner)、及び、J.F.ヒューゴス(Hughes)による、「Computer Graphics - Principles and Practice」(アディソン・ウェズリー(Addison Wesley)、1992年、第2版、第14章)に説明される)。しかし、モデルの生成は時間がかかって退屈であり、間違いを起こしやすく、労働集約的である。
【0003】
一方、一部の研究者は、画像から直接3D情報を推測することを試みている。画像シーケンスから対象物の形状とカメラ動作の両方を回収する様々な方法が考え出されている(例えば、O・ファーゲラス(Faugeras)による、「Three-Dimensional Computer Vision: a Geometric Viewpoint」、MITプレス、1993年)。これらの方法は一般的に、計算集約的である。さらに、多くの場合、入力シーケンスは、パン−チルト−ズームカメラにより捕捉され、このことは、シーンの3Dモデルの再生を阻止する。
【0004】
別のアプローチは、画像に基づいたレンダリングを行うことである(L.マクミラン:「An Image Based Approach to Three-Dimensional Computer Graphics」、博士論文、University of North Carolina、1997年)。このアプローチでは、対象物及び環境の明示的な3Dモデルを必要としない。これらの方法は、投影的な制約と不変量を用いることによって3Dにおける推論を回避している。
【0005】
本発明は、単眼画像シーケンスから始めてシーンの複数のビューを合成することを目的とする。
【0006】
このことは、各入力画像に対し、シーンの2つ以上の新しいビューが生成されることにより達成される。このようなビューは、3D−TV装置又は任意の他の好適なビューイング機器上で表示するのに適している。入力画像は、動く対象物と、静止した背景とにセグメント化される。背景は更に、複数の領域にセグメント化され得る。各領域に適切な変換を適用することにより、新しいビューが生成される。画像シーケンスから必要な情報が入手できない場合でも、簡単なドメイン知識を用いて、ビューの良好な近似が作成されて有利である。
【0007】
更なる目的及び利点は、以下において明らかとなる。
【0008】
本発明は、以下の添付図面を参照しながら、非制限的な例によって説明する。
【0009】
図1は、時として、バーチャルリアリティ装置とも称する一般的な3D画像ビューイング機器を示す。この装置は、プロセッサ101と、メモリ103と、選択的に、ディスプレイ102、ネットワーク接続104といった様々な周辺機器、又は、プリンタ、キーボード、マウス、マイクロホン、スピーカ、カメラ、及び/又は遠隔制御器といった図示しない他の種類の周辺機器を含む。接続は、有線でも無線でもよい。プロセッサは、PC、テレビジョン、又はセットトップボックスに組み込まれるような任意のタイプであり得る。この装置は、ネットワーク接続104を介して追加の処理又はメモリ出力にアクセスし得る。ネットワーク接続104は、インターネット、ケーブルテレビジョン、及び/又は、ローカルエリアネットワーク(LAN)といった任意の好適なネットワーク接続である。一般的に、3D効果は、ビューイング装置105を用いて達成されるが、ビューイング装置105は、目視者の2つの目のそれぞれに示される画像間の差が3次元の幻覚を与えて、ステレオ画像を形成する。
【0010】
図2は、本発明の方法のフローチャートを示す。本発明の方法は、プロセッサ101によって、又は、ネットワーク接続104を介してアクセスされる遠隔プロセッサにおいて実行され得る。好適な実施例は、ソフトウェアとして説明するが、当業者によって、ハードウェアにおいても同等に実施可能である。
【0011】
本発明は、更に、図3の概略図に関して説明する。図3は、テニスの試合を示す。二人の選手303、302が、観客が座るスタンド301の前にあるコート304で試合をしている。コート304及びスタンド301は、テニスの試合に対応する知識ドメインのうちの既知のタイプの対象物である。
【0012】
入力は、例えば、テニスの試合中に撮られた画像シーケンスI1、I2、I3、・・・である。図2は、シーンの2つの立体的なビューを生成するために適用される段階を示す。文字「L」は、立体出力の左のビューに関する画像及び変換を言及するために用い、文字「R」は、右のビューに関する画像及び変換を言及するために用いる。
【0013】
段階201において、動く対象物が、静止した背景からセグメント化される。ここでは、選手302及び303がセグメント化される。このセグメンテーション方法の詳細は、図4を参照しながら説明する。次に、段階202において、ドメイン知識を用いて、背景を個々の領域に更にセグメント化する。段階202の詳細については、図5を参照しながら説明する。
【0014】
段階203において、新しいビューが選択される。詳細は、図6を参照しながら説明する。段階202及び203の演算は、並列で行われ得る。段階204において、各領域mに対し、変換TLm及びTRmが計算される。図7に、この方法を示す。
【0015】
次に、段階205において、セグメント領域は、変換TLmを用いて、左のビューを形成するようワープされる。領域は更に、変換TRmを用いて、右のビューを形成するようワープされる。詳細は、図8を参照しながら説明する。
【0016】
動く対象物のセグメンテーション
図4は、段階201において行われる更なる段階を示すフローチャートである。段階402、405、及び、409において、記号「・」は、画像へのホモグラフィの適用を示す。
4a. 段階401において、各入力画像Ikに対し、ホモグラフィ変換Hkを予測し、それにより、HkがフレームIkに適用されるとき、変換されたフレームにおけるテニスコートの画像は、第1のフレームI1におけるテニスコートの画像と位置合わせされる。
【0017】
ホモグラフィは、3×3マトリクスHによって表され、これは、画像中の点(x,y)を、図9の式(1)により表される点にマッピングする。図9の式(1)において、hijホモグラフィパラメータは、ホモグラフィマトリクスHからの値である。このことは、例えば、上述した、O・ファーゲラスによる「Three-dimensional Computer Vision」におけるように当該技術において周知である。
【0018】
入力画像の位置合わせは、画像シーケンスの空間−時間的な導関数を計算し、通常のフローを予測し、更に、ホモグラフィパラメータを線形予測することにより行われる。このことを達成する1つの方法は、R.プレス(Pless)外による「Detecting Independent Motion: The Statistics of Temporal Continuity」(IEEE PAMI報告書、第22巻、第8号、2000年8月)に記載される。
【0019】
あるいは、バート(Burt)外に発行された米国特許第5,629,988号に示すように、特徴点(例えば、コーナ)及び/又はラインを見つけ出して、入力画像とマッチングされることが可能であり、また、ホモグラフィは、マッチングされた特徴から予測することができる。
【0020】
段階402において、Jkは、変換Hkを、画像Ikに適用した結果を表す。
4b. ドメイン知識から、多くのテニスシーケンスにおいて、カメラは、パンする、チルトする、及びズームすることが可能にされるが、そうでなければ、コートの周りを動かないことが知られている。パン−チルト−ズームカメラに対し、段階401において計算された変換は、テニスコートのみならず、シーン中の任意の他の静止特徴と位置合わせされる。動く選手だけが位置合わせされない。
【0021】
段階1からの変換された画像Jkは、段階403において、シーンのモザイクを形成するよう組合されることができる。モザイクにおける各画素に対し、画像Jkからの1つ以上の画素がある。動く対象物(選手)を取り除くためには、各画素における複数の値にメディアンフィルタが適用され、モザイクMに中央値が入れられる。
【0022】
中央値は、以下のように計算される。特定の画素に対し、値x1、x2、…、xkがあるとする。これらの値はソートされ、ソートされた値は、y1、y2、…、ykと示され、ただし、y1<=y2<=…<=ykである。その場合、中央値は、yk/2である。
【0023】
モザイクを作成する代替の方法は、米国特許第5,629,988号に記載される。
4c. 逆変換(Hk −1)が、モザイクMに適用され、結果が適切にクロッピングされると、背景画像Bkが、段階405にて得られる。背景画像は、動く対象物が取り除かれ、且つ、他のビューから見えた背景からの画素によって置換されること以外は、入力画像Ikと同じである。
4d. 次に、入力画像Ikは、対応する背景画像Bkと比較されて、段階406において、マスク画像Mkを形成する。マスク画像Mkの画素値は、IkとBkとの差が閾値より大きいと1であり、閾値より小さければ0である。次に、段階407において、画像Ikから、マスク画像Mkにおいて1と設定される画素が引かれ、残りの画素は、黒となるよう設定される。結果として、動く対象物の画像Fkが得られる。
【0024】
静止背景のセグメンテーション
図5は、段階202の展開を示す。ドメイン識別情報は、段階501において、電子番組ガイドデータから、又は、ブロードキャストビデオ中のクローズドキャプションデータを分析することにより得られる。ドメイン識別情報が入手可能でなくても、他と区別する特徴を検出する(段階502)ことによって、入力ビデオが正しいドメインからであるか否かをテストすることができる。予期される特徴が検出されると、処理は、ドメイン識別情報無しでも進めることができる。
【0025】
ドメイン知識は、更に、デジタルTVブロードキャスト内から入手可能であるMPEGストリームメタデータを介しても供給され得る。ドメイン識別情報のみが伝送される場合、そのドメイン知識は、あらかじめメモリ103内に格納されなければならない。
【0026】
図3の例では、ドメイン知識は、コート305の形状、センターネット304が垂直であるという事実、及び、スタンド301の形状に関するいくつかの想定を含み得る。
【0027】
段階502において、ドメインの他と区別する特徴が検出される。テニスの試合の場合、他と区別する特徴は、コート305のラインであり得る。追加の特徴は、テニスコートの色は一様であるという知識であり得る。特徴は、以下の通りに検出される。
5a. 画像中のラインを見つける。例えば、画像中のラインを検出する周知の方法は多数ある。
5b. 一様の色を有する大きい領域を見つけ、この大きい領域内における、段階5aにて見つけたラインのみを選択する。
5c. 検出したラインと格納されるモデルにおけるラインセグメントをマッチングする。このことは、2つ以上の検出したラインセグメントをランダムに選択し、且つ、それらを、モデル中のすべてのセグメントとマッチングすることにより行われる。各マッチングは、画像とモデル間の変換を決める(この変換はホモグラフィであり、というのは、コートは平面だからである)。
5d. 段階5cで得た各ホモグラフィについて、その変換を入力画像に適用し、モデルにおけるラインセグメントとマッチングする、変換された画像におけるラインセグメントの数と、マッチングするセグメントがどれだけ良好に合わさるのかを見つける。
5e. 段階5c及び5dが繰り返されて、最終変換が選択される。最終変換のもとで、ほとんどのセグメントはマッチングされ、変換された入力とモデルとの間に最高の位置合わせを有する。
【0028】
段階503において、背景は更に、テニスコートと他の領域にセグメント化される。テニスの試合の場合、これらの特徴には、ネット、審判スタンド、及び、観客スタンド301を含み得る。これらの領域は、ドメイン知識に基づいてセグメント化される。例えば、ネットは、コート上のラインに対し既知の位置にある。審判スタンドは、コート自体にあり、その色はコートの色とは異なることが知られており、従って、審判スタンドは、色に基づいてセグメント化することができる。必要なセグメンテーションの種類に関する詳細は、ビシブジット・S.ナルワ(Vishvjit S.Nalwa)による「A Guided Tour of Computer Vision」(アディソン・ウェズリー(Addison-Wesley)、1993年)の第3章3節「Image Segmentation」に記載される。
【0029】
この段階の結果、各領域に対し1つのマスク画像(段階406にて得られるマスク画像に類似する)が得られる。各領域について、領域における画素に対応するマスク画素は、1に設定され、それ以外の画素は、0に設定される。
【0030】
テニスコートの変換の決定
図6において、テニスコートの画像に適用される変換が決定される。ここでいうテニスコートとは、グランドのみを意味する。他のセグメント化された背景領域についての変換は、次のセッションである「他の領域の変換の決定」にて決定する。コートは平面なので、変換は、ホモグラフィである。HLとHRを決めるために、2つの選択的な方法がある。
6a. モデルと入力画像との間にマッチングが利用可能である場合(段階601、段階502から)段階602において、(コートに対する)本質的な及び非本質的な較正パラメータを決定することができる。これを行うための公知の技術があり、例えば、エマニュエル・トリュッコ(Emanuele Trucco)、アレッサンドロ・ヴェリ(Alessandro Verri)による「Introductory techniques for 3-D Computer Vision」(プレンティスホール(Prentice Hall)、1998年)に記載される。
6b. 完全に較正される場合、段階603において、任意の新しい所望のカメラ位置を選択することができる。例えば、新しいカメラをコートの近くに置いて、3D認識を高めることができる。ホモグラフィHL及びHRは、段階604において、閉じた形で、古いカメラパラメータ及び新しいカメラパラメータから決定することができる。どのようにこれを行うのかは、上述したトリュッコ及びヴェリの本に記載される。
6c. システムが完全に較正されない場合(較正が所望されない)、ヒューリスティック605を用いてHL及びHRが決定される。この特定の例では、ネットと遠くのベースラインが、入力画像において略水平であると仮定する。ネットの下の縁に対し、Y座標は、y1とし、画像の幅は、w1とする。遠くのベースラインに対し、y座標は、y2とし、幅は、w2とする。
【0031】
この2つのラインセグメントは、3Dの世界では同じ長さを有するので、w1/w2の比は、式(13)に従い、2つのラインの相違(disparity)の比と同じである。
【0032】
同様に、画像中の下の走査線のY座標は、yBとする。各ビューイング装置について、相違は、dMAXとする特定の最大値より小さいべきである。最大値dMAXは、例えば、20画素であり得る。
【0033】
式(4)を用いて、sL、sR、dL、及びdRの値を導き出し得る。当然のことながら、これは、可能な解のセットのうちのたった1つである。段階606において、sR=0とdR=0を選択することによって、右のビューを入力ビューと同一にすることができる。sL及びdLを得るには、(14)に示す2つの一次方程式が解かれ、1つは式(13)から得られ、1つは最大の相違の制約から得られる。
【0034】
y1、y2、w1、w2、及びyBの値は、入力画像における測定値であり、dMAXは、ビューイングシステムの既知のパラメータである。従って、sL及びdLは、上述の式において唯一の未知数である。
【0035】
従って、図9のホモグラフィの式(2)及び(3)を、段階607にて用いることができる。
【0036】
これらの2つのホモグラフィは、Y座標を変化せず、従って、修正されたステレオビューを形成し、このビューでは、対応する特徴は、両方の画像において同じ走査線上にある。
【0037】
上述したヒューリスティックは、一例に過ぎない。コートの他の既知の特徴を検出することができる場合、類似の方法を用いて、好適なホモグラフィHL及びHRを決定することができる。
【0038】
他の領域の変換の決定
テニスコートに加えて、シーンは、動く対象物(段階407においてセグメント化される)と、背景のセグメント化された部分(段階503から)を含む。図7を参照しながら、これらの領域に対し、変換TLm及びTRmを得る方法を説明する。説明は、セグメント化された選手の領域の処理に関してするが、同一の(又は非常に類似する)処理を、他の領域にも適用することができる。
【0039】
新しいビューが、オリジナルのビューに類似する(これは、一般的にそうである)場合、選手は、前−平行平面(fronto−parallel plane)にあるとして近似される。これは、選手とカメラとの間の距離を考慮に入れる有効な近似である。TLm変換は、前景対象物303を含む領域の周りの境界矩形701に対し決められる。左下の角をAとし、右下の角をBとし、AとBとの間の中間点をCとする。選手303は、コート上に立っているものと想定されるので、境界矩形701の下の線は、グランドの中にあることが想定される。テニスコートは、ホモグラフィHLにより変換される。具体的には、ホモグラフィHLは、点A、B、及びCを、新しいビューにおける点A’、B’、及びC’にそれぞれ変換する。
【0040】
TLmは、HLと対応していなければならない。点Cは、点C’に変換されるべきであり、変換された点Aと点Bとの間の水平距離は、点A’と点B’との間の水平距離と等しいべきである。最後に、境界矩形のアスペクト比(幅割る高さ)は、一定のままにされるべきである。従って、式(5)が得られる。
【0041】
図9の式(6)、(7)、(8)、(9)、(10)、及び(11)は、図10の式(12)の変数の定義である。各式(6)−(11)において、x及びy座標は、図7における点及びそれらの点の変換に対し決められる。
【0042】
式(18)に従って、右のビューの変換TRmは、同じように導き出すことができる。TRの式に現れる変数は、式(19)にて決められる。これらの変数は、ホモグラフィHRは、点A、B、及びCを、点A’’、B’’、及びC’’に変換するという前提から得られる。点A’’、B’’、及びC’’は、それぞれ、式(15)、(16)、及び(17)にて決められる。
【0043】
対象物(例えば、テニス選手)は、「飛び出す」ように見える。なぜなら、この対象物は、テニスコート(グランド)とは異なるように変換されるからである。テニスコートの変換(HL及びHRホモグラフィ)は、画像の高いほうにある点は、目視者から遠くにあるように見えるように設定される。それに対し、テニス選手上の全ての点は、目視者から略同じ距離に現れる。
【0044】
変換TLm及びTRmは、テニスコートのグランド部分に適用される変換HL及びHRとは異なる。従って、テニス選手は、背景から「飛び出して」見える。より具体的には、HL及びHR変換は、一般的に、コートの遠い方の点は、小さい相違を有し、従って、目視者からは遠くに見えるように構成される。これは、コートの正確な、傾斜した様相を形成する。それに対し、TLm及びTRm変換は、テニス選手の全ての点が略同一の距離にあるように見えさせる。
【0045】
選手の足は、コートの付近の点と略同一の相違を有する。更に、選手の頭部の相違も、略同じである。しかし、選手の頭部の付近にあるコートの点は、より小さい相違を有し、このことは、選手が背景から「飛び出す」ようにさせる。審判スタンドといった他の特徴も、テニス選手と同じように変換され、従って、背景から「飛び出す」ように見える。
【0046】
新しいビューの作成
図8に説明するように、新しいビューが作成される。前の段階では、入力画像は複数の領域にセグメント化され、各領域に対し変換が計算された。図8には2つの経路がある。左の経路は、左のビューの生成に対応し、右の経路は、右のビューの生成に対応する。2つの経路は、並列に実行されるかのように示すが、これらは、直列に実行されることも同等に可能である。
【0047】
段階801において、各左ビュー変換TLmが、画像領域Ik及び各マスクMkに適用されて、変換された画像領域ILmと変換されたマスクMLmを得る。HLも、段階405において作成される背景モザイクBkに適用される。テニスコートのグランド部分に対し、変換TLmはホモグラフィHLである。段階802において、変換された領域は、新しい左のビューを作成するよう組合される。変換されたマスクMLmにおける画素が1であるときは常に、ILmにおける対応する画素は、出力画像にコピーされる。
【0048】
段階803において、対象物が重なる結果生じるコンフリクトを解決する。
【0049】
一部のa、bについて、対象物が重なると、即ち、MLa(画素)=1及びMLb(画素)=1となると、Lk(画素)は、以下に決められるような対象物の順序付けで、最も近い対象物からの画素IL(画素)に設定されるべきである。
【0050】
対象物の順序付け
各対象物に対し、下の縁は、基準平面におけるその対象物の位置を得るために考慮に入れられるべきである。近い対象物は、入力画像におけるより低い下の縁を有する。基準平面(テニスコート)は、最も離れた対象物として順序付けされる。
【0051】
更に、段階804において、選択的に、セグメント化された対象物によってカバーされない画素である穴が埋められ得る。黒の画素が境界上にある場合、それらはそのままにされるべきである。何故なら、黒の画素は、シーン中の絶対に見られない場所に十中八九相当するからである。その一方で、背景モザイクからの適切な値は、そのような値がある場合には、画像中の穴を埋めることができる。
【0052】
段階801’、802’、803’、及び804’は、段階801−804にそれぞれ類似し、ただし、L、即ち、左のビューの代わりに、R、即ち、右のビューとなる。
【0053】
図4−8の例は、ステレオ画像を用いて3D効果を形成する装置に関して考えられた。しかし、この方法は、任意の数のビューでの実施にも拡張可能である。右のビューの計算、つまり、HR、TRm等の計算は、左のビューの計算(HL、TLm等)とは完全に独立していた。従って、アルゴリズムを、N回繰り返すことによって、シーンのN個の異なるビューを生成することは簡単である。一般的に、N個のビューは、特定の表示装置の要件に応じて生成される。
【0054】
背景画素の変換の別の実施例
背景領域を処理するための別の実施例は、同じシーンの第2の画像を用いることから導き出すことができる。以下において、動く対象物は既に画像からセグメント化されているものと仮定する。以下の演算は、以下に応じて、基準平面(テニスコート)上ではない静止対象物の様相を予測するよう用いられ得る。
1. 最初に、2つの画像における画素間の対応が、手動で、又は、自動的に確立される。オリビア・ファーゲラスによる「Three Dimensional Computer Vision」(MITプレス、1993年)の第6章「Stereo Vision」を参照されたい。
2. 第1の画像が、アフィン変換のために位置合わせされる。
【0055】
a.平面上の2つの対応する平行線対が、式(20)及び(21)に応じて識別される。線の対を、PL1=[L11,L12]及びPL2=[L21,L22]とし、ただし、L11、L12、L21、及び、L22は、端点Lij=[(sxij,syij),(exij,eyij)]により決められる。
【0056】
b.各平行線対についての(同次座標における)消点は、式(20)及び(21)に従って計算される。ただし、aとbの外積の表記を、式(22)に示す。
【0057】
c.vp1=[x1 y1 w1]及びvp2=[x2 y2 w2]を無限に動かす変換Haは、式(23)に従って計算される。
【0058】
d.Haを画像全体に適用し、即ち、式(24)に従う画素は、式(25)に従い動かされる。
3. 第1の画像における平面上の4つ以上の点と、第2の画像におけるそれらの対応点を見つける。式(26)に従い、変換Hbが計算される。この変換は、第2の画像における点q1、q2、q3、q4、・・・を、(Haを適用した後に)第1の画像における点q1’、q2’、q3’、q4’、・・・と合わせるように動かす。
【0059】
その後、Hbは、画像全体に適用され、即ち、式(2)に従う画素は、式(28)に従う画素に動かされる。
4. 第1の画像における対応点pa’及びpb’と第2の画像における対応点qa’及びqb’からなる2つの対を用いて、変換された入力画像と出力画像との間のエピポールが計算される。e12が、入力画像間のエピポールを示すとすると、e12’は、変換された第1の画像と出力画像との間のエピポールを示し、e22’’は、変換された第2の画像と出力画像との間のエピポールを示す。次に、同次座標において、式(29)及び(30)が得られる。これらは、実際の座標における式(31)に対応し、ただし、wは比率である。
5. 変換された第1の画像における各対応点piと変換された第2の画像における各対応点qiに対し、場所ri‘が、新しいビューにおける点について、式(32)に従って、同次座標において計算される。
6. すべての点ri‘は、式(33)に従い、点riに動かされ、ただし、e12’=[ex12’,ey12’]であり、dは定数である。
【0060】
従って、2つの画像が用いられる場合、静止背景の各画素に対し別個の変換が効果的にある。一方で、最初に説明した実施例では、背景は、1つ以上の変換でカバーされ、各変換は、多数の画素が関連する。
【0061】
位置合わせされる画像における相違は、2つのカメラの中心間の並進のみに依存する。新しいビューを生成する際に、相違を、新しいカメラの中心の場所に対する並進と合うよう変更することができる。このような変換は、M.イラニ(Irani)、P.アナンダン(Anandan)、D.ウエインシャル(Weinshall)による「From Reference Frames to Reference Planes: A New Framework for 3D Scene Analysis」(プロシーディング:第5回欧州コンピュータビジョン会議、フライブルグ、1998年6月)に記載される。
【0062】
本発明の開示を読むことにより、当業者には他の変形も明らかであろう。そのような変形は、設計、製造、及び、仮想現実タイプのシステムにおいて既に知られる他の特徴を含み、これらは、本願で説明した特徴の代わりに、又は、追加して用いられ得る。本願の請求項は、特徴の特定の組合せに対し形成されるが、本出願の開示の範囲は、本願に明示的又は暗示的に開示される新規の特徴又は新規の特徴の組合せ、又は、それらの一般化を、それが、本発明と同一の技術的問題を緩和するか否かに関わらず、含むことを理解するものとする。出願人は、本出願又は本出願から導き出される任意の更なる出願の手続きの際に、そのような特徴に対し新しい請求項を形成し得ることを明記する。特に、本出願では、請求項は方法に対し形成されるが、出願人は、将来において、装置及びソフトウェアの請求項を追加する権利を保持するものである。
【0063】
本願で用いる「含む」という用語は、追加の構成要素を排除すると考えるべきではない。また、単数形で示す構成要素も、その構成要素が複数あることを排除すると考えるべきではない。
【図面の簡単な説明】
【0064】
【図1】本発明を用いることのできるシステムを示す図である。
【図2】本発明のフローチャートである。
【図3】本発明に従って処理される画像を示す図である。
【図4】動く対象物のセグメンテーションを説明する図である。
【図5】ドメイン知識の利用及び静止背景の複数の領域への更なるセグメンテーションに関するフローチャートである。
【図6】新しいカメラ位置がどのように得られるのかを示す面である。
【図7】セグメント化された対象物の変換がどのように計算されるのかを説明する図である。
【図8】新しいビューが形成される方法を説明する図である。
【図9】好適な実施例の説明に用いられる幾つかの式を示す図である。
【図10】好適な実施例の説明に用いられる幾つかの式を示す図である。
【図11】好適な実施例の説明に用いられる幾つかの式を示す図である。
【図12】好適な実施例の説明に用いられる幾つかの式を示す図である。
【図13】好適な実施例の説明に用いられる幾つかの式を示す図である。
Claims (12)
- データ処理装置上で用いる画像処理方法であって、
少なくとも1つの単眼ビデオ入力画像を受信する段階と、
上記入力画像から、少なくとも1つの前景対象物をセグメント化する段階と、
複数の出力画像のそれぞれのために、各セグメント化された対象物と背景に、少なくとも1つの変換を適用する段階と、
各変換の結果から、上記複数の出力画像を導き出す段階と、
を含む方法。 - 上記入力画像から、少なくとも1つの背景対象物をセグメント化する第2のセグメント化段階と、
上記複数の出力画像のそれぞれのために、上記セグメント化された背景対象物のそれぞれに、変換を適用する段階と、
を更に含む請求項1記載の方法。 - 2つの出力画像があり、
各セグメント化された対象物に、2つの変換が適用され、
上記背景に、2つの変換が適用されて、上記2つの出力画像を形成する、請求項1記載の方法。 - 上記複数の出力画像が、高められた3次元の様相を有する1つの画像としてユーザによって知覚可能であるよう、上記複数の出力画像を組合せ装置にて表示する段階を更に含む請求項1記載の方法。
- 上記前景対象物に適用される上記変換は、上記前景対象物を上記背景から飛び出すようにさせる請求項1記載の方法。
- 上記受信段階は、複数の単眼入力画像を受信する段階を含み、
上記導き出す段階は、各単眼入力画像に対し複数の出力画像をそれぞれ導き出す段階を含み、
本発明は更に、
上記複数の出力画像のそれぞれが、動作の幻覚を与え、且つ、高められた3次元の様相を有する1つの画像のシーケンスとしてユーザによって知覚可能であるよう、上記複数の出力画像のそれぞれを、組合せ装置にて表示する段階を含み、
上記1つの画像のシーケンスでは、上記少なくとも1つの前景対象物は、上記少なくとも1つの背景対象物とは別個に動く、請求項5記載の方法。 - 上記少なくとも1つの前景対象物は、上記出力画像において動くように見え、一方で、上記画像の残りの少なくとも一部は、動かないように見える、請求項6記載の方法。
- 上記セグメント化段階及び上記適用段階は、上記単眼入力画像において予期される対象物の位置を認識し、且つ、上記出力画像における対象物の位置を導き出すために、ドメイン知識を用いる段階を含む請求項1記載の方法。
- 背景画素のための各変換は、1つのシーンの少なくとも2つの単眼入力画像を比較することにより導き出す請求項1記載の方法。
- 上記変換を適用する段階の前に、前−平行平面に現れるときの、各セグメント化される対象物の位置を近似する段階を更に含む請求項1記載の方法。
- データ及び命令を格納する少なくとも1つのメモリと、
請求項1乃至10のうちいずれか一項記載の方法を行わせる演算を実行する少なくとも1つのプロセッサと、
上記方法により生成される画像を供給する少なくとも1つの表示装置と、
を含むデータ処理装置。 - 請求項1乃至10のうちいずれか一項記載の演算を実行させるソフトウェア。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/851,445 US6965379B2 (en) | 2001-05-08 | 2001-05-08 | N-view synthesis from monocular video of certain broadcast and stored mass media content |
PCT/IB2002/001491 WO2002091754A1 (en) | 2001-05-08 | 2002-04-24 | Method for multiple view synthesis |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004526266A true JP2004526266A (ja) | 2004-08-26 |
Family
ID=25310781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002588087A Withdrawn JP2004526266A (ja) | 2001-05-08 | 2002-04-24 | 複数のビューを合成する方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US6965379B2 (ja) |
EP (1) | EP1393581B1 (ja) |
JP (1) | JP2004526266A (ja) |
KR (1) | KR100950169B1 (ja) |
CN (1) | CN1241419C (ja) |
AT (1) | ATE318483T1 (ja) |
DE (1) | DE60209365T2 (ja) |
WO (1) | WO2002091754A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013214158A (ja) * | 2012-03-30 | 2013-10-17 | Ntt Comware Corp | 表示画像検索装置、表示制御システム、表示制御方法、およびプログラム |
JP2014530391A (ja) * | 2011-09-12 | 2014-11-17 | インテル・コーポレーション | ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7907793B1 (en) * | 2001-05-04 | 2011-03-15 | Legend Films Inc. | Image sequence depth enhancement system and method |
US8396328B2 (en) | 2001-05-04 | 2013-03-12 | Legend3D, Inc. | Minimal artifact image sequence depth enhancement system and method |
US8401336B2 (en) | 2001-05-04 | 2013-03-19 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with augmented computer-generated elements |
US9286941B2 (en) | 2001-05-04 | 2016-03-15 | Legend3D, Inc. | Image sequence enhancement and motion picture project management system |
GB0307307D0 (en) * | 2003-03-29 | 2003-05-07 | Atelier Vision Ltd | Image processing |
CA2520673A1 (en) * | 2003-03-29 | 2004-10-14 | Atelier Vision Limited | Image processing |
FR2857131A1 (fr) * | 2003-07-01 | 2005-01-07 | Thomson Licensing Sa | Procede de recalage automatique d'un modele geometrique d'une scene sur une image de la scene, dispositif de mise en oeuvre et support de programmation. |
KR20070086283A (ko) * | 2004-11-16 | 2007-08-27 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 이미지 세그먼테이션에 기초한 이미지 렌더링 |
US7382353B2 (en) * | 2004-11-18 | 2008-06-03 | International Business Machines Corporation | Changing a function of a device based on tilt of the device for longer than a time period |
DE602006005785D1 (de) | 2005-01-12 | 2009-04-30 | Koninkl Philips Electronics Nv | Tiefenwahrnehmung |
JP4578294B2 (ja) * | 2005-03-18 | 2010-11-10 | 株式会社エヌ・ティ・ティ・データ三洋システム | 立体視画像表示装置、立体視画像表示方法及びコンピュータプログラム |
US20090167843A1 (en) * | 2006-06-08 | 2009-07-02 | Izzat Hekmat Izzat | Two pass approach to three dimensional Reconstruction |
WO2008010932A2 (en) * | 2006-07-20 | 2008-01-24 | Thomson Licensing | Method and apparatus for signaling view scalability in multi-view video coding |
DE102007021518B4 (de) * | 2007-05-04 | 2009-01-29 | Technische Universität Berlin | Verfahren zum Verarbeiten eines Videodatensatzes |
CN100505840C (zh) * | 2007-11-02 | 2009-06-24 | 腾讯科技(深圳)有限公司 | 一种人脸合成视频传输的方法及装置 |
US8103134B2 (en) * | 2008-02-20 | 2012-01-24 | Samsung Electronics Co., Ltd. | Method and a handheld device for capturing motion |
TWI463864B (zh) * | 2008-08-29 | 2014-12-01 | Thomson Licensing | 具試探式視圖融合之視圖合成 |
CN104065950B (zh) | 2008-12-02 | 2016-06-15 | Lg电子株式会社 | 3d字幕显示方法和设备以及发送3d字幕的方法和设备 |
CN104113749B (zh) | 2009-01-08 | 2016-10-26 | Lg电子株式会社 | 3d字幕信号发送方法和3d字幕显示方法 |
US8395642B2 (en) * | 2009-03-17 | 2013-03-12 | Mitsubishi Electric Research Laboratories, Inc. | Method for virtual image synthesis |
KR20120023268A (ko) * | 2010-09-01 | 2012-03-13 | 삼성전자주식회사 | 디스플레이 장치 및 그 영상 생성 방법 |
TWI433529B (zh) | 2010-09-21 | 2014-04-01 | Huper Lab Co Ltd | 增強辨識3d物件的方法 |
US9177381B2 (en) * | 2010-12-22 | 2015-11-03 | Nani Holdings IP, LLC | Depth estimate determination, systems and methods |
US8730232B2 (en) | 2011-02-01 | 2014-05-20 | Legend3D, Inc. | Director-style based 2D to 3D movie conversion system and method |
US9241147B2 (en) | 2013-05-01 | 2016-01-19 | Legend3D, Inc. | External depth map transformation method for conversion of two-dimensional images to stereoscopic images |
US9407904B2 (en) | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
US9288476B2 (en) | 2011-02-17 | 2016-03-15 | Legend3D, Inc. | System and method for real-time depth modification of stereo images of a virtual reality environment |
US9282321B2 (en) | 2011-02-17 | 2016-03-08 | Legend3D, Inc. | 3D model multi-reviewer system |
US9113130B2 (en) | 2012-02-06 | 2015-08-18 | Legend3D, Inc. | Multi-stage production pipeline system |
WO2013084234A1 (en) * | 2011-12-05 | 2013-06-13 | Rotary View Ltd. | System and method for generating a stereoscopic 3d presentation from picture sequence emanating from single lens source |
JP6102213B2 (ja) * | 2012-11-22 | 2017-03-29 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US9007365B2 (en) | 2012-11-27 | 2015-04-14 | Legend3D, Inc. | Line depth augmentation system and method for conversion of 2D images to 3D images |
US9547937B2 (en) | 2012-11-30 | 2017-01-17 | Legend3D, Inc. | Three-dimensional annotation system and method |
US9007404B2 (en) | 2013-03-15 | 2015-04-14 | Legend3D, Inc. | Tilt-based look around effect image enhancement method |
US9438878B2 (en) | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
KR102267871B1 (ko) * | 2014-09-03 | 2021-06-23 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US9609307B1 (en) | 2015-09-17 | 2017-03-28 | Legend3D, Inc. | Method of converting 2D video to 3D video using machine learning |
US10021363B2 (en) * | 2015-10-16 | 2018-07-10 | Novatek Microelectronics Corp. | Method and apparatus for processing source image to generate target image |
US10585939B2 (en) * | 2016-10-11 | 2020-03-10 | International Business Machines Corporation | Real time object description service integrated with knowledge center on augmented reality (AR) and virtual reality (VR) devices |
CN110166851B (zh) * | 2018-08-21 | 2022-01-04 | 腾讯科技(深圳)有限公司 | 一种视频摘要生成方法、装置和存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4925294A (en) * | 1986-12-17 | 1990-05-15 | Geshwind David M | Method to convert two dimensional motion pictures for three-dimensional systems |
WO1994011852A1 (de) * | 1992-11-10 | 1994-05-26 | Siemens Aktiengesellschaft | Verfahren zur detektion und abspaltung des schattens sich bewegender objekte in einer digitalen bildsequenz |
KR100355938B1 (ko) * | 1993-05-26 | 2002-12-16 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | 반도체장치제작방법 |
EP0701758B1 (en) | 1993-06-04 | 2000-11-02 | Sarnoff Corporation | System and method for electronic image stabilization |
US5684890A (en) * | 1994-02-28 | 1997-11-04 | Nec Corporation | Three-dimensional reference image segmenting method and apparatus |
US5714997A (en) * | 1995-01-06 | 1998-02-03 | Anderson; David P. | Virtual reality television system |
US5915044A (en) | 1995-09-29 | 1999-06-22 | Intel Corporation | Encoding video images using foreground/background segmentation |
DE69739179D1 (de) * | 1996-07-18 | 2009-02-05 | Sanyo Electric Co | Eidimensionale bilder |
US6108005A (en) | 1996-08-30 | 2000-08-22 | Space Corporation | Method for producing a synthesized stereoscopic image |
US6055330A (en) | 1996-10-09 | 2000-04-25 | The Trustees Of Columbia University In The City Of New York | Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information |
GB9623573D0 (en) | 1996-11-13 | 1997-01-08 | Philips Electronics Nv | Image segmentation |
US6008865A (en) | 1997-02-14 | 1999-12-28 | Eastman Kodak Company | Segmentation-based method for motion-compensated frame interpolation |
US6157733A (en) * | 1997-04-18 | 2000-12-05 | At&T Corp. | Integration of monocular cues to improve depth perception |
-
2001
- 2001-05-08 US US09/851,445 patent/US6965379B2/en not_active Expired - Fee Related
-
2002
- 2002-04-24 AT AT02769175T patent/ATE318483T1/de not_active IP Right Cessation
- 2002-04-24 CN CNB028015754A patent/CN1241419C/zh not_active Expired - Fee Related
- 2002-04-24 DE DE60209365T patent/DE60209365T2/de not_active Expired - Fee Related
- 2002-04-24 EP EP02769175A patent/EP1393581B1/en not_active Expired - Lifetime
- 2002-04-24 WO PCT/IB2002/001491 patent/WO2002091754A1/en active IP Right Grant
- 2002-04-24 KR KR1020037000268A patent/KR100950169B1/ko not_active IP Right Cessation
- 2002-04-24 JP JP2002588087A patent/JP2004526266A/ja not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014530391A (ja) * | 2011-09-12 | 2014-11-17 | インテル・コーポレーション | ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ |
US9418438B2 (en) | 2011-09-12 | 2016-08-16 | Intel Corporation | Networked capture and 3D display of localized, segmented images |
US10192313B2 (en) | 2011-09-12 | 2019-01-29 | Intel Corporation | Networked capture and 3D display of localized, segmented images |
JP2013214158A (ja) * | 2012-03-30 | 2013-10-17 | Ntt Comware Corp | 表示画像検索装置、表示制御システム、表示制御方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN1462561A (zh) | 2003-12-17 |
CN1241419C (zh) | 2006-02-08 |
US6965379B2 (en) | 2005-11-15 |
KR100950169B1 (ko) | 2010-03-30 |
WO2002091754A1 (en) | 2002-11-14 |
ATE318483T1 (de) | 2006-03-15 |
DE60209365D1 (de) | 2006-04-27 |
EP1393581B1 (en) | 2006-02-22 |
DE60209365T2 (de) | 2006-10-05 |
EP1393581A1 (en) | 2004-03-03 |
KR20030019559A (ko) | 2003-03-06 |
US20020167512A1 (en) | 2002-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004526266A (ja) | 複数のビューを合成する方法 | |
CN103299610B (zh) | 用于视频插入的方法和设备 | |
US7471292B2 (en) | Virtual view specification and synthesis in free viewpoint | |
US9117310B2 (en) | Virtual camera system | |
EP3668093B1 (en) | Method, system and apparatus for capture of image data for free viewpoint video | |
CA2286168A1 (en) | Adaptive modeling and segmentation of visual image streams | |
KR100560464B1 (ko) | 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법 | |
Schnyder et al. | 2D to 3D conversion of sports content using panoramas | |
JP2019509526A (ja) | 多数のカメラを用いた最適の球形映像獲得方法 | |
Sankoh et al. | Robust billboard-based, free-viewpoint video synthesis algorithm to overcome occlusions under challenging outdoor sport scenes | |
Inamoto et al. | Immersive evaluation of virtualized soccer match at real stadium model | |
JP6799468B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
Liang et al. | Local foreground removal disocclusion filling method for view synthesis | |
Inamoto et al. | Free viewpoint video synthesis and presentation of sporting events for mixed reality entertainment | |
JPH0981746A (ja) | 二次元表示画像生成方法 | |
Inamoto et al. | Fly through view video generation of soccer scene | |
Inamoto et al. | Fly-through viewpoint video system for multiview soccer movie using viewpoint interpolation | |
Nonaka et al. | Optimal billboard deformation via 3d voxel for free-viewpoint system | |
Nonaka et al. | Billboard deformation via 3d voxel by using optimization for free-viewpoint system | |
US20240013492A1 (en) | Image processing apparatus, image processing method, and image processing system | |
US20240062402A1 (en) | Depth orders for multi-view frame storing and rendering | |
Li et al. | Virtual view specification and synthesis in free viewpoint television application | |
Kimura et al. | Player viewpoint video synthesis using multiple cameras | |
CN117616760A (zh) | 图像生成 | |
Hobloss et al. | MUSE: A Multi-view Synthesis Enhancer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050421 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20070528 |