JP2006507609A - 合成画像を生成する画像取り込み・表示システム及び方法 - Google Patents

合成画像を生成する画像取り込み・表示システム及び方法 Download PDF

Info

Publication number
JP2006507609A
JP2006507609A JP2004559088A JP2004559088A JP2006507609A JP 2006507609 A JP2006507609 A JP 2006507609A JP 2004559088 A JP2004559088 A JP 2004559088A JP 2004559088 A JP2004559088 A JP 2004559088A JP 2006507609 A JP2006507609 A JP 2006507609A
Authority
JP
Japan
Prior art keywords
camera
image
subject
calibration
capturing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004559088A
Other languages
English (en)
Inventor
チャン,ネルソン・リャン・アン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2006507609A publication Critical patent/JP2006507609A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)

Abstract

画像取り込み・表示システムを開示する。一実施形態では、本発明は、被写体の画像を提供する画像取り込みシステム(10)を提供する。画像取り込みシステムは、平面と、第1のカメラ(14)と、第2のカメラ(16)と、制御モジュール(12)とを備える。第1のカメラは、平面と第1のカメラの間に位置する被写体との第1の被写体画像を取り込むように配置される。第2のカメラは、第1のカメラから離間され、被写体の第2の被写体画像を取り込むように配置される。制御モジュールは、第1のカメラと、第2のカメラと、平面との相対的な位置を使用して、仮想視点(54)からの被写体の合成画像を生成するように構成される。

Description

[発明の分野]
本発明は、画像取り込み・表示システムに関し、特に、少なくとも2台の実際のカメラの間に位置する仮想カメラの視点より、合成画像を生成し表示する画像取り込み・表示システムに関する。
[発明の背景]
ダイナミックプレゼンテーション及びトレーニングセッションの使用が、ビジネスの世界の一環となってから随分経つ。ライブプレゼンテーション及びトレーニングセッションにより、事業体は、従業員、ビジネスパートナー、又は商取引する他の事業体に対して情報を効率的に伝達することができる。技術が進むにつれ、ますます多くのプレゼンテーション及びトレーニングセッションが、見る側の都合がよいときにプレゼンテーション、又はセッションにアクセスすることができるマルチメディアフォーマットで記録されるようになり、これによって、多くのタイミング、スケジューリングの問題がなくなる。マルチメディアプレゼンテーションは、多くの場合、フルモーションビデオプレゼンテーションを含み、これは中央演算処理装置を介して表示される。関連するマルチメディアプレゼンテーションを中央演算処理装置内に記憶することによって、ユーザが閲覧に関心のあるプレゼンテーション又はトレーニングセッションに容易にアクセスすることができる。
通常、マルチメディアプレゼンテーションは、単一の固定ビデオカメラによって録画される。単一の固定カメラによるマルチメディアプレゼンテーションの録画は、プレゼンテーション又はトレーニングセッションに、2つ以上のダイナミックな関心領域が含まれることが多い。従って、問題が発生する場合がある。異なった関心領域は、ユーザが時に様々な程度の関心を持つ領域である。しかし、単一の固定ビデオカメラは、各関心領域を完全に取り込むために、複数の視点からプレゼンテーション又はセッションを取り込みことができない。このような問題に対処して、マルチメディアプレゼンテーションは、ビデオ撮影する被写体を取り囲み、互いに離間された複数の固定カメラによって録画することができる。複数のビデオカメラ視点からのビデオ画像を中央演算処理装置に記憶することにより、ユーザが、必要に応じてビデオカメラビューを切り替えて、特定のときにおける関心領域を見ることができる。
複数のカメラを使用してより多くの関心領域を録画できるようにしても、通常、ユーザが表示のカメラ視点を切り替えたい場合に問題が発生する。表示ビューを変更するユーザ入力があると、ビデオ画像はカメラの視点を急に切り替える。視点の急な変化は混乱を招くものであり、カメラの間隔及び特定の関心領域によっては、関心エリアの全体を表示することができない場合がある。例えば、1台のカメラが関心領域の一部を取り込んでいる間に、別のカメラが関心領域の別の部分を取り込む場合がある。そのため、両方のカメラが関心領域の部分的なビューを提示するにもかかわらず、いずれのカメラも、ユーザが最適に見るために満足のいくアングルで関心領域全体を表示することができない。
上記問題を鑑みて、見る際に画像のカメラ視点を操作する方法及びシステムを有することが望ましい。特に、ユーザがダイナミックなシーンを見て、その視点をインタラクティブに制御することができ、カメラ間の遷移を滑らかにし、プレゼンテーション又はシーンの関心領域を完全にカバーする方法及びシステムが必要である。
[発明の概要]
本発明は、画像取り込み・表示システムを開示する。一実施形態では、本発明は、被写体の画像を提供する画像取り込みシステムを提供する。画像取り込みシステムは、平面と、第1のカメラと、第2のカメラと、制御モジュールとを備える。第1のカメラは、平面と第1のカメラとの間に位置する被写体の第1の被写体画像を取り込むように配置される。第2のカメラは、第1のカメラから離間される。第2のカメラは、被写体の第2の被写体画像を取り込むように配置される。制御モジュールは、第1のカメラと、第2のカメラと、平面との相対的な位置を使用して仮想視点からの被写体の合成画像を生成するように構成される。
[好ましい実施形態の説明]
以下の好ましい実施形態の詳細な説明では、本明細書の一部をなし、本発明を実施することができる特定の実施形態を例として示す添付図面を参照する。他の実施形態を利用することも可能であり、本発明の範囲から逸脱することなく、構造的又は論理的な変更を行うことが可能なことを理解されたい。従って、以下の詳細な説明は、限定の意味で解釈されるべきではなく、本発明の範囲は添付の特許請求の範囲によって規定される。
図1は、本発明の画像取り込み・表示システムの例示的な一実施形態の全体を10で示す。画像取り込み・表示システム10は、少なくとも2台のカメラによって被写体を取り込めるようにし、取り込まれた画像は解析され、表示及び対話のためにユーザに送られる。ユーザは、2台のカメラの間にある仮想視点を選択し、選択された仮想視点に対応する合成画像を見ることができる。
本発明の構成要素は、マイクロプロセッサ、プログラマブルロジック、又は状態機械のいずれかによりハードウェアで実施することも、ファームウェアで実施することも、又は所与の装置のソフトウェアで実施することも可能である。一態様では、ソフトウェアプログラミングの少なくとも一部はウェブベースであり、HTML及びJAVA(登録商標)プログラミング言語で書かれ、Windows(登録商標)ベースのオペレーティングシステム等、データ収集するユーザインタフェースへのリンクを含み、各主構成要素は通信バスプロトコルを使用してネットワークを介して通信することができる。他の実施形態では、本発明の構成要素はウェブベースではなく、他のプログラミング言語(例えば、C又はC++)で書くことができる。例えば、本発明は、データ伝送にTCP/IPプロトコルスイートを使用してもしなくてもよく、本発明との併用に適した他のプログラミング言語及び通信バスプロトコルが、本願により当業者に明らかになる。本発明の構成要素は、1つ又は複数のコンピュータ可読媒体上のソフトウェアに常駐してもよい。本明細書において使用する「コンピュータ可読媒体」という語は、フロッピー(登録商標)ディスク、ハードディスク、CD−ROM、フラッシュメモリ、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)等、揮発性であれ不揮発性であれ、あらゆる種類のメモリを包含するものと定義される。
例示的な一実施形態では、画像取り込み・表示システム10は、制御モジュール12と、第1のカメラ14と、第2のカメラ16と、平面背景18と、ビデオディスプレイ20と、ユーザ制御機構24とを備える。ユーザ22は、ユーザ制御機構24を介して画像取り込み・表示システム10と対話する。好ましい一実施形態では、制御モジュール12が第1のカメラ14と第2のカメラ16とに結合される。第1のカメラ14と第2のカメラ16とは平面背景18に向けられる。制御モジュール12は、ビデオディスプレイ20とユーザ制御機構24とにも結合される。ユーザ22は、ビデオディスプレイ20を見て、制御モジュールと対話し、ユーザ制御機構24を介して表示されている画像を制御することができる。
制御モジュール12は、複数のビデオ画像を受け取り記憶すること、ならびに受け取った画像を継ぎ目なく組み合わせて1つの合成画像とし、ビデオディスプレイ20に転送して表示させることができる。制御モジュール12は、中央演算処理装置(CPU)30と、第1の画像又はビデオ取り込み装置32と、第2の画像又はビデオ取り込み装置34と、ビデオグラフィックスカード36と、記憶装置37とを備える。CPU30は、全体の動作と、ならびに第1のビデオ取り込み装置32と、第2のビデオ取り込み装置34と、ビデオグラフィックスカード36との間の対話とを管理する。さらに以下に考察するように、CPU30は、較正と、解析と、補間計算とを行い、合成画像を導出する。CPU30は、当分野において既知の高速並列動作が可能な任意の処理装置であることができる。記憶装置37は、複数のビデオ画像、又は他の画像データ(例えば、画像の形状情報及び色情報)を記憶することができ、これらを後に検索し合成することができる。記憶装置37は、ハードディスクドライブ等の永続記憶装置であってもよい。
従って、CPU30は第1の画像処理システム32と、第2の画像処理システム34と、ビデオグラフィックスカード36とに結合される。第1の画像処理システム32と第2の画像処理システム34とは、第1のカメラ14と第2のカメラ16とのそれぞれより、CPU30への情報の転送を容易にする。一態様では、画像処理システム32、34は、ビデオカメラ14、16を介して取り込まれたビデオ画像をCPU30による使用に対して変換するように動作する。一態様では、画像処理システム32、34は、ビデオカメラ14、16からのビデオ入力の受け取りに適したハードウェアインタフェース接続を備える。2つの離散した画像処理システム32、34として図示されるが、第1のカメラ14と第2のカメラ16とに接続する複数のポートを有する単一の画像処理システムを使用することも可能であり、これも本発明の範囲内に留まることに留意すべきである。ビデオグラフィックスカード36は、CPU30からビデオディスプレイ20へのビデオ画像の送信を容易にする。ビデオグラフィックスカード36は、任意の市販されているビデオグラフィックスカードを含むことができるが、一実施形態では、合成ビデオ画像をビデオディスプレイ20上で引き延ばして視差歪をいずれも除去するように適合された装置制御インタフェース(DCI)である。
画像取り込み装置31はビデオカメラ14を含む。画像取り込み装置31は画像処理システム32を含むことができる。制御モジュール12は画像処理システム32を含む。別の例示的な実施形態では、画像処理システム32は制御モジュール12とは別体であり、ビデオカメラ14の一部であることができる。同様に、画像取り込み装置33はビデオカメラ16を含む。画像取り込み装置33は画像処理システム34を含むことができる。制御モジュール12は画像処理システム34を含む。別の実施形態では、画像処理システムは制御モジュール12とは別体であり、ビデオカメラ16の一部であることができる。
第1のカメラ14及び第2のカメラ16は、第1及び第2の画像処理システム32、34それぞれを介してCPU30に結合される。ビデオカメラ14、16は、デジタルビデオ及び/又は写真出力を生成可能な任意の市販されている画像取り込み装置であることができる。第1のカメラ14は第2のカメラ16から離間されている。第1のカメラ14は、第1のカメラ14による画像取り込みエリアを示す第1の投影プロファイル40を有する。別の言い方をすれば、第1のカメラ14によって画像として取り込むことができるのは、第1の投影プロファイル40内に位置する被写体のみである。同様に、第2のカメラ16は、第2のカメラ16により画像の取り込みが可能なエリアを示す第2の投影プロファイル42を有する。第1のカメラ14及び第2のカメラ16は、第1の投影プロファイル40及び第2の投影プロファイル42が所望の画像取り込みエリアをカバーする平面背景18に向けられ、平面背景18から十分な距離をおいて配置される。平面背景18は、第1のカメラ14及び第2のカメラ16に面した前平面44を有する任意の背景である。例示的な一実施形態では、平面44は単色である。第1の投影プロファイル40と第2の投影プロファイル42とが重なるエリアは、二重被写エリア46である。二重被写エリア46内に配置されたアイテムのみが、第1のカメラ14及び第2のカメラ16によって取り込まれた画像から導出される合成ビューを有することが可能である。この点に関して、例示的な一実施形態では、第1のカメラ14及び第2のカメラ16は、取り込むべき被写体がすべて二重被写エリア46内にあるように配置される。
画像取り込み・表示システム10は、ビデオグラフィックスカード36を介してCPU30に結合されたビデオディスプレイ20をさらに備える。ビデオディスプレイ20としては、標準VGAコンピュータモニタを含めた市販のモニタを挙げることができる。ビデオディスプレイ20は、CPU30によって導出され記憶された画像をユーザ22に視覚的に中継するように機能する。ユーザ22は、ユーザ制御機構24を介してCPU30と対話して、ビデオディスプレイ20に表示されたまさにその画像を制御する。ユーザ制御機構24は、キーボード、マウス、及び当分野において既知の他のコンピュータ入力装置の少なくとも1つを含むことができる。
図2は、画像取り込み・表示システム10を利用する画像取り込み及び表示方法の例示的な一実施形態の全体を100で示す。画像取り込み及び表示方法100は、画像取り込み・表示システム10の較正プロセス102と、第1のカメラ14と、第2のカメラ16とにより収集された、ビデオ画像の取り込み・解析プロセス104、ならびにユーザ22に対する対話式表示プロセス106を含む。
図3は、本発明による較正プロセス102の例示的な一実施形態を示すフローチャートである。図1も参照する。110において、予め設計された較正パターン50が平面背景18の前(すなわち、前平面44上)に表示される。好ましくは、較正パターン50は主に、二重被写エリア46内に配置される。較正パターン50は、CPU30によって識別される、チェッカー盤矩形の四つ角等の明確な特徴を有する平面上の、チェッカー盤パターン等の予め設計されたパターンである。較正パターン50のサイズ及び属性は予めCPU30に入力されており、CPU30にとって既知である。112において、第1のカメラ14は較正パターン50の第1の画像を取り込む。第1の画像は、第1のビデオ取り込み装置32を介してCPU30に送られる。114において、CPU30は第1の画像を解析して、取り込まれた較正パターン50の明確な特徴を見つける。116において、第2のカメラ16は較正パターン50の第2の画像を取り込む。第2の画像は、第2のビデオ取り込み装置34を介して第2のカメラ16からCPU30に転送される。CPUは、較正パターン50の明確な特徴について第2の画像を解析する。好ましくは、ブロック112と116とは同時に行われ、ブロック114と118とは同時に、又は略同時に行われる。
120において、CPU30は第1及び第2の画像からの明確な特徴を、較正パターン50の既知の特徴と比較し、対応マッピングを行う。対応マッピングには、第1の画像14中の較正パターン50の取り込まれた明確な各特徴を見つけ、取り込まれた明確な特徴の空間的関係を示すことが含まれる。第1の画像中の特徴間の空間的関係は、較正パターン50上の明確な特徴の所定の実際の間隔と比較され、マッピング対応情報が生成される。較正パターン50は平面背景18上に配置された平面であるため、マッピング対応情報から、第1のカメラ14に対する平面背景の幾何学的パラメータが直接計算される。同様の対応マッピング手順は第2の画像を使用しても完了され、第2のカメラ16に対する平面背景18の幾何学的パラメータが求められる。例示的な一実施形態では、各カメラの幾何学的パラメータは平面射影行列(homography matrix)として表現される。
122において、120において求められた平面背景18の対応マッピングと幾何学的パラメータとが利用され、第1のカメラ14と第2のカメラ16との内部及び外部両方の較正パラメータが計算される。内部較正パラメータとしては、各カメラの焦点距離及びレンズ歪みが挙げられるがこれらに限定されない。外部較正パラメータとしては、互いに対する、また平面背景18に対する第1及び第2のカメラ14、16の相対的な位置及び向きが挙げられる。すべての較正パラメータが求められた後、124において、第1のカメラ14と、第2のカメラ16と、平面背景18との全体的な空間的関係が、各カメラの較正パラメータに基づいて求められる。第1のカメラ14と、第2のカメラ16と、平面背景18との全体的な空間的関係を使用して、第1のカメラ14に対する第1の座標系と、第2のカメラ16に対する第2の座標系とが求められる。2つの座標系が導出されると、較正プロセスが完了する。較正プロセスを行う必要のある回数は、カメラの位置(すなわち、第1のカメラ14及び第2のカメラ16)が平面背景18の平面に対して固定である限り一度だけである。
一実施形態では、較正ステップ102が完了すると、較正パターン50は平面背景18から除去され、録画すべきプレゼンテーションの被写体52、又はシーンで置き換えられる。被写体52が所定位置にくると、取り込み・解析ステップ104が開始される。本発明による取り込み・解析ステップ104の例示的な一実施形態の全体を図4のフローチャートに示す。130において、第1のカメラ14は、第1の投影プロファイル40内に位置する被写体52と平面背景18の部分の第1の被写体画像とを取り込む。好ましい一実施形態では、被写体全体が第1の投射プロファイル40内に位置する。第1の被写体画像、又はビデオは、第1のカメラ14によって録画され、第1のビデオ取り込み装置32を介してCPU30に転送される。ステップ130と同時に行われるステップ132において、第2のカメラ16は、第2の投影プロファイル42内に位置する被写体52と平面背景18との部分の第2の被写体画像、又はビデオを取り込む。好ましい一実施形態では、被写体全体が第2の投射プロファイル42内に位置する。第2の被写体画像は、第2のビデオ取り込み装置34を介してCPU30に転送される。
134において、第1の被写体画像と第2の被写体画像とは、ある時間期間(例えば、「イベント」又はプレゼンテーションの継続時間)にわたり、時間期間を個々の瞬間又は一瞬に分割することによって解析される。解析は、時間期間が終わるまであらゆる瞬間において進められる。136において、第1の瞬間iにおける第1の被写体画像が、較正102中に得られた全体的な空間関係に基づいて第2のカメラ16の座標系に幾何学的に変換される。具体的には、平面背景18が3×3行列Mで表され、行列Mの行i、列jにある成分がm_ijである場合、第1のカメラ14の座標系における個々のピクセル(u,v)にある第1の被写体画像の色等の視覚的特徴が、以下の式により第2のカメラ16の座標系における位置(u’,v’)に移動する。
Figure 2006507609
第1の被写体画像は、第2のカメラ16の座標系に転送されると、第1の転送後被写体画像になる。
138において、第1の転送後被写体画像中の各ピクセルの色情報が、同じ瞬間iにある第2の被写体画像中の対応する各ピクセルの色情報と比較される。第1の転送後被写体画像のピクセルと第2の被写体画像の対応するピクセルとで色が一致しない場合、ポイントのいずれか一方が平面背景18の表面上にない、又は一方の被写体画像において遮蔽されていることが示される。平面背景18の表面上にないポイントは、平面背景18の正面にある被写体52、例えば、プレゼンター、シーンの構成物、又は視覚補助に対応する。140において、第1の転送後被写体画像と第2の被写体画像とで色が一致しないポイントは、全体画像から抽出され、抽出オブジェクトポイントとして分類される。特に、抽出オブジェクトポイントのみがさらに解析され、それによって個々の各瞬間に各フレームに対して行うべき解析の量が低減する。
142において、抽出オブジェクトポイント間の対応マッピングが計算される。一般に、ブロック142は、各画像中の各ピクセルの形状及び色の各属性を、特定の画像が取り込まれたカメラに対応する座標系にマッピングすることを含む。例えば、第1の被写体画像と第2の被写体画像との間で、抽出オブジェクトポイントに関して対応マッピングが計算される。第1の被写体画像中の各抽出オブジェクトポイントは、第1のカメラ14の座標系にマッピングされる。抽出オブジェクトポイントの座標は、第1のカメラ14に対して求められると、第2のカメラ16に対する同じ抽出オブジェクトポイントの座標と結合される。
様々な手法を使用して、抽出オブジェクトポイントの対応マッピングを行うことができる。適した手法としては、相関最大化と、ボリュメトリック技法と、モデルベースのステレオ(model-based stereo)と、当分野において既知の他の手法とが挙げられる。第2の被写体画像中のポイントに適宜マッチングしない第1の被写体画像中のポイントは、遮蔽ポイントとして識別され、平面に属するものと仮定される。144において、ブロック142において各抽出オブジェクトポイントにマッピングされた情報の表現が導出される。このような表現により、後に、第1の被写体画像と第2の被写体画像の間にある画像の補間が可能になる。深度値、あらゆるピクセルの動きベクトル、又は当分野において既知の他の方法等、様々な表現方法を使用することができる。146において、解析すべき残りの時間期間内に、第1の被写体画像と第2の被写体画像との瞬間が残っているか否かが判断される。解析すべき瞬間が残っている場合、ブロック136〜146が必要に応じて繰り返される。解析すべき時間期間内に瞬間が残っていない場合、時間期間は終わり、解析はブロック148に示すように完了する。任意選択的に、画像データ(例えば、ビデオ画像、画像の形状情報、及び色情報)が記憶装置37に記憶され、後に使用する際に利用することが可能になる。
解析プロセス(134〜148)は逆方向に繰り返してもよく、例えば、第2の被写体画像中のオブジェクトポイントを識別し、第2の被写体画像から第1の被写体画像へのマッピングを求める等であってもよい。抽出オブジェクトポイントならびに抽出オブジェクトポイントのマッピングは、双方向で一致すべきである。一致しないと考えられる抽出オブジェクトポイントは、遮蔽ポイントとみなされる。双方向マッチングにより、解析の堅牢性が向上するが、完了までにより多くの時間が必要であり、それによって全体のプロセスが低速化する。
解析104の完了後、対話式表示106を行うことができる。本発明による対話式表示106の例示的な一実施形態の全体を図5のフローチャートに示す。図1も参照する。対話式表示106のブロック160において、画像の形状情報と色情報の表現とが、CPU30のメモリにロードされる。162において、被写体画像を見ているユーザ22が、ユーザ制御機構24を介して瞬間iにおける仮想視点54を示す。仮想視点54は、第1のカメラ14と第2のカメラ16との間にあり、CPU30によって作成される合成画像を実際に取り込むために仮想カメラ56が配置されたであろう場所を表すポイントである。一態様では、ユーザは単に、ビデオディスプレイ20に対応するマウスをクリックアンドドラッグするだけで、第1のカメラ14と第2のカメラ16の間でのシフトをシミュレートし、仮想視点54の所望の位置を示すことができる。特定の瞬間iにおいて、ユーザは、マウス又はユーザ制御機構24を動かさず、前の瞬間iから仮想視点54の変更位置を示すことにより、前の瞬間と同じ仮想視点を示すことができる。
ブロック164において、第1のカメラ14と第2のカメラ16との間の仮想視点54の位置が求められ、これを利用して瞬間iにおける補間パラメータaが導出される。補間パラメータaは、第1のカメラ14と仮想視点54との間の距離を、第1のカメラ14と第2のカメラ16との間の総距離で割ったものである。補間パラメータaを求めた後、第1のカメラ14と第2のカメラ16との間の距離は、残りの補間計算において等しいとみなされる。従って、仮想視点54と第2のカメラ16との間の距離は1−aに等しい。
166において、仮想視点54の各ピクセルの形状情報と色情報が、第1のカメラ14と第2のカメラ16とに対する仮想視点54の位置に基づいて、第1の被写体画像と第2の被写体画像との対応マッピング情報を含む被写体画像中のすべてのポイントの表現から補間される。一実施形態では、合成画像を作成するには、CPU30は、補間パラメータaが与えられた上で、新しい形状情報及び色情報を計算する。p_1が、瞬間iにおいてc_1に等しい色を有する第1の被写体画像の特定のポイントのピクセル座標を表し、p_2が、特定の瞬間iにおいて色c_2を有する第2の被写体画像中の対応ポイントのピクセル座標を表すとする。すると、このポイントは、以下の式によって与えられる合成ビューの位置p’に色c’で表される。
Figure 2006507609
この補間はまず、対応マッピングが3×3平面射影Mによって与えられる、平面に対応するすべての画像ピクセルに対して行われる。次いで、補間は抽出オブジェクトポイントに対して行われる。これにより、後ろから前のレンダリング順になり、被写体(例えば、プレゼンター)が確実に仮想画像において平面の前に描かれる。
168において、補間された値を使用して、元々取り込まれた画像ではない、瞬間iにおける仮想視点54からの合成画像が作成される。レンダリングを高速化するには、パラメータaを固定数のレベルに量子化し、おそらくよりコストのかかる浮動小数点演算ではなく高速ビット演算を使用できるようにすることが可能なことに留意すべきである。言い換えれば、仮想カメラ56の可能な位置を制限することにより、行う必要のある計算が少なくなり、結果としてレンダリングが高速になる。しかし、これは、第1のカメラ14と第2のカメラ16との間、又は仮想カメラ56に対して真に継ぎ目なく遷移を提供しない場合がある。ブロック170において、作成された瞬間iの合成画像は、ビデオグラフィックスカード36を介してCPU30からビデオディスプレイ20に中継され、ユーザ22に対して表示される。
172において、CPU30は、所望の時間期間内で、第1又は第2の被写体画像において表示すべき瞬間が残っているか否かを解析する。表示すべき瞬間が残っている場合、ステップ162〜ステップ172が必要に応じて繰り返される。表示すべき瞬間が残っていない場合、対話式表示プロセスは、ステップ174に示すように完了する。
図6は、本発明により、画像取り込み・表示方法50を行うことが可能な画像取り込み・表示システムの別の例示的な実施形態の全体を210で示す。画像及び取り込み表示システム210は、制御モジュール212と、第1のカメラ214と、第2のカメラ216と、平面背景218と、ネットワーク通信リンク219と、第2の中央演算処理装置(第2のCPU)221と、ビデオディスプレイ220と、ユーザ制御機構224とを備える。システム210と対話するユーザは222で表される。制御モジュール212は、複数のビデオ画像を受け取り記憶することが可能であると共に、受け取った画像を1つの合成画像に継ぎ目なく組み合わせてビデオディスプレイ220に転送することが可能である。制御モジュール212は、第1の中央演算処理装置(CPU)230と、第1の画像処理システム232と、第2の画像処理システム234とを備える。CPU230は、CPU30ならびに第1及び第2の画像処理システム32、34について上述した方法と同様にして、第1の画像処理システム232と第2の画像処理システム234と対話する。第1の画像処理システム232は第1のカメラ214に結合され、第1のカメラ214からCPU230への情報の転送を容易にする。同様に、第2の画像処理システム234は第2のカメラ216に結合され、第2のカメラ216からCPU230への情報の転送を容易にする。2つの離散した画像処理システム232、234を示すが、第1のカメラ214と第2のカメラ216とに結合するための複数の入力ポートを有する単一の画像処理システムを使用してもよい。
図1に関連して上述したように、第1のカメラ214と第2のカメラ216とは、録画すべき被写体252が第1のカメラ214と第2のカメラ216との二重被写エリア246内に入るように、平面背景218に向けられ、平面背景218から十分な距離をおいて配置される。より具体的には、第1のカメラ214の第1の投影プロファイル240は、第1の画像に取り込まれることが望ましい被写体252及び平面背景218の部分をカバーする。従って、第2のカメラ16は、第2の被写体画像に取り込むことが望ましい被写体252及び平面背景218の部分が、第2のカメラ216の第2の投影プロファイル242内に入るように配置される。さらに、第1の投影プロファイル240は第2の投影プロファイル242に重なり、二重被写エリア246を形成する。二重被写エリア46について上述したように、二重被写エリア246は、第1のカメラ214と第2のカメラ216との間の仮想視点から合成画像をレンダリングすることができる被写エリアを表す。
再び図6を参照すると、制御モジュール212は、ネットワーク通信リンク219を介して第2のCPU221に結合される。本明細書において使用するネットワーク通信リンク219は、インターネット通信リンク、イントラネット通信リンク、又は同様の高速通信リンク等の通信リンクを包含するものと定義される。好ましい一実施形態では、ネットワーク通信リンク219はインターネット通信リンク226を含む。さらに、ネットワーク通信リンク219は、ワイヤレス通信リンクを含むことができる。さらに、ネットワーク通信リンク219は、CPU230にアクセスすることなく、第2のCPU221がアクセスする画像の形状及び色の各情報表現を一時的、又は永続的に記憶するネットワークサイト228を含むことができる。
第2のCPU221は、ビデオグラフィックスカード236を介してビデオディスプレイ220に接続される。ユーザ222は、ビデオディスプレイ220上で画像を閲覧し、それと同時に、第2のCPU221に結合されたユーザ制御機構224を介して、ビデオディスプレイ220上に表示されている画像を制御することができる。第2のCPU221は、ネットワーク通信リンク219と、ビデオグラフィックスカード236と、ユーザ制御機構224との間の全体の対話を管理する。第2のCPU221は、高速並列演算が可能な処理装置である。ビデオディスプレイ220と、ビデオグラフィックスカード236と、ユーザ制御機構224とはそれぞれ、上述したビデオディスプレイ20と、ビデオグラフィックスカード36と、ユーザ制御機構24と同様である。
制御モジュール212と、第1のカメラ214と、第2のカメラ216と、平面背景218とは、制御モジュール12と、第1のカメラ14と、第2のカメラ16と、平面背景18とに関連して上述した方法と同様にして、図2に示す較正102及び取り込み・解析104を行う。第1のカメラ214及び第2のカメラ216は、図1の画像取り込み装置31、33と同様に、画像取り込み装置231、233の一部である。
画像及び取り込み表示システム210は、画像取り込み・表示システム10と略同じように画像及び取り込み表示方法100の対話式表示106を行う。しかし、ブロック140の例示的な一実施形態では、取り込み・解析104において得られた表現情報は、単に、CPU230のメモリにロードされるだけではない。より正確に言えば、画像の形状及び色の表現がCPU230にロードされると、表現は、ネットワーク通信リンク219を介してCPU230のメモリから第2のCPU221のメモリにコピーされる。
ネットワーク通信リンク219により、遠隔地(例えば、他国)のユーザが合成画像を閲覧することができる。さらに、CPU221は、制御モジュール212から離れた場所にも配置することが可能である。これにより、複数の位置にある複数のカメラシステムが単一のCPU221を利用することが可能になり、通信リンク219を介して画像を到達可能な略あらゆる場所に同報通信することができる。
別の例示的な実施形態では、形状及び色の表現は、CPU230からネットワーク通信リンク219を介してネットワークサイト228に送られる。ネットワークサイト228に記憶された表現を、ネットワーク通信リンク219から第2のCPU221に、後にアクセス及びダウンロードの少なくともどちらかを行い、ステップ106が完了する。表現情報を第2のCPU221にロードすると、ステップ142〜152は、CPU30と、ビデオディスプレイ20と、ユーザ22と、ユーザ制御機構24とについて上述した方法と同様に、第2のCPU221と、ビデオディスプレイ220と、ユーザ222と、ユーザ制御機構224とによって完了する。
画像取り込みと,表示システム10、210と、画像取り込み及び表示方法100とを2台のカメラに関連して説明してきたが、3台以上のカメラを組み込んだ同様のシステム及び方法も本発明の範囲内である。追加の各カメラ(図示せず)は、追加される投影プロファイルが、合成画像を導出することができる追加の二重被写エリアを作り出すように、第1のカメラ14、214、第2のカメラ16、216、及び他のいずれの追加のカメラからも離間することができる。追加のカメラは、他のカメラと同じ水平に沿って離間し、取り込まれる総画像の全幅及び画像合成に利用可能なエリアを拡大することができる。例示的な一実施形態では、カメラは、取り込むべきシーンの周囲の単一の水平面に沿って等間隔に離間される。従って、導出される合成画像は、カメラ水平に沿ったユーザ定義の仮想視点の位置に応じて、第1のカメラ14、214と第2のカメラ16、216、第2のカメラと第3のカメラ、又は第3のカメラと第4のカメラによって取り込まれる実際の画像により得られることができる。
さらに、第1のカメラ14、214と、第2のカメラ16、216と、追加のカメラとは、互いに対して異なる高さに配置して、仮想カメラポジショニングに利用可能な全高を拡大することができる。追加のカメラは、1つ又は複数の追加の投影プロファイルが既存の二重被写エリア46、246に重なるように配置可能なことにさらに留意すべきである。そのように配置されたカメラ、及びそれによって取り込まれた画像は、当業者にとって明らかであるように、方法100において行われる繰り返しと略同様の繰り返しをさらに行うことによって画像取り込み・表示方法100に組み込むことができる。このようなポジショニングにより、ユーザが仮想視点位置を複数の次元で変更できることに留意されたい。
本明細書において説明した画像取り込み・表示システム及び方法は、ユーザがプレゼンテーション、トレーニングセッション、又は他のダイナミックなシーンを複数のアングル又は視点から見る能力を犠牲にすることなく、固定カメラを使用してプレゼンテーション、トレーニングセッション、又は他のダイナミックなシーンを取り込む効率的な方法を提供する。複数のカメラ及び補間技法を使用して、ユーザ選択の仮想視点からの合成画像を生成することにより、実際のカメラ画像間の滑らかな遷移が可能である。滑らかな遷移により、ユーザを混乱させる急なカメラアングルの変化が回避される。さらに、合成画像を作成する能力は、特定の瞬間の特定の関心領域がユーザにとって利用可能であることをより確実にするために、ユーザがシーンの閲覧に最も満足のいくアングルを選択できるようにする。
特定の実施形態について、好ましい実施形態の説明を目的として本明細書に図示し説明したが、本発明の範囲から逸脱することなく、図示し説明した特定の実施形態を、多種多様な代替及び/又は等価の実施態様で置き換えることができることが当業者に理解されよう。化学、機械、電気機械、電気、及びコンピュータの各分野における当業者は、本発明が多種多様な実施形態で実施可能なことを容易に理解しよう。本願は、本明細書において考察した好ましい実施形態の任意の適合又は変形を包含することを意図する。従って、本発明は特許請求の範囲及びその等価物によってのみ限定されることを明らかに意図する。
本発明による画像取り込み・表示システムの例示的な一実施形態を示すブロック図である。 本発明による画像取り込み・表示方法の例示的な一実施形態を示すフローチャートである。 図2の較正ステップの例示的な一実施形態を示すフローチャートである。 図2の取り込み・解析ステップの例示的な一実施形態を示すフローチャートである。 図2の対話式表示ステップの例示的な一実施形態を示すフローチャートである。 本発明による画像取り込み・表示システムの別の例示的な実施形態を示すブロック図である。

Claims (10)

  1. 平面(44)と第1のカメラとの間に位置する被写体の第1の被写体画像を取り込むように配置された第1のカメラ(14)と、
    前記第1のカメラから離間され、前記被写体の第2の被写体画像を取り込むように配置された第2のカメラ(16)と、
    前記第1のカメラと、前記第2のカメラと、前記平面との相対的な位置を使用した仮想視点(54)から、前記被写体の合成画像を生成するように構成された制御モジュール(12)と
    を備えた被写体の画像を提供する画像取り込みシステム(10)。
  2. 前記第1のカメラ(14)から前記第1の被写体画像を取り込む第1の画像取り込み装置(31)と、
    前記第2のカメラ(16)から前記第2の被写体画像を取り込む第2の画像取り込み装置(33)と
    をさらに備えた請求項1に記載の画像取り込みシステム(10)。
  3. 前記制御モジュール(12)が、前記第1のカメラ(14)に対して第1の座標セットを生成し、前記第2のカメラ(16)に対して第2の座標セットを生成するように構成され、該第1の座標セットが該第2の座標セットに変換されるようになっている請求項2に記載の画像取り込みシステム(10)。
  4. 前記第1のカメラと、前記第2のカメラと、前記平面との相対的な位置を決定するために使用され、前記制御モジュール(12)に記憶されている較正設定(102)をさらに備えた請求項2に記載の画像取り込みシステム(10)。
  5. 複数の明確な特徴を有し、前記平面(44)上に一時的に置かれた較正パターン(50)と、
    前記第1の画像取り込み装置(31)を介して前記第1のカメラ(14)から生成される前記較正パターンの第1の較正画像(112)と、
    前記第2の画像取り込み装置(33)を介して前記第2のカメラ(16)から生成される前記較正パターンの第2の較正画像(116)と
    をさらに備え、前記制御モジュール(12)が、前記第1の較正画像と、前記第2の較正画像と、前記較正パターンの明確な特徴とを用いる前記較正設定(122)を決定して、前記第1のカメラと、前記第2のカメラと、前記平面との相対的な位置を決定する請求項4に記載の画像取り込みシステム(10)。
  6. 中央演算処理装置(12)が、複数の連続した瞬間に前記合成画像を生成するように構成されている請求項1に記載の画像取り込みシステム。
  7. 前記仮想視点(54)の位置をユーザが選択できるようになっており、前記制御モジュール(12)と通信する制御ユニット(24)と、
    前記合成画像、前記第1の被写体画像、又は前記第2の被写体画像の少なくとも1つをユーザが閲覧できるようになっており、前記中央演算処理装置(12)に結合された画像ディスプレイ(20)と
    をさらに備えた請求項1に記載の画像取り込みシステム。
  8. 第1の中央演算処理装置(230)に結合されたネットワーク通信リンク(219)と、
    前記ネットワーク通信リンクに結合された第2の中央演算処理装置(221)と、
    前記仮想視点の位置をユーザが選択できるようになっており、前記第2の中央演算処理装置に結合されたコントローラユニット(224)と、
    前記合成画像、前記第1の被写体画像、前記第2の被写体画像の少なくとも1つをユーザが閲覧できるようになっており、前記第2の中央演算処理装置に結合された画像ディスプレイ(220)と
    をさらに備えた請求項1に記載の画像取り込みシステム(10、210)。
  9. 第1のカメラ(14)と、該第1のカメラから離間された第2のカメラ(16)とを備えた複数のカメラ(14、16)を平面背景(44)に向けるステップと、
    複数の既知の明確な特徴を有し、前記平面背景に置かれる前記較正パターン(150)の画像である前記第1の較正画像を前記第1のカメラを用いて取り込むステップ(112)と、
    前記較正パターン(50)の画像である第2の較正画像を前記第2のカメラを用いて取り込むステップ(116)と、
    前記較正パターンの前記明確な特徴に関して前記第1の較正画像(114)と前記第2の較正画像(118)とを解析することによって、前記第1のカメラと、前記第2のカメラと、前記平面背景との間の空間的な関係を決定するステップと
    を含む請求項1〜8のいずれかに記載のシステムを用いて画像を取り込み、続いて合成画像を生成する画像取り込み方法。
  10. 前記平面背景と、前記第1のカメラ(14)と、前記第2のカメラ(16)との間に被写体を配置するステップと、
    前記第1のカメラを用いて前記被写体の第1の被写体画像を取り込み(130)、前記第2のカメラを用いて前記被写体の第2の被写体画像を取り込む(132)ステップと、
    色の不一致ないずれのオブジェクトポイントも抽出オブジェクトポイント(138、140)として分類され、色の不一致に対して前記第1の被写体画像における各ポイントと前記第2の被写体画像の対応するオブジェクトポイントとを比較するステップと、
    前記抽出オブジェクトポイントのそれぞれに対して形状及び色の表現を得るステップ(144)と
    をさらに含み、前記第1のカメラ(14)と、前記第2のカメラ(16)と、前記平面背景(44)との間の空間的な関係(124)を決定するステップは、
    前記較正画像の前記明確な特徴に対して前記第1の較正画像(112)と前記第2の較正画像(116)とを調べるステップと、
    前記第1の較正画像における前記明確な特徴の空間的な関係と前記較正パターンにおける前記明確な特徴の空間的な関係と比較するステップと、
    前記平面背景に対して前記第1のカメラ(14)の空間的な関係を決定するステップと、
    前記第2の較正画像における前記明確な特徴の空間的な関係と前記較正パターンにおける前記明確な特徴の空間的な関係とを比較するステップと、
    前記平面背景に対して前記第2のカメラ(16)の空間的な関係を決定するステップと
    を含み、前記第1のカメラと、前記第2のカメラと、前記平面背景との間における空間的な関係を決定するステップは、前記平面背景に対する前記第1のカメラの前記関係と、前記平面背景に対する前記第2のカメラの前記関係を利用して、前記第2のカメラに対する前記第1のカメラの前記関係を決定するステップをさらに含む請求項9に記載の画像取り込み方法。
JP2004559088A 2002-10-31 2003-10-30 合成画像を生成する画像取り込み・表示システム及び方法 Withdrawn JP2006507609A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/285,969 US7307654B2 (en) 2002-10-31 2002-10-31 Image capture and viewing system and method for generating a synthesized image
PCT/US2003/034674 WO2004053591A1 (en) 2002-10-31 2003-10-30 Image capture and and display and method for generating a synthesized image

Publications (1)

Publication Number Publication Date
JP2006507609A true JP2006507609A (ja) 2006-03-02

Family

ID=32175310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004559088A Withdrawn JP2006507609A (ja) 2002-10-31 2003-10-30 合成画像を生成する画像取り込み・表示システム及び方法

Country Status (5)

Country Link
US (1) US7307654B2 (ja)
EP (1) EP1556736A1 (ja)
JP (1) JP2006507609A (ja)
AU (1) AU2003302852A1 (ja)
WO (1) WO2004053591A1 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070070210A1 (en) * 2003-04-11 2007-03-29 Piccionelli Gregory A Video production with selectable camera angles
SE0302065D0 (sv) * 2003-07-14 2003-07-14 Stefan Carlsson Video - method and apparatus
US8098290B2 (en) * 2004-01-30 2012-01-17 Siemens Corporation Multiple camera system for obtaining high resolution images of objects
GB2417628A (en) * 2004-08-26 2006-03-01 Sharp Kk Creating a new image from two images of a scene
US20060072009A1 (en) * 2004-10-01 2006-04-06 International Business Machines Corporation Flexible interaction-based computer interfacing using visible artifacts
WO2006108279A1 (en) * 2005-04-11 2006-10-19 Martin Lizee Method and apparatus for virtual presence
US7554575B2 (en) * 2005-10-28 2009-06-30 Seiko Epson Corporation Fast imaging system calibration
JP4325642B2 (ja) * 2006-05-31 2009-09-02 ソニー株式会社 移動体カメラシステム
US8019180B2 (en) * 2006-10-31 2011-09-13 Hewlett-Packard Development Company, L.P. Constructing arbitrary-plane and multi-arbitrary-plane mosaic composite images from a multi-imager
EP2097874A4 (en) * 2006-11-15 2011-05-04 Depth Analysis Pty Ltd SYSTEMS AND METHODS FOR MANAGING THE PRODUCTION OF ANIMATION BASED ON FREE-VIEWING VIDEO
EP2143270A1 (en) * 2007-03-30 2010-01-13 Nxp B.V. A device for and a method of processing image data representative of an object
US8300083B2 (en) * 2007-07-20 2012-10-30 Hewlett-Packard Development Company, L.P. Position relationships associated with image capturing devices
JP5428210B2 (ja) * 2008-06-11 2014-02-26 ソニー株式会社 情報処理装置、撮像システム、録画制御方法及びプログラム
JP4513905B2 (ja) * 2008-06-27 2010-07-28 ソニー株式会社 信号処理装置、信号処理方法、プログラム及び記録媒体
US8384789B2 (en) * 2008-07-23 2013-02-26 Pixart Imaging Inc. Sensor array module with wide angle, and image calibration method, operation method and application for the same
US20100119142A1 (en) * 2008-11-11 2010-05-13 Sean Miceli Monitoring Multiple Similar Objects Using Image Templates
IL204087A (en) 2010-02-21 2016-03-31 Rafael Advanced Defense Sys A method and system for subsequent viewing of two video streams
US20110222757A1 (en) 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
EP2375376B1 (en) * 2010-03-26 2013-09-11 Alcatel Lucent Method and arrangement for multi-camera calibration
US8687068B2 (en) * 2010-09-19 2014-04-01 Hewlett-Packard Development Company, L.P. Pattern of color codes
US8867886B2 (en) * 2011-08-08 2014-10-21 Roy Feinson Surround video playback
EP2761422A4 (en) * 2011-09-30 2015-05-06 Intel Corp MECHANISM FOR ENHANCING THE PERSPECTIVE OF VIEWING VIDEO IMAGES ON COMPUTER DEVICES
US8923567B2 (en) * 2011-12-19 2014-12-30 General Electric Company Apparatus and method for predicting solar irradiance variation
US20130208976A1 (en) * 2012-02-13 2013-08-15 Nvidia Corporation System, method, and computer program product for calculating adjustments for images
US8750566B2 (en) * 2012-02-23 2014-06-10 General Electric Company Apparatus and method for spatially relating views of sky images acquired at spaced apart locations
KR101994295B1 (ko) * 2012-08-08 2019-06-28 삼성전자주식회사 단말기 및 상기 단말기에서 라이브이미지 생성방법
US9124778B1 (en) * 2012-08-29 2015-09-01 Nomi Corporation Apparatuses and methods for disparity-based tracking and analysis of objects in a region of interest
JP6029938B2 (ja) * 2012-11-06 2016-11-24 ローランドディー.ジー.株式会社 キャリブレーション方法および三次元加工装置
JP5918865B2 (ja) * 2012-12-26 2016-05-18 三菱電機株式会社 線量分布測定装置
TWI554100B (zh) * 2012-12-27 2016-10-11 Metal Ind Res &Development Ct Correction sheet design for correcting a plurality of image capturing apparatuses and correction methods of a plurality of image capturing apparatuses
US9720506B2 (en) * 2014-01-14 2017-08-01 Microsoft Technology Licensing, Llc 3D silhouette sensing system
US10911645B2 (en) * 2014-09-19 2021-02-02 Nec Corporation Image processing device, image processing method, and recording medium
KR101668834B1 (ko) * 2014-10-02 2016-10-25 씨제이씨지브이 주식회사 다중 카메라 촬영용 리그
US9286680B1 (en) * 2014-12-23 2016-03-15 Futurewei Technologies, Inc. Computational multi-camera adjustment for smooth view switching and zooming
US9832449B2 (en) * 2015-01-30 2017-11-28 Nextvr Inc. Methods and apparatus for controlling a viewing position
JP6585371B2 (ja) * 2015-04-24 2019-10-02 株式会社デンソーテン 画像処理装置、画像処理方法および車載装置
JP6419128B2 (ja) 2016-10-28 2018-11-07 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
US10009550B1 (en) * 2016-12-22 2018-06-26 X Development Llc Synthetic imaging
US10607654B2 (en) * 2017-02-09 2020-03-31 Verizon Patent And Licensing Inc. Using sharding to generate virtual reality content
WO2018195096A1 (en) * 2017-04-17 2018-10-25 Cognex Corporation High-accuracy calibration system and method
KR102351542B1 (ko) 2017-06-23 2022-01-17 삼성전자주식회사 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치
US10951879B2 (en) * 2017-12-04 2021-03-16 Canon Kabushiki Kaisha Method, system and apparatus for capture of image data for free viewpoint video
JP6790038B2 (ja) 2018-10-03 2020-11-25 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
CN111476869B (zh) * 2019-01-24 2022-09-06 湖南深度体验智能技术有限公司 一种面向计算媒体的虚拟摄像机规划方法
US11495085B2 (en) * 2020-07-13 2022-11-08 Sg Gaming, Inc. Gaming environment tracking system calibration

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR940017747A (ko) * 1992-12-29 1994-07-27 에프. 제이. 스미트 영상 처리 디바이스
US5681223A (en) * 1993-08-20 1997-10-28 Inventures Inc Training video method and display
US6297856B1 (en) * 1994-11-30 2001-10-02 Canon Kabushiki Kaisha Apparatus and system for reading data from a dynamic image data file
US5657246A (en) * 1995-03-07 1997-08-12 Vtel Corporation Method and apparatus for a video conference user interface
JP3696999B2 (ja) * 1996-01-30 2005-09-21 キヤノン株式会社 カメラ制御システムおよびカメラ制御装置
JPH09266460A (ja) * 1996-03-28 1997-10-07 Sony Corp 送受信システム
US6184926B1 (en) * 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
US6145738A (en) * 1997-02-06 2000-11-14 Mr. Payroll Corporation Method and apparatus for automatic check cashing
US6061055A (en) * 1997-03-21 2000-05-09 Autodesk, Inc. Method of tracking objects with an imaging device
US6147709A (en) * 1997-04-07 2000-11-14 Interactive Pictures Corporation Method and apparatus for inserting a high resolution image into a low resolution interactive image to produce a realistic immersive experience
JPH10304328A (ja) * 1997-04-25 1998-11-13 Fujitsu Ltd テレビ会議システムにおいて、多画面合成信号を生成する方式
JPH1196374A (ja) * 1997-07-23 1999-04-09 Sanyo Electric Co Ltd 3次元モデリング装置、3次元モデリング方法および3次元モデリングプログラムを記録した媒体
US6259470B1 (en) * 1997-12-18 2001-07-10 Intel Corporation Image capture system having virtual camera
US6173069B1 (en) * 1998-01-09 2001-01-09 Sharp Laboratories Of America, Inc. Method for adapting quantization in video coding using face detection and visual eccentricity weighting
WO1999058927A1 (en) * 1998-05-08 1999-11-18 Sony Corporation Image generating device and method
KR100316639B1 (ko) * 1998-05-22 2002-01-16 윤종용 다지점 영상회의 시스템 및 그에 따른 구현방법
US6674461B1 (en) * 1998-07-07 2004-01-06 Matthew H. Klapman Extended view morphing
JP4453119B2 (ja) * 1999-06-08 2010-04-21 ソニー株式会社 カメラ・キャリブレーション装置及び方法、画像処理装置及び方法、プログラム提供媒体、並びに、カメラ
US6415051B1 (en) * 1999-06-24 2002-07-02 Geometrix, Inc. Generating 3-D models using a manually operated structured light source
US6208372B1 (en) * 1999-07-29 2001-03-27 Netergy Networks, Inc. Remote electromechanical control of a video communications system
US6768509B1 (en) * 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
JP4501239B2 (ja) * 2000-07-13 2010-07-14 ソニー株式会社 カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
US6724417B1 (en) * 2000-11-29 2004-04-20 Applied Minds, Inc. Method and apparatus maintaining eye contact in video delivery systems using view morphing
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
AU2002303082A1 (en) 2001-01-26 2002-09-12 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment
US7515173B2 (en) * 2002-05-23 2009-04-07 Microsoft Corporation Head pose tracking system
JP4069855B2 (ja) * 2003-11-27 2008-04-02 ソニー株式会社 画像処理装置及び方法
US7257272B2 (en) * 2004-04-16 2007-08-14 Microsoft Corporation Virtual image generation

Also Published As

Publication number Publication date
US7307654B2 (en) 2007-12-11
WO2004053591A1 (en) 2004-06-24
EP1556736A1 (en) 2005-07-27
AU2003302852A1 (en) 2004-06-30
US20040085451A1 (en) 2004-05-06

Similar Documents

Publication Publication Date Title
JP2006507609A (ja) 合成画像を生成する画像取り込み・表示システム及び方法
US20080253685A1 (en) Image and video stitching and viewing method and system
JP4938093B2 (ja) 2d−to−3d変換のための2d画像の領域分類のシステム及び方法
KR102013978B1 (ko) 이미지들의 융합을 위한 방법 및 장치
US7424218B2 (en) Real-time preview for panoramic images
US20230111408A1 (en) Techniques for capturing and rendering videos with simulated reality systems and for connecting services with service providers
CN105191287B (zh) 替换视频流中的对象的方法及计算机程序
US9961334B2 (en) Simulated 3D image display method and display device
US11871127B2 (en) High-speed video from camera arrays
JP4658223B2 (ja) 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
CN111050210A (zh) 经由置信度加权运动估计的视频修补
CN113891060B (zh) 自由视点视频重建方法及播放处理方法、设备及存储介质
KR102257132B1 (ko) 몰입형 비디오 컨텐츠를 생성 및 렌더링하기 위한 방법들, 시스템들 및 매체들
CN113963094A (zh) 深度图及视频处理、重建方法、装置、设备及存储介质
JP2015514367A (ja) カラーグレーディングプレビュー方法及び装置
JP2009246917A (ja) 映像表示装置及び映像処理装置
US8090872B2 (en) Visual media viewing system and method
KR102561903B1 (ko) 클라우드 서버를 이용한 ai 기반의 xr 콘텐츠 서비스 방법
Wang et al. A common feature-based disparity control strategy in stereoscopic panorama generation
US20210297649A1 (en) Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method
JP2005275765A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびそのプログラムを記録した記録媒体
JP2008090570A (ja) 情報処理装置及び情報処理方法
WO2024185483A1 (ja) 情報処理装置、情報処理方法、および記録媒体
US20240171719A1 (en) Rendering an Immersive Experience
JP2011010010A (ja) 画像再生装置及び撮像装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070109