JP2009539155A - 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム - Google Patents
動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム Download PDFInfo
- Publication number
- JP2009539155A JP2009539155A JP2009512386A JP2009512386A JP2009539155A JP 2009539155 A JP2009539155 A JP 2009539155A JP 2009512386 A JP2009512386 A JP 2009512386A JP 2009512386 A JP2009512386 A JP 2009512386A JP 2009539155 A JP2009539155 A JP 2009539155A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- video
- camera
- patch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 158
- 230000033001 locomotion Effects 0.000 claims abstract description 14
- 230000008859 change Effects 0.000 claims abstract description 5
- 230000007547 defect Effects 0.000 claims description 50
- 239000002131 composite material Substances 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 19
- 238000009877 rendering Methods 0.000 claims description 18
- 230000011218 segmentation Effects 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000011049 filling Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 13
- 238000013179 statistical model Methods 0.000 claims description 11
- 230000015572 biosynthetic process Effects 0.000 claims description 7
- 238000003786 synthesis reaction Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000013480 data collection Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 16
- 239000011295 pitch Substances 0.000 description 15
- 239000000203 mixture Substances 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 7
- 230000008439 repair process Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 238000005520 cutting process Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000010561 standard procedure Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000001308 synthesis method Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000013476 bayesian approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000010437 gem Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0021—Tracking a path or terminating locations
- A63B2024/0025—Tracking the path or location of one or more users, e.g. players of a game
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30221—Sports video; Sports image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Image Generation (AREA)
Abstract
Description
本発明は、ビデオ処理および仮想画像生成の分野に関し、例えば、試合状況に対するビデオベースの3次元再構築を用いた、スポーツのテレビ放送に適用できるものである。本発明は、対応する独立請求項の前提部分に記載したような、動的に変化する3次元のシーンに関する3次元表現(representation)を生成するための、方法およびシステムに関する。
「ビデオベースのサッカーの試合に対する3次元再構築(A Video−Based
3D−Reconstruction of Soccer Games);T.Bebie and H.Bieri,EUROGRAPHICS 2000,Vol.19(2000),No.3」という論文がある。この論文には、サッカーの試合の一場面に関し、2つの同期されたビデオシーケンスからアニメーション化された仮想3次元映像を生成するように設計された、再構築システムが開示されている。与えられたシーンに対する3次元再構築を生成するには、(1)両方のシーケンスにおける全フレームのカメラパラメータを演算する(カメラキャリブレーション)、(2)ビデオシーケンスから、競技場のテクスチャを抽出する、(3)いくつかのキーフレームにおけるボールおよび選手の頭の画像位置を手動で特定した後、これらボールおよび選手の頭の軌跡を演算する、(4)ビデオから自動的に選手のテクスチャを抽出する、(5)衝突しているまたは隠れている選手の姿を自動的に分離する、(6)映像化のために、仮想空間内に適切に配された長方形に対して選手の姿をテクスチュアマッピングする、というようなステップが実行される。なお、ビデオシーケンスが処理されている間、カメラは、同じ位置に保持されているとみなされる。
−「多数のカメラによるフットボール選手のトラッキングに関する基本設計およびアルゴリズム(Architecture and algorithms for tracking football players with multiple cameras;M.Xu,J.Orwell and D.Thirde;IEE Proceedings−Vision,Image,and Signal Processing−April 2005−Volume 152,Issue 2,p.232−241)」。この文献には、固定カメラからの与えられたビデオ画像から、フットボール選手の位置、および、ボールの3次元位置を抽出することについて開示されている。しかしながら、3次元表現の合成については示されていない。
nd occluded human motion:Dockstader,S.and Tekalp,A.M.;2001a.Proceedings of the IEEE 89,1441−1455)」。この文献は、多数のカメラ画像を用いて、動いて相互に干渉している多数の人物をトラッキングすることに関する。3次元表現の合成、および、カメラの位置および/または方向のキャリブレーションについては示されていない。
Reality,2003.The Second IEEE and ACM International Symposium on mixed and augmented reality(ISMAR);7−10 Oct.2003;page(s):178− 186)」。多数のビデオ画像から単純な3次元モデルを再構築し、選択したビデオ情報をモデルに投影する。選手の位置を判断するために、球技場の上に垂直に設置された専用カメラが必要になる。他のカメラの位置をキャリブレーションするために、レーザ測量機器も必要になる。
International Symposium on mixed and augmented reality(ISMAR);7−10 Oct.2003;pages 188−197)」。仮想的なサッカーのシーンの表現を、現実の画像を用いて生成し、ヘッドマウント装置(head mounted device;HMD)を装着した人に表示する。
本発明の目的は、最初に述べた種類の動的に変化する3次元のシーンに関する3次元表
現を生成するための、既知のシステムに比して進歩した方法およびシステムを作り出すことである。ここで生成される表現とは、3次元表現自体、すなわち、モデルオブジェクトの3次元位置および方向についての情報を含むシーンのモデルであると理解されるものである。これは、2次元画像に対する操作および分析(例えば、オブジェクトの特定)がなされる2次元表現と対照的なものである。また、この操作および分析は、オブジェクトの3次元位置を決定することなく、1つ以上のオブジェクトの動きをトラッキングすることによって実施される。
・前記少なくとも2台のカメラに関し、位置、方向、および内部パラメータ(例えばズーム設定)を含むカメラパラメータを決定するステップ、
・少なくとも2つのビデオストリーム内のオブジェクトの動きをトラッキングするステップ、
・少なくとも2つのビデオストリーム内における前記オブジェクトの固有性を決定するステップ、
・少なくとも2つのビデオストリームから得られる情報を結合することによって、オブジェクトの3次元位置を決定するステップ。
招来する。オブジェクトの3次元位置とカメラキャリブレーション情報とが与えられれば、オブジェクトの3次元位置における画像への逆投影を使用することで、画像空間に投影されたオブジェクトの動きを、より正確に予測することが可能となる。さらに、同一の画像における異なる解釈の間に生じる不明瞭さを解消することも可能となる。オブジェクトの3次元位置を画像に投影することで、トラッキングアルゴリズムによって、衝突/重なり合っているオブジェクトを検出し、両オブジェクトが再び分離した後にも正確に特定し続けることが可能となる。
・図形入力装置を用いて、ビデオ静止画像に見られるような特定の参照フィーチャを指定し、そして、前記参照フィーチャを選択する、
・参照フィーチャの表現における固有性を、静止画像に見られる参照フィーチャに関連付ける。
・抽出されたフィーチャ、特に、ピッチの概略表現内で選択されたものと同じ種類のフィーチャの1つの位置となるような参照フィーチャの位置を決定するステップ。
セスを単純化および高速化することが可能となる。
・1つ以上の先行するビデオフレームに関して実行されたカメラ・キャリブレーション・ステップによって決定されるカメラパラメータ。
・少なくとも1つの他のビデオストリームにおける他の静止映像から、同一の固有性を有するオブジェクトを自動的に決定するステップ。
、その固有性を、第1の静止画像内のオブジェクトの固有性と同一に設定する。このシステムでは、前記固有性の視覚的表現を含んでいる他の静止画像を表示し、ユーザが、前記固有性の関連付けを確認あるいは拒否できることが好ましい。また、1つ以上の静止画像内でオブジェクトが重なり合った場合、例えば、領域全体、形状ヒストグラムあるいは色ヒストグラムなどが予想通りでなかった場合にこれを自動的に検出できることがある。このような場合、ユーザにその旨を知らせる。そして、ユーザが、各画像におけるオブジェクトの固有性を手動で設定する。他の場合には、同一のビデオストリームから得られる他のフレーム(オブジェクトを他のオブジェクトから容易に分離できる他のフレーム)において、オブジェクトを特定する必要の生じる可能性がある。
・ユーザがオブジェクトに識別子を関連付けることに許可するステップ。
によって、実施する、あるいは補佐することも可能である。これにより、各瞬間におけるオブジェクトの固有性および位置を、正確に知ることが可能である。
・各画像要素あるいは画素に対し、画素がオブジェクトの一部あるいは背景の一部となっている可能性を表現する値を割り当てるためのアルファチャンネル整合を使用するステップ、を含むことが好ましい。
−同一の表面パッチから得られる画像データ(他の瞬間においてビデオストリームから得られるものを除く)の使用、
−同一の表面パッチから得られる画像データ(同一の瞬間および他の瞬間において、他のビデオストリームから得られるものを除く)の使用、
−同一の瞬間にビデオストリームから得られる画像データ(他の表面パッチから得られるものを除く)の使用、
−3次元技術による修復、例えば、充填された表面パッチおよび充填に使用された表面パッチにおける3次元配置を考慮した、欠損の周囲のシーンのパターンを用いた欠損の補充。
−宛先パッチがランドマークの一部を含んでいる場合、ランドマークに沿ってソースパッチを検索する。そして、ランドマークがあると予想される欠損の内部の位置にソース−パッチをマッピングする。
・仮想カメラによって視認されるような背景画像を決定するステップ、
・仮想カメラに対する各オブジェクトの投影を決定し、これを背景画像に重ねるステップ、
・保存あるいは他の処理のために、結合画像を出力あるいは保存するステップ。
次元表現を維持し、動的に更新することが可能となる。ビデオストリームから得られるビデオ情報あるいは画像情報については、3次元表現にレンダリングする。これにより、ソースビデオフィードを供給するカメラにおける実際の物理的な位置とは異なる視点からの画像を、生成することが可能となる。この点は、従来技術とは対照的である。従来技術では、孤立した長方形を3次元空間に配置し、これらの長方形に画像をテクスチャマッピングするだけのものであり、ピッチおよび残存している背景オブジェクトを考慮しないものである。
・合成画像データとなるようにマークされていない画像情報に優先権を与えるステップ
・背景を表現する1つ以上の表面、すなわち、背景オブジェクトを含んでいる背景モデル上に画像情報をレンダリングするステップ。
における、演算された3次元位置によって規定される。この3次元位置を境界ボックスの投影と結合することで、3次元の長方形における3次元的な4つの頂点を生成することが可能となる。このために、長方形の法線を、境界ボックスを生成した現実のカメラあるいは仮想カメラのいずれかによって規定される、光学軸あるいは表示法平面と等しくしている。前者の場合、現実のカメラにそれぞれ対応する各オブジェクトに関して、多数のビルボードを使用することが可能である。最終的にレンダリングされた画像は、多数のビルボードにレンダリングされた画像を結合したものから構成される。この結合については、仮想カメラの位置に依存して制御される。
・参照フィーチャ特定プロセスにおいて抽出されたフィーチャの1つの位置に対する参照フィーチャの位置のスナップ方法、
・カメラパラメータの変更に従うトラッキング補償およびトラッキング訂正の方法、
・自動的特定支援方法、
・ユーザに未確認オブジェクトの存在を警告する方法、
・画像要素を、背景の一部、または少なくとも2つのカテゴリの1つであると分類する方法、
・アルファチャンネル整合を使用する方法、
・修復された画像要素を合成画像データとしてマークをつける方法、
・3次元技術による修復方法、
・セグメンテーションの結果に基づく、オブジェクトの周囲にある境界ボックスの位置およびサイズの改良方法、
・3次元背景モデルへのビデオ情報のレンダリング方法。
図1に、システム100およびこれに対応する方法の概要を、システムの部材および対応する部分的な方法とともに概略的に図示する。これらの部材は、インターフェイス、すなわちデータの入出力装置を介してリンクされている。このため、この図は、一方では、
部材あるいはモジュールと、これらのモジュール間のメインデータフローを示すものである。また他方では、モジュールは、システムによって実行される方法の方法ステップに対応している。従って、これらのモジュールは、文脈に応じて、方法として参照されることもある。
d De Haan,Elsevier,2000を参照されたい。方法102の出力は、全てのフレームについて入力される全てのビデオストリームにおける、デジタル化された色テクスチャデータ(color texture data)121である。
technique for camera calibration):Z.Zhang,IEEE Transactions on Pattern Analysis
and Machine Intelligence,22(11):1330−1334,2000」が挙げられる。これらのステップは、時間t_initにおける各カメラの初期化フレームについて実施される。
2.推定した2次元位置の周囲を検索する。この検索については、オブジェクトのフィーチャと検索サンプルのフィーチャとを比較することによって実行する。このようなサンプルフィーチャ比較は、色ヒストグラム、ガウシアン混合モデルあるいは同様のモデルに基づいて実行することが可能である(パターン分類(Pattern Classification):Duda,Hart,and Stork,Wiley Interscience,2000)。
図3に、本明細書において説明する、我々によって改善されたトラッキング方法を概略的に示す。3次元オブジェクト位置演算方法107から、キャリブレーション方法103によって、全てのオブジェクトに関する3次元オブジェクト位置を推定する。この推定については、シーン303における3次元モデルにおいて実行される。このシーン303では、例えば、先行するフレーム331a,bから、および、先行するフレーム330a,bの前のフレームから得られる3次元位置を、現在のフレーム332a,bの3次元オブジェクト位置に対する線型補間スキームあるいは高次補間スキームに基づく推定に使用する。
キングアルゴリズムがこのオブジェクトに対する検索を開始したフレーム)において予測された、2次元位置312a,bとなる。
1.全ての特定されたオブジェクトに関して、
(a)推定130を通じて有用な3次元位置を得られなかった場合に、3次元位置の近似値を演算する(3次元演算方法107において示したような、グランドレベル(ground−level)の条件を使用する)。
(i)上記の2次元位置の近くに位置する2次元の位置および形状情報123を決定する。
of min−cut/max−flow algorithms for energy minimization in vision):Boykov and Ko
lmogorov,IEEE Transactions on Pattern Analysis and Machine Intelligence 26,9,1124-1137,2004」に記載されている。切り取りの結果、境界ボックス501を、前景504と背景503との2値のセグメンテーションに区分(標識化)できる(すなわち、0(背景)および1(前景))。
・充填されフラグの付された背景テクスチャデータ125
・各カメラに関するオブジェクトテクスチャおよびアルファマスク、および、現実世界のオブジェクト、例えば、セグメンテーション情報126
・現実世界のオブジェクトの特定情報を有する、改良されたオブジェクトの2次元の位置および形状127
この3次元オブジェクト位置演算方法107は、現実世界の情報127を伴う改良された2次元位置およびサイズ情報と、(全ての)カメラのカメラ・キャリブレーション・データ122を使用して、(全ての)オブジェクトの3次元位置を決定するようになっている。この方法では、以下のステップが実行される。
・上記したトラッキング方法104では、1つ以上の先行するフレームから推定した3次元オブジェクト位置情報130を使用することが好ましい。
力は、オブジェクト128の3次元位置、カメラ・キャリブレーション・データ122、オブジェクトテクスチャおよびアルファマスク126、および、充填されフラグを付された背景テクスチャデータ125である。さらに、この入力には、周囲環境の3次元再構築データ135が含まれている。この3次元再構築データ135は、周囲環境データモジュール113、および/または、オブジェクトの形状から得られるものである。
1.仮想表示から得られるオブジェクトをレンダリングする。このレンダリングについては、シーンにおける特定の3次元表現を用いて、および、オブジェクトテクスチャ126および固定されたアルファ値(切り取りステップ106から得られる)あるいは表示に依存したアルファ値のいずれかを用いて実施する。この際、角度、解像度および視野に関する類似点を考慮する。キャリブレーションデータ122を用いた投影テクスチャリングを使用して、テクスチャマッピングを得ることが好ましい。角度の類似性は、仮想表示の光軸から相当に離れている光軸を有する表示を不利にする。解像度の類似性は、例えば、ターゲットの配置状態からかなり離れているカメラ、あるいは、一般的に低い解像度を有するカメラを不利にする。視野の類似性は、仮想表示におけるターゲットの配置状態を視認していないカメラ表示からのデータを不利にする。
図8に、充填されるべき欠損、および、ランドマークの貫通している欠損を含む画像を概略的に示す。この画像は背景のものであり、既知のテクスチャを用いて、背景部分801(「既知の領域」とも呼ばれる)および「未知の領域」すなわち欠損802に原画像をセグメンテーションすることによって生成されたものである。この欠損802は、オブジェクトが特定されて背景の外に切り取られた領域内の欠損である。本発明の好ましい実施形態では、背景内の欠損802を充填するステップは、以下のステップを反復適用するようになっていることが好ましい。
completion with structure propagation);
Sun,J.,Yuan,L.,Jia,J.,and Shum,H.,2005,In ACM SIGGRAPH 2005 Papers.J.Marks,Ed.SIGGRAPH ‘05.ACM Press,New York,NY,pp.861−868」を参照されたい。上記のようなパッチについては、矩形のあるいは円形の形状を有していることが好ましい。多数の宛先パッチ803a、80bが、互いに重なっていることも好ましい。本発明の好ましい実施形態では、重なり合っている宛先パッチが、共通の領域805内で合成されている。
するようにしてもよい。この実施形態では、パッチのサイズを、ランドマークにおける少なくとも1つの最大幅をカバーできるように選択することが好ましい。
い、カメラに近い位置804fに対応するソースパッチを要求するランドマークを投影することになる。投影幾何計算を用いると、パッチの比較および適用中に、ソースパッチ804f、804gと宛先パッチ803fとの間の倍率を決定して適用することが可能となる。この倍率については、ソースパッチおよび宛先パッチのそれぞれのサイズを選択する際にも使用することが好ましい。
102 少なくとも2つのビデオストリーム(120)に対する内部メモリへの収集
103 キャリブレーション方法
104 トラッキング方法
105 オブジェクト特定方法
106 オブジェクト切り取り方法
107 3次元オブジェクト位置演算方法
108 補間画像合成方法
109 結果として得られるビデオストリームの宛先(消費者)
110 現実世界のオブジェクト(選手、ゴールキーパー、審判、ボール)に関する情報(チーム、名前、メンバーなど)を含むリソース(ファイル、データベースなど)
113 周囲環境(3次元、CADなど)に関する情報を提供するリソース(ファイル、データベース、モデルなど)
120 少なくとも2つの孤立したビデオストリーム
121 色テクスチャデータ
122 カメラ・キャリブレーション・データ
123 オブジェクトの2次元位置および形状
124 オブジェクトの2次元位置および形状、および、現実世界のオブジェクトの特定情報
125 充填されフラグを付された背景テクスチャデータ
126 オブジェクトテクスチャ、および、カメラおよび現実世界のオブジェクトごとのアルファマスク(例えばセグメンテーション情報)
127 現実世界のオブジェクトの特定情報を有する改良されたオブジェクトの2次元の位置および形状
128 オブジェクトの3次元位置
129 同期補間ビデオストリーム
130 オブジェクトの推定3次元位置
131 現実のあるいは推定したカメラ・キャリブレーション・データ
132 (110)に保存されているような現実世界のオブジェクトに関する情報
135 周囲環境に関する3次元モデル、データあるいは同様の情報
201 遠近法によって何らかのフィーチャを表示するビデオストリームにおける第1の画像
202 フィーチャを伴うシーンの概略図
203a〜d ビデオ画像内のマークを付されたフィーチャ
204a〜d 概略図中における対応するフィーチャ
301 時間t−n(n>0)におけるビデオストリームのフレーム
302 時間tにおけるビデオストリームのフレーム
303 さまざまな時間におけるシーンの3次元状態の概略図
310a,b フレーム301におけるオブジェクトA,Bの2次元位置
311a,b オブジェクトA,Bにおける、現実の軌道および推定した軌道
312a,b フレーム310(画像空間)におけるオブジェクトA,Bの推定2次元位置
320a,b フレーム302におけるオブジェクトA,Bの現実の2次元位置
321a,b フレーム302(同一の画像空間配置)における312a,bとまさに同一の2次元位置
330a,b 時間t−2nにおけるオブジェクトA,Bの既知の3次元位置
331a,b 時間t−nにおけるオブジェクトA,Bの既知の3次元位置
332a,b 時間tにおけるオブジェクトA,Bの推定3次元位置
401 2次元で衝突している2つのオブジェクトA,Bに関するシーンに対するカメラの表示
402 他のカメラによって表示されている、401のものと同一のシーン
403 3次元でのシーンの概略図(俯瞰図)
410a,b 401における時間t0でのオブジェクトA,Bの2次元位置
411a,b 401における時間t1でのオブジェクトA,Bの2次元位置
420a,b 402における時間t0でのオブジェクトA,Bの2次元位置
421a,b 402における時間t1でのオブジェクトA,Bの2次元位置
430a,b 時間t0でのオブジェクトA,Bの3次元位置
431a,b 時間t1でのオブジェクトA,Bの3次元位置
501 境界ボックス
502 境界ボックスの内部に完全に納まっているオブジェクト
503 境界ボックスの背景部分の一部
504 境界ボックスの前景部分の一部(オブジェクトに属するもの)
505 画素から構成されている前景と配置との間の境界部分の拡大図
506 100%の背景として分類することのできる画素の一部
507 100%の背景あるいは100%の前景として分類することはできないものの、例えば57%の前景であると分類できる画素の一部
508 100%の前景として分類することのできる画素の一部
509 左下の角でその位置を規定されている境界ボックス
510 …およびその幅…
511 …およびその高さ…
601 (123)および(124)によって得られる境界ボックスであって、オブジェクトの境界と比較して大きすぎる境界ボックス
602 オブジェクト切り取り方法(106)を経て改良された境界ボックス
603 (123)および(124)によって得られる境界ボックスであって、オブジェクトの境界と交叉している境界ボックス
604 3次元位置演算方法(107)に関する、境界ボックスのアンカーポイント
801 画像における既知の領域
802 画像における未知の領域(すなわち欠損)
803a,b 重なり合っている宛先パッチ
803c,d 欠損の両側においてランドマーク(806a)上にある宛先パッチ
804a ソースパッチ
804b 異なるサイズおよび方向を有するソースパッチ
804c,d ランドマーク(806a)上のソースパッチ
805 宛先パッチの重なり合った領域
806a 投影されたライン状のランドマーク
806b 投影されたサークル状のランドマーク
806c ランドマークの方向に垂直な幅を有するランドマーク
807 ランドマークにおける、欠損の内部に位置する部分
808a,b 投影されたサークル状のランドマークの基準値
809 パッチに対応した2つの基準値間の角度
810 ランドマークにおける、欠損の内部に位置する部分の長さ
811 幅によって規定されるランドマーク(806c)の境界
812 ランドマーク(806c)に属するように分類された画素
813 ランドマーク(806c)に属しないように分類された画素
814 ランドマーク(806c)に部分的に属するように分類された画素
901 ピッチ、競技場
902 3次元のスタジアムモデル
903 ビルボード
Claims (32)
- 動的に変化する3次元のシーンに関する3次元表現を生成する方法であって、
(a)異なる場所に配置され、同じ3次元シーン(701)を観察している少なくとも2台のカメラ(702)から得られる、少なくとも2つのビデオストリーム(120)を取得するステップ(102)と、
(b)前記少なくとも2台のカメラ(702)に関し、位置、方向、および内部パラメータを含むカメラパラメータ(122)を決定するステップ(103)と、
(c)前記少なくとも2つのビデオストリーム内のオブジェクト(310a,b、312a,b、330a,b、331a,b、332a,b、410a,b、411a,b、430a,b、431a,b、420a,b、421a,b)の動きをトラッキングするステップ(104)と、
(d)前記少なくとも2つのビデオストリーム内における前記オブジェクトの固有性を決定するステップ(105)と、
(e)前記少なくとも2つのビデオストリームから得られる情報を結合することによって、オブジェクトの3次元位置を決定するステップ(107)とを備え、
上記列挙したステップ(103、104、105)の少なくとも1つが、後続のステップ(107)の1つによって前記少なくとも2つのビデオストリームから得られる情報に依拠していることを特徴とする方法。 - (f)ビデオストリーム内のオブジェクトに対応する3次元レンダリングされたオブジェクト(903)の位置および方向を決定するステップをさらに備え、3次元レンダリングされたオブジェクト(903)は、シーンの3次元表現を生成するときに、1つ以上のビデオストリームから得られる画像情報のレンダリングに用いられる、請求項1に記載の方法。
- 少なくとも1つのオブジェクトの3次元位置は、当該オブジェクト(332a,b)の先行する少なくとも2つの3次元位置から推定される、請求項1または2に記載の方法。
- 前記少なくとも2つのビデオストリーム(12)内のオブジェクト(310a,b、312a,b、330a,b、331a,b、332a,b、410a,b、411a,b、430a,b、431a,b、420a,b、421a,b)の動きをトラッキングするステップ(104)は、前記後続のステップ(107)の1つにおいて、前記少なくとも2つのビデオストリームから得られる、先行する1つ以上の瞬間に生じる情報を使用する、上記した請求項のいずれか1つに記載の方法。
- 前記先行する1つ以上の瞬間に得られる情報は、オブジェクト(130)の3次元位置である、請求項4に記載の方法。
- 前記少なくとも2つのビデオストリーム(120)内におけるオブジェクトの固有性を決定するステップ(105)は、前記後続のステップ(107)の1つにおいて、前記少なくとも2つのビデオストリーム(120)から得られる、先行する1つ以上の瞬間に生じる情報を使用する、上記した請求項のいずれか1つに記載の方法。
- 前記先行する1つ以上の瞬間に得られる情報は、オブジェクト(130)の3次元位置である、請求項6に記載の方法。
- 前記カメラパラメータ(122)の決定(103)に使用される参照フィーチャは、競技場の上のフィーチャであり、ビデオ静止画像内でユーザが以下のことを行なうことによって特定する、
・図形入力装置を用いて、競技場(204a〜d)の概略的な表現における同一の参照フィーチャの表現を提示するとともに、参照フィーチャの前記表現を選択し、
・図形入力装置を用いて、ビデオ静止画像(203a〜d)に見られるような特定の参照フィーチャを指定するとともに、前記参照フィーチャを選択し、
・参照フィーチャの表現における固有性を、静止画像に見られる参照フィーチャに関連付ける、
上記した請求項のいずれか1つに記載の方法。 - ビデオ静止画像(203a〜d)内で前記参照フィーチャを選択する際、以下のステップによって、ビデオ静止画像内での参照フィーチャの正確な位置を決定する、
・ユーザによって選択された位置の近傍において、フィーチャの抽出、および、特に、ライン(203c)、交叉点、およびコーナー(203a、203b)の抽出を自動的に実行するステップ、
・抽出されたフィーチャ、特に、競技場の概略表現内で選択されたものと同じ種類のフィーチャの1つの位置となるような参照フィーチャの位置を決定するステップ、
請求項8に記載の方法。 - 前記オブジェクトの動きをトラッキングするステップ(104)は、トラッキング機能(104)によってカメラパラメータ(131)の変化を補償できるように、カメラパラメータ(131)を動的に変更する機能をトラッキング機能(104)に取り込むステップを含む、上記した請求項のいずれか1つに記載の方法。
- トラッキング機能において考慮されるカメラパラメータは、トラッキングが実行されるものと同一のビデオフレームについて実施されるカメラ・キャリブレーション・ステップ(103)によって決定されるカメラパラメータ(131)である、請求項10に記載の方法。
- トラッキング機能において考慮されるカメラパラメータは、先行する1つ以上のビデオフレームについて実施されるカメラ・キャリブレーション・ステップ(103)によって決定され、かつ任意的に推定されるカメラパラメータ(131)である、請求項10に記載の方法。
- オブジェクトの特定情報を初期化するために、以下のステップを実行する、
・ユーザによって、1つのビデオストリームの静止画像において1つのオブジェクトを選択し、固有の識別子を割り当てるステップ、
・少なくとも1つの他のビデオストリームにおける他の静止画像において、同一の固有性を有するオブジェクトを自動的に決定するステップ、
上記した請求項のいずれか1つに記載の方法。 - 特定されていないオブジェクト、あるいは特定できないオブジェクトが、ビデオストリームの1つに出現した場合に、以下のステップを実行する、
・未確認のオブジェクトが存在していることをユーザに警告するステップ、
・ユーザが識別子をオブジェクトに関連付けることに同意するステップ、
請求項13に記載の方法。 - 前記オブジェクトは、少なくとも2つのカテゴリの1つに属するように分類され、これらのカテゴリは、好ましくは統計上のモデルに基づいており、第1のチーム、第2のチーム、ボール、および審判の少なくとも2つを含む、上記した請求項のいずれか1つに記載の方法。
- 前記方法は、オブジェクトを背景から分離するセグメンテーションステップ(106)を備え、このステップは、
・各画像要素に対して、画素がオブジェクトあるいは背景の一部である可能性を表現する値を割り当てるためにアルファチャンネル整合を使用するステップ、
を含む、上記した請求項のいずれか1つに記載の方法。 - 前記方法は、オブジェクトを背景から分離するセグメンテーションステップ(106)を備え、このステップは、
・オブジェクトを除去した後に、対応する欠損あるいは背景に残存する未知の部分を画像修復によって充填し、このように修復された画像要素に対して、合成画像データであることを示すマークをつけるステップ、
を含む、上記した請求項のいずれか1つに記載の方法。 - セグメンテーションステップ(106)は、オブジェクトの周囲にある境界ボックス(501、601、602、603)の位置およびサイズをより正確にするステップを含む、請求項16あるいは17に記載の方法。
- 背景の欠損を充填するステップは、
・欠損(802)を充填するために、現実の画像データを含んでいるソースパッチ(804a、804b、804c、804d)に対応する画像データを、画像の未知の部分を含んでいる宛先パッチ(803a、803b、803c、803d)にマッピングするステップを含み、前記マッピングするステップは、複数のパッチを、これらの空間的な関係に応じて変形するステップを含む、請求項17あるいは18に記載の方法。 - 前記方法は、
・現実の画像データを含んでいるソースパッチ(804c、804d)に対応する画像データを、画像の未知の部分を含んでいる宛先パッチ(803c、803d)にマッピングするステップを備え、これにより欠損(802)が充填され、画像の未知の部分がランドマークフィーチャ(807)を含むことが知られており、
・宛先パッチ(803c、803d)を選択することによって、ランドマークフィーチャ(807)の少なくとも一部をカバーするとともに、既知の画像を検索することによって、ランドマーク(806a)に沿ったソースパッチ(804c、804d)を整合するステップを備える、請求項17〜19のいずれか1つに記載の方法。 - 前記方法は、
・サークル状のランドマーク(806b)の部分を含んでいる欠損を充填するために、前記サークル状のランドマーク(806b)に沿った位置に応じて宛先パッチ(803e)をパッチを変形、好ましくは回転、拡大・縮小することによって、当該宛先パッチ(803e)をソースパッチ(804e)に(およびその逆に)マップするステップを備える、請求項20に記載の方法。 - 前記方法は、
・直線状のランドマークの部分を含む欠損を充填するために、直線状のランドマークに沿った位置に応じて宛先パッチを変形、好ましくは拡大・縮小することによって、当該宛先パッチをソースパッチに(およびその逆に)マップするステップを備える、請求項20に記載の方法。 - 前記方法は、
・線状のランドマークを線幅に関連付けるステップと、
・前記線幅に従って、ソースパッチおよび/または宛先パッチ内の画像要素を、ランド
マーク(812)の一部となるように、あるいは、ランドマーク(813)の一部とならないように分類するステップと、
・ソースパッチ(804c、804d)を整合するために既知の画像を検索するとき、および、ソースパッチ(804c、804d)を宛先パッチ(803c、803d)にコピーするときに、ランドマークの一部となっている画像要素だけを考慮するステップと、を備える、請求項20〜22のいずれか1つに記載の方法。 - 前記方法は、以下のステップを行なうことで、カメラ位置とは異なる仮想視点から得られる合成表示を提供するステップ(108)を備える、
・仮想カメラ(703)のカメラパラメータを準備するステップ、
・背景モデル(901、902)上の仮想カメラ(703)によって視認されるような背景画像を決定するステップ、
・仮想カメラ(703)に対する各オブジェクトの投影を決定し、これを背景画像に重ねるステップ、
・保存あるいは他の処理のために結合画像を出力するステップ、
上記した請求項のいずれか1つに記載の方法。 - 仮想カメラ(703)によって視認されるような背景画像を決定するステップは、
・各背景画像要素について、同一の背景位置に対応する異なるビデオストリームから得られる画像情報を合成するステップと、
・合成画像データとなるようにマークされていない画像情報に優先権を与えるステップと、
・背景を表現する1つ以上の表面(901、902)を含んでいる背景モデル上に画像情報をレンダリングするステップとを含む、請求項24に記載の方法。 - 背景モデル内において背景を表現する表面は、競技場あるいは競技場(701)を表現する表面(901)となっており、任意的に、3次元の周囲環境モデルを表現する表面(902)を含む、請求項25に記載の方法。
- 前記仮想カメラ(703)によって視認されるような背景画像を決定するステップは、
・背景モデル(901、902)上に所定の画像データをレンダリングし、それをビデオストリームによって得られる画像情報に重ねるか、あるいは、この画像情報と入れ替えるステップ、をさらに含んでいる、請求項18〜20のいずれか1つに記載の方法。 - 仮想カメラ(703)に対する各オブジェクトの投影を決定するステップは、
・3次元背景モデル(901、902)に配された3次元レンダリングされたオブジェクト(903)上に、1つ以上のビデオストリームから得られる画像情報をレンダリングするステップを含む、請求項24〜27のいずれか1つに記載の方法。 - 動的に変化する3次元のシーンに関する3次元表現を生成するためのデータ処理システムであって、
(a)異なる場所に配置され、同じ3次元シーンを観察している少なくとも2台のカメラから得られる、少なくとも2つのビデオストリームを取得するデータ収集モジュール(102)と、
(b)前記少なくとも2台のカメラに関し、位置、方向、および内部パラメータを含むカメラパラメータを決定するカメラ・キャリブレーション・モジュール(103)と、
(c)前記少なくとも2つのビデオストリーム内のオブジェクトの動きをトラッキングする2次元トラッキングモジュール(104)と、
(d)前記少なくとも2つのビデオストリーム内における前記オブジェクトの固有性を決定するオブジェクト特定モジュール(105)と、
(e)前記少なくとも2つのビデオストリームから得られる情報を結合することによって、オブジェクトの3次元位置(128)を決定する3次元結合および3次元オブジェクト位置演算モジュール(107)とを備え、
上記列挙したモジュール(103、104、105)の少なくとも1つのが、後続のステップ(107)の1つによって前記少なくとも2つのビデオストリームから得られる情報に依拠するように構成されていることを特徴とするデータ処理システム。 - 前記3次元結合および3次元オブジェクト位置演算モジュール(107)は、
(f)ビデオストリーム内のオブジェクトに対応する3次元レンダリングされたオブジェクト(903)の位置および方向を決定する機能を提供するように構成されており、3次元レンダリングされたオブジェクト(903)は、シーンの3次元表現を生成するときに、1つ以上のビデオストリームから得られる画像情報のレンダリングに用いられる、請求項23に記載のデータ処理システム。 - 前記データ処理システムは、以下のことを決定するためのオブジェクト切り取りモジュール(106)を備える、
・現実の画像データから特定の画像パッチあるいは特定の画素を得られるか、あるいは、これらを合成によって生成したことを示すフラグを含んでいる、充填されるべき背景テクスチャデータ(125)、
・各ビデオストリームおよびトラッキングされている各オブジェクトに関するオブジェクトテクスチャおよびアルファマスク(126)、
・トラッキングされている各オブジェクトに関し、オブジェクトの2次元の位置および形状、および、現実世界のオブジェクトの特定情報(127)、
請求項30に記載のデータ処理システム。 - オブジェクトの3次元位置(128)から、充填されるべき背景テクスチャデータ(125)およびオブジェクトテクスチャとアルファマスク(126)、ビデオデータとを、消費者(109)に供給するための、画像合成モジュール(108)を備える、請求項31に記載のデータ処理システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP06405248A EP1862969A1 (en) | 2006-06-02 | 2006-06-02 | Method and system for generating a representation of a dynamically changing 3D scene |
PCT/CH2007/000265 WO2007140638A1 (en) | 2006-06-02 | 2007-05-24 | Method and system for generating a 3d representation of a dynamically changing 3d scene |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009539155A true JP2009539155A (ja) | 2009-11-12 |
JP2009539155A5 JP2009539155A5 (ja) | 2010-05-27 |
Family
ID=36968926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009512386A Pending JP2009539155A (ja) | 2006-06-02 | 2007-05-24 | 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9406131B2 (ja) |
EP (3) | EP1862969A1 (ja) |
JP (1) | JP2009539155A (ja) |
ES (2) | ES2585903T3 (ja) |
WO (1) | WO2007140638A1 (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011166761A (ja) * | 2010-02-05 | 2011-08-25 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
JP2011170487A (ja) * | 2010-02-17 | 2011-09-01 | Kddi Corp | 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム |
JP2011238222A (ja) * | 2010-04-30 | 2011-11-24 | Liberovision Ag | 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法 |
JP2012221106A (ja) * | 2011-04-06 | 2012-11-12 | Nippon Hoso Kyokai <Nhk> | 画像修正装置およびそのプログラム |
WO2015167738A1 (en) * | 2014-04-30 | 2015-11-05 | Replay Technologies Inc. | System and method of limiting processing by a 3d reconstruction system of an environment in a 3d reconstruction of an event occurring in an event space |
JP2015534766A (ja) * | 2012-09-24 | 2015-12-03 | サムスン エレクトロニクス カンパニー リミテッド | 多視点映像生成方法及び多視点映像ディスプレイ装置 |
JP2016014837A (ja) * | 2014-07-03 | 2016-01-28 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2017102708A (ja) * | 2015-12-02 | 2017-06-08 | 日本放送協会 | オブジェクト追跡装置及びそのプログラム |
JP2017130889A (ja) * | 2016-01-22 | 2017-07-27 | Kddi株式会社 | カメラのキャリブレーション装置、方法及びプログラム |
JP2017143351A (ja) * | 2016-02-08 | 2017-08-17 | Kddi株式会社 | カメラのキャリブレーション装置、方法及びプログラム |
KR101788626B1 (ko) | 2014-03-18 | 2017-10-20 | 라이브2디 인크. | 화상처리장치, 화상처리방법 및 프로그램 |
WO2018043225A1 (ja) * | 2016-09-01 | 2018-03-08 | パナソニックIpマネジメント株式会社 | 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム |
JP2018198463A (ja) * | 2018-09-11 | 2018-12-13 | 日本電信電話株式会社 | 画像処理装置、画像処理方法及びコンピュータプログラム |
JP6473214B1 (ja) * | 2017-11-24 | 2019-02-20 | 株式会社Live2D | プログラム、記録媒体及び描画方法 |
JP2020025320A (ja) * | 2016-01-28 | 2020-02-13 | 日本電信電話株式会社 | 映像提示装置、映像提示方法、およびプログラム |
JPWO2019021375A1 (ja) * | 2017-07-25 | 2020-03-26 | 富士通株式会社 | 映像生成プログラム、映像生成方法および映像生成装置 |
JP2020201863A (ja) * | 2019-06-13 | 2020-12-17 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11200675B2 (en) * | 2017-02-20 | 2021-12-14 | Sony Corporation | Image processing apparatus and image processing method |
JP2021196870A (ja) * | 2020-06-15 | 2021-12-27 | Kddi株式会社 | 仮想視点レンダリング装置、方法及びプログラム |
WO2022191010A1 (ja) * | 2021-03-12 | 2022-09-15 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
Families Citing this family (164)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1862969A1 (en) * | 2006-06-02 | 2007-12-05 | Eidgenössische Technische Hochschule Zürich | Method and system for generating a representation of a dynamically changing 3D scene |
US8339418B1 (en) * | 2007-06-25 | 2012-12-25 | Pacific Arts Corporation | Embedding a real time video into a virtual environment |
WO2009006605A2 (en) * | 2007-07-03 | 2009-01-08 | Pivotal Vision, Llc | Motion-validating remote monitoring system |
JP4947593B2 (ja) * | 2007-07-31 | 2012-06-06 | Kddi株式会社 | 局所領域分割による自由視点画像の生成装置およびプログラム |
US8031210B2 (en) * | 2007-09-30 | 2011-10-04 | Rdv Systems Ltd. | Method and apparatus for creating a composite image |
JP5079547B2 (ja) * | 2008-03-03 | 2012-11-21 | Toa株式会社 | カメラキャリブレーション装置およびカメラキャリブレーション方法 |
FR2929421B1 (fr) * | 2008-03-25 | 2012-04-27 | Thales Sa | Procede de reconstruction synthetique tridimensionnelle d'objets exposes a une onde electromagnetique et/ou elastique |
US8477246B2 (en) * | 2008-07-11 | 2013-07-02 | The Board Of Trustees Of The Leland Stanford Junior University | Systems, methods and devices for augmenting video content |
KR101502362B1 (ko) * | 2008-10-10 | 2015-03-13 | 삼성전자주식회사 | 영상처리 장치 및 방법 |
CN102257827B (zh) * | 2008-12-19 | 2014-10-01 | 皇家飞利浦电子股份有限公司 | 从图像创建深度图 |
JP2010161633A (ja) * | 2009-01-08 | 2010-07-22 | Tokyo Electric Power Co Inc:The | 複数カメラ水平設置装置、複数カメラの水平設置方法およびステレオ撮影装置 |
US8812226B2 (en) * | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
US8395642B2 (en) * | 2009-03-17 | 2013-03-12 | Mitsubishi Electric Research Laboratories, Inc. | Method for virtual image synthesis |
BRPI1015459A2 (pt) * | 2009-03-29 | 2016-04-26 | Nomad3D Sas | método e sistemas para processar, armazenar, codificar e descodificar dados e representação tridimensional |
US8341241B2 (en) * | 2009-04-14 | 2012-12-25 | At&T Intellectual Property I, L.P. | Method and apparatus for presenting media content |
US8452087B2 (en) | 2009-09-30 | 2013-05-28 | Microsoft Corporation | Image selection techniques |
US10375287B2 (en) * | 2009-10-21 | 2019-08-06 | Disney Enterprises, Inc. | Object trail-based analysis and control of video |
EP2499827A4 (en) * | 2009-11-13 | 2018-01-03 | Pixel Velocity, Inc. | Method for tracking an object through an environment across multiple cameras |
CN102103457B (zh) * | 2009-12-18 | 2013-11-20 | 深圳富泰宏精密工业有限公司 | 简报操作系统及方法 |
DE102009055127A1 (de) * | 2009-12-22 | 2011-06-30 | Robert Bosch GmbH, 70469 | Vorrichtung und Verfahren zum Überwachen von Videoobjekten |
CA3042453C (en) | 2010-01-05 | 2020-11-10 | Isolynx, Llc | Systems and methods for analyzing event data |
US8411948B2 (en) | 2010-03-05 | 2013-04-02 | Microsoft Corporation | Up-sampling binary images for segmentation |
US8422769B2 (en) * | 2010-03-05 | 2013-04-16 | Microsoft Corporation | Image segmentation using reduced foreground training data |
WO2011121117A1 (en) * | 2010-04-02 | 2011-10-06 | Imec | Virtual camera system |
KR101080375B1 (ko) * | 2010-04-23 | 2011-11-04 | 광주과학기술원 | 객체 학습 방법, 객체 학습 방법을 이용한 객체 추적 방법, 객체 학습 및 추적 시스템 |
US8639020B1 (en) | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
EP2413286A1 (en) | 2010-07-29 | 2012-02-01 | LiberoVision AG | Image processing method and device for instant replay |
KR101630281B1 (ko) * | 2010-08-06 | 2016-06-15 | 한화테크윈 주식회사 | 영상 처리 장치 |
KR101355974B1 (ko) * | 2010-08-24 | 2014-01-29 | 한국전자통신연구원 | 복수의 객체를 추적하는 객체 추적 방법 및 장치 |
JP5652097B2 (ja) * | 2010-10-01 | 2015-01-14 | ソニー株式会社 | 画像処理装置、プログラム及び画像処理方法 |
KR20120059367A (ko) * | 2010-11-30 | 2012-06-08 | 삼성전자주식회사 | 에너지값을 이용한 이미지 처리 장치와 그 이미지 처리 방법 및 디스플레이 방법 |
US8570320B2 (en) * | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US20130321625A1 (en) * | 2011-03-28 | 2013-12-05 | Nikon Corporation | Electronic device and information transmission system |
US20140037213A1 (en) | 2011-04-11 | 2014-02-06 | Liberovision Ag | Image processing |
JP5966256B2 (ja) * | 2011-05-23 | 2016-08-10 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
KR20130001869A (ko) * | 2011-06-28 | 2013-01-07 | 삼성전자주식회사 | 영상처리장치 및 영상처리방법 |
US9390752B1 (en) * | 2011-09-06 | 2016-07-12 | Avid Technology, Inc. | Multi-channel video editing |
EP2754288A4 (en) * | 2011-09-07 | 2015-06-03 | Umoove Ltd | SYSTEM AND METHOD FOR TRACKING AN OBJECT IN AN IMAGE CAPTURED BY A MOBILE DEVICE |
CN103765880B (zh) * | 2011-09-12 | 2016-05-18 | 英特尔公司 | 局部化分割的图像的连网捕捉和三维显示 |
US9007373B2 (en) | 2011-10-12 | 2015-04-14 | Yale University | Systems and methods for creating texture exemplars |
US9153062B2 (en) | 2012-02-29 | 2015-10-06 | Yale University | Systems and methods for sketching and imaging |
US9149309B2 (en) | 2012-03-23 | 2015-10-06 | Yale University | Systems and methods for sketching designs in context |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
CN103379355B (zh) * | 2012-04-25 | 2015-10-28 | 浙江大学 | 一种立体视频对产生方法及装置 |
US8855442B2 (en) * | 2012-04-30 | 2014-10-07 | Yuri Owechko | Image registration of multimodal data using 3D-GeoArcs |
KR101913321B1 (ko) | 2012-05-10 | 2018-10-30 | 삼성전자주식회사 | 깊이 센서 기반 반사 객체의 형상 취득 방법 및 장치 |
US9846960B2 (en) | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
US20130321564A1 (en) | 2012-05-31 | 2013-12-05 | Microsoft Corporation | Perspective-correct communication window with motion parallax |
US9767598B2 (en) | 2012-05-31 | 2017-09-19 | Microsoft Technology Licensing, Llc | Smoothing and robust normal estimation for 3D point clouds |
WO2014014928A2 (en) * | 2012-07-18 | 2014-01-23 | Yale University | Systems and methods for three-dimensional sketching and imaging |
JP5887026B2 (ja) * | 2012-09-03 | 2016-03-16 | ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH | ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法 |
US20140104394A1 (en) * | 2012-10-15 | 2014-04-17 | Intel Corporation | System and method for combining data from multiple depth cameras |
US10657694B2 (en) * | 2012-10-15 | 2020-05-19 | Tangible Play, Inc. | Activity surface detection, display and enhancement of a virtual scene |
US10033943B1 (en) | 2012-10-15 | 2018-07-24 | Tangible Play, Inc. | Activity surface detection, display and enhancement |
US9158389B1 (en) | 2012-10-15 | 2015-10-13 | Tangible Play, Inc. | Virtualization of tangible interface objects |
US20140139632A1 (en) * | 2012-11-21 | 2014-05-22 | Lsi Corporation | Depth imaging method and apparatus with adaptive illumination of an object of interest |
US10084994B2 (en) * | 2012-12-12 | 2018-09-25 | Verint Systems Ltd. | Live streaming video over 3D |
US10165157B2 (en) * | 2013-02-19 | 2018-12-25 | Disney Enterprises, Inc. | Method and device for hybrid robotic/virtual pan-tilt-zoom cameras for autonomous event recording |
US9142019B2 (en) * | 2013-02-28 | 2015-09-22 | Google Technology Holdings LLC | System for 2D/3D spatial feature processing |
US9191643B2 (en) * | 2013-04-15 | 2015-11-17 | Microsoft Technology Licensing, Llc | Mixing infrared and color component data point clouds |
US9380286B2 (en) | 2013-04-19 | 2016-06-28 | Adobe Systems Incorporated | Stereoscopic target region filling |
US9350969B2 (en) | 2013-04-19 | 2016-05-24 | Adobe Systems Incorporated | Target region filling involving source regions, depth information, or occlusions |
JP6182607B2 (ja) * | 2013-06-14 | 2017-08-16 | 株式会社日立製作所 | 映像監視システム、監視装置 |
US20190079739A1 (en) * | 2016-01-11 | 2019-03-14 | New Sapience, Inc. | Method and system for machine comprehension |
KR20160034259A (ko) * | 2013-07-18 | 2016-03-29 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
US10121254B2 (en) | 2013-08-29 | 2018-11-06 | Disney Enterprises, Inc. | Methods and systems of detecting object boundaries |
US9646384B2 (en) | 2013-09-11 | 2017-05-09 | Google Technology Holdings LLC | 3D feature descriptors with camera pose information |
US20150097827A1 (en) * | 2013-10-09 | 2015-04-09 | Adobe Systems Incorporated | Target Region Fill Utilizing Transformations |
US8760500B1 (en) * | 2013-10-23 | 2014-06-24 | Google Inc. | Depth map generation |
CN103578107B (zh) * | 2013-11-07 | 2016-09-14 | 中科创达软件股份有限公司 | 一种交互式图像分割方法 |
TWI570666B (zh) * | 2013-11-15 | 2017-02-11 | 財團法人資訊工業策進會 | 電子裝置及其影片物體追蹤方法 |
KR101586249B1 (ko) * | 2013-12-24 | 2016-01-18 | (주)에프엑스기어 | 광 시야각 영상 처리 장치 및 방법 |
US9262740B1 (en) * | 2014-01-21 | 2016-02-16 | Utec Survey, Inc. | Method for monitoring a plurality of tagged assets on an offshore asset |
EP2899689A1 (en) * | 2014-01-23 | 2015-07-29 | Thomson Licensing | Method for inpainting a target area in a target video |
DE102014106854A1 (de) * | 2014-05-15 | 2016-01-28 | Odos Imaging Ltd. | Bildgebendes System und Verfahren zum Überwachen eines Sichtfeldes |
US9332285B1 (en) * | 2014-05-28 | 2016-05-03 | Lucasfilm Entertainment Company Ltd. | Switching modes of a media content item |
JP2016046642A (ja) * | 2014-08-21 | 2016-04-04 | キヤノン株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP6747292B2 (ja) * | 2014-09-19 | 2020-08-26 | 日本電気株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US10925579B2 (en) * | 2014-11-05 | 2021-02-23 | Otsuka Medical Devices Co., Ltd. | Systems and methods for real-time tracking of a target tissue using imaging before and during therapy delivery |
GB2532077B (en) * | 2014-11-10 | 2017-11-22 | Vision Rt Ltd | Method of calibrating a patient monitoring system for use with a radiotherapy treatment apparatus |
EP3029631A1 (en) * | 2014-12-04 | 2016-06-08 | Thomson Licensing | A method and apparatus for assisted object selection in video sequences |
GB2533360A (en) * | 2014-12-18 | 2016-06-22 | Nokia Technologies Oy | Method, apparatus and computer program product for processing multi-camera media content |
US11019330B2 (en) * | 2015-01-19 | 2021-05-25 | Aquifi, Inc. | Multiple camera system with auto recalibration |
US10356393B1 (en) * | 2015-02-16 | 2019-07-16 | Amazon Technologies, Inc. | High resolution 3D content |
KR101803474B1 (ko) * | 2015-03-02 | 2017-11-30 | 한국전자통신연구원 | 다시점 실감 콘텐츠 생성 방법 및 그 장치 |
US10475239B1 (en) * | 2015-04-14 | 2019-11-12 | ETAK Systems, LLC | Systems and methods for obtaining accurate 3D modeling data with a multiple camera apparatus |
US10019806B2 (en) * | 2015-04-15 | 2018-07-10 | Sportsmedia Technology Corporation | Determining x,y,z,t biomechanics of moving actor with multiple cameras |
FR3039919B1 (fr) * | 2015-08-04 | 2018-01-19 | Neosensys | Suivi d’une cible dans un reseau de cameras |
US10419788B2 (en) | 2015-09-30 | 2019-09-17 | Nathan Dhilan Arimilli | Creation of virtual cameras for viewing real-time events |
WO2017079660A1 (en) * | 2015-11-04 | 2017-05-11 | Intel Corporation | High-fidelity 3d reconstruction using facial features lookup and skeletal poses in voxel models |
JP6674247B2 (ja) * | 2015-12-14 | 2020-04-01 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびコンピュータプログラム |
US10471304B2 (en) | 2016-03-08 | 2019-11-12 | Sportsmedia Technology Corporation | Systems and methods for integrated automated sports data collection and analytics platform |
GB201604535D0 (en) * | 2016-03-17 | 2016-05-04 | Apical Ltd | 2D to 3D |
TWI608448B (zh) * | 2016-03-25 | 2017-12-11 | 晶睿通訊股份有限公司 | 計數流道設定方法、具有計數流道設定功能的影像監控系統、及其相關的電腦可讀取媒體 |
US10204444B2 (en) * | 2016-04-28 | 2019-02-12 | Verizon Patent And Licensing Inc. | Methods and systems for creating and manipulating an individually-manipulable volumetric model of an object |
JP6672075B2 (ja) * | 2016-05-25 | 2020-03-25 | キヤノン株式会社 | 制御装置、制御方法、及び、プログラム |
EP3270356A1 (en) * | 2016-07-12 | 2018-01-17 | Alcatel Lucent | Method and apparatus for displaying an image transition |
US10013798B2 (en) | 2016-08-30 | 2018-07-03 | The Boeing Company | 3D vehicle localizing using geoarcs |
US10402675B2 (en) | 2016-08-30 | 2019-09-03 | The Boeing Company | 2D vehicle localizing using geoarcs |
US10204418B2 (en) | 2016-09-07 | 2019-02-12 | Nokia Technologies Oy | Method and apparatus for facilitating stereo vision through the use of multi-layer shifting |
US10290119B2 (en) * | 2016-09-15 | 2019-05-14 | Sportsmedia Technology Corporation | Multi view camera registration |
WO2018089040A1 (en) * | 2016-11-14 | 2018-05-17 | Lightcraft Technology Llc | Spectator virtual reality system |
JP6482580B2 (ja) * | 2017-02-10 | 2019-03-13 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7159057B2 (ja) * | 2017-02-10 | 2022-10-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点映像生成方法及び自由視点映像生成システム |
US10204423B2 (en) * | 2017-02-13 | 2019-02-12 | Adobe Inc. | Visual odometry using object priors |
JP7212611B2 (ja) * | 2017-02-27 | 2023-01-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 画像配信方法、画像表示方法、画像配信装置及び画像表示装置 |
JP2018180687A (ja) * | 2017-04-05 | 2018-11-15 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
EP3625772A1 (en) | 2017-05-18 | 2020-03-25 | PCMS Holdings, Inc. | System and method for distributing and rendering content as spherical video and 3d asset combination |
US20180339730A1 (en) * | 2017-05-26 | 2018-11-29 | Dura Operating, Llc | Method and system for generating a wide-area perception scene graph |
US10297087B2 (en) | 2017-05-31 | 2019-05-21 | Verizon Patent And Licensing Inc. | Methods and systems for generating a merged reality scene based on a virtual object and on a real-world object represented from different vantage points in different video data streams |
US10269181B2 (en) * | 2017-05-31 | 2019-04-23 | Verizon Patent And Licensing Inc. | Methods and systems for generating a virtualized projection of a customized view of a real-world scene for inclusion within virtual reality media content |
JP6948175B2 (ja) | 2017-07-06 | 2021-10-13 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP6921686B2 (ja) * | 2017-08-30 | 2021-08-18 | キヤノン株式会社 | 生成装置、生成方法、及びプログラム |
JP2019054417A (ja) * | 2017-09-15 | 2019-04-04 | ソニー株式会社 | 画像処理装置およびファイル生成装置 |
CN107920202B (zh) | 2017-11-15 | 2020-02-21 | 阿里巴巴集团控股有限公司 | 基于增强现实的视频处理方法、装置及电子设备 |
US11173785B2 (en) * | 2017-12-01 | 2021-11-16 | Caterpillar Inc. | Operator assistance vision system |
ES2881320T3 (es) * | 2017-12-14 | 2021-11-29 | Canon Kk | Dispositivo de generación, procedimiento de generación y programa para modelo tridimensional |
WO2019116942A1 (ja) | 2017-12-14 | 2019-06-20 | キヤノン株式会社 | 3次元モデルの生成装置、生成方法、及びプログラム |
JP6513169B1 (ja) * | 2017-12-14 | 2019-05-15 | キヤノン株式会社 | 仮想視点画像を生成するシステム、方法及びプログラム |
US10535190B2 (en) | 2017-12-28 | 2020-01-14 | Rovi Guides, Inc. | Systems and methods for changing a users perspective in virtual reality based on a user-selected position |
US11113887B2 (en) * | 2018-01-08 | 2021-09-07 | Verizon Patent And Licensing Inc | Generating three-dimensional content from two-dimensional images |
US10832055B2 (en) | 2018-01-31 | 2020-11-10 | Sportsmedia Technology Corporation | Systems and methods for providing video presentation and video analytics for live sporting events |
JP2019144958A (ja) * | 2018-02-22 | 2019-08-29 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2019152980A (ja) | 2018-03-01 | 2019-09-12 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP7119425B2 (ja) * | 2018-03-01 | 2022-08-17 | ソニーグループ株式会社 | 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法 |
WO2019186860A1 (ja) * | 2018-03-29 | 2019-10-03 | 三菱電機株式会社 | 画像処理装置、画像処理方法、及び監視システム |
EP3550823A1 (en) | 2018-04-05 | 2019-10-09 | EVS Broadcast Equipment SA | Automatic control of robotic camera for capturing a portion of a playing field |
JP6368881B1 (ja) * | 2018-04-09 | 2018-08-01 | チームラボ株式会社 | 表示制御システム,端末装置,コンピュータプログラム,及び表示制御方法 |
JP7187182B2 (ja) * | 2018-06-11 | 2022-12-12 | キヤノン株式会社 | データ生成装置、方法およびプログラム |
GB2575843A (en) | 2018-07-25 | 2020-01-29 | Sony Interactive Entertainment Inc | Method and system for generating an image |
CN110866793A (zh) * | 2018-08-27 | 2020-03-06 | 阿里健康信息技术有限公司 | 虚拟对象展示、生成和提供方法 |
GB2591902B (en) | 2018-09-17 | 2022-06-08 | Tangible Play Inc | Display positioning system |
US10659698B2 (en) * | 2018-09-19 | 2020-05-19 | Canon Kabushiki Kaisha | Method to configure a virtual camera path |
US11087487B2 (en) | 2018-10-25 | 2021-08-10 | Northrop Grumman Systems Corporation | Obscuration map generation |
US20190088005A1 (en) * | 2018-11-15 | 2019-03-21 | Intel Corporation | Lightweight View Dependent Rendering System for Mobile Devices |
US10974153B2 (en) * | 2019-01-17 | 2021-04-13 | Disney Enterprises, Inc. | Streamable compressed geometry for live broadcast |
JP2020134973A (ja) * | 2019-02-12 | 2020-08-31 | キヤノン株式会社 | 素材生成装置、画像生成装置および画像処理装置 |
CN111669564B (zh) * | 2019-03-07 | 2022-07-26 | 阿里巴巴集团控股有限公司 | 图像重建方法、系统、设备及计算机可读存储介质 |
WO2020181090A1 (en) * | 2019-03-07 | 2020-09-10 | Alibaba Group Holding Limited | Method, apparatus, medium, and device for processing multi-angle free-perspective image data |
JP7366563B2 (ja) * | 2019-03-26 | 2023-10-23 | キヤノン株式会社 | 画像生成装置、画像生成方法、及びプログラム |
US11012675B2 (en) | 2019-04-16 | 2021-05-18 | At&T Intellectual Property I, L.P. | Automatic selection of viewpoint characteristics and trajectories in volumetric video presentations |
US10970519B2 (en) | 2019-04-16 | 2021-04-06 | At&T Intellectual Property I, L.P. | Validating objects in volumetric video presentations |
US11074697B2 (en) | 2019-04-16 | 2021-07-27 | At&T Intellectual Property I, L.P. | Selecting viewpoints for rendering in volumetric video presentations |
US11153492B2 (en) | 2019-04-16 | 2021-10-19 | At&T Intellectual Property I, L.P. | Selecting spectator viewpoints in volumetric video presentations of live events |
US11373318B1 (en) | 2019-05-14 | 2022-06-28 | Vulcan Inc. | Impact detection |
JP2020191598A (ja) * | 2019-05-23 | 2020-11-26 | キヤノン株式会社 | 画像処理システム |
CN110146032B (zh) * | 2019-05-23 | 2020-09-25 | 复旦大学 | 基于光场分布的合成孔径相机标定方法 |
JP7391542B2 (ja) * | 2019-06-04 | 2023-12-05 | キヤノン株式会社 | 画像処理システム、画像処理方法、およびプログラム |
US11164039B2 (en) * | 2019-10-23 | 2021-11-02 | International Business Machines Corporation | Framework for few-shot temporal action localization |
CN111953956B (zh) * | 2020-08-04 | 2022-04-12 | 山东金东数字创意股份有限公司 | 裸眼立体异型图像三维相机生成系统及其方法 |
EP4172934A1 (en) * | 2020-08-14 | 2023-05-03 | Topgolf Sweden AB | Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization |
CN112367534B (zh) * | 2020-11-11 | 2023-04-11 | 成都威爱新经济技术研究院有限公司 | 一种虚实混合的数字直播平台及实现方法 |
EP4012536A1 (en) | 2020-12-11 | 2022-06-15 | Koninklijke Philips N.V. | File format with variable data |
CN112446358A (zh) * | 2020-12-15 | 2021-03-05 | 北京京航计算通讯研究所 | 基于视频图像识别技术的目标检测方法 |
CN112507913A (zh) * | 2020-12-15 | 2021-03-16 | 北京京航计算通讯研究所 | 基于视频图像识别技术的目标检测系统 |
CN112598706B (zh) * | 2020-12-21 | 2024-02-02 | 西北工业大学 | 无需精确时空同步的多相机运动目标三维轨迹重建方法 |
CN112927353B (zh) * | 2021-02-25 | 2023-05-19 | 电子科技大学 | 基于二维目标检测和模型对齐的三维场景重建方法、存储介质及终端 |
WO2023056559A1 (en) * | 2021-10-06 | 2023-04-13 | Depix Technologies Inc. | Systems and methods for compositing a virtual object in a digital image |
US20230222795A1 (en) * | 2022-01-07 | 2023-07-13 | ViveSense, Inc. | System and Method for Impact Detection and Analysis |
WO2023157005A1 (en) * | 2022-02-16 | 2023-08-24 | B.G. Negev Technologies And Applications Ltd., At Ben-Gurion University | An augmented reality interface for watching live sport games |
WO2024116179A1 (en) * | 2022-11-30 | 2024-06-06 | Track160 Ltd | System and method for tracking ball movement during a sport game |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000184336A (ja) * | 1998-10-09 | 2000-06-30 | Canon Inc | 画像処理装置、画像処理方法及びコンピュ―タ読み取り可能な記憶媒体 |
JP2002518722A (ja) * | 1998-06-12 | 2002-06-25 | アニヴィジョン インコーポレイテッド | スポーツ競技の仮想観覧形成方法及び仮想観覧形成装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5513854A (en) * | 1993-04-19 | 1996-05-07 | Daver; Gil J. G. | System used for real time acquistion of data pertaining to persons in motion |
CA2155719C (en) * | 1994-11-22 | 2005-11-01 | Terry Laurence Glatt | Video surveillance system with pilot and slave cameras |
US5729471A (en) * | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
US6359647B1 (en) * | 1998-08-07 | 2002-03-19 | Philips Electronics North America Corporation | Automated camera handoff system for figure tracking in a multiple camera system |
US8965898B2 (en) * | 1998-11-20 | 2015-02-24 | Intheplay, Inc. | Optimizations for live event, real-time, 3D object tracking |
GB2413720B (en) * | 2003-03-14 | 2006-08-02 | British Broadcasting Corp | Video processing |
US9094615B2 (en) * | 2004-04-16 | 2015-07-28 | Intheplay, Inc. | Automatic event videoing, tracking and content generation |
US7555158B2 (en) * | 2004-12-07 | 2009-06-30 | Electronics And Telecommunications Research Institute | Apparatus for recovering background in image sequence and method thereof |
EP2463820A3 (en) * | 2005-07-22 | 2012-09-12 | Kangaroo Media, Inc. | System and methods for enhancing the experience of spectators attending a live sporting event |
US7483151B2 (en) * | 2006-03-17 | 2009-01-27 | Alpineon D.O.O. | Active 3D triangulation-based imaging method and device |
US20080129824A1 (en) * | 2006-05-06 | 2008-06-05 | Ryan Scott Loveless | System and method for correlating objects in an event with a camera |
EP1862969A1 (en) * | 2006-06-02 | 2007-12-05 | Eidgenössische Technische Hochschule Zürich | Method and system for generating a representation of a dynamically changing 3D scene |
-
2006
- 2006-06-02 EP EP06405248A patent/EP1862969A1/en not_active Withdrawn
-
2007
- 2007-05-24 JP JP2009512386A patent/JP2009539155A/ja active Pending
- 2007-05-24 WO PCT/CH2007/000265 patent/WO2007140638A1/en active Application Filing
- 2007-05-24 ES ES07720162.2T patent/ES2585903T3/es active Active
- 2007-05-24 EP EP12002185.2A patent/EP2492870B1/en not_active Not-in-force
- 2007-05-24 US US12/302,928 patent/US9406131B2/en not_active Expired - Fee Related
- 2007-05-24 EP EP07720162.2A patent/EP2024937B1/en not_active Not-in-force
- 2007-05-24 ES ES12002185T patent/ES2712375T3/es active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002518722A (ja) * | 1998-06-12 | 2002-06-25 | アニヴィジョン インコーポレイテッド | スポーツ競技の仮想観覧形成方法及び仮想観覧形成装置 |
JP2000184336A (ja) * | 1998-10-09 | 2000-06-30 | Canon Inc | 画像処理装置、画像処理方法及びコンピュ―タ読み取り可能な記憶媒体 |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011166761A (ja) * | 2010-02-05 | 2011-08-25 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
JP2011170487A (ja) * | 2010-02-17 | 2011-09-01 | Kddi Corp | 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム |
JP2011238222A (ja) * | 2010-04-30 | 2011-11-24 | Liberovision Ag | 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法 |
JP2012221106A (ja) * | 2011-04-06 | 2012-11-12 | Nippon Hoso Kyokai <Nhk> | 画像修正装置およびそのプログラム |
JP2015534766A (ja) * | 2012-09-24 | 2015-12-03 | サムスン エレクトロニクス カンパニー リミテッド | 多視点映像生成方法及び多視点映像ディスプレイ装置 |
KR101788626B1 (ko) | 2014-03-18 | 2017-10-20 | 라이브2디 인크. | 화상처리장치, 화상처리방법 및 프로그램 |
US11463678B2 (en) | 2014-04-30 | 2022-10-04 | Intel Corporation | System for and method of social interaction using user-selectable novel views |
US10728528B2 (en) | 2014-04-30 | 2020-07-28 | Intel Corporation | System for and method of social interaction using user-selectable novel views |
US10567740B2 (en) | 2014-04-30 | 2020-02-18 | Intel Corporation | System for and method of generating user-selectable novel views on a viewing device |
US10491887B2 (en) | 2014-04-30 | 2019-11-26 | Intel Corporation | System and method of limiting processing by a 3D reconstruction system of an environment in a 3D reconstruction of an event occurring in an event space |
US10477189B2 (en) | 2014-04-30 | 2019-11-12 | Intel Corporation | System and method of multi-view reconstruction with user-selectable novel views |
US9846961B2 (en) | 2014-04-30 | 2017-12-19 | Intel Corporation | System and method of limiting processing by a 3D reconstruction system of an environment in a 3D reconstruction of an event occurring in an event space |
US10063851B2 (en) | 2014-04-30 | 2018-08-28 | Intel Corporation | System for and method of generating user-selectable novel views on a viewing device |
WO2015167738A1 (en) * | 2014-04-30 | 2015-11-05 | Replay Technologies Inc. | System and method of limiting processing by a 3d reconstruction system of an environment in a 3d reconstruction of an event occurring in an event space |
JP2016014837A (ja) * | 2014-07-03 | 2016-01-28 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2017102708A (ja) * | 2015-12-02 | 2017-06-08 | 日本放送協会 | オブジェクト追跡装置及びそのプログラム |
JP2017130889A (ja) * | 2016-01-22 | 2017-07-27 | Kddi株式会社 | カメラのキャリブレーション装置、方法及びプログラム |
JP2020025320A (ja) * | 2016-01-28 | 2020-02-13 | 日本電信電話株式会社 | 映像提示装置、映像提示方法、およびプログラム |
JP2017143351A (ja) * | 2016-02-08 | 2017-08-17 | Kddi株式会社 | カメラのキャリブレーション装置、方法及びプログラム |
WO2018043225A1 (ja) * | 2016-09-01 | 2018-03-08 | パナソニックIpマネジメント株式会社 | 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム |
US11200675B2 (en) * | 2017-02-20 | 2021-12-14 | Sony Corporation | Image processing apparatus and image processing method |
JP7010292B2 (ja) | 2017-07-25 | 2022-01-26 | 富士通株式会社 | 映像生成プログラム、映像生成方法および映像生成装置 |
JPWO2019021375A1 (ja) * | 2017-07-25 | 2020-03-26 | 富士通株式会社 | 映像生成プログラム、映像生成方法および映像生成装置 |
WO2019102692A1 (ja) * | 2017-11-24 | 2019-05-31 | 株式会社Live2D | プログラム、記録媒体及び描画方法 |
JP2019096165A (ja) * | 2017-11-24 | 2019-06-20 | 株式会社Live2D | プログラム、記録媒体及び描画方法 |
JP6473214B1 (ja) * | 2017-11-24 | 2019-02-20 | 株式会社Live2D | プログラム、記録媒体及び描画方法 |
JP2018198463A (ja) * | 2018-09-11 | 2018-12-13 | 日本電信電話株式会社 | 画像処理装置、画像処理方法及びコンピュータプログラム |
JP2020201863A (ja) * | 2019-06-13 | 2020-12-17 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7401199B2 (ja) | 2019-06-13 | 2023-12-19 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2021196870A (ja) * | 2020-06-15 | 2021-12-27 | Kddi株式会社 | 仮想視点レンダリング装置、方法及びプログラム |
JP7405702B2 (ja) | 2020-06-15 | 2023-12-26 | Kddi株式会社 | 仮想視点レンダリング装置、方法及びプログラム |
WO2022191010A1 (ja) * | 2021-03-12 | 2022-09-15 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
ES2712375T3 (es) | 2019-05-13 |
WO2007140638A1 (en) | 2007-12-13 |
EP2492870B1 (en) | 2018-08-01 |
ES2585903T3 (es) | 2016-10-10 |
EP2492870A3 (en) | 2013-01-23 |
EP2024937A1 (en) | 2009-02-18 |
EP1862969A1 (en) | 2007-12-05 |
US9406131B2 (en) | 2016-08-02 |
EP2024937B1 (en) | 2016-05-04 |
US20090315978A1 (en) | 2009-12-24 |
EP2492870A2 (en) | 2012-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009539155A (ja) | 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム | |
US11348267B2 (en) | Method and apparatus for generating a three-dimensional model | |
US20050018045A1 (en) | Video processing | |
US9477965B2 (en) | Apparatus and method for identifying insertion zones in video material and for inserting additional material into the insertion zones | |
US10205889B2 (en) | Method of replacing objects in a video stream and computer program | |
EP3668093B1 (en) | Method, system and apparatus for capture of image data for free viewpoint video | |
US6970591B1 (en) | Image processing apparatus | |
US6914599B1 (en) | Image processing apparatus | |
US20080018668A1 (en) | Image Processing Device and Image Processing Method | |
EP2930689A1 (en) | Method for rendering | |
JP2009539155A5 (ja) | ||
Kilner et al. | Objective quality assessment in free-viewpoint video production | |
Sankoh et al. | Robust billboard-based, free-viewpoint video synthesis algorithm to overcome occlusions under challenging outdoor sport scenes | |
Inamoto et al. | Immersive evaluation of virtualized soccer match at real stadium model | |
Inamoto et al. | Free viewpoint video synthesis and presentation of sporting events for mixed reality entertainment | |
Malerczyk et al. | 3D reconstruction of sports events for digital TV | |
Lee et al. | Interactive retexturing from unordered images | |
EP4099270A1 (en) | Depth segmentation in multi-view videos | |
Jarusirisawad et al. | 3DTV view generation using uncalibrated pure rotating and zooming cameras | |
Jarusirisawad et al. | Free viewpoint video synthesis based on visual hull reconstruction from handheld multiple cameras | |
Tan | Virtual imaging in sports broadcasting: an overview | |
Kilner | Free-Viewpoint Video for Outdoor Sporting Events |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100408 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111025 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20120106 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20120106 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120131 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120222 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120229 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120522 |