JP2009539155A - 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム - Google Patents

動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム Download PDF

Info

Publication number
JP2009539155A
JP2009539155A JP2009512386A JP2009512386A JP2009539155A JP 2009539155 A JP2009539155 A JP 2009539155A JP 2009512386 A JP2009512386 A JP 2009512386A JP 2009512386 A JP2009512386 A JP 2009512386A JP 2009539155 A JP2009539155 A JP 2009539155A
Authority
JP
Japan
Prior art keywords
image
dimensional
video
camera
patch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009512386A
Other languages
English (en)
Other versions
JP2009539155A5 (ja
Inventor
ウルムリン,シュテファン
ニエデルベルゲル,クリストフ
Original Assignee
イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ filed Critical イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ
Publication of JP2009539155A publication Critical patent/JP2009539155A/ja
Publication of JP2009539155A5 publication Critical patent/JP2009539155A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0021Tracking a path or terminating locations
    • A63B2024/0025Tracking the path or location of one or more users, e.g. players of a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Generation (AREA)

Abstract

3次元シーンの動的な変化に対する3次元表現を生成する方法が、異なる場所に配置され、同じ3次元シーン(102)を観察している少なくとも2台のカメラから得られる、少なくとも2つの合成されたビデオストリーム(120)を取得するステップと、前記少なくとも2台のカメラ(103)に関し、方向およびズーム設定を含むカメラパラメータを決定するステップと、少なくとも2つのビデオストリーム(104)内のオブジェクト(310a,b、312a,b、330a,b、331a,b、332a,b、410a,b、 411a,b、430a,b、431a,b、420a,b、421a,b)の動きをトラッキングするステップと、少なくとも2つのビデオストリーム(105)内における前記オブジェクトの固有性を決定するステップと、少なくとも2つのビデオストリーム(106)から得られる情報を結合することによって、オブジェクトの3次元位置を決定するステップと、を含んでいる。そして、少なくとも2つのビデオストリーム内のオブジェクトの動きをトラッキングするステップ(104)は、1つ以上の先行する瞬間にオブジェクトの3次元位置から得られる位置情報を使用する。これにより、ビデオストリーム内の2次元トラッキングにおける質、スピードおよびロバスト性を改善できる。

Description

本発明の分野
本発明は、ビデオ処理および仮想画像生成の分野に関し、例えば、試合状況に対するビデオベースの3次元再構築を用いた、スポーツのテレビ放送に適用できるものである。本発明は、対応する独立請求項の前提部分に記載したような、動的に変化する3次元のシーンに関する3次元表現(representation)を生成するための、方法およびシステムに関する。
本発明の背景
「ビデオベースのサッカーの試合に対する3次元再構築(A Video−Based
3D−Reconstruction of Soccer Games);T.Bebie and H.Bieri,EUROGRAPHICS 2000,Vol.19(2000),No.3」という論文がある。この論文には、サッカーの試合の一場面に関し、2つの同期されたビデオシーケンスからアニメーション化された仮想3次元映像を生成するように設計された、再構築システムが開示されている。与えられたシーンに対する3次元再構築を生成するには、(1)両方のシーケンスにおける全フレームのカメラパラメータを演算する(カメラキャリブレーション)、(2)ビデオシーケンスから、競技場のテクスチャを抽出する、(3)いくつかのキーフレームにおけるボールおよび選手の頭の画像位置を手動で特定した後、これらボールおよび選手の頭の軌跡を演算する、(4)ビデオから自動的に選手のテクスチャを抽出する、(5)衝突しているまたは隠れている選手の姿を自動的に分離する、(6)映像化のために、仮想空間内に適切に配された長方形に対して選手の姿をテクスチュアマッピングする、というようなステップが実行される。なお、ビデオシーケンスが処理されている間、カメラは、同じ位置に保持されているとみなされる。
欧州公開特許公報第1,465,115号(A2)には、選択した視点から望ましい映像を生成することが開示されている。ここでは、異なる視点から、複数のカメラによってシーン画像を得るようになっている。そして、少なくとも1つの画像から選択したオブジェクトを特定し、選択したオブジェクトの位置を推定する。望ましい視点を得られた場合、その望ましい映像における選択したオブジェクトの位置を判断し、選択したオブジェクトの映像を、カメラから得られる画像データを用いてレンダリングする。
以下に、従来技術に関して、公開されている他の参照文献について示す。
−「多数のカメラによるフットボール選手のトラッキングに関する基本設計およびアルゴリズム(Architecture and algorithms for tracking football players with multiple cameras;M.Xu,J.Orwell and D.Thirde;IEE Proceedings−Vision,Image,and Signal Processing−April 2005−Volume 152,Issue 2,p.232−241)」。この文献には、固定カメラからの与えられたビデオ画像から、フットボール選手の位置、および、ボールの3次元位置を抽出することについて開示されている。しかしながら、3次元表現の合成については示されていない。
−「互いに干渉しあい遮蔽されている人間の動きに対する多重カメラトラッキング(Multiple camera tracking of interacting a
nd occluded human motion:Dockstader,S.and Tekalp,A.M.;2001a.Proceedings of the IEEE 89,1441−1455)」。この文献は、多数のカメラ画像を用いて、動いて相互に干渉している多数の人物をトラッキングすることに関する。3次元表現の合成、および、カメラの位置および/または方向のキャリブレーションについては示されていない。
−「多重映像ビデオを用いたスポーツシーンの分析および映像化(Sports scene analysis and visualization from multiple−view video;Hideo Saito,Naho Inamoto,Sachiko Iwase;Int.Conf Multimedia and Expo(ICME) 2004:1395−1398)」。この文献には、多数のカメラ映像を用いた、サッカーのシーンに対する自由視点映像化について開示されている。
−「多数の映像における多数のフィーチャを用いた、スポーツ選手に対するロバストトラッキング(Robust Tracking of Athletes Using Multiple Features of Multiple Views;Toshihiko Misu,Seiichi Gohshi,Yoshinori Izumi,Yoshihiro Fujita,Masahide Naemura;Proceedings of WSCG’2004.pp.285−292)。2次元画像中で動いているオブジェクトをトラッキングするために、多数のプラグインを使用して多数のフィーチャ、すなわち、テクスチャ、色、動きおよび範囲を観察し、次いで、分散しているプラグインからの情報を結合し、各プラグインによって得られた信頼性測定に従って、情報に対して適切に重みづけするようになっている。
−「サッカースタジアムにおけるライブ混合リアリティ(Live mixed−reality 3D video in soccer stadium;Koyama,T.Kitahara,I.Ohta,Y.;Mixed and Augmented
Reality,2003.The Second IEEE and ACM International Symposium on mixed and augmented reality(ISMAR);7−10 Oct.2003;page(s):178− 186)」。多数のビデオ画像から単純な3次元モデルを再構築し、選択したビデオ情報をモデルに投影する。選手の位置を判断するために、球技場の上に垂直に設置された専用カメラが必要になる。他のカメラの位置をキャリブレーションするために、レーザ測量機器も必要になる。
−「現実のスタジアムモデルにおける仮想的なサッカーの試合に対する、没入型観察(Immersive Observation of Virtualized Soccer Match at Real Stadium Model;Naho Inamoto,Hideo Saito;The Second IEEE and ACM
International Symposium on mixed and augmented reality(ISMAR);7−10 Oct.2003;pages 188−197)」。仮想的なサッカーのシーンの表現を、現実の画像を用いて生成し、ヘッドマウント装置(head mounted device;HMD)を装着した人に表示する。
本発明の説明
本発明の目的は、最初に述べた種類の動的に変化する3次元のシーンに関する3次元表
現を生成するための、既知のシステムに比して進歩した方法およびシステムを作り出すことである。ここで生成される表現とは、3次元表現自体、すなわち、モデルオブジェクトの3次元位置および方向についての情報を含むシーンのモデルであると理解されるものである。これは、2次元画像に対する操作および分析(例えば、オブジェクトの特定)がなされる2次元表現と対照的なものである。また、この操作および分析は、オブジェクトの3次元位置を決定することなく、1つ以上のオブジェクトの動きをトラッキングすることによって実施される。
これらの目的は、対応する独立請求項にかかる、動的に変化する3次元のシーンに関する3次元表現を生成する方法およびシステムによって達成される。
動的に変化する3次元のシーンに関する3次元表現を生成する方法は、以下のステップを含む。
・異なる場所に配置され、同じ3次元シーンを観察している少なくとも2台のカメラから得られる、少なくとも2つの、好ましくは合成されたビデオストリームを取得するステップ、
・前記少なくとも2台のカメラに関し、位置、方向、および内部パラメータ(例えばズーム設定)を含むカメラパラメータを決定するステップ、
・少なくとも2つのビデオストリーム内のオブジェクトの動きをトラッキングするステップ、
・少なくとも2つのビデオストリーム内における前記オブジェクトの固有性を決定するステップ、
・少なくとも2つのビデオストリームから得られる情報を結合することによって、オブジェクトの3次元位置を決定するステップ。
上記列挙したステップにおける少なくとも1つのステップは、後続のステップの1つによって少なくとも2つのビデオストリームから得られる情報に依拠している。
これにより、情報のフィードバックループを実行できる。すなわち、情報処理ステップのシーケンスにおける特定のステップにおいて、この処理における1つ以上の後続のステップにおいて得られた情報を使用するようになっている。この情報は、典型的には、先行するある瞬間に生成されたビデオ情報から得られるものである。このような演繹的な情報を使用することで、上記した特定のステップの結果における質および信頼性を向上することが可能となる。本発明の好ましい実施形態では、少なくとも1つのオブジェクトにおける3次元位置を、オブジェクトに関する少なくとも2つの先行する3次元位置から推定する。
本発明の好ましい実施形態では、少なくとも2つのビデオストリームにおけるオブジェクトの動きをトラッキングするステップは、後続するステップの1つにおいて少なくとも2つのビデオストリームから得られる、1つ以上の先行する瞬間に生じる情報を使用する。
本発明のさらに好ましい実施形態では、1つ以上の先行する瞬間に得られる情報は、オブジェクトの3次元位置である。
これにより、ビデオストリームにおける2次元トラッキングの質およびロバスト性を向上することが可能となる。技術水準によれば、ビデオストリーム内のトラッキングは、ビデオストリーム自身から得られる情報だけに基づくようになっている。これは、ビデオストリーム内で2つのオブジェクトが衝突したときまたは重なり合ったときに、不明瞭さを
招来する。オブジェクトの3次元位置とカメラキャリブレーション情報とが与えられれば、オブジェクトの3次元位置における画像への逆投影を使用することで、画像空間に投影されたオブジェクトの動きを、より正確に予測することが可能となる。さらに、同一の画像における異なる解釈の間に生じる不明瞭さを解消することも可能となる。オブジェクトの3次元位置を画像に投影することで、トラッキングアルゴリズムによって、衝突/重なり合っているオブジェクトを検出し、両オブジェクトが再び分離した後にも正確に特定し続けることが可能となる。
本発明の好ましい変化形では、少なくとも1つのオブジェクトの3次元位置は、先行する少なくとも2つのオブジェクトの3次元位置から推定される。これは、例えば数画像フレーム前のオブジェクトの過去の軌道に対する第1の補間、あるいは、より高次の補間によって実施される。「オブジェクト」という語句は、ここでは、カメラによって視認されるシーンに関与している、移動しているオブジェクトをすぐに示す。スポーツ設定では、オブジェクトは、例えば選手、ボール、および審判となる。他のキー画像要素は、背景である。この背景は、本質的に静的なものであり、一方では、ピッチすなわち競技場、ラインや他のピッチ上のマークといった特徴、および、ピッチの周囲の壁および周囲環境(例えばスタジアム)を含むものである。必要に応じて、これらを「背景オブジェクト」と称するようにしてもよい。周囲環境にいる観客は、動くものではあるけれど、本出願の目的に関しては「移動するオブジェクト」とはみなされない。一般に、「2次元」とは、ビデオ画像におけるオブジェクトあるいはフィーチャ(feature)の位置あるいは形状を指す。一方、「3次元位置」は、シーンにおける演算された3次元モデルでのオブジェクトの位置のことである。本発明の好ましい実施形態では、このような3次元モデルを維持し、動的に更新するようになっている。さまざまなビデオフィード(video feed)から得られるビデオ画像あるいはテクスチャ情報は、この3次元モデルによって規定される表面にレンダリングされる。これにより、追加的な合成ビデオフィードあるいは仮想的なビデオフィードを生成し、3次元モデルにおける動的な映像を任意に合成することが可能となる。
ここでおよび本出願の残部では、「レンダリング(rendering)」という語句は、コンピュータグラフィックスにおいて普通に使われているように、画像のコンポーネントに対するより高いレベルの表現から画像の画素を形成するプロセスのことを意味する。この場合、より高いレベルの表現とは、3次元モデルとそれに関連するテクスチャ情報との組み合わせである。そして、レンダリングについては、テクスチャ情報を3次元モデルにマッピングし、仮想カメラによって3次元モデル内に視認されるものを決定することによって実施することが可能である。
本発明の好ましい変化形では、カメラキャリブレーションは、参照フィーチャのトラッキングに基づいて実施される。トラッキングプロセスを初期化するために、ビデオフィードごとに、参照フィーチャの数を特定することが必要になる。これは、すなわち、固有の識別子によってこれらの1つ1つを関連付けることによる。各参照フィーチャは、3次元空間におけるシーン(例えば、位置、ライン、コーナー、サークルなど)のフィーチャに関連付けられる。これらのフィーチャおよびビデオ映像内に見られるような参照フィーチャの投影を得ることによって、カメラパラメータ、特に位置、方向、およびズーム設定、および、場合によりカメラの他の光学パラメータを決定する。これらのパラメータのセット全体について、これ以降、「カメラパラメータ」と称することとする。これらのパラメータを決定するステップは、カメラキャリブレーションと呼ばれるものであり、典型的には、処理されている各ビデオフィードの各フレームについて実行される。このために、各ビデオストリーム内の参照フィーチャの動きについては、当技術分野で知られている適切なトラッキング方法およびトラッキングシステムによって、トラッキングすることが可能である。
本発明の好ましい変化形では、ビデオ画像の1つにおける参照フィーチャの予想画像位置は、参照フィーチャにおける既知の3次元位置から演算される。これが特に有用となるのは、表示を移動したりズームしたりした後に、しばらく視認されていなかった参照フィーチャが再び視認されるようになったときである。3次元モデルおよび与えられた現在のカメラパラメータから、特定の参照フィーチャ(既知の固有性を有する)が現在のフレームにおける予想位置において視認されるべきであることを判断する。そして、予想位置の近傍において、フィーチャの抽出が実施される。画像内で見いだされたフィーチャ(予想参照フィーチャと同じ種類のフィーチャであることが好ましい)は、自動的に、予想参照フィーチャの固有性に関連付けられる。
本発明の好ましい変化形では、ビデオ画像のみに基づいて、キャリブレーションが取得される。カメラキャリブレーションのステップについては、カメラの位置、方向およびズーム設定を決定することによって、(電気)機械的な測定手段によって、あるいは、これらのパラメータを制御している制御システムから対応する値を抽出することによって、選択的に実行するようにしてもよい。
本発明のさらに好ましい変化形では、各ビデオストリームに関し、参照フィーチャに、参照画像内において各自の固有性が割り当てられる。典型的なスポーツ設定では、参照フィーチャは、ラインおよび他のピッチ上のマークとなる。これらは、ビデオ静止画像において、ユーザが、以下のことを行なうことによって特定される。
・図形入力装置を用いて、ピッチの概略的な表現における同一の参照フィーチャの表現を提示し、そして、参照フィーチャの前記表現を選択する、
・図形入力装置を用いて、ビデオ静止画像に見られるような特定の参照フィーチャを指定し、そして、前記参照フィーチャを選択する、
・参照フィーチャの表現における固有性を、静止画像に見られる参照フィーチャに関連付ける。
表現あるいはフィーチャを選択する機能は、ユーザのコマンドあるいは入力(例えば、マウスキーをクリックする、あるいは、その表現あるいはフィーチャをポイントした後に所定のキーを叩く)によって有効となる。参照フィーチャの選択順序(第1あるいは第2)およびその概略表現(第2あるいは第1)については、変更することが可能である。参照フィーチャの表現およびビデオ画像については、異なる画面に表示してもよいし、同一の画面における異なるウィンドウ内に表示するようにしてもよい。このような、画像フィーチャとモデルフィーチャとの間の関連付けを初期化するための方法によれば、システムを迅速にセットアップすることが可能となる。
本発明の他の好ましい変化形では、ビデオ静止画像内の前記参照フィーチャを選択するステップは、ビデオ静止画像内の参照フィーチャの正確な位置を判断するために、以下のサブステップを実行する。すなわち、以下のステップを実行する。
・ユーザによって選択された位置の近傍において、フィーチャの抽出、および、特に、ライン、交叉点、およびコーナーの抽出を自動的に実行するステップ、
・抽出されたフィーチャ、特に、ピッチの概略表現内で選択されたものと同じ種類のフィーチャの1つの位置となるような参照フィーチャの位置を決定するステップ。
これにより、フィーチャの最適位置の選択を、ビデオフレームから決定されたかのように、自動的に「スナップ」することが可能となる。このため、ユーザがフィーチャをポイントする際に形成される、小さい位置エラーを修正することができる。また、初期化プロ
セスを単純化および高速化することが可能となる。
本発明のさらに好ましい実施形態では、オブジェクトの動きをトラッキングするステップは、トラッキング機能によってカメラパラメータの変化を補償できるように、カメラパラメータを動的に変更する機能をトラッキング機能に取り込むステップを含む。このステップにより、トラッキングされている特定のオブジェクトの場所を探すステップのそれぞれに関し、その予想される位置、および、それだけでなく、好ましくはその位置に基づくサイズ、および、好ましくは先行するフレームでのサイズが演算される。しかし、前記予想位置およびサイズについては、カメラ設定(先行するビデオフレームと現在のビデオフレームとの間のズーミングを含む)に対する既知の変更に応じて修正する。この修正は、カメラを動かす(パンする、および傾ける)ことによって画像内での予想位置の変更を確認する一方、ズーミングの程度がオブジェクトの予想サイズを左右することを意味する。これにより、トラッキング方法の全体にかかる処理時間を増加するトラッキングアルゴリズムに関し、より正確な予測が可能となる。
トラッキング機能における補償ステップあるいは修正ステップにおいて考慮されるカメラパラメータは、以下のいずれかである。
・トラッキングの実施されたビデオフレームと同じビデオフレームに関して実行されたカメラ・キャリブレーション・ステップによって決定されるカメラパラメータ、
・1つ以上の先行するビデオフレームに関して実行されたカメラ・キャリブレーション・ステップによって決定されるカメラパラメータ。
前者の場合、トラッキングステップを実行する前に、カメラキャリブレーションの終了を待つ必要がある。後者の場合、トラッキングステップおよびキャリブレーションステップを平行して実施することが可能である。後者では、任意的に、カメラパラメータを推測するようにしてもよい。これは、例えば、2つ以上先行するカメラパラメータのセットからの線型の補間、あるいはより高次の補間によって実施することが可能である。
本発明のさらに好ましい変化形では、オブジェクトの特定情報を初期化するために以下のステップを実行する。すなわち、以下のステップを実行する。
・ユーザによって、最初のビデオストリームにおける第1の静止画像から1つのオブジェクトを選択し、それを固有の識別子に関連付けるステップ、
・少なくとも1つの他のビデオストリームにおける他の静止映像から、同一の固有性を有するオブジェクトを自動的に決定するステップ。
この「自動的特定支援」によれば、静止画像の各セットにおいて各オブジェクトを特定する労力を低減することが可能である(各ビデオストリームに1つずつ、および、全ての画像を同時に取得するという前提条件の下で)。画像内でオブジェクトを特定するということの意味は、画像に見られるオブジェクトを、「審判」あるいは「ボール」あるいは「ブルームフォンデル(Vroomfondel)選手」あるいは他の選手などに関連付けることにある。オブジェクトの特定については、1つだけの静止画像内でオブジェクトをクリックする(あるいは選択する)ことによって実施できることが理想的である。全てのオブジェクトが競技場のレベルにあると仮定すると、カメラからカメラに視認されるオブジェクト位置まで延びるベクトルを競技場の平面と交叉させることで、競技場の上で選択されたオブジェクトの3次元位置を決定できる。オブジェクトが競技場のレベルにあると仮定しない場合、上記したベクトルの全てに最も近い3次元ポイントを、オブジェクトの位置として演算することが可能である。このポイントから、他の静止画内の予想位置を演算できる。他のビデオ静止画のそれぞれに関し、オブジェクトが推定位置にある場合には
、その固有性を、第1の静止画像内のオブジェクトの固有性と同一に設定する。このシステムでは、前記固有性の視覚的表現を含んでいる他の静止画像を表示し、ユーザが、前記固有性の関連付けを確認あるいは拒否できることが好ましい。また、1つ以上の静止画像内でオブジェクトが重なり合った場合、例えば、領域全体、形状ヒストグラムあるいは色ヒストグラムなどが予想通りでなかった場合にこれを自動的に検出できることがある。このような場合、ユーザにその旨を知らせる。そして、ユーザが、各画像におけるオブジェクトの固有性を手動で設定する。他の場合には、同一のビデオストリームから得られる他のフレーム(オブジェクトを他のオブジェクトから容易に分離できる他のフレーム)において、オブジェクトを特定する必要の生じる可能性がある。
オブジェクト(典型的には選手)がどのビデオフィードにも映っておらず、このためにトラッキングできなくなるような事態の生じる可能性もある。その結果、オブジェクトが再びビデオストリームの1つに現れたときに、その固有性がもやは失われてしまう。この場合、システムは、以下のステップを実行するようになっている。
・動いている未確認のオブジェクトが存在していることをユーザに警告するステップ、
・ユーザがオブジェクトに識別子を関連付けることに許可するステップ。
動いているオブジェクトを検出するステップでは、フレーム間における大きな動きの存在を検出し(概要を上記したように、カメラパラメータの変更を補償し)、既にトラッキングしているオブジェクトを無視するようになっている。残りの移動領域については、オブジェクトが再進入している可能性がある。オブジェクトのサイズに関する、および、例えば、既知のオブジェクトのセットにおける統計上のモデルに関する適合基準に関する所定の閾値を超えたときに、オブジェクトが存在していることがユーザに提示される。
本発明の他の好ましい変化形では、オブジェクトの完全な固有性を維持する必要がない。すなわち、オブジェクトXが「ブルームフォンデル選手」を表現していることを知ることは重要ではない。オブジェクトが特定のカテゴリ(例えば、チームAの選手)に属していることを知れば十分である。これについては、オブジェクトの色から、あるいは単純に選手から、自動的に決定することが可能である。この設定に関し、動いている未確認のオブジェクトを、自動的に、システムによって生成される固有の識別子に関連付けるようになっていることが好ましい。これにより、手作業での介入を要することなく、3次元再構築および三次元表現を継続的に生成することが可能となる。
動作トラッキングの過程では、オブジェクトを、通常、境界ボックスに関連付ける。これは、長方形の画素領域であり、その中にオブジェクトのあることを知っている、あるいは予想しているような領域である。より一般的な意味では、境界ボックスを、オブジェクトの周囲にある異なる形状のシルエットに変えるようにしてもよい。境界ボックス(あるいはシルエット)については、トラッキングによって生成し、後続のセグメンテーション・ステップによって改良することが好ましい(これについては後述する)。
また、本発明のさらに好ましい実施形態では、1つ以上の俯瞰カメラを配置し、これにより、競技場の全体を常にカバーする。これらは、移動もしないしズームもしない。これらのカメラによる表示により、オブジェクトがフィールドから出ない限り、全てのオブジェクトをトラッキングできる。そして、固有性を失ってしまったオブジェクトを特定する必要もなくなる。このカメラについては、最終的に放映されるテレビ画像を生成するために使用されるカメラよりも、コストの低いカメラを使用することが可能である。
動いているオブジェクトの位置を探すステップを、1つ以上のRF(無線周波数)発信装置をオブジェクトに取り付け、それらの位置をRF探索システムによって測定すること
によって、実施する、あるいは補佐することも可能である。これにより、各瞬間におけるオブジェクトの固有性および位置を、正確に知ることが可能である。
本発明の好ましい変化形では、オブジェクトを、少なくとも2つのカテゴリのうち1つに属するように分類する。これらのカテゴリは、好ましくはガウシアン混合モデルなどの統計上のモデルに基づくものである。そして、このカテゴリは、第1のチーム、第2のチーム、第1のチームのゴールキーパー、第2のチームのゴールキーパー、ボール、および審判のうちの少なくとも2つを含んでいる。統計上のモデルによって組み込まれたパラメータは、オブジェクトの色であることが好ましい。例えば、チームAのユニフォームが第1の色セットである一方、チームBのユニフォームが第2の色セットであり、チームのゴールキーパーは両方のチームと異なる色を有しており、審判は主に黒あるいは他の色で、背景が緑、白およびさまざまな他の色(芝、マーキング、ゴールポストおよび観客の色)であることが知られている。このように、背景からオブジェクトを分離することだけで画像を区分するわけではなく、オブジェクトを異なるセットに分類するようになっている。この統計上のモデルは、1つのカメラから得られる静止画から生成され、全てのカメラのビデオストリームに適用されることが好ましい。この統計上のモデルについては、オブジェクトの各カテゴリに関して、ポインティング装置、および、前記カテゴリに属するさまざまなポイントに応じた経路に従う参照マークを用いた、ユーザの動作によって生成される。統計上のモデルの生成においては、前記経路上のポイントの色によって、前記カテゴリを表現するサンプルを形成する。
各ビデオフィード内のビデオフレームに対するセグメンテーション時に、オブジェクトを背景から分離して互いに区別する際に、
・各画像要素あるいは画素に対し、画素がオブジェクトの一部あるいは背景の一部となっている可能性を表現する値を割り当てるためのアルファチャンネル整合を使用するステップ、を含むことが好ましい。
このような値は、アルファ値として知られており、例えば、画像あるいはストリームに関連付けられたアルファチャンネル情報に保存されている。これにより、オブジェクトの周囲の境界が明確(2値)でなくなり、後のレンダリングステップの質を改善することが可能となる。このレンダリングステップは、オブジェクトの画像を結合する、および/または、3次元表面にマッピングするステップである。
本発明のさらに好ましい実施形態では、セグメンテーションステップにおいて、背景からオブジェクトを切り取った後に、画像修復によって、背景に残った対応する欠損を充填する。これについては、例えば、「映像合成のための表示補間(View Interpolation for Image Synthesis);Chen and Williams,ACM SIGGRAPH 1993,pp.279−288」を参照されたい。このように修復された画像要素は、合成画像データであることを示すマークが付される。これは、充填されるべき画像内の修復された画素ごとに、対応するビットを設定することによって実行される。あるいは、ビデオフィードを、前記マーキング情報を有する他のチャネルに関連付けることによって実行することもできる。この追加的な情報により、本発明の方法のより後の段階において、現実の画像データが有効になっている画像要素に関し、合成画像データを無視することが可能となる。
「合成画像データ」と対比されるような「合成表示」、「画像合成」などの語句については、何かちがうもの、すなわち、本発明に従って生成される3次元シーンの仮想画像あるいは仮想表示を示していることに注意されたい。また、これらは、現実の画像データおよび合成画像データの双方に基づくものである。
このように、3次元のシーン内の表面位置あるいは表面パッチに関連している「現実の画像データ」は、典型的には、1つ以上のビデオストリームから得られる画像情報であって、その瞬間に表現されている上記のパッチを視認することによって得られるものである。対照的に、「合成画像データ」は、例えば、以下のようなことによって生成される画像情報である。
−2次元技術による修復、例えば、境界から始まる、境界における色あるいはパターンによる欠損の補充、
−同一の表面パッチから得られる画像データ(他の瞬間においてビデオストリームから得られるものを除く)の使用、
−同一の表面パッチから得られる画像データ(同一の瞬間および他の瞬間において、他のビデオストリームから得られるものを除く)の使用、
−同一の瞬間にビデオストリームから得られる画像データ(他の表面パッチから得られるものを除く)の使用、
−3次元技術による修復、例えば、充填された表面パッチおよび充填に使用された表面パッチにおける3次元配置を考慮した、欠損の周囲のシーンのパターンを用いた欠損の補充。
以下、合成(背景)画像データを生成するための、好ましい方法について説明する。この方法は、典型的には、最後の2つのポイントの態様を結合するものである。このような3次元修復では、欠損の近傍から得られる欠損を充填するための画像パッチを使用するだけでなく、表面パッチ間の空間的な(すなわち3次元の)関係についての知識も考慮する。すなわち、「宛先パッチ」の画像データを充填するための「ソースパッチ」から得られる画像データを使用するとき、これらのパッチ間の空間的な関係が考慮される。この関係は、回転および/または異なる視点を含んでいる。
目的は、欠損を実際の予想画像にできるだけ近似する色あるいはテクスチャによって充填することにある。既知のアプローチは、欠損の境界上を延びており、このために、画像の既知の部分と未知の部分とを含んでいる、宛先パッチを選択することである。この場合、ソースパッチを見つけるために、既知の部分に整合するソースパッチの一部を用いて、検索を実行する。また、ソースパッチの残部については、複写によって未知の部分を充填するために使用される。しかしながら、この検索および複写は、ビデオ画像の平面上だけで実施される。
本発明によれば、ソースパッチを検索するときに、および、ソース画像データを宛先パッチに複写するときに、3次元空間におけるソースパッチと宛先パッチとの既知の位置および/または方向を使用する。
本発明のさらに好ましい実施形態では、ランドマークの配置に関する情報を、修復の指針として使用する。ランドマークは、特徴的な、動かない背景フィーチャである。典型的には、印ばかりの位置として知られる競技場の上にある直線や輪状線などの、線状に延びるフィーチャである。このアプローチは、競技場にあるラインの配置および方向を含むフィールドモデルから得られる知識を組み込んでいることが好ましい。また、これについては、ランドマークに沿ったパッチの配置に関する3次元情報と結合されていることが好ましい。
例えば、以下に示すアプローチの1つ以上を実施することが好ましい。
−宛先パッチがランドマークの一部を含んでいる場合、ランドマークに沿ってソースパッチを検索する。そして、ランドマークがあると予想される欠損の内部の位置にソース−パッチをマッピングする。
−宛先パッチがサークル内にある場合には、サークルに沿って存在する潛在的なソースパッチに対して宛先パッチを比較する(あるいはその逆の比較をする)前に、宛先パッチを変形する(例えば、回転および拡大・縮小する。典型的には、アスペクト比を保存しない)。同様に、ソースパッチを宛先パッチにコピーするときにも、ソースパッチを変形する。
−宛先パッチが直線に沿って存在する場合には、ラインに沿って(カメラの視点から)より離れた位置にある潛在的なソースパッチに対して宛先パッチを比較する前に、宛先パッチを拡大・縮小する(典型的には、そのアスペクト比を保存する)。同様に、ソースパッチを宛先パッチにコピーする場合、ソースパッチを縮小する。
修復については、複数のビデオストリームについて個々に実行することが好ましい。これにより、ビデオストリームのセットによって、異なる視点から視認される(動いている)オブジェクトではなく、同一の背景シーンを表示することが可能となる。処理におけるより後の段階において、これらの修正された背景画像を、3次元背景モデルに対する着色あるいは「ペイント」するために使用する。しかしながら、本発明の他の実施形態では、3次元背景モデルが着色されたときに修復を実行するようになっている。すなわち、まず、1つ以上のビデオストリームから得られる背景画像情報に従って、背景モデルを着色する。そして、3次元モデルにおける残りの未着色のパッチのいずれをも、上記したのと同様の方法で(すなわち、他の位置あるいは瞬間に得られた画像情報を用いて)、ペイントする。
上記した欠損充填方法については、本明細書に示した本発明の他の態様とは無関係に(特に、3次元オブジェクトのトラッキングおよび特定、カメラキャリブレーションなどのステップとは無関係に)、実施するようにしてもよい。
セグメンテーションステップについては、境界ボックスの位置およびサイズを改良するステップを含めることが好ましい。これにより、オブジェクトの周囲の境界ボックスを、オブジェクトトラッキングによってこれらを出力できるように、セグメンテーション情報に従って適合させることが可能となる。すなわち、標準的なトラッキングアルゴリズムの質は、動いているオブジェクトの周囲に形成された境界ボックスが、しばしば、実際のオブジェクト位置から遅れる傾向にあるか、あるいは、サイズが大きくなってしまう傾向にあるという点で限定されるため、理に適っている。このため、境界ボックスは、画像セグメンテーションの後に、オブジェクトを含むように適合される。これにより、オブジェクトの位置を、良好に適合させることが可能となる。なお、オブジェクトの位置は、中央部分の下方(あるいは、これに代えて、境界ボックスにおける所定の一角)となるように規定されていることが好ましい。
本発明の好ましい変化形では、現実のカメラの位置とは異なる仮想視点から得られるシーンを表示する合成表示を提供するようになっている。そして、この変化形は、以下のステップを含んでいる。
・仮想カメラのカメラパラメータを準備するステップ、
・仮想カメラによって視認されるような背景画像を決定するステップ、
・仮想カメラに対する各オブジェクトの投影を決定し、これを背景画像に重ねるステップ、
・保存あるいは他の処理のために、結合画像を出力あるいは保存するステップ。
これにより、ビデオストリームからの入力に基づいて、シーン全体に関する広範囲の3
次元表現を維持し、動的に更新することが可能となる。ビデオストリームから得られるビデオ情報あるいは画像情報については、3次元表現にレンダリングする。これにより、ソースビデオフィードを供給するカメラにおける実際の物理的な位置とは異なる視点からの画像を、生成することが可能となる。この点は、従来技術とは対照的である。従来技術では、孤立した長方形を3次元空間に配置し、これらの長方形に画像をテクスチャマッピングするだけのものであり、ピッチおよび残存している背景オブジェクトを考慮しないものである。
ここでおよび本出願の残部では、「テクスチャ(texture)」という語句は、現実の(あるいは、コンピュータで生成された)オブジェクトの表面から得られる画像データあるいはピクチャデータを意味するものである。テクスチャデータは、例えば、1つ以上のカメラによって視認されるか、あるいは、データベースから読み出される。そして、幾何学的に変形することが可能であり、3次元モデル内でオブジェクトの表面にマッピングすることで、レンダリングすることも可能である。
本発明のさらに他の変化形では、仮想カメラによって視認されるような背景画像を決定するステップが、以下のステップを含んでいる。
・各背景画像要素について、同一の背景位置に対応する異なるビデオストリームから得られる画像情報を合成するステップ、
・合成画像データとなるようにマークされていない画像情報に優先権を与えるステップ
・背景を表現する1つ以上の表面、すなわち、背景オブジェクトを含んでいる背景モデル上に画像情報をレンダリングするステップ。
これにより、現実の画像データが有効になっているときには常に、有効な現実データから得られる合成色によって、背景を色付けすることが可能となる。これは、現実のデータに、合成データに対する優先権を与えているからである。現実のデータが有効でない場合に限って、セグメンテーションの後に、異なるビデオフィードから得られる1つ以上の背景から得られる合成データによって、3次元モデル内の背景を着色する。
本発明の好ましい変化形では、背景を表現する表面は、競技場すなわちピッチを表現している表面である。そして、任意的に、この表面に、周囲環境モデルを表現する表面を含ませている。この周囲環境モデルは、例えば周囲環境データモジュールに保存されているものである。この周囲環境モデルについては、どのような周囲環境にも適合する単純な包括的モデルであってもよい。また、実際の周囲環境のCADデータから得られる周囲環境モデルであってもよい。本発明の他の好ましい変化形では、仮想カメラによって視認されるような背景画像を決定するステップが、さらに、背景モデル上の所定の画像データをレンダリングするステップと、それをビデオストリームから得られる画像情報に重ねる、あるいは画像情報と入れ替えるステップとを含んでいる。
本発明の他の好ましい変化形では、仮想カメラに対する各オブジェクトの投影を決定するステップが、レンダリングオブジェクトの位置および方向を決定し、さらに、異なるビデオフィードから抽出されるビデオ情報であって、レンダリングオブジェクトに対して上記のオブジェクトに関連付けられているビデオ情報を、レンダリングするステップを含んでいる。
本発明の1つの好ましい実施形態では、レンダリングオブジェクトが、いわゆるビルボード、すなわち、ピッチ上に立っている垂直面となっている。ビルボードのサイズおよび方向については、1つのビデオフィードから得られる上記のオブジェクトに関する境界ボックスに従って決定される。また、ビルボードの位置については、上記したオブジェクト
における、演算された3次元位置によって規定される。この3次元位置を境界ボックスの投影と結合することで、3次元の長方形における3次元的な4つの頂点を生成することが可能となる。このために、長方形の法線を、境界ボックスを生成した現実のカメラあるいは仮想カメラのいずれかによって規定される、光学軸あるいは表示法平面と等しくしている。前者の場合、現実のカメラにそれぞれ対応する各オブジェクトに関して、多数のビルボードを使用することが可能である。最終的にレンダリングされた画像は、多数のビルボードにレンダリングされた画像を結合したものから構成される。この結合については、仮想カメラの位置に依存して制御される。
本発明の他の好ましい変化形では、ビルボードを、ハイトフィールド(height−field)によって増補するようになっている。このハイトフィールドは、オブジェクトの配置を粗く規定するものである。すなわち、ハイトフィールドは、2つ以上の現実のカメラ表示から決定される。これは、例えば、シルエットによる復元(shape−from−silhouette)、あるいは、ステレオ方法による復元(shape−from−stereo methods)を用いて実施される。これについては、例えば、「コンピュータビジョンにおける多重表示配置(Multiple View Geometry in Computer Vision)」;Richard Hartley and Andrew Zisserman,Cambridge University Press,2000に記載されている。これらのハイトフィールドについては、オブジェクトレンダリングの最終的な質を改善するために使用することが好ましい。ビルボードについては、オブジェクトの配置に関するより詳細な事項を表現する置換マップ(displacement−map)を用いて増補することも可能である。後者は、より高速なレンダリングを実施するために有用なものである。
本発明のさらに好ましい変化形では、アルファブレンディングによって、オブジェクトの投影と背景画像とを仮想カメラにおいて重ね合わせるようになっている。オブジェクトビルボードのアルファチャンネルにおける値については、直接に使用するようにしてもよいし、さらに重み付けするようにしてもよい。この重み付けは、現実のカメラと仮想カメラとの光学特性の間における、角度の類似性、解像度あるいは視野に基づくものである。
・参照フィーチャを特定するためのピッチの概略的な表現における参照フィーチャの表現の使用方法、
・参照フィーチャ特定プロセスにおいて抽出されたフィーチャの1つの位置に対する参照フィーチャの位置のスナップ方法、
・カメラパラメータの変更に従うトラッキング補償およびトラッキング訂正の方法、
・自動的特定支援方法、
・ユーザに未確認オブジェクトの存在を警告する方法、
・画像要素を、背景の一部、または少なくとも2つのカテゴリの1つであると分類する方法、
・アルファチャンネル整合を使用する方法、
・修復された画像要素を合成画像データとしてマークをつける方法、
・3次元技術による修復方法、
・セグメンテーションの結果に基づく、オブジェクトの周囲にある境界ボックスの位置およびサイズの改良方法、
・3次元背景モデルへのビデオ情報のレンダリング方法。
上記のそれぞれについては、原則的に、オブジェクトの3次元位置から得られる位置情報を用いた、少なくとも2つのビデオストリームにおけるオブジェクトの動きに対するトラッキングを組み込んでいないシステムにおいて実行されてもよい。
本発明にかかるシステムは、生成実体(producing entity)からビデオストリームの供給を受ける、データ収集モジュールを備えている。さらに、このシステムは、カメラ・キャリブレーション・モジュール、2次元トラッキングモジュール、オブジェクト特定モジュール、3次元結合および3次元オブジェクト位置演算モジュールを備えている。そして、好ましくは、このシステムは、オブジェクト切り取りモジュール、および、ビデオデータを消費者に提供する画像合成モジュールを備えている。
本発明に従って、動的に変化する3次元のシーンに関する3次元表現を生成するためのコンピュータプログラム製品は、デジタルコンピュータの内部メモリに読み込まれるものであって、コンピュータ・プログラム・コード手段を備えている。このコンピュータ・プログラム・コード手段は、前記コンピュータ・プログラム・コード手段がコンピュータに読み込まれたときに、コンピュータに、本発明にかかる方法を実行させるためのものである。本発明の好ましい実施形態では、このコンピュータプログラム製品は、コンピュータ読み取り可能な媒体を含んでいる。この媒体は、コンピュータ・プログラム・コード手段を記録したものである。
さらに好ましい実施形態については、従属請求項によって明確となる。方法の請求項の特徴については、システムの請求項の特徴と組み合わせてもよくその逆も同様である。
本発明の主題について、添付図面によって示される好ましい例示的な実施形態を参照しながら、以下の文章においてより詳細に説明する。
本発明にかかるシステムの構造および方法の概観を示す概略図である。 キャリブレーション方法におけるユーザ・インタラクション・フェーズにおいて使用される画像を示す概略図である。 トラッキング方法を例示する画像を示す概略図である。 2つ(あるいはそれより多くの)オブジェクトに関し、1つのカメラのビデオ画像内における2次元投影においてはこれらが衝突している一方、他のカメラに関しては衝突していない状況を示す概略図である。 2次元オブジェクトの位置およびサイズ構造、境界ボックスの一実施形態を示す概略図である。 境界ボックスの改良を示す概略図である。 周辺機器を伴う本発明のシステムの全体を示す概略図である。 充填されるべき欠損、および、ランドマークによって貫かれた欠損を含む画像を示す概略図である。 投影されたサークルおよびパッチの回転を示す概略図である。 ランドマークの投射投影、および、ランドマークに関する画素位置の配置を示す概略図である。 3次元の周囲環境モデルを示す概略図である。 本発明に従って生成された再構築画像を示す図である。
図面において用いられている符号およびその意味については、符号の説明にまとめて記載している。原則的には、図面において、同一の部材には同一の符号を付している。
[好ましい実施形態に対する詳細な説明]
図1に、システム100およびこれに対応する方法の概要を、システムの部材および対応する部分的な方法とともに概略的に図示する。これらの部材は、インターフェイス、すなわちデータの入出力装置を介してリンクされている。このため、この図は、一方では、
部材あるいはモジュールと、これらのモジュール間のメインデータフローを示すものである。また他方では、モジュールは、システムによって実行される方法の方法ステップに対応している。従って、これらのモジュールは、文脈に応じて、方法として参照されることもある。
システム100およびその部材については、個々の部材における実際のプロセス要求に応じて、ソフトウェアモジュールおよび/または専用のハードウェアモジュールによって実現することが可能である。従って、システム100については、汎用のデータ処理装置あるいはコンピュータによって実現することが可能である。これらは、処理ユニット、データ記憶ユニット、および、ディスプレイ、キーボード、ポイント装置およびデータ通信インターフェイスなどの入出力装置を備えるものである。
このシステムは、生成実体101からビデオストリームの供給を受ける、データ収集モジュール102を備えている。さらに、このシステムは、カメラ・キャリブレーション・モジュール103、2次元トラッキングモジュール104、オブジェクト特定モジュール105、オブジェクト切り取りモジュール106、3次元結合および3次元オブジェクト位置演算モジュール107、および、画像合成モジュール108を備えている。この画像合成モジュール108は、ビデオデータを消費者109に提供するものである。システム100は、さらに、リソース・データ・モジュール110および周囲環境データモジュール113を備えるか、あるいは、これらにリンクしている構成とすることも可能である。モジュール間に設けられたインターフェイスを介して流れている、異なる種類のデータについては、符号の説明欄に一覧表示している。
図1において、上から下に向かうシーケンスは、情報処理の順方向を示している(2次元トラッキングステップ104に先行するカメラ・キャリブレーション・ステップ103、および、これらのステップに先行する他の全てのステップについて以下に示す)。1つのステップは、図示した順序に従って先行するいずれかのステップに続くステップとみなされる。3次元オブジェクト位置演算107から延びる矢印は、3次元オブジェクト位置130を示している。この位置は、2次元トラッキングモジュール104および/またはオブジェクト特定モジュール105などの先行するステップに提供される。従って、3次元オブジェクト位置130は、情報処理における通常の実行方向に逆行するように流れるようになっており、情報のフィードバックを構成する。
本発明は、好ましい実施形態において、次に示すような方法で機能する。すなわち、2つ以上のビデオストリーム120が101によって生成され、リアルタイムでシステム100に供給される。通常、この入力は、ハードウェアケーブルと、その内部でのSDI(Serial Digital Interface)フォーマットされたデータとを介して供給される。これらは、ビデオ送信のための生産現場において、テレビのプロデューサによって通常に使用されているシステムである。このフォーマットあるいはハードウェアは、本発明の本質ではなく、他の実施形態に変更することも可能である。
最初のステップにおいて、データ取得方法102では、既製のハードウェア部材を使用することが好ましい。この部材は、これら2つ以上のビデオストリーム120を、コンピュータの内部メモリに捕獲する(デジタル化する)ものである。この方法では、上記のデータフォーマットを、後の処理のために、RGB、YUVあるいはその他の画像表現フォーマットに追加的に変換することも可能である。さらに、この方法における付加的なステップとして、標準的な方法を用いた順次走査変換(de−interlacing)方法を含むようにしてもよい。この方法については、「順次走査変換:走査周波数の変換に関するキーテクノロジー(De−Interlacing:A Key Technology for Scan Rate Conversion)」:Bellars an
d De Haan,Elsevier,2000を参照されたい。方法102の出力は、全てのフレームについて入力される全てのビデオストリームにおける、デジタル化された色テクスチャデータ(color texture data)121である。
次に、カメラキャリブレーション方法103は、各カメラの位置、方向および内部パラメータ122を決定するために用いられるものである。この内部パラメータ122は、他の方法において使用されるものである。図2は、このキャリブレーション方法に支障の生じた場合に、これを初期化あるいは訂正するために使用されるユーザインタラクションの概略図である。初期化時間(例えば、t_init)に対応する各ビデオ入力のフレームでは、ユーザは、正確な2次元位置203a,b、2次元ライン203c、2次元サークル203dとなることのできるフィーチャ、あるいは他の周知のフィーチャを特定する。このプロセスは、「スナッピング」方法によって補助される。この方法は、周知の方法を用いて、ライン、サークルなどの画像のフィーチャを特定する方法である。これについては、例えば、「オープンソースのコンピュータ版図書館(open source computer vision library)http://www.intel.com/technology/ computing/opencv/」によって取得することが可能である。
ユーザ入力装置(マウスポインタ)をそのフィーチャの近くに配すると、入力装置が、画像内においてフィーチャ上に位置を変えることで、そのフィーチャを「スナップ」する。ビデオイメージ201内でフィーチャ203a〜dに対する選択(クリックする、キーを押すなどによる)をした後、ユーザは、概略図202内での対応するフィーチャ204a〜dを選択する。フィーチャ203a〜dのいくつかが選択され、それに対応する概略表現204a〜dが選択された後、キャリブレーション演算アルゴリズムが、他ならぬこのフレームのために、キャリブレーション情報として知られているカメラの位置方向および初期パラメータを演算する。このキャリブレーション演算アルゴリズムとしては、例えば、「カメラキャリブレーションに関する順応的新技術(A flexible new
technique for camera calibration):Z.Zhang,IEEE Transactions on Pattern Analysis
and Machine Intelligence,22(11):1330−1334,2000」が挙げられる。これらのステップは、時間t_initにおける各カメラの初期化フレームについて実施される。
継続するフレーム(時間t(k)=t_init+1、t_init+2、…)に関し、および、各ビデオストリームに関して、このキャリブレーション方法は、自動的に、2次元画像内で特定のフィーチャをトラッキングする。これは、トラッキングアルゴリズムを用いて行われる。このトラッキングアルゴリズムの例としては、「視覚トラッキングに関する凝縮−条件付き密度プログラム(Condensation−conditional density propagation for visual tracking):Isard and Blake,International Journal of Computer Vision,29,1,5−28,1998」が挙げられる。
キャリブレーション方法103と平行して、あるいはその後に、トラッキング方法104が、デジタル化された色テクスチャデータ121、カメラ・キャリブレーション・データ、推定した3次元オブジェクト位置131を使用して、色テクスチャデータ121のセット毎に、視認されている全てのオブジェクトにおける2次元の位置および形状を判断する。なお、上記のカメラ・キャリブレーション・データは、実際のデータ、および/または、先行するステップ131のデータである(平行処理か否かで変わる)。
t_initにおける初期化フレームでは、ユーザは、全てのカメラにおけるビデオ画像ごとに、オブジェクトの位置を特定することが好ましい。このプロセスのために、自動的な方法によって候補を提示することが可能である。この方法における1つの好ましい実施形態では、ユーザは、マウス入力装置および/またはキーボードを用いて、2次元の長方形(いわゆる境界ボックス501)を特定する。この長方形501については、マウスおよび/またはキーボードを用いて、後のいずれの時間においても、位置509での画素位置(pixel−wise)およびサイズ(幅510、高さ511)を変更することが可能である。他の好ましい実施形態では、ユーザは、各オブジェクトをクリックまたはポイントし、自動的な方法によって、境界ボックス501あるいは他の形状の表示を(準)自動的に決定する。これについては、後述するオブジェクト切り取り方法106の微調整方法において使用されるものと同様の方法によって、実行することが可能である。
他のフレームに関しては、トラッキング方法は自動的に実行される。基本的に、適切な(そして、リアルタイムの)トラッキング方法(例えば「視覚トラッキングに関する凝縮−条件付き密度プログラム(Condensation−conditional density propagation for visual tracking);Isard and Blake,International Journal of Computer Vision,29,1,5−28,1998」)は、以下に示すように機能する。
1.前段の状態に基づく画像内のオブジェクトの2次元状態を推定する。
2.推定した2次元位置の周囲を検索する。この検索については、オブジェクトのフィーチャと検索サンプルのフィーチャとを比較することによって実行する。このようなサンプルフィーチャ比較は、色ヒストグラム、ガウシアン混合モデルあるいは同様のモデルに基づいて実行することが可能である(パターン分類(Pattern Classification):Duda,Hart,and Stork,Wiley Interscience,2000)。
3.現在の状態として、1つ以上の検索サンプルを選択する。
図3に、本明細書において説明する、我々によって改善されたトラッキング方法を概略的に示す。3次元オブジェクト位置演算方法107から、キャリブレーション方法103によって、全てのオブジェクトに関する3次元オブジェクト位置を推定する。この推定については、シーン303における3次元モデルにおいて実行される。このシーン303では、例えば、先行するフレーム331a,bから、および、先行するフレーム330a,bの前のフレームから得られる3次元位置を、現在のフレーム332a,bの3次元オブジェクト位置に対する線型補間スキームあるいは高次補間スキームに基づく推定に使用する。
なお、図3には、単一のビデオフレームを表示しているわけではなく、説明のために、2つの異なるフレームのオブジェクト310a,b、312a,b、…の位置を重ねて表示している。実際のビデオストリームでは、最初に、オブジェクト310aと310bが表示され、その後、オブジェクト311aと311bが表示される。実際のビデオフレームでは、これらのオブジェクトは、以下に示すような、トラッキングおよびセグメンテーションによって決定される画像区分に対応している。
技術水準のトラッキングアルゴリズムは、ある単一のビデオシーケンス中のオブジェクトをトラッキングするだけなので、オブジェクトは2次元画像空間に残存している。オブジェクトA,Bに関し、トラッキングされているオブジェクトの2次元軌道(トラッキングされている2次元での位置だけに基づくもの)を、矢印311a,bによって示す。これにより、これらのオブジェクトの2次元位置は、先行するフレーム301(他のトラッ
キングアルゴリズムがこのオブジェクトに対する検索を開始したフレーム)において予測された、2次元位置312a,bとなる。
我々の方法では、カメラについては固定する必要がない。従って、カメラの向きや内部パラメータ(ズームなど)を時間とともに変更することが可能である。従って、現在のフレーム(フレーム302)でのシーンを、従前(フレーム301)と異なるように表示することが可能となる。他のトラッキングアルゴリズムによって得られる2次元位置だけを考慮する場合、このトラッキング方法については、先行するフレーム312a,bに示されていたものと同じ2次元位置321a,bから開始することになる。キャリブレーション方法103によって得られる実際のあるいは推定したキャリブレーションデータ131、および、3次元オブジェクト位置演算方法107から得られる推定した3次元オブジェクト位置130を使用して、推定した3次元投影の投影における2次元位置、および、実際の画像における位置320abを演算する。これは、オブジェクトの2次元位置に対する推定に影響するだけでなく、ビデオ画像中のオブジェクトのサイズあるいは形状にも影響する。従って、トラッキング検索ステップについては、改善された2次元の位置および形状を推定しながら開始することになる。これにより、検索空間をより小さくすることが可能となり、トラッキング方法における計算量を権限することができる。
このトラッキング方法の他の改善点は、オブジェクトの3次元位置をわかっている場合には、このオブジェクトがカメラの視認領域に入ったりこの領域から出たりした場合に、それを簡単に検出できることにある。全てのオブジェクトに関して推定した3次元オブジェクト位置130を2次元画像に投影することによって、フレームの境界内にある全ての2次元位置が、トラッキング中に考慮されるはずでる。これについては、状況および有用なビデオ情報に従って、この方法によって自動的に実行することが可能であるし、これに代えて、ユーザの補助を受けて実行するようにしてもよい。
このトラッキング方法の他の改善点としては、図4に概略的に示すように、2次元画像空間内のオブジェクトの衝突に関する取り扱いにある。このシーン403に関する概略図では、オブジェクトA,Bの3次元位置を、前の時間t(k−1)430a,bおよび現在の時間t(k)431a,bの間に表示している。1台のカメラの表示401では両方のオブジェクト411a,bが2次元において衝突している状態のように見えている一方、他のカメラの表示402では同じオブジェクト421a,bが衝突していない状態のように見えている。これにより、トラッキング方法に関し、2種類の付加的な情報を得ることができる。
1.このトラッキング方法は、ある表示401内で2つ以上のオブジェクトが衝突しているという情報を使用することが可能である。このために、単独の2次元画像からは「1つのオブジェクト」だけを認識しているけれども、2つ以上のオブジェクトがある、ということを知ることが可能となる。
2.このトラッキング方法は、衝突後のオブジェクトに対するトラッキングを容易に維持することが可能である。これは、3次元空間におけるオブジェクトのある場所あるいは予想される場所、および、それに応じた2次元表示での場所についても知ることが可能であり、このために、個々にそして正確に、各オブジェクトのトラッキングを続けられるからである。
最後に、このトラッキング方法は、全てのカメラの全てのフレームに視認されている全てのオブジェクトに関する2次元オブジェクト位置および形状123を判断し、オブジェクト特定モジュール105に伝達する。
上記のトラッキング方法に続いて、各ビデオストリームにおいて視認されている各オブジェクトに関して、色テクスチャデータ123におけるオブジェクトの2次元の位置および形状を、現実のオブジェクト(例えば、選手、ゴールキーパー、審判、ボールなど)に関連付ける。この関連付けは、キャリブレーションデータ122、ソース・データ・モジュール(単にリソースとも称する)110に含まれている現実世界のオブジェクト132の情報、および、可能であれば、全てのカメラの全てのフレームにおける実質的に全てのオブジェクトに関する推定三次元オブジェクト位置130および2次元の位置および形状123(トラッキング方法104によって伝達されたもの)に基づいて実行される。この場合において、および他の場合においても、「全て」というのは、「実質的に全て」ということを意味する。すなわち、不備のあるもの、不健全なもの、あるいは不具合のあるもの(オブジェクトについても、カメラについても)は含まれない。
時間t_initのフレームを初期化する過程においては、ユーザは、1台のカメラにおける各2次元の位置および形状情報123を、リソース110を用いて、特定の現実世界のオブジェクト(既に知られているような全てのオブジェクト;例えば、選手の名前、ゴールキーパーの名前、審判、ボールなど)132に関連付ける。時間t_initにおける他の全てのカメラのフレームに関して、このオブジェクト特定方法によって以下のステップを実行することにより、自動的に、特定情報(名前など)を提示するようになっていることが好ましい。
1.全ての特定されたオブジェクトに関して、
(a)推定130を通じて有用な3次元位置を得られなかった場合に、3次元位置の近似値を演算する(3次元演算方法107において示したような、グランドレベル(ground−level)の条件を使用する)。
(b)キャリブレーションデータ122を用いて上記の3次元位置を各カメラフレーム画像に投影することによって、2次元位置を演算する。
(c)それぞれのカメラにおけるフレーム境界内にある上記した全ての2次元位置に関して、
(i)上記の2次元位置の近くに位置する2次元の位置および形状情報123を決定する。
(ii)距離に関してユーザの特定したある閾値内に1つの2次元位置しかない場合には、上記の2次元の位置および形状情報123を、上記の特定されたオブジェクトに関連付けられた現実世界のオブジェクトに対して関連付ける。
(iii)上記の閾値内に1つ以上の2次元位置がある場合には、ユーザに対して、距離に応じて並べられたリストを提示する。このリストは、ユーザが積極的に自分の手で第2の距離あるいはより多くの距離を選択するために用いられる。ユーザが何の行動もしない場合には、第1の距離が選択されたまま維持される。対応する2次元の位置および形状情報123を、上記の選択されたオブジェクトに関連付けられた現実世界のオブジェクトに関連付ける。
(d)各カメラにおける全ての2次元の位置および形状(上記のいずれのステップにおいても現実世界のオブジェクトに関連付けられていないもの)に関し、以下のステップによって、可能性のある候補のリストを提示する。
(i)上記のカメラフレームにおける2次元の位置および形状情報123に既に関連付けられた現実世界のオブジェクトを除去する。
(ii)3次元位置に関する画像への2次元投影(1(b)参照)の距離の増加に応じて、残存している候補を整理する。
(iii)まだ演算できる状態ではない3次元位置を有するオブジェクトを、ユーザの設定に応じて、リストの前あるいは後に配置する。
後続する全てのフレームに関して、オブジェクト特定法は、以下のステップを実行する。
1.2次元オブジェクトの位置および形状情報123が、これまでのフレームにおいて既に特定され関連付けられている場合、一致した情報132を再び使用する。
2.2次元オブジェクトの位置および形状情報123が、トラッキング方法におけるこれまでのステップで特定されていない場合、未確認のオブジェクトに関するフレームの初期化中と同一のステップを実行する。
3.2次元オブジェクトの位置および形状情報123が、まだ現実世界のオブジェクト情報132に関連付けられていない場合、ユーザインタラクションを要求するように、該当フレームにマークをつける。
4.トラッキング方法104によって、不明瞭でなく特定されている全ての2次元オブジェクトの位置および形状情報123を見いだすことのできた全てのフレームに関して、さらなるユーザインタラクションを要求せずに実行されるように、これらのフレームにマークをつける。
その後、ユーザは、可能性のある候補のリストを用いて、ユーザインタラクションを要求するマークをつけられた全てのフレーム内の2次元オブジェクトの位置および形状情報123を関連付ける。これは、全てのフレームについて、全ての2次元オブジェクトの位置および形状情報123を不明瞭でなく特定できるまで実行される。
オブジェクト特定方法105によって、全てのビデオストリームにおける全てのフレームにおいてトラッキング方法104に見いだされた全ての2次元の位置および形状に関して、2次元オブジェクトの位置および形状とオブジェクトの特定情報124とを得られる。
データ収集102およびオブジェクト特定105によって得られるデータ、すなわち、色テクスチャデータ121および2次元オブジェクトの位置および形状(オブジェクトの特定情報124を含む)は、オブジェクト切り取り方法106に入力される。
この方法では、前景(オブジェクト)画素と背景画素との間にあるオブジェクトの位置およびサイズによって規定される領域内における、色テクスチャデータに対するセグメンテーションあるいは切り取り(いわゆるアルファマスク)を演算する。従って、オブジェクト切り取り方法の1つの出力は、アルファマスク126に関連付けられたオブジェクトのテクスチャデータとなる。
図5は境界ボックス501内における、2次元オブジェクトの位置およびサイズ構造の一実施形態を示す概略図である。また、図5は、前景502と背景503との間の差異、および、切り取りあるいはセグメンテーション方法によって得られるアルファマスク値505についても示している。
境界ボックス501がオブジェクトの全体を含んでいなかったり境界ボックスを横切っていたりした場合、境界ボックス501が演繹的に推定できるものであるか、あるいはユーザによって規定できるものであるなら、境界ボックスを、特定のサイズまで拡大することが可能である。この拡大については、ユーザによって実行するようにしても、固定値に従うようにしても、あるいは境界ボックス501を分析する自動処理によって実行するようにしてもよい。
この方法では、オブジェクトは、まず、少なくとも2つのカテゴリに従って分類される。これらのカテゴリは、統計上のフィーチャモデルに基づいていることが好ましい。このモデルとしては、例えば、ヒストグラム、ガウシアン混合モデル、あるいは同様のモデル(「パターン分類(Pattern Classification):Duda,Hart,and Stork,Wiley Interscience,2000」)が挙げられる。好ましいフィーチャは、色およびエッジを含んでいる(ただしこれらに限るわけではない)。処理に先立って、全てのオブジェクトのカテゴリに関する統計上のモデルを構築する。カテゴリは、1つ以上のカメラから得られる静止画を用いて構築され、全てのカメラのビデオストリームに適用される。オブジェクトの各カテゴリに関する統計上のモデルについては、ポインティング装置、および、このカテゴリに属するさまざまなポイントに応じた経路に従う参照マークを用いたユーザの動作によって生成される。統計上のモデルの生成においては、上記の経路上のポイントにおけるフィーチャによって、上記のカテゴリを表現するサンプルを形成する。オブジェクトの各カテゴリに関して、参照マークによって、ポイントあるいは画像要素(画素)を背景あるいは前景に属するものとして分類する。ユーザは、背景が現実に見えている範囲内ではなく、境界ボックス501の外部および境界ボックス501の内部の画素に関して、背景にマークをつけることが好ましい。ユーザは、前景の属する範囲内の境界ボックスの内部の部分に関する前景にマークをつける。このモデルについては、1つあるいは多数の入力画像102を用いて生成することが好ましい。
その後、このモデルを、使用しているモデルにとって好ましい方法を用いて生成する。この方法としては、例えば、k−平均クラスタリング法、あるいは、期待値最大化法が挙げられる(「パターン分類(Pattern Classification):Duda,Hart,and Stork,Wiley Interscience,2000」を参照されたい)。このモデルについては、多数の統計上のパラメータによって規定することが好ましい。例えば、平均値、分散あるいは共分散マトリクスを用いて規定することが可能である。切り取りについては、対応した統計上のモデルのパラメータを用いて、境界ボックス内の全ての画素を処理することによって実行する。このとき、以下の点を考慮する。
1.データの類似性。すなわち、モデルパラメータとデータサンプルとの間の尤度を演算することによる、データサンプルの色とカラーモデルとの一致性に関する計測。
2.近傍あるいは従前との類似性。すなわち、空間的および時間的に隣接しているサンプル間の色の差に対する評価。これにより、大きな色偏差を不利にするとともに、選択処理における空間的および時間コヒーレンスを確保する。
切り取りの実行に関して、セグメンテーションについては、最小カット方法を使用した解決法を生み出すグラフラベリング問題のように解釈することが好ましい。例えば、定式化および解決法については、「画像におけるエネルギー最小化のための最小カット最大フローアルゴリズムの実験比較(An experimental comparison
of min−cut/max−flow algorithms for energy minimization in vision):Boykov and Ko
lmogorov,IEEE Transactions on Pattern Analysis and Machine Intelligence 26,9,1124-1137,2004」に記載されている。切り取りの結果、境界ボックス501を、前景504と背景503との2値のセグメンテーションに区分(標識化)できる(すなわち、0(背景)および1(前景))。
後処理方法において、アルファ値505を、前景508の画素と背景506の画素との間の境界の近傍における、全ての画素(中間値507をもつ画素を含む)に割り当てることが好ましい。これらの中間値は、オブジェクトのなめらかな境界を示す値である。中間値については、例えば、「ベイズ理論に基づくデジタルマッティングの手法(A Bayesian Approach to Digital Matting):Chuang,Curless,Salesin,and Szeliski.,IEEE Computer Vision and Pattern Recognition,Vol.II,264−271,2001」を用いて演算することが可能である。
アルファマスクを用いると、オブジェクトの2次元の位置および形状を改良できるとともに、これらをオブジェクト切り取り方法106の追加的な出力127として供給することが可能となる。
図6に、上記したような境界ボックスの改良点を概略的に示す。この目的を達成するために、最初に得られた境界ボックス601(破線)に関して、アルファマスクを横に移動して、前景画素の存在する画像の外形の両方(水平および垂直(u方向、v方向))における最小値および最大値を演算する。これにより、境界ボックス601のサイズが減少し(実線)、実際のオブジェクト602の形状によりよく整合するようになる。境界ボックスの新しい位置として最小値を採用し、各方向における最大値と最小値との差を、境界ボックスの新しい幅(u方向)および高さ(v方向)として使用する。そして、3次元位置演算方法のための参照ポイント(あるいはアンカーポイント)604を設定する。この設定の位置については、例えば、u方向に関しては最大値と最小値との中間点とする一方、v方向においては、最小値とする。
最後に、この方法によって、ビデオストリーム121における色テクスチャデータ内において、全ての前景領域(1組の画素)を決定する。この決定については、各ビデオストリームにおいて全てのオブジェクトを横に移動することによって、そして、色テクスチャデータ内においてフラグを用いて前景としてラベル表示されている画素にマークをつけることによって実行する。前景オブジェクトおよび欠損を含まない背景テクスチャデータを得るために、上記の領域を、画像修復方法を用いて充填する。これについては、例えば、「画像合成のための表示補間(View Interpolation for Image Synthesis);Chen and Williams,ACM SIGGRAPH 1993,pp.279−288」を参照されたい。この方法では、引き続いて、欠損の境界線上の各欠損画素に関して、画像中のマークのつけられていない領域から最も類似しているパッチを選択する。そして、対応する値を上記の境界画素に割り当てる。これにより、境界から中間点までの欠損を充填することが可能となる。これらの合成的に生成された画素の全てについては、各画素に関連付けられたフラグを用いて「修復済」であることを示す特別のマークが付される。これにより、充填されフラグの付された背景テクスチャデータ125からなる、切り取り方法における追加的な出力を得られる。
要約すれば、切り取りモジュール106の出力は、以下のものをを備えている。
・充填されフラグの付された背景テクスチャデータ125
・各カメラに関するオブジェクトテクスチャおよびアルファマスク、および、現実世界のオブジェクト、例えば、セグメンテーション情報126
・現実世界のオブジェクトの特定情報を有する、改良されたオブジェクトの2次元の位置および形状127
この3次元オブジェクト位置演算方法107は、現実世界の情報127を伴う改良された2次元位置およびサイズ情報と、(全ての)カメラのカメラ・キャリブレーション・データ122を使用して、(全ての)オブジェクトの3次元位置を決定するようになっている。この方法では、以下のステップが実行される。
1.現実世界の各オブジェクトに関連付けられた、2次元位置および形状情報を収集する。
2.カメラで視認されていないオブジェクトに関し、1次あるいは高次の補間スキームを用いて、先行するステップ(使える場合)の3次元位置を推定する。
3.1台のカメラだけに視認されているオブジェクトに関し、このオブジェクトがグランドレベルに配されていると仮定し、このために、投影された2次元画像における2次元位置を貫いてカメラ位置から延びるベクトルを地面と交叉させる。これにより、オブジェクトの3次元位置を得る。
4.2台以上のカメラによって視認されているオブジェクトに関し、2つの異なる方法を使用する。
(a)1つの方法では、全てのオブジェクトがグランドレベルに配されていると仮定し、このために、上記したものと同じ方法を使用する。これにより、そのオブジェクトに関する最終的な3次元位置になるような平均値(mean or average)を演算するための、グランドレベルにおける2つ以上の3次元位置が得られる。
(b)他の方法では、オブジェクトがグランドレベルに配されていると仮定せず、標準的な技術を用いて、上記のベクトルに最も近いポイントを演算する。これについては、例えば、「3次元空間での2本のラインの交叉(Intersection of two lines in three−space);Goldman,In Andrew Glassner,editor,“Graphics Gems”,page 304.Academic Press,1990」を参照されたい。
以上のように、3次元位置演算方法107は、モデル化された各オブジェクトを各時間(ビデオフレーム)に関する3次元位置にあてはめる。そして、全てのオブジェクトの3次元位置128を出力する。これらの3次元位置は、後のステップにおける他の方法によって取り扱えるものであり、これによって、フィードバックループを維持するという効果を得られる。なお、上記した「後の」とは、時間的な意味を示す表現であって、これらのステップについては、システム100の構造に関する文脈で用いた「先行するステップ」のことである。
・上記の補間画像合成方法108では、現在のフレーム128の情報を使用する。
・上記したトラッキング方法104では、1つ以上の先行するフレームから推定した3次元オブジェクト位置情報130を使用することが好ましい。
・上記したオブジェクト特定方法105では、2次元オブジェクトの位置および形状情報123を対応する現実世界のオブジェクト情報132に関連付けるために、情報130を使用するようになっていることが好ましい。
補間画像合成方法108は、シーンの合成表示を生成するものである。この方法への入
力は、オブジェクト128の3次元位置、カメラ・キャリブレーション・データ122、オブジェクトテクスチャおよびアルファマスク126、および、充填されフラグを付された背景テクスチャデータ125である。さらに、この入力には、周囲環境の3次元再構築データ135が含まれている。この3次元再構築データ135は、周囲環境データモジュール113、および/または、オブジェクトの形状から得られるものである。
画像合成方法は、以下のステップを含んでいる。
1.仮想表示から得られるオブジェクトをレンダリングする。このレンダリングについては、シーンにおける特定の3次元表現を用いて、および、オブジェクトテクスチャ126および固定されたアルファ値(切り取りステップ106から得られる)あるいは表示に依存したアルファ値のいずれかを用いて実施する。この際、角度、解像度および視野に関する類似点を考慮する。キャリブレーションデータ122を用いた投影テクスチャリングを使用して、テクスチャマッピングを得ることが好ましい。角度の類似性は、仮想表示の光軸から相当に離れている光軸を有する表示を不利にする。解像度の類似性は、例えば、ターゲットの配置状態からかなり離れているカメラ、あるいは、一般的に低い解像度を有するカメラを不利にする。視野の類似性は、仮想表示におけるターゲットの配置状態を視認していないカメラ表示からのデータを不利にする。
2.既にレンダリングされているオブジェクトを用いたアルファ合成および深度バッファ(depth buffering)によって、および、1つ以上の欠損の充填された背景テクスチャ125を合成することによって、背景の配置状態をレンダリングする。この際、合成中にフラグの付されたデータサンプルを考慮する。キャリブレーションデータ122を用いた投影テクスチャリングを使用して、テクスチャマッピングを得ることが好ましい。
1.のステップでは、特定の3次元表現として、1つ以上のビルボード、ハイトフィールドの強調されたビルボード、凸凹マップ(displacement−map)の強調されたビルボード、あるいは、オブジェクトの完全3次元モデルを用いることが好ましい。
2.のステップに関して、競技場(すなわちピッチ)だけを表現する表面によって、背景の配置状態をモデル化してもよい。また、多少なりとも複雑なスタジアムモデルなどの周囲環境についての表現を上記の表面に含めたものを用いて、上記のモデル化を実施してもよい。このように、レンダリングするにあたって、ビルボード、深度マップを強調したビルボードあるいは完全な3次元モデルを使用することが可能である。
図11に、3次元周囲環境モデルを示す。このモデルは、ピッチを示す平面901、および、ピッチを取り囲むスタジアムを示す他の(傾斜した)表面902を含むものである。図12に、本発明に従って生成された再構築画像を示す。ビルボード903(通常は図示しない)については、説明の便宜上、強調して示している。
合成中にフラグの付されたデータサンプルを考慮するということは、以下の事項を意味する。すなわち、同一の背景表面に関する複数の表示のある場所、および、少なくとも1つの表示内に修復されたもの(すなわち合成データ)であることを示す表面パッチがマークされており、かつ、少なくとも1つの他の表示内に修復されていないもの(すなわち実際のデータ)であることを示す同一のパッチがマークされているような場所では、合成データを無視し、実際のデータだけを使用する。複数のソースから得られる実際のデータが有効な場合には、そのデータを合成してもよいし、また、1つのソースのみから得られるデータを合成してもよい。
さらに、3次元シーンにおける任意の表面に対して、所定の静的あるいは動的な画像をレンダリングすることによって、この表面を色付けするようにしてもよい。画像合成108は、自動的に、上記の画像を示す表示を生成する。これは、上記の画像を、対応するモデル化された表面にペイントしたようになされる。この方法では、ユーザによって決定されるデータ(例えば、ロゴ、広告、後援、相互注釈、選手の統計データなど)を3次元のシーンに挿入し、これらを合成2次元表示に投影する。
最後に、補間画像合成方法108の出力、特に、同期補間ビデオストリーム129については、宛先である消費者109に伝達される。この伝達は、消費者にとって便利なフォーマットに変換された後に実施される。このフォーマットとしては、例えば、入力されるビデオストリーム120に使用されているような、標準的なSDIフォーマットが挙げられる。
図7に、本発明のシステム100(周辺機器を含む)の全体図を概略的に示す。この周辺機器とは、すなわち、競技場701内に配されている少なくとも2台のカメラ702(黒で示している)、コンテンツの製作者の制御ユニット704である。この制御ユニット704は、多数のビデオストリームを収集管理し、アンテナ706のような放送ユニットに接続されているメディア配信ユニット705に対して伝達するためのものである。システム100は、少なくとも2つの入力ビデオストリームを受信し、少なくとも1つの出力ビデオストリームを生成するように構成されている。出力ビデオストリームについては、図示しているように、配信ユニット705に出力するようにしてもよいし、制御ユニット704に出力するようにしてもよい。システム100は、実際のカメラのない位置および方向に配された、仮想カメラ703(輪郭だけで示している)に対応する表示を生成するようになっている。
<欠損充填/画像補間>
図8に、充填されるべき欠損、および、ランドマークの貫通している欠損を含む画像を概略的に示す。この画像は背景のものであり、既知のテクスチャを用いて、背景部分801(「既知の領域」とも呼ばれる)および「未知の領域」すなわち欠損802に原画像をセグメンテーションすることによって生成されたものである。この欠損802は、オブジェクトが特定されて背景の外に切り取られた領域内の欠損である。本発明の好ましい実施形態では、背景内の欠損802を充填するステップは、以下のステップを反復適用するようになっていることが好ましい。
−「宛先パッチ」803a、803b、…を選択する。これらのパッチの領域については、部分的に既知であるものと、部分的に未知であるものとがある。
−「ソースパッチ」804a、804b…を選択する。これらのパッチは、既知の色値を有する少なくとも1つの画素(すなわち既知の領域801から得られる画素)を含んでいる。
−未知の宛先パッチの領域(すなわち欠損802内の領域)に関し、ソースパッチから得られる画像データ(あるいはテクスチャ)を、宛先パッチ内の対応する位置にコピーする。その結果、欠損802の領域が減少する。
例えば、「断片を用いた画像補間(Fragment−based image completion);Drori,I,Cohen−Or,D.,and Yeshurun,H.,2003..ACM Trans.Graph.22,3(JuI.2003),pp.303−312」あるいは「構造プログラムを用いた画像補間(Image
completion with structure propagation);
Sun,J.,Yuan,L.,Jia,J.,and Shum,H.,2005,In ACM SIGGRAPH 2005 Papers.J.Marks,Ed.SIGGRAPH ‘05.ACM Press,New York,NY,pp.861−868」を参照されたい。上記のようなパッチについては、矩形のあるいは円形の形状を有していることが好ましい。多数の宛先パッチ803a、80bが、互いに重なっていることも好ましい。本発明の好ましい実施形態では、重なり合っている宛先パッチが、共通の領域805内で合成されている。
背景画像の欠損を充填するステップに関する好ましい実施形態では、宛先パッチ803a、803b、…が、ソースパッチ804aと同一のサイズおよび同一の方向となっている。そして、ソースパッチから得られる画素情報を、直接に複写できるようになっている。他の好ましい実施形態では、ソースパッチおよび宛先パッチが、サイズ、形状、方向の点で、パッチ804bと異なっている。これらのような場合、対応する色値を探す必要のある場所であるソースパッチの位置に宛先パッチの位置をマップする機能を、簡単に生成できる。また、上記のコピー時に、ソースパッチ画像(例えば804b)を回転および/または拡大・縮小するようにしてもよい。
本発明の好ましい実施形態では、ソースパッチ804a、804b、…を選択するステップにおいて、潛在的に可能なソースパッチと、宛先パッチ803a、803b、…とを比較する。これは、宛先パッチにおける既知の画素値に対応する画素値を有するソースパッチを見つけるためになされる。宛先パッチにおける既知の領域を詳しく検討することで、全ての潛在的に整合するソースパッチと既知の領域との画素位置比較(これにより画素値の差異を得られる)を実行することが可能となる。これは、良好に整合するソースパッチを見つけるためになされる。パッチの全体的な比較値を算出するために、これらの差異の和をとることも好ましい。画素値の差異については、RGB、HSVあるいは画素の他のカラーシステム値に基づくものとすることが可能である(ただし、これらに限るわけではない)。
本発明の好ましい実施形態では、既知の背景801における欠損802を充填するステップを、背景上のランドマーク806a、806b、…に関する従前の知識を考慮して実行する。このようなランドマークとしては、例えば、サッカーピッチ上のラインおよびサークルを使用できる。これらのランドマークは、シーンに対する知覚および認識を修正するために重要である。カメラ・キャリブレーション・ステップからカメラキャリブレーションを知ることができるために、また、通常、ランドマークの位置を、試合規則によって十分に規定することができるために、3次元空間背景から得られるランドマークをビデオ画像に投影することが可能となる。その結果、ビデオ画像内のランドマーク(例えばラインや投影されたサークル)の2次元位置を知ることができる。この知識を用いて、ランドマークに関連する全ての位置(例えば画素)を詳しく検討し、かつ、欠損802の存在をチェックすることによって、投影されたランドマーク上で未知の領域(例えば欠損)を検知することが可能となる。特定された未知の領域807を伴うランドマークに関し、ランドマークにおける失われた部分を再創造することが可能となる。これは、残存している欠損を充填する前に、これとは独立に実行される。これにより、宛先パッチ803c、803dを、ランドマークに沿って漏れなく選択することが可能となる。パッチの中間地点については、常に、画像内においてランドマークが背景投影される位置上にあることが好ましい。そして、ソースパッチについては、ランドマーク804c、804dの既知の領域に沿って検索されることが好ましい。対応するソースパッチが、ほぼ確実に、これらに含まれているランドマークと同一の構造、色あいおよび方向を有しているために、より速くより高質に欠損内のランドマークを回復することが可能である。
上記のようなソースパッチの反復適用によって、欠損内のランドマークの画像を再創造
するようにしてもよい。この実施形態では、パッチのサイズを、ランドマークにおける少なくとも1つの最大幅をカバーできるように選択することが好ましい。
図9に、投影されたサークルおよびパッチの回転を概略的に示す。本発明の好ましい実施形態では、ランドマークに関する従前の知識を用いて背景の欠損を充填するステップにおいて、ソースパッチ804eと宛先パッチ803eとの間の回転角度を決定する。これは、非直線(すなわち、まっすぐでないライン)のランドマーク806b(例えばサークルなど)を取り扱うときに実施される。この回転角度については、投影されたランドマーク上のパッチ位置における基準値808a、808b(すなわち、ある位置におけるランドマークに垂直な線)の間の角度809から演算することが可能である。ソースパッチと宛先パッチとを比較する前に、回転角度をマッピング関数と一体化する。これにより、サークルにおける離れた位置から得られるソースパッチを、方向を修正された宛先パッチと比較して、これに適用することが可能となる。これにより、視認できるような不自然さの発生頻度を減少することができる。
本発明の好ましい実施形態では、ソースパッチの検索を、より遠い位置にあるソースパッチを考慮する前に、宛先パッチにおける局所的な近傍から開始する。この実施形態では、閾値を規定するようにしてもよい。この閾値は、これよりも小さい整合値を有するソースパッチが見つかったときに検索を中止するために用いられるものである(ここでは、「小さい」ほどよい整合値になると仮定している)。従って、このアルゴリズムでは、良好な(しかし最高でなくてもよい)ソースパッチを見つけるまでの間だけ、検索を実行することになる。
本発明の他の好ましい実施形態では、ランドマークの両方の終端の間に欠損がある場合(例えば、欠損の両側においてラインの一部が見えている場合)には、宛先パッチの選択を、欠損の両方の側の間で交互に切り換える。この実施形態では、ランドマークの長さ10に沿って欠損の中心に到達するまで、欠損の両方の側803c、803dの宛先パッチに対して発見されたソースパッチを交互に適用する。これにより、欠損を充填する、あるいは、欠損の境界から内側を成長させる。従って、欠損の離れた側に対して一方向に充填する場合に比して、欠損の両側における未知の画素を、周囲の既知の画素によりよく近似させられる。このようにパッチを交互に適用する場合、ソースパッチを、適用ステップごとに異なるものにすることが可能となる。あるいは、複数の交互のステップ間で同一のソースパッチを使用するようにしてもよい。
本発明のさらに他の好ましい実施形態では、現在選択されているソースパッチの画素を、現在の宛先パッチに適用する前に、過去に適用されたソースパッチの少なくとも1つに含まれている画素と結合(例えば合成)する。合成ファクタは、距離801に依存する。この距離801は、現実の宛先パッチ803cから宛先パッチ803dが過去に存在した位置までの距離である。例えば、距離801が大きい場合、適用前のソースパッチを修正しない。しかしながら、この距離が小さい場合には、ソースパッチを修正して、すぐそばにある過去の宛先パッチと類似のものに見えるようにする。従って、現在の宛先パッチと他の宛先パッチとの間の画素位置の差を、距離とともに減少することができる。これにより、欠損の中央における重なり合った部分を継ぎ目のない状態とすることが可能となる。
図10に、直線のランドマークの投射投影、および、ランドマークに関する画素位置の配置を概略的に示す。本発明のさらに好ましい実施形態では、ソースパッチの画素から宛先パッチの画素まで(およびその逆も)に関するマッピング関数に組み入れる倍率を決定するために、既知のカメラパラメータを使用する。ランドマークは、比較的にカメラに近いポイント806cから始まり、離れたポイント806dにおいて終わっている。このため、投射投影に起因して遠く離れている位置804gに対応するソースパッチよりも大き
い、カメラに近い位置804fに対応するソースパッチを要求するランドマークを投影することになる。投影幾何計算を用いると、パッチの比較および適用中に、ソースパッチ804f、804gと宛先パッチ803fとの間の倍率を決定して適用することが可能となる。この倍率については、ソースパッチおよび宛先パッチのそれぞれのサイズを選択する際にも使用することが好ましい。
本発明のさらに好ましい実施形態では、ランドマークを、線あるいは一次元の要素(例えば、点、直線あるいはサークル)としてみなさずに、主方向に垂直の追加的な次元に関連付けるようになっている(例えば線の幅)。実際のランドマークの幅については、その場で測定することが可能であるし、また、経験に基づいて推測することも簡単である。これにより、単にラインあるいはサークル806cによるというよりも、むしろ、2つの境界811によって区切られる領域によってランドマークを記述することになる。画像投影されたランドマークでは、画素、あるいはより一般的にいえば画像部分については、ランドマーク813に属するものでもランドマーク814に部分的に属するものでもなく、ランドマーク812に属するものとして分類される。パッチをよりよく比較するために、比較関数がこの認識を完全なものにすることが好ましい。また、宛先パッチに対するソースパッチの適用によっても、この認識を完全なものにできることが好ましい。
本発明の好ましい実施形態では、ランドマークを再創造するステップにおいて、少なくとも2つのランドマークが欠損内で互いに交叉あるいは結合しているような領域に対して特別の処置をとるようになっている。このような領域については、異なる方法で再生成するべきである。これは、上記したパッチ適用によって視覚的な不自然さを招来することもあるためである。これらの領域の再生成については、ランドマーク813に属するものでもランドマーク814に部分的に属するものでもなく、ランドマーク812に属するものとして画素を分類した上で実行することが好ましい。この場合、ソースパッチのランドマークに属する画素については、これらが宛先パッチのランドマークに属する画素に対してマップされる場合(およびその逆の場合)に限って、比較適用されることになる。言い換えると、ランドマークが予定されている欠損領域については、パッチ・マッチング・アルゴリズムでは、ランドマークの一部を形成する画素だけを考慮することになる。このような実施形態は、ランドマークに部分的に属するものとして分類されている画素を、例えば最も確実な画素を合成あるいは選択することによって結合するために、特別の処置を有していることが好ましい。
本発明について、本発明における当面の好ましい実施形態を用いて説明してきたが、本発明はこれらに限定されるわけではない。本発明は、特許請求の範囲内において、さまざまに具体化され実施される、ということを明確に理解するべきである。
101 少なくとも2つのビデオストリーム(120)の発信元(製作者)
102 少なくとも2つのビデオストリーム(120)に対する内部メモリへの収集
103 キャリブレーション方法
104 トラッキング方法
105 オブジェクト特定方法
106 オブジェクト切り取り方法
107 3次元オブジェクト位置演算方法
108 補間画像合成方法
109 結果として得られるビデオストリームの宛先(消費者)
110 現実世界のオブジェクト(選手、ゴールキーパー、審判、ボール)に関する情報(チーム、名前、メンバーなど)を含むリソース(ファイル、データベースなど)
113 周囲環境(3次元、CADなど)に関する情報を提供するリソース(ファイル、データベース、モデルなど)
120 少なくとも2つの孤立したビデオストリーム
121 色テクスチャデータ
122 カメラ・キャリブレーション・データ
123 オブジェクトの2次元位置および形状
124 オブジェクトの2次元位置および形状、および、現実世界のオブジェクトの特定情報
125 充填されフラグを付された背景テクスチャデータ
126 オブジェクトテクスチャ、および、カメラおよび現実世界のオブジェクトごとのアルファマスク(例えばセグメンテーション情報)
127 現実世界のオブジェクトの特定情報を有する改良されたオブジェクトの2次元の位置および形状
128 オブジェクトの3次元位置
129 同期補間ビデオストリーム
130 オブジェクトの推定3次元位置
131 現実のあるいは推定したカメラ・キャリブレーション・データ
132 (110)に保存されているような現実世界のオブジェクトに関する情報
135 周囲環境に関する3次元モデル、データあるいは同様の情報
201 遠近法によって何らかのフィーチャを表示するビデオストリームにおける第1の画像
202 フィーチャを伴うシーンの概略図
203a〜d ビデオ画像内のマークを付されたフィーチャ
204a〜d 概略図中における対応するフィーチャ
301 時間t−n(n>0)におけるビデオストリームのフレーム
302 時間tにおけるビデオストリームのフレーム
303 さまざまな時間におけるシーンの3次元状態の概略図
310a,b フレーム301におけるオブジェクトA,Bの2次元位置
311a,b オブジェクトA,Bにおける、現実の軌道および推定した軌道
312a,b フレーム310(画像空間)におけるオブジェクトA,Bの推定2次元位置
320a,b フレーム302におけるオブジェクトA,Bの現実の2次元位置
321a,b フレーム302(同一の画像空間配置)における312a,bとまさに同一の2次元位置
330a,b 時間t−2nにおけるオブジェクトA,Bの既知の3次元位置
331a,b 時間t−nにおけるオブジェクトA,Bの既知の3次元位置
332a,b 時間tにおけるオブジェクトA,Bの推定3次元位置
401 2次元で衝突している2つのオブジェクトA,Bに関するシーンに対するカメラの表示
402 他のカメラによって表示されている、401のものと同一のシーン
403 3次元でのシーンの概略図(俯瞰図)
410a,b 401における時間t0でのオブジェクトA,Bの2次元位置
411a,b 401における時間t1でのオブジェクトA,Bの2次元位置
420a,b 402における時間t0でのオブジェクトA,Bの2次元位置
421a,b 402における時間t1でのオブジェクトA,Bの2次元位置
430a,b 時間t0でのオブジェクトA,Bの3次元位置
431a,b 時間t1でのオブジェクトA,Bの3次元位置
501 境界ボックス
502 境界ボックスの内部に完全に納まっているオブジェクト
503 境界ボックスの背景部分の一部
504 境界ボックスの前景部分の一部(オブジェクトに属するもの)
505 画素から構成されている前景と配置との間の境界部分の拡大図
506 100%の背景として分類することのできる画素の一部
507 100%の背景あるいは100%の前景として分類することはできないものの、例えば57%の前景であると分類できる画素の一部
508 100%の前景として分類することのできる画素の一部
509 左下の角でその位置を規定されている境界ボックス
510 …およびその幅…
511 …およびその高さ…
601 (123)および(124)によって得られる境界ボックスであって、オブジェクトの境界と比較して大きすぎる境界ボックス
602 オブジェクト切り取り方法(106)を経て改良された境界ボックス
603 (123)および(124)によって得られる境界ボックスであって、オブジェクトの境界と交叉している境界ボックス
604 3次元位置演算方法(107)に関する、境界ボックスのアンカーポイント
801 画像における既知の領域
802 画像における未知の領域(すなわち欠損)
803a,b 重なり合っている宛先パッチ
803c,d 欠損の両側においてランドマーク(806a)上にある宛先パッチ
804a ソースパッチ
804b 異なるサイズおよび方向を有するソースパッチ
804c,d ランドマーク(806a)上のソースパッチ
805 宛先パッチの重なり合った領域
806a 投影されたライン状のランドマーク
806b 投影されたサークル状のランドマーク
806c ランドマークの方向に垂直な幅を有するランドマーク
807 ランドマークにおける、欠損の内部に位置する部分
808a,b 投影されたサークル状のランドマークの基準値
809 パッチに対応した2つの基準値間の角度
810 ランドマークにおける、欠損の内部に位置する部分の長さ
811 幅によって規定されるランドマーク(806c)の境界
812 ランドマーク(806c)に属するように分類された画素
813 ランドマーク(806c)に属しないように分類された画素
814 ランドマーク(806c)に部分的に属するように分類された画素
901 ピッチ、競技場
902 3次元のスタジアムモデル
903 ビルボード

Claims (32)

  1. 動的に変化する3次元のシーンに関する3次元表現を生成する方法であって、
    (a)異なる場所に配置され、同じ3次元シーン(701)を観察している少なくとも2台のカメラ(702)から得られる、少なくとも2つのビデオストリーム(120)を取得するステップ(102)と、
    (b)前記少なくとも2台のカメラ(702)に関し、位置、方向、および内部パラメータを含むカメラパラメータ(122)を決定するステップ(103)と、
    (c)前記少なくとも2つのビデオストリーム内のオブジェクト(310a,b、312a,b、330a,b、331a,b、332a,b、410a,b、411a,b、430a,b、431a,b、420a,b、421a,b)の動きをトラッキングするステップ(104)と、
    (d)前記少なくとも2つのビデオストリーム内における前記オブジェクトの固有性を決定するステップ(105)と、
    (e)前記少なくとも2つのビデオストリームから得られる情報を結合することによって、オブジェクトの3次元位置を決定するステップ(107)とを備え、
    上記列挙したステップ(103、104、105)の少なくとも1つが、後続のステップ(107)の1つによって前記少なくとも2つのビデオストリームから得られる情報に依拠していることを特徴とする方法。
  2. (f)ビデオストリーム内のオブジェクトに対応する3次元レンダリングされたオブジェクト(903)の位置および方向を決定するステップをさらに備え、3次元レンダリングされたオブジェクト(903)は、シーンの3次元表現を生成するときに、1つ以上のビデオストリームから得られる画像情報のレンダリングに用いられる、請求項1に記載の方法。
  3. 少なくとも1つのオブジェクトの3次元位置は、当該オブジェクト(332a,b)の先行する少なくとも2つの3次元位置から推定される、請求項1または2に記載の方法。
  4. 前記少なくとも2つのビデオストリーム(12)内のオブジェクト(310a,b、312a,b、330a,b、331a,b、332a,b、410a,b、411a,b、430a,b、431a,b、420a,b、421a,b)の動きをトラッキングするステップ(104)は、前記後続のステップ(107)の1つにおいて、前記少なくとも2つのビデオストリームから得られる、先行する1つ以上の瞬間に生じる情報を使用する、上記した請求項のいずれか1つに記載の方法。
  5. 前記先行する1つ以上の瞬間に得られる情報は、オブジェクト(130)の3次元位置である、請求項4に記載の方法。
  6. 前記少なくとも2つのビデオストリーム(120)内におけるオブジェクトの固有性を決定するステップ(105)は、前記後続のステップ(107)の1つにおいて、前記少なくとも2つのビデオストリーム(120)から得られる、先行する1つ以上の瞬間に生じる情報を使用する、上記した請求項のいずれか1つに記載の方法。
  7. 前記先行する1つ以上の瞬間に得られる情報は、オブジェクト(130)の3次元位置である、請求項6に記載の方法。
  8. 前記カメラパラメータ(122)の決定(103)に使用される参照フィーチャは、競技場の上のフィーチャであり、ビデオ静止画像内でユーザが以下のことを行なうことによって特定する、
    ・図形入力装置を用いて、競技場(204a〜d)の概略的な表現における同一の参照フィーチャの表現を提示するとともに、参照フィーチャの前記表現を選択し、
    ・図形入力装置を用いて、ビデオ静止画像(203a〜d)に見られるような特定の参照フィーチャを指定するとともに、前記参照フィーチャを選択し、
    ・参照フィーチャの表現における固有性を、静止画像に見られる参照フィーチャに関連付ける、
    上記した請求項のいずれか1つに記載の方法。
  9. ビデオ静止画像(203a〜d)内で前記参照フィーチャを選択する際、以下のステップによって、ビデオ静止画像内での参照フィーチャの正確な位置を決定する、
    ・ユーザによって選択された位置の近傍において、フィーチャの抽出、および、特に、ライン(203c)、交叉点、およびコーナー(203a、203b)の抽出を自動的に実行するステップ、
    ・抽出されたフィーチャ、特に、競技場の概略表現内で選択されたものと同じ種類のフィーチャの1つの位置となるような参照フィーチャの位置を決定するステップ、
    請求項8に記載の方法。
  10. 前記オブジェクトの動きをトラッキングするステップ(104)は、トラッキング機能(104)によってカメラパラメータ(131)の変化を補償できるように、カメラパラメータ(131)を動的に変更する機能をトラッキング機能(104)に取り込むステップを含む、上記した請求項のいずれか1つに記載の方法。
  11. トラッキング機能において考慮されるカメラパラメータは、トラッキングが実行されるものと同一のビデオフレームについて実施されるカメラ・キャリブレーション・ステップ(103)によって決定されるカメラパラメータ(131)である、請求項10に記載の方法。
  12. トラッキング機能において考慮されるカメラパラメータは、先行する1つ以上のビデオフレームについて実施されるカメラ・キャリブレーション・ステップ(103)によって決定され、かつ任意的に推定されるカメラパラメータ(131)である、請求項10に記載の方法。
  13. オブジェクトの特定情報を初期化するために、以下のステップを実行する、
    ・ユーザによって、1つのビデオストリームの静止画像において1つのオブジェクトを選択し、固有の識別子を割り当てるステップ、
    ・少なくとも1つの他のビデオストリームにおける他の静止画像において、同一の固有性を有するオブジェクトを自動的に決定するステップ、
    上記した請求項のいずれか1つに記載の方法。
  14. 特定されていないオブジェクト、あるいは特定できないオブジェクトが、ビデオストリームの1つに出現した場合に、以下のステップを実行する、
    ・未確認のオブジェクトが存在していることをユーザに警告するステップ、
    ・ユーザが識別子をオブジェクトに関連付けることに同意するステップ、
    請求項13に記載の方法。
  15. 前記オブジェクトは、少なくとも2つのカテゴリの1つに属するように分類され、これらのカテゴリは、好ましくは統計上のモデルに基づいており、第1のチーム、第2のチーム、ボール、および審判の少なくとも2つを含む、上記した請求項のいずれか1つに記載の方法。
  16. 前記方法は、オブジェクトを背景から分離するセグメンテーションステップ(106)を備え、このステップは、
    ・各画像要素に対して、画素がオブジェクトあるいは背景の一部である可能性を表現する値を割り当てるためにアルファチャンネル整合を使用するステップ、
    を含む、上記した請求項のいずれか1つに記載の方法。
  17. 前記方法は、オブジェクトを背景から分離するセグメンテーションステップ(106)を備え、このステップは、
    ・オブジェクトを除去した後に、対応する欠損あるいは背景に残存する未知の部分を画像修復によって充填し、このように修復された画像要素に対して、合成画像データであることを示すマークをつけるステップ、
    を含む、上記した請求項のいずれか1つに記載の方法。
  18. セグメンテーションステップ(106)は、オブジェクトの周囲にある境界ボックス(501、601、602、603)の位置およびサイズをより正確にするステップを含む、請求項16あるいは17に記載の方法。
  19. 背景の欠損を充填するステップは、
    ・欠損(802)を充填するために、現実の画像データを含んでいるソースパッチ(804a、804b、804c、804d)に対応する画像データを、画像の未知の部分を含んでいる宛先パッチ(803a、803b、803c、803d)にマッピングするステップを含み、前記マッピングするステップは、複数のパッチを、これらの空間的な関係に応じて変形するステップを含む、請求項17あるいは18に記載の方法。
  20. 前記方法は、
    ・現実の画像データを含んでいるソースパッチ(804c、804d)に対応する画像データを、画像の未知の部分を含んでいる宛先パッチ(803c、803d)にマッピングするステップを備え、これにより欠損(802)が充填され、画像の未知の部分がランドマークフィーチャ(807)を含むことが知られており、
    ・宛先パッチ(803c、803d)を選択することによって、ランドマークフィーチャ(807)の少なくとも一部をカバーするとともに、既知の画像を検索することによって、ランドマーク(806a)に沿ったソースパッチ(804c、804d)を整合するステップを備える、請求項17〜19のいずれか1つに記載の方法。
  21. 前記方法は、
    ・サークル状のランドマーク(806b)の部分を含んでいる欠損を充填するために、前記サークル状のランドマーク(806b)に沿った位置に応じて宛先パッチ(803e)をパッチを変形、好ましくは回転、拡大・縮小することによって、当該宛先パッチ(803e)をソースパッチ(804e)に(およびその逆に)マップするステップを備える、請求項20に記載の方法。
  22. 前記方法は、
    ・直線状のランドマークの部分を含む欠損を充填するために、直線状のランドマークに沿った位置に応じて宛先パッチを変形、好ましくは拡大・縮小することによって、当該宛先パッチをソースパッチに(およびその逆に)マップするステップを備える、請求項20に記載の方法。
  23. 前記方法は、
    ・線状のランドマークを線幅に関連付けるステップと、
    ・前記線幅に従って、ソースパッチおよび/または宛先パッチ内の画像要素を、ランド
    マーク(812)の一部となるように、あるいは、ランドマーク(813)の一部とならないように分類するステップと、
    ・ソースパッチ(804c、804d)を整合するために既知の画像を検索するとき、および、ソースパッチ(804c、804d)を宛先パッチ(803c、803d)にコピーするときに、ランドマークの一部となっている画像要素だけを考慮するステップと、を備える、請求項20〜22のいずれか1つに記載の方法。
  24. 前記方法は、以下のステップを行なうことで、カメラ位置とは異なる仮想視点から得られる合成表示を提供するステップ(108)を備える、
    ・仮想カメラ(703)のカメラパラメータを準備するステップ、
    ・背景モデル(901、902)上の仮想カメラ(703)によって視認されるような背景画像を決定するステップ、
    ・仮想カメラ(703)に対する各オブジェクトの投影を決定し、これを背景画像に重ねるステップ、
    ・保存あるいは他の処理のために結合画像を出力するステップ、
    上記した請求項のいずれか1つに記載の方法。
  25. 仮想カメラ(703)によって視認されるような背景画像を決定するステップは、
    ・各背景画像要素について、同一の背景位置に対応する異なるビデオストリームから得られる画像情報を合成するステップと、
    ・合成画像データとなるようにマークされていない画像情報に優先権を与えるステップと、
    ・背景を表現する1つ以上の表面(901、902)を含んでいる背景モデル上に画像情報をレンダリングするステップとを含む、請求項24に記載の方法。
  26. 背景モデル内において背景を表現する表面は、競技場あるいは競技場(701)を表現する表面(901)となっており、任意的に、3次元の周囲環境モデルを表現する表面(902)を含む、請求項25に記載の方法。
  27. 前記仮想カメラ(703)によって視認されるような背景画像を決定するステップは、
    ・背景モデル(901、902)上に所定の画像データをレンダリングし、それをビデオストリームによって得られる画像情報に重ねるか、あるいは、この画像情報と入れ替えるステップ、をさらに含んでいる、請求項18〜20のいずれか1つに記載の方法。
  28. 仮想カメラ(703)に対する各オブジェクトの投影を決定するステップは、
    ・3次元背景モデル(901、902)に配された3次元レンダリングされたオブジェクト(903)上に、1つ以上のビデオストリームから得られる画像情報をレンダリングするステップを含む、請求項24〜27のいずれか1つに記載の方法。
  29. 動的に変化する3次元のシーンに関する3次元表現を生成するためのデータ処理システムであって、
    (a)異なる場所に配置され、同じ3次元シーンを観察している少なくとも2台のカメラから得られる、少なくとも2つのビデオストリームを取得するデータ収集モジュール(102)と、
    (b)前記少なくとも2台のカメラに関し、位置、方向、および内部パラメータを含むカメラパラメータを決定するカメラ・キャリブレーション・モジュール(103)と、
    (c)前記少なくとも2つのビデオストリーム内のオブジェクトの動きをトラッキングする2次元トラッキングモジュール(104)と、
    (d)前記少なくとも2つのビデオストリーム内における前記オブジェクトの固有性を決定するオブジェクト特定モジュール(105)と、
    (e)前記少なくとも2つのビデオストリームから得られる情報を結合することによって、オブジェクトの3次元位置(128)を決定する3次元結合および3次元オブジェクト位置演算モジュール(107)とを備え、
    上記列挙したモジュール(103、104、105)の少なくとも1つのが、後続のステップ(107)の1つによって前記少なくとも2つのビデオストリームから得られる情報に依拠するように構成されていることを特徴とするデータ処理システム。
  30. 前記3次元結合および3次元オブジェクト位置演算モジュール(107)は、
    (f)ビデオストリーム内のオブジェクトに対応する3次元レンダリングされたオブジェクト(903)の位置および方向を決定する機能を提供するように構成されており、3次元レンダリングされたオブジェクト(903)は、シーンの3次元表現を生成するときに、1つ以上のビデオストリームから得られる画像情報のレンダリングに用いられる、請求項23に記載のデータ処理システム。
  31. 前記データ処理システムは、以下のことを決定するためのオブジェクト切り取りモジュール(106)を備える、
    ・現実の画像データから特定の画像パッチあるいは特定の画素を得られるか、あるいは、これらを合成によって生成したことを示すフラグを含んでいる、充填されるべき背景テクスチャデータ(125)、
    ・各ビデオストリームおよびトラッキングされている各オブジェクトに関するオブジェクトテクスチャおよびアルファマスク(126)、
    ・トラッキングされている各オブジェクトに関し、オブジェクトの2次元の位置および形状、および、現実世界のオブジェクトの特定情報(127)、
    請求項30に記載のデータ処理システム。
  32. オブジェクトの3次元位置(128)から、充填されるべき背景テクスチャデータ(125)およびオブジェクトテクスチャとアルファマスク(126)、ビデオデータとを、消費者(109)に供給するための、画像合成モジュール(108)を備える、請求項31に記載のデータ処理システム。
JP2009512386A 2006-06-02 2007-05-24 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム Pending JP2009539155A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP06405248A EP1862969A1 (en) 2006-06-02 2006-06-02 Method and system for generating a representation of a dynamically changing 3D scene
PCT/CH2007/000265 WO2007140638A1 (en) 2006-06-02 2007-05-24 Method and system for generating a 3d representation of a dynamically changing 3d scene

Publications (2)

Publication Number Publication Date
JP2009539155A true JP2009539155A (ja) 2009-11-12
JP2009539155A5 JP2009539155A5 (ja) 2010-05-27

Family

ID=36968926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009512386A Pending JP2009539155A (ja) 2006-06-02 2007-05-24 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム

Country Status (5)

Country Link
US (1) US9406131B2 (ja)
EP (3) EP1862969A1 (ja)
JP (1) JP2009539155A (ja)
ES (2) ES2585903T3 (ja)
WO (1) WO2007140638A1 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166761A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2011170487A (ja) * 2010-02-17 2011-09-01 Kddi Corp 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
JP2011238222A (ja) * 2010-04-30 2011-11-24 Liberovision Ag 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法
JP2012221106A (ja) * 2011-04-06 2012-11-12 Nippon Hoso Kyokai <Nhk> 画像修正装置およびそのプログラム
WO2015167738A1 (en) * 2014-04-30 2015-11-05 Replay Technologies Inc. System and method of limiting processing by a 3d reconstruction system of an environment in a 3d reconstruction of an event occurring in an event space
JP2015534766A (ja) * 2012-09-24 2015-12-03 サムスン エレクトロニクス カンパニー リミテッド 多視点映像生成方法及び多視点映像ディスプレイ装置
JP2016014837A (ja) * 2014-07-03 2016-01-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017102708A (ja) * 2015-12-02 2017-06-08 日本放送協会 オブジェクト追跡装置及びそのプログラム
JP2017130889A (ja) * 2016-01-22 2017-07-27 Kddi株式会社 カメラのキャリブレーション装置、方法及びプログラム
JP2017143351A (ja) * 2016-02-08 2017-08-17 Kddi株式会社 カメラのキャリブレーション装置、方法及びプログラム
KR101788626B1 (ko) 2014-03-18 2017-10-20 라이브2디 인크. 화상처리장치, 화상처리방법 및 프로그램
WO2018043225A1 (ja) * 2016-09-01 2018-03-08 パナソニックIpマネジメント株式会社 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム
JP2018198463A (ja) * 2018-09-11 2018-12-13 日本電信電話株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP6473214B1 (ja) * 2017-11-24 2019-02-20 株式会社Live2D プログラム、記録媒体及び描画方法
JP2020025320A (ja) * 2016-01-28 2020-02-13 日本電信電話株式会社 映像提示装置、映像提示方法、およびプログラム
JPWO2019021375A1 (ja) * 2017-07-25 2020-03-26 富士通株式会社 映像生成プログラム、映像生成方法および映像生成装置
JP2020201863A (ja) * 2019-06-13 2020-12-17 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US11200675B2 (en) * 2017-02-20 2021-12-14 Sony Corporation Image processing apparatus and image processing method
JP2021196870A (ja) * 2020-06-15 2021-12-27 Kddi株式会社 仮想視点レンダリング装置、方法及びプログラム
WO2022191010A1 (ja) * 2021-03-12 2022-09-15 ソニーグループ株式会社 情報処理装置および情報処理方法

Families Citing this family (164)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US8339418B1 (en) * 2007-06-25 2012-12-25 Pacific Arts Corporation Embedding a real time video into a virtual environment
WO2009006605A2 (en) * 2007-07-03 2009-01-08 Pivotal Vision, Llc Motion-validating remote monitoring system
JP4947593B2 (ja) * 2007-07-31 2012-06-06 Kddi株式会社 局所領域分割による自由視点画像の生成装置およびプログラム
US8031210B2 (en) * 2007-09-30 2011-10-04 Rdv Systems Ltd. Method and apparatus for creating a composite image
JP5079547B2 (ja) * 2008-03-03 2012-11-21 Toa株式会社 カメラキャリブレーション装置およびカメラキャリブレーション方法
FR2929421B1 (fr) * 2008-03-25 2012-04-27 Thales Sa Procede de reconstruction synthetique tridimensionnelle d'objets exposes a une onde electromagnetique et/ou elastique
US8477246B2 (en) * 2008-07-11 2013-07-02 The Board Of Trustees Of The Leland Stanford Junior University Systems, methods and devices for augmenting video content
KR101502362B1 (ko) * 2008-10-10 2015-03-13 삼성전자주식회사 영상처리 장치 및 방법
CN102257827B (zh) * 2008-12-19 2014-10-01 皇家飞利浦电子股份有限公司 从图像创建深度图
JP2010161633A (ja) * 2009-01-08 2010-07-22 Tokyo Electric Power Co Inc:The 複数カメラ水平設置装置、複数カメラの水平設置方法およびステレオ撮影装置
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US8395642B2 (en) * 2009-03-17 2013-03-12 Mitsubishi Electric Research Laboratories, Inc. Method for virtual image synthesis
BRPI1015459A2 (pt) * 2009-03-29 2016-04-26 Nomad3D Sas método e sistemas para processar, armazenar, codificar e descodificar dados e representação tridimensional
US8341241B2 (en) * 2009-04-14 2012-12-25 At&T Intellectual Property I, L.P. Method and apparatus for presenting media content
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US10375287B2 (en) * 2009-10-21 2019-08-06 Disney Enterprises, Inc. Object trail-based analysis and control of video
EP2499827A4 (en) * 2009-11-13 2018-01-03 Pixel Velocity, Inc. Method for tracking an object through an environment across multiple cameras
CN102103457B (zh) * 2009-12-18 2013-11-20 深圳富泰宏精密工业有限公司 简报操作系统及方法
DE102009055127A1 (de) * 2009-12-22 2011-06-30 Robert Bosch GmbH, 70469 Vorrichtung und Verfahren zum Überwachen von Videoobjekten
CA3042453C (en) 2010-01-05 2020-11-10 Isolynx, Llc Systems and methods for analyzing event data
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US8422769B2 (en) * 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
WO2011121117A1 (en) * 2010-04-02 2011-10-06 Imec Virtual camera system
KR101080375B1 (ko) * 2010-04-23 2011-11-04 광주과학기술원 객체 학습 방법, 객체 학습 방법을 이용한 객체 추적 방법, 객체 학습 및 추적 시스템
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
EP2413286A1 (en) 2010-07-29 2012-02-01 LiberoVision AG Image processing method and device for instant replay
KR101630281B1 (ko) * 2010-08-06 2016-06-15 한화테크윈 주식회사 영상 처리 장치
KR101355974B1 (ko) * 2010-08-24 2014-01-29 한국전자통신연구원 복수의 객체를 추적하는 객체 추적 방법 및 장치
JP5652097B2 (ja) * 2010-10-01 2015-01-14 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
KR20120059367A (ko) * 2010-11-30 2012-06-08 삼성전자주식회사 에너지값을 이용한 이미지 처리 장치와 그 이미지 처리 방법 및 디스플레이 방법
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US20130321625A1 (en) * 2011-03-28 2013-12-05 Nikon Corporation Electronic device and information transmission system
US20140037213A1 (en) 2011-04-11 2014-02-06 Liberovision Ag Image processing
JP5966256B2 (ja) * 2011-05-23 2016-08-10 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
KR20130001869A (ko) * 2011-06-28 2013-01-07 삼성전자주식회사 영상처리장치 및 영상처리방법
US9390752B1 (en) * 2011-09-06 2016-07-12 Avid Technology, Inc. Multi-channel video editing
EP2754288A4 (en) * 2011-09-07 2015-06-03 Umoove Ltd SYSTEM AND METHOD FOR TRACKING AN OBJECT IN AN IMAGE CAPTURED BY A MOBILE DEVICE
CN103765880B (zh) * 2011-09-12 2016-05-18 英特尔公司 局部化分割的图像的连网捕捉和三维显示
US9007373B2 (en) 2011-10-12 2015-04-14 Yale University Systems and methods for creating texture exemplars
US9153062B2 (en) 2012-02-29 2015-10-06 Yale University Systems and methods for sketching and imaging
US9149309B2 (en) 2012-03-23 2015-10-06 Yale University Systems and methods for sketching designs in context
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
CN103379355B (zh) * 2012-04-25 2015-10-28 浙江大学 一种立体视频对产生方法及装置
US8855442B2 (en) * 2012-04-30 2014-10-07 Yuri Owechko Image registration of multimodal data using 3D-GeoArcs
KR101913321B1 (ko) 2012-05-10 2018-10-30 삼성전자주식회사 깊이 센서 기반 반사 객체의 형상 취득 방법 및 장치
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US20130321564A1 (en) 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US9767598B2 (en) 2012-05-31 2017-09-19 Microsoft Technology Licensing, Llc Smoothing and robust normal estimation for 3D point clouds
WO2014014928A2 (en) * 2012-07-18 2014-01-23 Yale University Systems and methods for three-dimensional sketching and imaging
JP5887026B2 (ja) * 2012-09-03 2016-03-16 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法
US20140104394A1 (en) * 2012-10-15 2014-04-17 Intel Corporation System and method for combining data from multiple depth cameras
US10657694B2 (en) * 2012-10-15 2020-05-19 Tangible Play, Inc. Activity surface detection, display and enhancement of a virtual scene
US10033943B1 (en) 2012-10-15 2018-07-24 Tangible Play, Inc. Activity surface detection, display and enhancement
US9158389B1 (en) 2012-10-15 2015-10-13 Tangible Play, Inc. Virtualization of tangible interface objects
US20140139632A1 (en) * 2012-11-21 2014-05-22 Lsi Corporation Depth imaging method and apparatus with adaptive illumination of an object of interest
US10084994B2 (en) * 2012-12-12 2018-09-25 Verint Systems Ltd. Live streaming video over 3D
US10165157B2 (en) * 2013-02-19 2018-12-25 Disney Enterprises, Inc. Method and device for hybrid robotic/virtual pan-tilt-zoom cameras for autonomous event recording
US9142019B2 (en) * 2013-02-28 2015-09-22 Google Technology Holdings LLC System for 2D/3D spatial feature processing
US9191643B2 (en) * 2013-04-15 2015-11-17 Microsoft Technology Licensing, Llc Mixing infrared and color component data point clouds
US9380286B2 (en) 2013-04-19 2016-06-28 Adobe Systems Incorporated Stereoscopic target region filling
US9350969B2 (en) 2013-04-19 2016-05-24 Adobe Systems Incorporated Target region filling involving source regions, depth information, or occlusions
JP6182607B2 (ja) * 2013-06-14 2017-08-16 株式会社日立製作所 映像監視システム、監視装置
US20190079739A1 (en) * 2016-01-11 2019-03-14 New Sapience, Inc. Method and system for machine comprehension
KR20160034259A (ko) * 2013-07-18 2016-03-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US10121254B2 (en) 2013-08-29 2018-11-06 Disney Enterprises, Inc. Methods and systems of detecting object boundaries
US9646384B2 (en) 2013-09-11 2017-05-09 Google Technology Holdings LLC 3D feature descriptors with camera pose information
US20150097827A1 (en) * 2013-10-09 2015-04-09 Adobe Systems Incorporated Target Region Fill Utilizing Transformations
US8760500B1 (en) * 2013-10-23 2014-06-24 Google Inc. Depth map generation
CN103578107B (zh) * 2013-11-07 2016-09-14 中科创达软件股份有限公司 一种交互式图像分割方法
TWI570666B (zh) * 2013-11-15 2017-02-11 財團法人資訊工業策進會 電子裝置及其影片物體追蹤方法
KR101586249B1 (ko) * 2013-12-24 2016-01-18 (주)에프엑스기어 광 시야각 영상 처리 장치 및 방법
US9262740B1 (en) * 2014-01-21 2016-02-16 Utec Survey, Inc. Method for monitoring a plurality of tagged assets on an offshore asset
EP2899689A1 (en) * 2014-01-23 2015-07-29 Thomson Licensing Method for inpainting a target area in a target video
DE102014106854A1 (de) * 2014-05-15 2016-01-28 Odos Imaging Ltd. Bildgebendes System und Verfahren zum Überwachen eines Sichtfeldes
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
JP2016046642A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
JP6747292B2 (ja) * 2014-09-19 2020-08-26 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
US10925579B2 (en) * 2014-11-05 2021-02-23 Otsuka Medical Devices Co., Ltd. Systems and methods for real-time tracking of a target tissue using imaging before and during therapy delivery
GB2532077B (en) * 2014-11-10 2017-11-22 Vision Rt Ltd Method of calibrating a patient monitoring system for use with a radiotherapy treatment apparatus
EP3029631A1 (en) * 2014-12-04 2016-06-08 Thomson Licensing A method and apparatus for assisted object selection in video sequences
GB2533360A (en) * 2014-12-18 2016-06-22 Nokia Technologies Oy Method, apparatus and computer program product for processing multi-camera media content
US11019330B2 (en) * 2015-01-19 2021-05-25 Aquifi, Inc. Multiple camera system with auto recalibration
US10356393B1 (en) * 2015-02-16 2019-07-16 Amazon Technologies, Inc. High resolution 3D content
KR101803474B1 (ko) * 2015-03-02 2017-11-30 한국전자통신연구원 다시점 실감 콘텐츠 생성 방법 및 그 장치
US10475239B1 (en) * 2015-04-14 2019-11-12 ETAK Systems, LLC Systems and methods for obtaining accurate 3D modeling data with a multiple camera apparatus
US10019806B2 (en) * 2015-04-15 2018-07-10 Sportsmedia Technology Corporation Determining x,y,z,t biomechanics of moving actor with multiple cameras
FR3039919B1 (fr) * 2015-08-04 2018-01-19 Neosensys Suivi d’une cible dans un reseau de cameras
US10419788B2 (en) 2015-09-30 2019-09-17 Nathan Dhilan Arimilli Creation of virtual cameras for viewing real-time events
WO2017079660A1 (en) * 2015-11-04 2017-05-11 Intel Corporation High-fidelity 3d reconstruction using facial features lookup and skeletal poses in voxel models
JP6674247B2 (ja) * 2015-12-14 2020-04-01 キヤノン株式会社 情報処理装置、情報処理方法、およびコンピュータプログラム
US10471304B2 (en) 2016-03-08 2019-11-12 Sportsmedia Technology Corporation Systems and methods for integrated automated sports data collection and analytics platform
GB201604535D0 (en) * 2016-03-17 2016-05-04 Apical Ltd 2D to 3D
TWI608448B (zh) * 2016-03-25 2017-12-11 晶睿通訊股份有限公司 計數流道設定方法、具有計數流道設定功能的影像監控系統、及其相關的電腦可讀取媒體
US10204444B2 (en) * 2016-04-28 2019-02-12 Verizon Patent And Licensing Inc. Methods and systems for creating and manipulating an individually-manipulable volumetric model of an object
JP6672075B2 (ja) * 2016-05-25 2020-03-25 キヤノン株式会社 制御装置、制御方法、及び、プログラム
EP3270356A1 (en) * 2016-07-12 2018-01-17 Alcatel Lucent Method and apparatus for displaying an image transition
US10013798B2 (en) 2016-08-30 2018-07-03 The Boeing Company 3D vehicle localizing using geoarcs
US10402675B2 (en) 2016-08-30 2019-09-03 The Boeing Company 2D vehicle localizing using geoarcs
US10204418B2 (en) 2016-09-07 2019-02-12 Nokia Technologies Oy Method and apparatus for facilitating stereo vision through the use of multi-layer shifting
US10290119B2 (en) * 2016-09-15 2019-05-14 Sportsmedia Technology Corporation Multi view camera registration
WO2018089040A1 (en) * 2016-11-14 2018-05-17 Lightcraft Technology Llc Spectator virtual reality system
JP6482580B2 (ja) * 2017-02-10 2019-03-13 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP7159057B2 (ja) * 2017-02-10 2022-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
US10204423B2 (en) * 2017-02-13 2019-02-12 Adobe Inc. Visual odometry using object priors
JP7212611B2 (ja) * 2017-02-27 2023-01-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
JP2018180687A (ja) * 2017-04-05 2018-11-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
EP3625772A1 (en) 2017-05-18 2020-03-25 PCMS Holdings, Inc. System and method for distributing and rendering content as spherical video and 3d asset combination
US20180339730A1 (en) * 2017-05-26 2018-11-29 Dura Operating, Llc Method and system for generating a wide-area perception scene graph
US10297087B2 (en) 2017-05-31 2019-05-21 Verizon Patent And Licensing Inc. Methods and systems for generating a merged reality scene based on a virtual object and on a real-world object represented from different vantage points in different video data streams
US10269181B2 (en) * 2017-05-31 2019-04-23 Verizon Patent And Licensing Inc. Methods and systems for generating a virtualized projection of a customized view of a real-world scene for inclusion within virtual reality media content
JP6948175B2 (ja) 2017-07-06 2021-10-13 キヤノン株式会社 画像処理装置およびその制御方法
JP6921686B2 (ja) * 2017-08-30 2021-08-18 キヤノン株式会社 生成装置、生成方法、及びプログラム
JP2019054417A (ja) * 2017-09-15 2019-04-04 ソニー株式会社 画像処理装置およびファイル生成装置
CN107920202B (zh) 2017-11-15 2020-02-21 阿里巴巴集团控股有限公司 基于增强现实的视频处理方法、装置及电子设备
US11173785B2 (en) * 2017-12-01 2021-11-16 Caterpillar Inc. Operator assistance vision system
ES2881320T3 (es) * 2017-12-14 2021-11-29 Canon Kk Dispositivo de generación, procedimiento de generación y programa para modelo tridimensional
WO2019116942A1 (ja) 2017-12-14 2019-06-20 キヤノン株式会社 3次元モデルの生成装置、生成方法、及びプログラム
JP6513169B1 (ja) * 2017-12-14 2019-05-15 キヤノン株式会社 仮想視点画像を生成するシステム、方法及びプログラム
US10535190B2 (en) 2017-12-28 2020-01-14 Rovi Guides, Inc. Systems and methods for changing a users perspective in virtual reality based on a user-selected position
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
US10832055B2 (en) 2018-01-31 2020-11-10 Sportsmedia Technology Corporation Systems and methods for providing video presentation and video analytics for live sporting events
JP2019144958A (ja) * 2018-02-22 2019-08-29 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2019152980A (ja) 2018-03-01 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7119425B2 (ja) * 2018-03-01 2022-08-17 ソニーグループ株式会社 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法
WO2019186860A1 (ja) * 2018-03-29 2019-10-03 三菱電機株式会社 画像処理装置、画像処理方法、及び監視システム
EP3550823A1 (en) 2018-04-05 2019-10-09 EVS Broadcast Equipment SA Automatic control of robotic camera for capturing a portion of a playing field
JP6368881B1 (ja) * 2018-04-09 2018-08-01 チームラボ株式会社 表示制御システム,端末装置,コンピュータプログラム,及び表示制御方法
JP7187182B2 (ja) * 2018-06-11 2022-12-12 キヤノン株式会社 データ生成装置、方法およびプログラム
GB2575843A (en) 2018-07-25 2020-01-29 Sony Interactive Entertainment Inc Method and system for generating an image
CN110866793A (zh) * 2018-08-27 2020-03-06 阿里健康信息技术有限公司 虚拟对象展示、生成和提供方法
GB2591902B (en) 2018-09-17 2022-06-08 Tangible Play Inc Display positioning system
US10659698B2 (en) * 2018-09-19 2020-05-19 Canon Kabushiki Kaisha Method to configure a virtual camera path
US11087487B2 (en) 2018-10-25 2021-08-10 Northrop Grumman Systems Corporation Obscuration map generation
US20190088005A1 (en) * 2018-11-15 2019-03-21 Intel Corporation Lightweight View Dependent Rendering System for Mobile Devices
US10974153B2 (en) * 2019-01-17 2021-04-13 Disney Enterprises, Inc. Streamable compressed geometry for live broadcast
JP2020134973A (ja) * 2019-02-12 2020-08-31 キヤノン株式会社 素材生成装置、画像生成装置および画像処理装置
CN111669564B (zh) * 2019-03-07 2022-07-26 阿里巴巴集团控股有限公司 图像重建方法、系统、设备及计算机可读存储介质
WO2020181090A1 (en) * 2019-03-07 2020-09-10 Alibaba Group Holding Limited Method, apparatus, medium, and device for processing multi-angle free-perspective image data
JP7366563B2 (ja) * 2019-03-26 2023-10-23 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
US11012675B2 (en) 2019-04-16 2021-05-18 At&T Intellectual Property I, L.P. Automatic selection of viewpoint characteristics and trajectories in volumetric video presentations
US10970519B2 (en) 2019-04-16 2021-04-06 At&T Intellectual Property I, L.P. Validating objects in volumetric video presentations
US11074697B2 (en) 2019-04-16 2021-07-27 At&T Intellectual Property I, L.P. Selecting viewpoints for rendering in volumetric video presentations
US11153492B2 (en) 2019-04-16 2021-10-19 At&T Intellectual Property I, L.P. Selecting spectator viewpoints in volumetric video presentations of live events
US11373318B1 (en) 2019-05-14 2022-06-28 Vulcan Inc. Impact detection
JP2020191598A (ja) * 2019-05-23 2020-11-26 キヤノン株式会社 画像処理システム
CN110146032B (zh) * 2019-05-23 2020-09-25 复旦大学 基于光场分布的合成孔径相机标定方法
JP7391542B2 (ja) * 2019-06-04 2023-12-05 キヤノン株式会社 画像処理システム、画像処理方法、およびプログラム
US11164039B2 (en) * 2019-10-23 2021-11-02 International Business Machines Corporation Framework for few-shot temporal action localization
CN111953956B (zh) * 2020-08-04 2022-04-12 山东金东数字创意股份有限公司 裸眼立体异型图像三维相机生成系统及其方法
EP4172934A1 (en) * 2020-08-14 2023-05-03 Topgolf Sweden AB Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization
CN112367534B (zh) * 2020-11-11 2023-04-11 成都威爱新经济技术研究院有限公司 一种虚实混合的数字直播平台及实现方法
EP4012536A1 (en) 2020-12-11 2022-06-15 Koninklijke Philips N.V. File format with variable data
CN112446358A (zh) * 2020-12-15 2021-03-05 北京京航计算通讯研究所 基于视频图像识别技术的目标检测方法
CN112507913A (zh) * 2020-12-15 2021-03-16 北京京航计算通讯研究所 基于视频图像识别技术的目标检测系统
CN112598706B (zh) * 2020-12-21 2024-02-02 西北工业大学 无需精确时空同步的多相机运动目标三维轨迹重建方法
CN112927353B (zh) * 2021-02-25 2023-05-19 电子科技大学 基于二维目标检测和模型对齐的三维场景重建方法、存储介质及终端
WO2023056559A1 (en) * 2021-10-06 2023-04-13 Depix Technologies Inc. Systems and methods for compositing a virtual object in a digital image
US20230222795A1 (en) * 2022-01-07 2023-07-13 ViveSense, Inc. System and Method for Impact Detection and Analysis
WO2023157005A1 (en) * 2022-02-16 2023-08-24 B.G. Negev Technologies And Applications Ltd., At Ben-Gurion University An augmented reality interface for watching live sport games
WO2024116179A1 (en) * 2022-11-30 2024-06-06 Track160 Ltd System and method for tracking ball movement during a sport game

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184336A (ja) * 1998-10-09 2000-06-30 Canon Inc 画像処理装置、画像処理方法及びコンピュ―タ読み取り可能な記憶媒体
JP2002518722A (ja) * 1998-06-12 2002-06-25 アニヴィジョン インコーポレイテッド スポーツ競技の仮想観覧形成方法及び仮想観覧形成装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5513854A (en) * 1993-04-19 1996-05-07 Daver; Gil J. G. System used for real time acquistion of data pertaining to persons in motion
CA2155719C (en) * 1994-11-22 2005-11-01 Terry Laurence Glatt Video surveillance system with pilot and slave cameras
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
US8965898B2 (en) * 1998-11-20 2015-02-24 Intheplay, Inc. Optimizations for live event, real-time, 3D object tracking
GB2413720B (en) * 2003-03-14 2006-08-02 British Broadcasting Corp Video processing
US9094615B2 (en) * 2004-04-16 2015-07-28 Intheplay, Inc. Automatic event videoing, tracking and content generation
US7555158B2 (en) * 2004-12-07 2009-06-30 Electronics And Telecommunications Research Institute Apparatus for recovering background in image sequence and method thereof
EP2463820A3 (en) * 2005-07-22 2012-09-12 Kangaroo Media, Inc. System and methods for enhancing the experience of spectators attending a live sporting event
US7483151B2 (en) * 2006-03-17 2009-01-27 Alpineon D.O.O. Active 3D triangulation-based imaging method and device
US20080129824A1 (en) * 2006-05-06 2008-06-05 Ryan Scott Loveless System and method for correlating objects in an event with a camera
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002518722A (ja) * 1998-06-12 2002-06-25 アニヴィジョン インコーポレイテッド スポーツ競技の仮想観覧形成方法及び仮想観覧形成装置
JP2000184336A (ja) * 1998-10-09 2000-06-30 Canon Inc 画像処理装置、画像処理方法及びコンピュ―タ読み取り可能な記憶媒体

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166761A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2011170487A (ja) * 2010-02-17 2011-09-01 Kddi Corp 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
JP2011238222A (ja) * 2010-04-30 2011-11-24 Liberovision Ag 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法
JP2012221106A (ja) * 2011-04-06 2012-11-12 Nippon Hoso Kyokai <Nhk> 画像修正装置およびそのプログラム
JP2015534766A (ja) * 2012-09-24 2015-12-03 サムスン エレクトロニクス カンパニー リミテッド 多視点映像生成方法及び多視点映像ディスプレイ装置
KR101788626B1 (ko) 2014-03-18 2017-10-20 라이브2디 인크. 화상처리장치, 화상처리방법 및 프로그램
US11463678B2 (en) 2014-04-30 2022-10-04 Intel Corporation System for and method of social interaction using user-selectable novel views
US10728528B2 (en) 2014-04-30 2020-07-28 Intel Corporation System for and method of social interaction using user-selectable novel views
US10567740B2 (en) 2014-04-30 2020-02-18 Intel Corporation System for and method of generating user-selectable novel views on a viewing device
US10491887B2 (en) 2014-04-30 2019-11-26 Intel Corporation System and method of limiting processing by a 3D reconstruction system of an environment in a 3D reconstruction of an event occurring in an event space
US10477189B2 (en) 2014-04-30 2019-11-12 Intel Corporation System and method of multi-view reconstruction with user-selectable novel views
US9846961B2 (en) 2014-04-30 2017-12-19 Intel Corporation System and method of limiting processing by a 3D reconstruction system of an environment in a 3D reconstruction of an event occurring in an event space
US10063851B2 (en) 2014-04-30 2018-08-28 Intel Corporation System for and method of generating user-selectable novel views on a viewing device
WO2015167738A1 (en) * 2014-04-30 2015-11-05 Replay Technologies Inc. System and method of limiting processing by a 3d reconstruction system of an environment in a 3d reconstruction of an event occurring in an event space
JP2016014837A (ja) * 2014-07-03 2016-01-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017102708A (ja) * 2015-12-02 2017-06-08 日本放送協会 オブジェクト追跡装置及びそのプログラム
JP2017130889A (ja) * 2016-01-22 2017-07-27 Kddi株式会社 カメラのキャリブレーション装置、方法及びプログラム
JP2020025320A (ja) * 2016-01-28 2020-02-13 日本電信電話株式会社 映像提示装置、映像提示方法、およびプログラム
JP2017143351A (ja) * 2016-02-08 2017-08-17 Kddi株式会社 カメラのキャリブレーション装置、方法及びプログラム
WO2018043225A1 (ja) * 2016-09-01 2018-03-08 パナソニックIpマネジメント株式会社 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム
US11200675B2 (en) * 2017-02-20 2021-12-14 Sony Corporation Image processing apparatus and image processing method
JP7010292B2 (ja) 2017-07-25 2022-01-26 富士通株式会社 映像生成プログラム、映像生成方法および映像生成装置
JPWO2019021375A1 (ja) * 2017-07-25 2020-03-26 富士通株式会社 映像生成プログラム、映像生成方法および映像生成装置
WO2019102692A1 (ja) * 2017-11-24 2019-05-31 株式会社Live2D プログラム、記録媒体及び描画方法
JP2019096165A (ja) * 2017-11-24 2019-06-20 株式会社Live2D プログラム、記録媒体及び描画方法
JP6473214B1 (ja) * 2017-11-24 2019-02-20 株式会社Live2D プログラム、記録媒体及び描画方法
JP2018198463A (ja) * 2018-09-11 2018-12-13 日本電信電話株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP2020201863A (ja) * 2019-06-13 2020-12-17 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP7401199B2 (ja) 2019-06-13 2023-12-19 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021196870A (ja) * 2020-06-15 2021-12-27 Kddi株式会社 仮想視点レンダリング装置、方法及びプログラム
JP7405702B2 (ja) 2020-06-15 2023-12-26 Kddi株式会社 仮想視点レンダリング装置、方法及びプログラム
WO2022191010A1 (ja) * 2021-03-12 2022-09-15 ソニーグループ株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
ES2712375T3 (es) 2019-05-13
WO2007140638A1 (en) 2007-12-13
EP2492870B1 (en) 2018-08-01
ES2585903T3 (es) 2016-10-10
EP2492870A3 (en) 2013-01-23
EP2024937A1 (en) 2009-02-18
EP1862969A1 (en) 2007-12-05
US9406131B2 (en) 2016-08-02
EP2024937B1 (en) 2016-05-04
US20090315978A1 (en) 2009-12-24
EP2492870A2 (en) 2012-08-29

Similar Documents

Publication Publication Date Title
JP2009539155A (ja) 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム
US11348267B2 (en) Method and apparatus for generating a three-dimensional model
US20050018045A1 (en) Video processing
US9477965B2 (en) Apparatus and method for identifying insertion zones in video material and for inserting additional material into the insertion zones
US10205889B2 (en) Method of replacing objects in a video stream and computer program
EP3668093B1 (en) Method, system and apparatus for capture of image data for free viewpoint video
US6970591B1 (en) Image processing apparatus
US6914599B1 (en) Image processing apparatus
US20080018668A1 (en) Image Processing Device and Image Processing Method
EP2930689A1 (en) Method for rendering
JP2009539155A5 (ja)
Kilner et al. Objective quality assessment in free-viewpoint video production
Sankoh et al. Robust billboard-based, free-viewpoint video synthesis algorithm to overcome occlusions under challenging outdoor sport scenes
Inamoto et al. Immersive evaluation of virtualized soccer match at real stadium model
Inamoto et al. Free viewpoint video synthesis and presentation of sporting events for mixed reality entertainment
Malerczyk et al. 3D reconstruction of sports events for digital TV
Lee et al. Interactive retexturing from unordered images
EP4099270A1 (en) Depth segmentation in multi-view videos
Jarusirisawad et al. 3DTV view generation using uncalibrated pure rotating and zooming cameras
Jarusirisawad et al. Free viewpoint video synthesis based on visual hull reconstruction from handheld multiple cameras
Tan Virtual imaging in sports broadcasting: an overview
Kilner Free-Viewpoint Video for Outdoor Sporting Events

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100408

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120106

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120131

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120222

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120229

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120522