JP2009064445A - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法 Download PDF

Info

Publication number
JP2009064445A
JP2009064445A JP2008229125A JP2008229125A JP2009064445A JP 2009064445 A JP2009064445 A JP 2009064445A JP 2008229125 A JP2008229125 A JP 2008229125A JP 2008229125 A JP2008229125 A JP 2008229125A JP 2009064445 A JP2009064445 A JP 2009064445A
Authority
JP
Japan
Prior art keywords
plane
image
video image
dimensional model
path data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008229125A
Other languages
English (en)
Inventor
Jonathan James Stone
ジェイムズ ストーン ジョナサン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Europe BV United Kingdom Branch
Original Assignee
Sony United Kingdom Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony United Kingdom Ltd filed Critical Sony United Kingdom Ltd
Publication of JP2009064445A publication Critical patent/JP2009064445A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】ライブのサッカーの試合等のイベントのビデオ画像から3次元モデルを生成する。3次元モデルのビューを変更可能とし、実世界ではカメラが存在しない視点からのビューを提供する。
【解決手段】平面上に配置された複数のオブジェクトを含むシーンの3次元表現を生成する。3次元表現は、1つ又は複数のビデオ画像から生成されたシーンのビューから各オブジェクトの画像特徴を抽出し、想定されるオブジェクトのサンプル画像の特徴と比較し、オブジェクトを識別し生成される。さらに、ビデオ画像の平面におけるオブジェクトの経時的な位置を示すオブジェクト経路データを生成し、ビデオ画像における平面から3次元モデルに投影するための投影マトリクスを計算し、各オブジェクトの高さに関する所定の推定値とを用いて、オブジェクト経路データに基づくオブジェクトの位置を、シーンの3次元モデルの平面に投影することによって生成することができる。
【選択図】図15

Description

本発明は、平面上に配置された複数のオブジェクトを含むシーンの3次元表現を生成する画像処理装置及び方法に関する。3次元表現は、ビデオカメラによって取得された或るシーンの1つ又は複数のビデオ画像から生成される。ビデオ画像は、平面上のオブジェクトのビューを含む。
スポーツイベント等のライブイベントのビデオ画像は、試合場に重ねることができるグラフィカル特徴又は効果を画像に付加することにより、装飾できるようになっている。例えば、広告又はサッカーの試合で互いに戦っているチームのシンボルマークを、カメラにより取得したサッカーグラウンドの画像上に重ねることができ、それにより、選手は、サッカーグラウンドに重ねられたシンボルマークの画像の上でプレイしているように見える。同様に、プレイを通して選手を手動で追跡して、追跡グラフィックを手動で対象選手に重ねて、その選手のパフォーマンスを強調することができる。
国際公開第01/49028号パンフレット 国際公開第98/46029号パンフレット Inamoto, N.; Saito, H著、「Immersive evaluation of virtualized soccer match at real stadium model」、第2回複合現実感国際会議(IEEE and ACM International Symposium on Mixed and Augmented Reality)会報、2003年10月7日−10日、188−197ページ T. bebie, H. Bieri著、「Soccerman-Video-Based 3D-Reconstruction of Soccer Games」、コンピュータグラフィックスフォーラム(Computer Graphics Forum)、第19巻、第3号、391−400ページ
テレビジョン等のビデオ画面上のイベントの視聴者の経験を向上させるために、数台のカメラを用いて、それらをスポーツスタジアムの周囲に配置し、異なる位置及び角度からイベントを視聴することができる。さらに、いわゆるプレイヤーカメラを用いて、特定の選手の動きを集中的に撮影することができる。しかし、イベントを撮影するために、複数のカメラを用いることは高価であり、また、各カメラから生成されたビデオ画像を統合することは複雑な作業となる可能性がある。さらに、多くのカメラを用いたとしても、カメラが配置されていない位置からイベントを視聴したいという要求は依然としてあり得る。
第1の態様では、平面上に位置する複数のオブジェクトを含む或るシーンの3次元表現を生成する生成方法が提供される。前記3次元表現は、前記シーンの1つ又は複数のビデオ画像から生成される。前記シーンは、ビデオカメラによる当該シーンのビューから生成された平面上のオブジェクトを含む。前記生成方法は、前記各オブジェクトから1つ又は複数の画像特徴を抽出するように、前記取得したビデオ画像を処理し、前記1つ又は複数の画像特徴と、前記ビデオ画像に含まれると想定されるオブジェクト例の所定のセットから抽出されたサンプル画像特徴とを比較し、前記画像特徴と前記サンプル画像特徴との前記比較により、前記オブジェクトを識別する。前記生成方法はさらに、前記各オブジェクトを識別する、各オブジェクトについてのオブジェクト識別データを含み、且つ前記ビデオ画像の前記平面における前記オブジェクトの経時的な位置を示すオブジェクト経路データを生成する。前記生成方法は、さらに、前記オブジェクト経路データに基づく前記各オブジェクトの前記位置を、前記ビデオ画像における前記平面から当該平面の前記3次元モデルに投影するための投影マトリクスを計算する。したがって、いくつかの例では、前記平面上の前記複数の各オブジェクトの合成表現を含む、前記シーンの3次元表現は、前記投影マトリクスと、前記各オブジェクトの高さに関する所定の推定値とを用いて、前記オブジェクト経路データに基づく前記オブジェクトの前記位置を、前記シーンの前記3次元モデルの前記平面に投影することによって生成することができる。各オブジェクトの高さに関する推定値の代わりに、前記3次元表現に向けられたカメラの擬似的な距離を用いてもよく、又はそれらと組み合わされてもよい。
本発明の実施形態により、例えばライブのサッカーの試合のビデオ画像から3次元モデルを生成することができる。したがって、生成された3次元モデルの相対的なビューを変更することができ、それにより、シーンの3次元モデルにおいて、ライブシーンのビデオ画像を取得している実世界ではカメラが実際に存在しない視点からのビューを提供することができる。したがって、シーンの3次元モデルは、実際のシーンの仮想表現を提供することができ、この仮想表現は、3次元においてモデルのビューを変更するように操作することができる。
いくつかの実施形態では、平面におけるオブジェクトの相対的な方向を表す情報が各オブジェクトについて生成され、この情報はオブジェクト経路データに含められる。したがって、サッカーグラウンド上の選手等のオブジェクトの動きを反映した3次元モデルを生成するとき、合成されたオブジェクトのそれぞれを、ビデオ画像から識別された相対的な方向に関する情報を用いて、モデルの平面において方向付けることができる。したがって、シーンの3次元モデルによって、より現実的な表現を生成することができる。他の例では、例えば、サッカーの試合がシーンであり、サッカーグラウンドがシーンにおける平面であり、選手がオブジェクトである場合、相対的な姿勢、体勢、態度等の選手の他の属性をロギングすることができる。結果として、3次元モデルを生成するとき、相対的な姿勢、体勢、態度に関する情報を用いて、各選手の表現の1つの想定されるセットから、想定される相対的な姿勢、体勢、態度に関する情報のうちの1つに対応する表現を選択することができる。したがって、3次元モデルが現実のシーンを反映する度合いを向上させることができる。
本発明の実施形態を用いて、スポーツイベント等のシーンの3次元モデルの合成表現を生成することができる。この合成表現は、現実のスポーツイベントを反映するコンピュータゲーム又はシミュレーションの作成に用いることができる。
いくつかの実施形態では、方法は、オブジェクトが位置する平面の3次元モデルに対するオブジェクト経路データを用いてビデオ画像における各オブジェクトを識別することを含む。この識別により、方法は、ビデオ画像における各オブジェクトを識別する識別情報のグラフィカル表現を生成し、この識別情報をビデオ画像におけるオブジェクトに重ねて、ビデオ画像における平面上を移動する1つ又は複数のオブジェクトに識別情報が提供されるようにすることを含む。したがって、オブジェクトが位置する平面の3次元モデルを用いてオブジェクトを追跡することで、識別されたオブジェクトの相対的な位置がビデオ画像に逆投影され、また、選手の識別情報をビデオ画像において見ることができるように、グラフィカルラベル又は識別情報又は他の効果が導入される。
画像処理装置、及び添付の特許請求の範囲のいずれか1項に記載の方法を実行するコンピュータプログラムを表す記録された情報信号を記録することができる記録可能媒体を有するデータ保持媒体を含む、本発明の種々のさらなる態様及び特徴は、添付の特許請求の範囲において規定される。
これより、本発明の実施形態を、添付の図面を参照して、例示として説明する。
オブジェクト追跡のシステム及び方法が開示される。以下の説明において、本発明の実施形態の包括的な理解を提供するために、複数の具体的な詳細が提示される。しかしながら、本発明を実施するために、これらの具体的な詳細を採用しなければいけないわけではないことを当業者は理解するであろう。逆に、当業者にとって既知の具体的な詳細は、実施形態の提示を簡潔にするために省略されている。
図1は、本発明の実施形態に係るオブジェクト追跡システムの概略図である。図1に示す実施形態では、追跡対象のオブジェクトは、サッカーグラウンド30上のサッカー選手(図示せず)である。グラウンド30の高精細(High Definition:HD)ビデオ画像(1920×1080画素)が、1つ又は複数の高精細カメラによって取得される。本発明の実施形態は、2台以上のカメラから取得されたビデオ画像においてオブジェクトを追跡するために用いることができるが、いくつかの例では、1台だけのカメラを用いてもよい。周知の通り、HDカメラは高価であるため、1台だけのカメラを用いることにより、本発明の実施形態の技術を利用するシステムの実施に必要な費用を低減することができる。しかしながら、1台だけのカメラを用いることでは、オブジェクトが位置するシーンの1つの2次元ビューしか提供することができない。結果として、1つのオブジェクトが別のオブジェクトを隠してしまう遮蔽イベントが生じる可能性が高くなるため、ビデオ画像によって表されるシーン内のオブジェクトの追跡がより困難になる。このような単一のカメラ20の例が図1に示されるが、カメラ22.1、22.2によって示されるように、任意選択で、サッカーグラウンド30の各半分にそれぞれ向けられた2つのカメラを用いてもよい。
図1では、ビデオカメラ20が、サッカースタジアム内の固定位置に設置され、カメラ20が取得したビデオ画像を表す信号をコンテンツ処理ワークステーション10に通信するように構成される。コンテンツ処理ワークステーション10は、グラウンド上の選手の位置を経時的に追跡するために、画像処理及び他の動作を実行する。次に、特定の選手がグラウンドの特定の部分において費やした時間の長さ、各選手が走った距離等のメタデータ及び試合統計データを生成することができるように、選手の位置を経時的に表すデータがロギングされる。選手の位置を経時的に表すデータにより、各選手毎に経路データが形成される。この経路データは、各選手がビデオ画像内でとった経路に関連する。この経路データは、(2次元の)ビデオ画像からは収集できない、グラウンド上での選手の位置に関連した選手の動きに関する情報を提供するために、サッカーグラウンド(オブジェクト平面)の3次元モデルに対して生成される。その後、サッカーの試合の映像が適切な媒体を介して視聴者に送信される場合に、ユーザの視聴経験をより良いものとするために、又はサッカーチームを指導するコーチを支援するために、この生成された経路データを用いることができる。グラウンド30上の選手等のオブジェクトの追跡を、以下でより詳細に説明する。
本発明の実施形態では、コンテンツ処理ワークステーション10として、SONY(登録商標)、Toshiba(登録商標)、及びIBM(登録商標)が共同開発したCellプロセッサを用いる。Cellプロセッサは、その並列性により、画像処理、画像認識及びオブジェクト追跡等の計算量の多い処理タスクの実行に特に適している。しかしながら、本発明の実施形態を実施するために、任意の適切なワークステーション及び処理ユニットを用いてもよいことを当業者は理解するであろう。
本発明の実施形態に係るオブジェクト追跡システム及び方法は、サッカーグラウンド上の選手の追跡に限定される必要がないことは理解されるであろう。例えば、ラグビー、クリケット、アメリカンフットボール、アイスホッケー、バスケットボール等の他の団体競技の選手を追跡してもよい。さらに、ボール、アイスホッケーパック、又はレーシングカー等の乗り物等のオブジェクトも、本発明の実施形態に従って追跡することができる。
本発明の実施形態の技術によれば、HDビデオカメラ20を用いて生成されたビデオ画像は、グラウンド30上の選手を追跡できるように、グラウンド全体のビューを取得するように構成される。したがって、固定位置のカメラ20から、グラウンド全体が撮影されるが、上述のように、グラウンド全体を撮影するために、2台以上のカメラを用いてもよい。一例では、上述のように、それぞれがグラウンドの各半分に向けられた2台のカメラ22.1及び22.2が用いられてもよい。この例では、各カメラによって生成されたビデオ画像は、英国特許出願第0624410.7号に記載されるように、超高解像度のビデオ画像を形成するために、コンテンツ処理ワークステーション10によってまとめられる。本実施形態では、カメラ群からの出力は、このまとめ処理を受けた後、1つの超高解像度画像として見なすことができる。
光学的にズームする必要なく、したがってスタジアムの全体画像に影響を与えずに選手の特定の特徴をハイライトする能力等、この超高精細構成の利点は非常に多い。さらに、イベントの背景は静的であり、追跡対象のオブジェクトのほうが高い画面解像度を有するため、オブジェクトの自動追跡が容易になる。
本発明の実施形態に係るオブジェクト追跡を、図2、図3、図4を参照して以下で説明する。
図2は、本発明の実施形態に係るオブジェクト追跡方法のフローチャートである。オブジェクトを追跡するために、受信されたビデオのうちの、所定数のフレームにわたって実質的に静的であると検出された部分から、背景モデルが構築される。最初のステップS30において、画像の背景モデルを構築するために、カメラ20から受信されたサッカーグラウンドを表すビデオ画像を処理する。この背景モデルは、個々の選手を識別及び追跡する際に役立つ前景マスクを作成するために構築される。この背景モデルは、ステップS30において、画素平均及び連続フレーム間の画素値の分散を各画素について求めることによって形成される。したがって、前景マスクを識別するために、連続フレームにおいて画素の平均値が大幅に変化しない場合、それらの画素を背景画素として識別する。
このような背景/前景の分割は、画像処理分野において周知の処理であり、本発明の実施形態の技術は、2004年インドコンピュータビジョン及び画像処理会議(Indian Conference on Computer Vision Graphics and Image Processing; ICVGIP)の会報において発表された、Manzanera and Richefeu著「Σ−Δ背景推定に基づくロバスト且つ計算効率的な動き検出アルゴリズム(A Robust and Computationally Efficient Motion Detection Algorithm Based on Σ-Δ Background Estimation)」と題する文献に記載のアルゴリズムを利用する。しかし、本発明の実施形態の技術はこの周知の技術に限定されると解釈されるべきではなく、背景モデルに対する前景マスクを追跡に用いるために生成する他の技術も周知である。
ビデオカメラのビューが人ごみを含む場合、人ごみはおそらく動き回るため、背景モデルに含められる可能性は低いことが理解されるであろう。人ごみを前景に含めることは、オブジェクト追跡を実行する際に、Cellプロセッサでの処理負荷を増加させる可能性があるため、望ましくない。また、当然のことながら、ほとんどのスポーツ放送局は、人ごみの中の人々を追跡することに興味を持つとは考えにくいので、人ごみを前景に含める必要はない。
本発明の実施形態では、背景モデルは試合の開始時に構築され、選手がグラウンドに入る前に構築することもできる。さらに、影等の試合全体を通じて変化し得る照明条件における任意の変化を考慮に入れるために、試合を通じて背景モデルを定期的に再計算することができる。
ステップS40において、異なる領域を識別するために、カメラから新たに受信された画像から、背景モデルを減算する。このように、画像から背景モデルを減算して得られた画像を用いて、各選手のためのマスクを生成する。ステップS45において、背景モデルを減算して得られたバージョンの画像における、画素値に対する閾値が設定される。背景モデルは、まず、ビデオ画像の一連のフレームにわたる画素の平均を求めることによって生成される。各画素の平均値により、ビデオ画像のフレームからの各画素の分散を算出することができる。そして、この画素の分散を用いて、閾値が決定される。この閾値は、ビデオ画像の全画素にわたって、画素毎に異なる。人ごみを含む部分等、画像のうちの分散が高い部分に対応する画素の場合、閾値を高い値に設定することができる。一方、グラウンドの色及び内容は、選手の存在を別とすれば一貫して同じであるため、画像のうちのグラウンドに対応する部分の閾値は低くされる。このように、閾値は、前景要素が存在するか否かを判断するため、これに応じて前景マスクが識別される。ステップS50において、平均人体モデルとの相関に基づく形状確率を用いて、前景マスク内の形状が抽出される。さらに、例えば選手のユニフォームの色により選手を識別するための色確率マスクを作成するために、画像から色特徴が抽出される。これにより、各チームのユニフォームの色を用いて、選手を互いに区別することができる。この目的のために、コンテンツ処理ワークステーション10は、各サッカーチームのユニフォームの既知の色に応じて、カラーテンプレートを生成する。したがって、各チームのユニフォームの色、ゴールキーパーのユニフォームの色、審判のユニフォームの色が必要とされる。しかし、他の適切なカラーテンプレート及び/又はテンプレートマッチングプロセスを用いてもよいことが理解されるであろう。
図2に戻ると、ステップS50において、コンテンツ処理ワークステーション10は、各カラーテンプレートの各画素と、選手の画像のユニフォーム領域に対応する画素とを比較する。次に、コンテンツ処理ワークステーション10は、カラーテンプレートの画素と選択された画素との類似性を示す確率値を生成して、チームの色モデル及びグラウンドの色モデルから、HSV(Hue Saturation Value:色相、彩度、明度)色空間における距離に基づいて色確率を形成する。さらに、形状確率を用いて、平均人体モデルとの相関に基づく選手の識別を行う。さらに、動き確率は、開始位置、速度パラメータ、及び加速度パラメータを用いたRLS(再帰最小2乗法)推定器によって予測された位置からの距離に基づく。
選手マスクの作成が図3Aに図示されている。図3Aは、ビデオカメラ20によって生成されたサッカーグラウンド30のカメラビュー210を示す。既に説明したように、グラウンド30は背景モデルの一部を形成し、一方、上述のように、選手230、232、234、236、238、240は、前景マスクの一部を形成する。選手のバウンディングボックスが、各選手の周囲の破線として示されている。
これまでのステップS30、S40、S45、及びS50は、カメラ画像処理に関して行われる。前景マスクを作成すると、ステップS55において、まず、カメラとの近さにより選手の軌道をソートした後、選手の追跡が実行される。したがって、カメラに最も近いと識別された選手は最初に処理され、これらの処理された選手は追跡プロセスから除外される。ステップS60において、選手位置が更新され、遮蔽マスクが構築される。この遮蔽マスクは、他のより近い選手の軌道によって隠されていることが既に分かっている画像領域を除外する。これにより、他の選手によって部分的に又は全体的に遮蔽された選手は、可視の画像領域とだけマッチング可能であることが保証される。この遮蔽マスクにより、軌道の結合(この軌道の結合により、遮蔽イベントが起こると、2つの軌道が同じ選手につながってしまう)の発生率が低減するため、追跡の信頼性が向上する。軌道の結合は、多数のターゲットが色によって(容易に)見分けがつかず、同じように見える場合に特に問題である。遮蔽マスクによって、画素を近い方の選手に割り当て、遠い方の選手からは除外できるようにし、両方の軌道が同じ画素のセットにマッチングされることを防止することで、それらの別個の識別性を維持することが可能になる。
その後、図3A及び図3Bに示すように、カメラ画像内に提供された特徴を抽出し、これらの特徴を3Dモデルにマッピングすることにより各選手を追跡する処理が続く。したがって、カメラによって生成された2D画像内の位置を対応させるために、形状確率、色確率及び動き確率を最大化させる3D位置を選手に割り当てる。以下で説明するように、選手の選択及び2D画像から3Dモデルへの選手のマッピングは、遮蔽イベントが検出された場合、修正される。ステップS65において、2D画像から3Dモデルへのマッピングを支援するために、追跡対象の選手が初期化され、形状確率及び色確率のピークが、最も適切に選択された選手にマッピングされるようにする。なお、ステップS65において実行される初期化は、典型的には追跡プロセスの開始において、一度だけ実行されるということを強調しておく。システムを良好に初期化するためには、選手は十分に分離されているべきである。初期化後、選手の追跡における誤差は、本発明の実施形態の技術に従って自動的に補正される。この補正に、手動による介入は必要ない。
3Dモデルにおいて、2D画像の位置からの追跡を実行するために、投影マトリクスPを用いた変換が実行される。追跡のためには、2D画像の位置を3Dモデル内の位置に関連付けることができなければならない。この変換は、投影(P)マトリクスを用いることによって達成される。2D空間における点は、3D空間における線に等しい。
第3の次元、すなわちカメラからの距離は未知であり、したがって、3D空間にわたる線のように見えるため、2D空間における点は、3Dモデルにおける線に等しい。オブジェクト(選手)の高さ(身長)を用いて、カメラからの距離を求めることができる。3D空間における点は、既知の基準レベル(人間の平均身長)を上回る、固定された高さにある線に沿った点を選択することによって得られる。投影マトリクスPは、コーナー31A、31B、31C、31D等のグラウンド30の物理的な特徴を用いてカメラパラメータを求めるカメラ較正プロセスにより、カメラにつき一回、試合前に予め取得される。したがって、投影マトリクスPは、識別された選手の2D位置を3Dモデルにマッピングする際に役立ち得る。これは周知の技術であり、確立された種々の方法が用いられる。物理的パラメータに関して、投影マトリクスPは、カメラのズームレベル、焦点中心、3D位置及び3D回転ベクトル(3D位置が向いている方向)を含む。
ステップS60において実行された追跡アルゴリズムはスケーラブルであり、グラウンド上のすべての点が少なくとも1つのカメラから(十分な解像度で)可視でありさえすれば、1つ又は複数のカメラにおいて動作可能である。
色及び形状のマッチングに加えて、ステップS60は、各選手をより高い確率で正確に識別するために、追跡中の選手の動きも含まれる処理を有する。したがって、フレーム間での選手の相対的な動きを、相対的な動きの期間及び方向の両方の観点について求めることができる。この相対的な動きを後続のフレームに対して用いて、特定の選手を識別するための検索領域を生成することができる。さらに、図3Bに示すように、サッカーグラウンド上の選手の相対的な動き方向を反映するために選手の位置のグラフィカル表示に対して配置された、230.1、232.1、234.1、236.1、238.1、240.1への線により、サッカーグラウンドの3Dモデルを増強することができる。
ステップS70において、3Dモデルにおける選手の相対的な位置が識別されると、それに応じて、この位置がサッカーグラウンドの2D画像ビューに逆投影され、3Dモデルにおける位置によって識別された選手の周囲に、相対的な境界が投影される。また、ステップS70において、選手の周囲の相対的な境界(バウンディングボックス)が、その選手に対する遮蔽マスクに追加される。
図3Bは、サッカーグラウンドの仮想モデル220の平面図を示す。図3に示す実施形態において、選手230、232、及び234(グラウンドの左サイド)は、選手236、238、240(グラウンドの右サイド)のユニフォームとは異なる色のユニフォームを着ており、したがって異なるチームに属することを示すため、コンテンツ処理ワークステーション10によって識別されている。このように選手を区別することにより、選手の服の色によって容易に互いを区別することができるので、遮蔽イベントが起こったときの各選手の検出が容易になる。
図2を再び参照して、ステップS60において、カルマンフィルタリング等の既知の技術を用いて、各選手の位置が追跡されるが、他の適切な技術を用いてもよいことが理解されるであろう。この追跡は、カメラビュー210及び仮想モデル220の両方において行われる。本発明の一実施形態では、コンテンツ処理ワークステーション10が仮想モデル220における選手の位置を用いて実行する速度予測を用いて、カメラビュー210における各選手の追跡を支援する。
ステップS60及びS70は、決定ボックスS75が示すように、すべての選手が処理されるまで繰り返される。したがって、すべての選手が処理されていない場合、プロセスはS60に進み、一方、処理が完了した場合、プロセスはS80において終了する。
図2に示すように、上記で説明した方法は2つのさらなるステップS85及びS90を有する。これらのステップは、2つ以上のカメラによって画像が生成された場合に必要とされ得る。すなわち、プロセスステップS30〜S80を、各カメラからのビデオ画像に対して実行することができる。そして、各選手に、各カメラからの検出確率が提供され得る。したがって、ステップS85によれば、各選手に対する各カメラからの検出確率に従って、各選手の位置が推定され、各カメラにより提供された確率のうち最も高い確率から推定された選手の位置、すなわち各選手について最も高い確率を有する位置が、その選手の位置として識別される。
サッカーグラウンド上の選手の追跡においてエラーが生じたと判断された場合、その選手に対する追跡を再初期化することができる。追跡におけるエラーの検出は、特定の追跡について、特定の選手の検出確率が比較的低い場合に生成され、それにより追跡が再初期化される。
図2に示す方法を実行する結果として、各選手についての経路データが生成され、この経路データは、ビデオ画像の各フレームにおける選手の位置を提供し、これは試合全体を通じてその選手がとる経路を表す。したがって、この経路データは経時的な位置を提供する。
[遮蔽追跡]
各選手の位置を追跡することにより1つのカメラビューを形成する際、図4に示すように、1人の選手が別の選手の全部又は一部を隠している場合に、問題が生じ得る。
図4は、複数の選手310、320、330、340と、各選手の周囲に破線で示される、各選手に関連付けられたバウンディングボックスとを示す。選手310と選手340とは、互いに明確に区別されるが、選手320は、選手330の一部を隠している。これがいわゆる遮蔽イベントである。遮蔽イベントは、1人の選手の全部又は一部が、少なくとも1人の別の選手の全部又は一部を隠しているときにときに起こり、これにより、相対的な動き及び方向等の他の要因を考慮したとしても、選手の追跡が曖昧になる。しかし、2人以上の選手に関わる遮蔽イベントも起こり得ることが理解されるであろう。
遮蔽イベントを検出するために、コンテンツ処理ワークステーション10は、図4に示すように、或る選手に関連するマスクの全部又は一部が、別の選手に関連するマスクの全部又は一部と同じ画像領域内に存在するか否かを検出する。遮蔽イベントに関わる選手達が敵対するチームであり、異なる色のユニフォームを着ている場合、彼らは容易に区別でき、したがって追跡可能であり得る。しかしながら、遮蔽イベントが起こり、その選手達が両方とも同じチームである場合、コンテンツ処理ワークステーション10は、どちらがどの選手であるかを区別することができないことがある。これは特に、遮蔽イベントが起こったときの動き、例えば衝突によって生じた選手達の動きが予期できず、したがって選手を正確に追跡できないことがあるからである。結果として、各選手に割り当てられる追跡経路が取り違えられてしまう可能性がある。
追跡される選手における曖昧性を解決するために、コンテンツ処理ワークステーション10は、遮蔽イベントに関わるすべての選手に、それらの選手の識別情報を示すラベルを付す。その後、1人又は複数の選手が容易に区別可能になると、コンテンツ処理ワークステーション10は、この情報を用いて、選手の識別情報を正しい選手に再割り当てして、誰がどの選手であるかの記録を維持する。このプロセスを、図5を参照してより詳細に説明する。
図5は、本発明の一実施形態に係るオブジェクト追跡及び遮蔽検出の方法のフロー図を示す。
ステップS100において、コンテンツ処理ワークステーション10は、図2を参照して上述したように、1つ又は複数の画像特徴を抽出するように、取得されたビデオ画像に対して画像処理を行う。その後、抽出された画像特徴は、想定されるオブジェクト例から抽出された、対応する画像特徴と比較され、各オブジェクトが識別される。本発明の一実施形態では、図7及び図8を参照して以下でより詳細に説明するように、選手は背番号により識別される。その後、コンテンツ処理ワークステーション10は、各オブジェクトを識別するオブジェクト識別情報を、各オブジェクトについて生成する。或いは、本発明の一実施形態では、各オブジェクト(例えば選手)は、操作者インタフェースを介して操作者により識別される。その後、コンテンツ処理ワークステーション10は、操作者インタフェースからの入力データを用いて、オブジェクト識別データを生成する。しかし、画像認識技術を操作者による識別と組み合わせて、オブジェクト識別データを生成してもよく、又は、選手の背番号によって選手を識別する数認識等の他の適切なオブジェクト識別方法を用いてもよいことを当業者は理解するであろう。
ステップS105において、コンテンツ処理ワークステーション10は、図2を参照して上述したように、ステップS100において抽出した1つ又は複数の画像特徴に応じて、選手等の検出対象のオブジェクトを検出する。上で述べたように、各選手はまた、仮想モデル220及びカメラビュー210の両方を用いて追跡される。コンテンツ処理ワークステーション10は、追跡プロセス中に生成したデータを用いて、各オブジェクトが受信したビデオ画像内でとる経路を記述するオブジェクト経路データを生成し、記憶する。このオブジェクト経路データは、選手の経時的なx−y座標のサンプルの形をとる。本発明の一実施形態では、経路データは(t,x,y)の形式を有する。ここでtはサンプル時間であり、x及びyは、サンプル時間tにおけるオブジェクトのx座標及びy座標である。しかし、他の適切な経路データの形式を用いてもよいことが理解されるであろう。
ステップS115において、コンテンツ処理ワークステーション10は、各オブジェクトについてのオブジェクト識別データを、各オブジェクトがビデオ画像内でとった経路に関するオブジェクト経路データと共にロギングする。ロギングされたデータは、コンテンツ処理ワークステーション10のハードディスクドライブ(Hard Disk Drive:HDD)又はダイナミックランダムアクセスメモリ(Dynamic Random Access Memory:DRAM)に記憶される。これにより、どの選手が、検出及び追跡された各経路と関連付けられたかについての記録を保持することが可能になる。その後、ロギングされたデータを用いて、各選手についてのデータ及び各選手が試合中にどこにいたかについてのデータを生成することができる。例えば、或る選手がグラウンドの特定の領域において費やした時間を、関連ログに記憶されたデータから生成することができる。さらに、例えば遮蔽イベント後のような何らかの理由により、選手と経路との関係が曖昧になる場合、この記録は、後に説明するように、曖昧性が解決されるまで保持される。オブジェクト経路データと共にロギングされたオブジェクト識別データの例を以下の表1に示す。
各オブジェクトについてのオブジェクト識別データと、そのオブジェクトについてのオブジェクト経路データとの関連付けにより、各オブジェクトを追跡可能になり、したがって識別可能になる。上述の実施形態において、各選手は追跡可能であり、したがって、放送局は、選手が遠くにいすぎて、操作者又はコンテンツ処理ワークステーション10が実行する画像認識によって視覚的に識別できない場合でさえも、誰がどの選手であるかを知ることが可能になる。これにより、放送局が、この関連付けに基づいて、放送コンテンツの視聴者が望ましいと思う可能性のあるさらなる特徴及び情報を組み込むことが可能になる。画像のビューにおける追跡されたデータの表示のさらなる例を以下に説明する。
ステップS120において、コンテンツ処理ワークステーション10は、図4を参照して上述したように、遮蔽イベントが起こったか否かを検出する。遮蔽イベントが検出されない場合、プロセスはステップS105に戻ってオブジェクトを検出する。このように、各オブジェクトを個別に追跡することができ、各オブジェクトの経路を、そのオブジェクトの識別情報と一意に関連付けることができる。
しかし、遮蔽イベントが検出された場合、ステップS125において、Cellプロセッサは、その遮蔽イベントに関わる各オブジェクトについてのオブジェクト識別データを、その遮蔽イベントに関わる各オブジェクトについてのオブジェクト経路データと関連付ける。例えば、A、Bとそれぞれラベリングされた2つのオブジェクトが、経路P及びQとそれぞれ関連付けられる場合、オブジェクトA及びBに関わる遮蔽イベントの検出が起こると、経路PはオブジェクトA及びBの両方と関連付けられ、経路Qも、オブジェクトA及びBの両方と関連付けられる。遮蔽イベントが起こると、上述したように、コンテンツ処理ワークステーション10によって生成された関連付けが、その後ロギングされる。これにより、誰がどの選手であるかに関していくらかの不確定性がある場合であっても、各オブジェクトを識別し直すことなく、遮蔽イベントに関わるオブジェクト(例えば選手)を追跡可能となる。したがって、遮蔽イベントに関わるオブジェクトだけが曖昧に識別され、一方、遮蔽イベントに関わらないオブジェクトは依然として識別可能であるため、コンテンツ処理ワークステーション10の処理負荷が低減される。
ステップS130において、コンテンツ処理ワークステーション10は、生成された経路と関連付けられたオブジェクトの識別情報を分割できるように、遮蔽イベントに関わるオブジェクトのうち1つ又は複数の識別情報が作成されたか否かを確認するためのチェックを行う。コンテンツ処理ワークステーション10により、オブジェクトに関連する1つ又は複数の画像特徴を、想定されるオブジェクト例から抽出された画像特徴と比較することによって、オブジェクトのうちの少なくとも1つの識別が行われる。識別情報が作成されていない場合、プロセスはステップS105に移り、各オブジェクトについて生成された経路データは、遮蔽イベントに関わるオブジェクトすべてと関連付けられる。
しかしながら、遮蔽イベントに関わるオブジェクトのうちの1つ又は複数の識別情報が生成されたことが検出された場合、ステップS135において、確実に識別されたオブジェクトの識別情報を反映するために、ロギングされた経路データが更新される。上記の例において、関連ログは、Aが経路Pと関連付けられ、Bが経路Qと関連付けされるように更新される。
或いは、オブジェクトの識別は、操作者インタフェースを介して操作者により行われてもよく、又は、本発明の実施形態に係る(上述の)画像認識技術を用いて、コンテンツ処理ワークステーション10により行われてもよく、又は2つの技術の組み合わせにより行われてもよい。しかしながら、各オブジェクトを区別又は識別するのに適した任意の他の識別技術を用いてもよいことが理解されるであろう。画像認識の場合、コンテンツ処理ワークステーション10は、画像認識プロセスによって作成された識別情報が正しい可能性がどのくらい高いかを示す信頼度を生成してもよい。本発明の一実施形態では、識別情報は、信頼度が所定の閾値よりも高くなるように決定される。さらに、操作者がそれらの識別情報に信頼度を割り当ててもよく、その信頼度が所定の閾値を超える場合、識別情報が検出される。
本発明の実施形態では、ロギングされた経路データがいつ更新されたかを示すイベント履歴が生成されてもよい。このイベント履歴は、確実な識別情報が不正確であると分かった場合のバックアップとして機能するように記憶されてもよい。例えば、操作者は、ビデオカメラ20から遠く離れた選手が特定の識別情報を有すると確信していたが、その選手がカメラに近寄って来た(これによりユーザはその選手の高解像度画像を見ることができる)ため、それが間違いであると操作者が気付いた場合に、識別情報は不正確であると分かる。この場合、操作者は、操作者インタフェースを用いて、以前の選手の識別情報を無効にすることができ、それに応じて、コンテンツ処理ワークステーション10は、ロギングされた経路データを更新することができる。上記の例において、識別イベント履歴は、経路Pが確実な識別の前にA及びBの両方と関連付けられており、経路Qも確実な識別の前にA及びBの両方と関連付けられていたことを示すデータと共に、コンテンツ処理ワークステーション10のHDD又はDRAMに記憶することができる。
識別イベント履歴は、識別プロセス中に生成された信頼度を有してもよい。後から生成された識別情報が、それ以前に生成された確実な識別情報よりも高い信頼度を有するオブジェクトからなる場合、後続の識別情報の信頼性レベルを用いて、以前の識別情報を検証又は取消することができる。
遮蔽イベントが検出されると、その遮蔽イベントに関わるオブジェクトの曖昧性をなくすために、オブジェクトは、遮蔽イベント後の任意の時間に識別されてもよいことが理解されるであろう。したがって、コンテンツ処理ワークステーション10は、遮蔽イベントが検出されると、ステップS105〜S125と並行して実行されるバックグラウンド処理として、オブジェクトの確実な識別が起こったか否かをモニタすることができる。
本発明の実施形態に係るオブジェクト追跡及び遮蔽検出のいくつかの例を、図6a及び図6bを参照してこれより説明する。
図6aに示す例では、A及びBとして識別された2つのオブジェクトは、遮蔽イベント410に関わる。この遮蔽イベントが起こると、矢印によって示す検出されたオブジェクト経路の両方が、A及びBの両方と関連付けられる(AB)。その後、オブジェクトBは、下方の経路のAによって示されるとして確実に識別される。その後、この識別情報を用いて、オブジェクトAが遮蔽イベント410後に上方のパスと関連付けられ、オブジェクトBが遮蔽イベント410後に下方のパスと関連付けられるように、オブジェクトと経路との関連付けが更新される。
図6bに示す例では、オブジェクトA及びBがまず、遮蔽イベント420に関わる。しかし、オブジェクトA及びBが確実に識別可能となる前に、遮蔽イベント420後にA及びBの両方と関連付けられた下方の経路上のオブジェクトは、オブジェクトCと共に別の遮蔽イベント430にも関わる。したがって、遮蔽イベント430が起こる前、遮蔽イベント420後に下方の経路上にあったオブジェクトがオブジェクトAなのかオブジェクトBなのかは不明である。したがって、遮蔽イベント430の後、2つのオブジェクトが辿る上方の経路及び下方の経路は、オブジェクトA、B及びCと関連付けられる(ABC)。
その後、遮蔽イベント430後に下方の経路にあるオブジェクトはオブジェクトBであるとして確実に識別される(AC)。したがって、遮蔽イベント430後の上方の経路がオブジェクトCと関連付けられるように、関連ログを更新することができる。さらに、この情報を用いて、オブジェクトBは、遮蔽イベント430後に、下方の経路と関連するとして確実に識別されたので、遮蔽イベント430に関わるのはオブジェクトBに違いないとして、遮蔽イベント420に関わる2つのオブジェクトの曖昧性をなくすことができるように、関連ログを更新することができる。したがって、上方の経路が遮蔽イベント420後にオブジェクトAと関連付けられ、下方の経路が遮蔽イベント420後にオブジェクトBと関連付けられるように、関連付けログを更新することができる。
したがって、本発明の実施形態により、オブジェクトが確実に識別される前に数回の遮蔽イベントが起こった場合であっても、オブジェクトを、オブジェクトの追跡経路と関連付けることが可能になる。さらに、本発明の実施形態により、各経路が正しいオブジェクトと関連付けられるように、相互に参照する複数の異なるオブジェクトの識別が可能になる。
[数字の認識]
本発明の一実施形態に係るオブジェクト識別方法を、図7を参照してこれより説明する。
図7は、本発明の一実施形態に係る画像認識方法のフロー図である。本発明の実施形態では、選手を確実に識別する1つの方法は、選手のユニフォームの背番号を検出及び識別することである。
したがって、ステップS200において、遮蔽イベントに関わる少なくとも1人の選手の位置が、図3a、図3b及び図4を参照して上述したように検出される。以下に説明する実施形態では、遮蔽イベントに関わる選手のうちの1人のみに対して画像認識が実行されることが想定されるが、説明する方法は、選手がビデオカメラ20のビュー内に存在する任意の時間において、少なくとも1人の選手を検出及び識別するために、より一般的に適用可能であることが理解されるであろう。
その後、ステップS205において、検出された選手に対応する画像領域のうち、検出対象が検出される可能性が高い領域に対応する画像領域が抽出される。本発明の一実施形態では、これは、図2のS45において生成された選手のマスクに対応する画像領域を分離することによって行われるが、他の適切な方法を用いてもよいことが理解されるであろう。さらに、画像認識の対象となる画像領域を、オブジェクトの既知の属性、又は検出すべき画像特徴に応じて、さらに精緻化することができる。例えば、サッカー選手の場合、通常、選手を識別する番号が選手のユニフォームの背中にプリントされていることが周知である。選手のユニフォームの背中にプリントされた番号は、検出対象となる画像特徴の一例であるが、他の適切な画像特徴を検出してもよいことが理解されるであろう。
選手マスクに対応する画像領域を適切に分割することにより、所望の属性又は画像特徴が検出される可能性が最も高い画像領域を抽出することができる。しかし、画像認識を実行する画像領域を選択するために、他の適切な方法を用いてもよいことを当業者は理解するであろう。このように画像領域を抽出することにより、検出対象の特徴が画像領域内のより大きな割合を占める可能性が高くなるので、画像領域内での冗長な情報に対する有用な情報の割合が増加する。一例では、分割は、画素を閾値と比較し、閾値を超えた画素を抽出又は分離することによって行われる。
ステップS210において、選択された画像領域を二値画像に変換するために、抽出された画像領域に画像閾値が適用される。典型的には、閾値は、黒白の閾値画像を生成するように適用されるが、色に基づく閾値等の他の画像閾値を用いてもよいことが理解されるであろう。本発明の一実施形態によれば、二値画像を生成するために、認識対象の所望の画像特徴についての事前の知識又は何らかの他の画像領域の特徴を用いてもよい。例えば、二値画像を生成するために、選手のユニフォームの色に応じて画像閾値を適用してもよい。検出対象の特徴又はオブジェクトの属性についての事前の知識を用いることにより、認識したい画像特徴と背景との区別を向上させることができる。また、得られた閾値画像に、認識対象の画像特徴に対応しない画像特徴が含まれる可能性を低減することができる。
その後、ステップS215において、選択された閾値適用画像領域内で、画素が互いに連続している画像領域が検出される。その後、検出された連続領域は、さらなる画像処理を施される選択された連続画像領域として割り当てられる。したがって、ステップS215は、互いに連続した同じタイプの画素を検出する。ここで、語句「同じタイプ」とは、画素の色、画素の明度(すなわち、画素の属性)等を意味すると解釈される。言い換えれば、連続画像領域とは、互いに隣接し、且つ概ね同じ画素の属性を有する画素によって識別される画像領域である。例えば、得られた閾値画像が白黒画像である上記の場合、連続した黒画素(すなわち、互いに隣接した黒画素)を検出することができ、選択された連続画像領域として割り当てることができる。
ステップS220において、文字に対応する可能性が低い任意の選択された連続画像が、スプリアス画像領域として削除され、残りの選択された画像領域が、認識すべき文字の数を確定するために処理される。
本発明の一実施形態では、スプリアス画像領域を削除するために、選択された連続画像領域に応じて、大きさ、形状、相対的な位置、及び抽出された画像領域内での選択された連続画像領域の位置に基づく種々の異なる測定値が、既知の技術を用いて計算される。サッカー選手のユニフォームからの番号の検出を参照して上述した実施形態では、検出対象となる1つ又は複数の数字が存在する可能性が高い。したがって、例えば、互いに同じ高さではないか、又は互いにほぼ同じ大きさを有しない任意の選択された連続画像領域は、検出対照の数字である可能性は低い。したがって、検出すべき文字に対応する可能性が低い選択された連続画像領域は、廃棄される。
その後、ガウス確率を用いて、残りの選択された連続画像領域が所定の数の文字に対応する可能性がどのくらい高いかについての信頼度が生成される。本発明の一実施形態では、残りの選択された連続画像領域が、上記ユニフォームの例に準ずる2つの文字又は数字に対応するか否かを確定するために、それら連続画像領域が処理される。信頼度が所定の閾値を超えない場合、数字が1つしか存在しないと想定され、抽出された画像領域の中央領域内の、任意の選択された連続画像領域が、さらなる画像処理のために選択される。しかし、残りの選択された連続画像領域が2つの数字に対応する場合、これらの領域は分離され、残りの選択された連続画像領域のそれぞれに対して、以下で説明するさらなる画像処理が実行される。これにより、分類が必要な異なる文字の数が低減し、これにより、コンテンツ処理ワークステーション10の処理負荷が低減する。例えば、数字が検出対象であるとき、残りの選択された連続画像領域すべてに対して一度に数字認識を実行する場合、0〜99又は0〜999ではなく、0〜9の数字を分類しさえすればよい。
ステップS225において、ステップS220で分離された、選択された連続画像領域がスケルトン化される。スケルトン化は、連続画像領域の幅を、数画素のみの線幅にまで縮小する処理である。典型的には、縮小された線幅は1画素幅である。画素の数は、スケルトン化処理により所定であり、抽出したい画像特徴に依存する。適切なスケルトン化処理は、Thierry M. Bernard, Antoine Manzanera著、「改良された低複雑性完全並列細線化アルゴリズム(Improved Low Complexity Fully Parallel Thinning Algorithm)」(10th International Conference on Image Analysis and processing(ICIAP '99), 1999, pp. 215-220.)に記載されている。連続画像領域をスケルトン化することの利点は、スケルトン化により、形状の複雑性が低減され、それにより任意のさらなる処理ステップが簡素化することである。例えば、数字をスケルトン化することにより、用いられるフォントに関わりなく、実質的に同じ形状を生成することができる。選択された連続画像領域のスケルトン化を、図8を参照して説明する。検出対象の文字に対応すると判断される可能性が高い選択された連続画像領域だけに対してスケルトン化を実行することにより、コンテンツ処理ワークステーション10が実行しなければならない画像処理の量が低減する。
図8は、本発明の実施形態に係る、選択された連続画像領域の画像処理の概略図である。図8において説明する実施形態では、検出及び認識の対象である画像特徴は数字の5である。ステップS200〜S220に従う画像処理の後、選択された連続画像領域510が、スケルトン化のために抽出される。スケルトン化の後、連続画像領域510は、わずか1画素の幅となるように縮小され、それにより、幅を変更された画像特徴520が形成される。この画像特徴520に、さらなる処理を実行することができる。図8から分かるように、画像特徴の複雑性は低減される。幅を変更された画像特徴520はわずか1画素幅であるので、数字5の幅における変動及びフォント特徴530等のフォントの個々の特徴は除去される。
本発明の一実施形態では、選択された連続画像領域が1画素幅の線に細線化(スケルトン化)されると、その後、所定の画素幅まで拡張されるか又は太線化される。これにより、ステップS230において選択された連続画像領域から特徴ベクトルを抽出するときに、選択された連続画像領域内により多くの画素が存在するようになる。
その後、ステップS230において、分離後の選択された連続画像領域のそれぞれについて、その画像領域の特徴ベクトルが計算される。典型的には、これはゼルニケモーメントを用いて行われ、得られる出力は、回転不変量且つスカラー不変量である。これにより、認識対象の特徴に何らかの歪みがある場合(例えば、選手のユニフォームが布であり、剛性でない場合)であっても、実質的に同じ特徴ベクトルを画像から抽出可能になるため、有用である。しかしながら、画像特徴から特徴ベクトルを計算する他の適切な回転不変且つスカラー不変の方法を用いてもよいことを、当業者は理解するであろう。
本発明の実施形態では、選択された連続画像領域の特徴ベクトルを抽出するために、既知の技術を用いて、この領域の質量中心が計算される。この質量中心は、ゼルニケモーメントを計算するための原点として用いられる。さらに、抽出された画像領域内で、原点から最も離れた距離にある画素が検出され、この検出された距離は、ゼルニケモーメントの計算を支援するために、1に正規化される。モーメント計算において用いられるゼルニケ多項式は以下によって与えられる。
(例えば、http://mathworld.wolfman.com/ZernikePolynominal.htmlを参照されたい。)
ここで、ρは、0≦ρ≦1である半径方向距離であり、φは、0≦φ≦2πである方位角であり、n及びmは正の整数である。
は、n≧m≧0である整数m及びnについて、以下により定義される。
ゼルニケモーメントは、抽出された画像領域内の画素毎に計算され、その後、抽出された画像領域全体にわたって合計され、特徴ベクトルが生成される。得られた特徴ベクトルは、モーメントの計算において用いられる多項式として多数の要素を有する。特徴ベクトルの一例を以下に示す。
ここで、選択された連続画像領域の画素を総計することによってモーメントを計算するために用いられた多項式は、「Polynomial」と見出しを付けられた列において示され、モーメント計算により得られた値xは、生成された特徴ベクトルの要素である。典型的には、
から
のゼルニケ多項式が、特徴ベクトルの生成に用いられる。これは、計算の複雑性と、分類の実行時に特徴間の曖昧性をなくすのに十分な数の要素を持つ特徴ベクトルの生成との間の良好なバランスを提供するためである。しかし、桁が変わるまでの他の範囲を用いてもよいこと、又は選択された多項式についてモーメントを計算してもよいことが理解されるであろう。
上で述べたように、本発明の実施形態では、選択された連続画像領域がスケルトン化されると、スケルトン化された連続画像領域は、モーメント計算の実行前に、所定の線幅まで太線化される。これにより、小さな変動は平均化される傾向にあるため、スケルトン化された画像領域におけるノイズ又は変動に対する特徴ベクトル計算の感度が低下する。本発明の実施形態による特徴ベクトルの計算に用いられる、太線化後の選択された連続画像領域が図9に示される。
図9は、特徴ベクトルの計算前に太線化された、選択された連続画像領域600の一例である。ここで、画像特徴630は、例示的なゼルニケ多項式をプロットしたものを示す。上述のように、ゼルニケ多項式の値が、画像領域600内の各画素位置毎に計算される(例えば、画素605、610、615及び620毎に。これらは例示の目的でのみ示される。)。その後、各画素位置における計算された多項式の値が合計され、その多項式及び画像領域600についてのゼルニケモーメントが得られる。その後、上述のように、この得られた値を特徴ベクトルにおける入力として用いる。
スケルトン化された連続画像領域を所定の線幅まで太線化する替わりに、ゼルニケモーメントを形成するために合計される、サンプリングされた画素の数の拡張を支援するために、補間法を用いてもよい。
ステップS235において、特徴ベクトルがどの文字に対応する可能性が高いかを検出するために、ステップS230で計算された特徴ベクトルが、適切な分類方法を用いて分類される。選手のユニフォームの背番号が識別対象である上記の例では、考えられる特徴は数字0〜9であるが、任意の他の適切な文字であってもよいことが理解されるであろう。
本発明の一実施形態では、生成された特徴ベクトルは、既知のニューラルネットワーク技術を用いて分類される。その後、ニューラルネットワークの出力を用いて、選択された連続画像領域はどの特徴に対応する可能性が高いかを検出する。
別の実施形態では、ステップS230において生成された特徴ベクトルが、所定の特徴から事前に生成された特徴ベクトルと比較される。所定の特徴についての特徴ベクトルの生成は、その所定の特徴と、識別すべき検出された画像特徴との比較を行うことができるように、ステップS230で用いた方法と同じ特徴ベクトル生成方法を用いて実行される。好ましくは、特徴ベクトル生成方法は、それぞれの特徴ベクトルに応じて特徴を互いに容易に区別できるように、各特徴について大幅に異なる特徴ベクトルを生成するように選択される。
本実施形態において、事前に生成された特徴ベクトルのそれぞれについて、ステップS230において生成された、検出された画像特徴からの特徴ベクトルと、事前に生成された特徴ベクトルのそれぞれとの間の類似性を示す信頼度が生成される。例えば、図8におけるスケルトン化された連続画像領域(すなわち、幅を縮小された画像特徴520)から生成された特徴ベクトルが、数字0〜9から事前に生成された特徴ベクトルと比較される。事前に生成された特徴ベクトルのうちの1つと比較したとき、幅を縮小された画像特徴520についての信頼度が所定の閾値を超える場合、その幅を縮小された画像特徴520は、事前に生成された特徴ベクトルの生成に用いられた特徴に対応すると識別される。例えば、図8に示す例において、認識対象の番号は5である。幅を縮小された画像特徴520から生成された特徴ベクトルと、数字5の画像から事前に生成された特徴ベクトルとの比較によって生成された信頼度が閾値量を超える場合、幅を縮小された画像特徴520は数字5と識別される。
画像特徴と、事前に生成された2つ以上の異なる特徴ベクトルとの比較によって生成された複数の信頼度が閾値を超える場合、識別は無効となり、ビデオカメラ20から受信された別のフレームに対して、プロセスが繰り返される。
数字又は文字が一旦識別されると、選手のユニフォーム上の番号を識別するために、各文字の識別情報を互いに結合することができる(文字が2つ以上の文字を含むと識別される場合)。その後、選手を識別するために、この数字の識別情報を、HDD740又はBD−ROMドライブ760に挿入された媒体に記憶されたルックアップテーブルと共に用いることができる。選手が識別されると、このデータを図5のステップS130及びS135において用いて、関連ログを更新することができる。さらに、本発明の実施形態において、コンテンツ処理ワークステーション10がオブジェクトを識別すると、コンテンツ処理ワークステーション10は、操作者が適切な操作者インタフェースを介して識別情報を検証するように指示することができる。
[例示的な説明]
図10、図11A、図11B、図12は、選手を追跡し、サッカーの試合の3Dモデルを仮想モデルとして生成するために本発明の技術を用いる、サッカーの試合の例示的なビデオ画像のフレームの例を示す図である。図17、図18A、図18B、図19は、図10〜図12において示すビデオ画像の実際のスクリーンショットの例をそれぞれ示す図である。図10は、1つのHDカメラによって生成された、サッカーの試合のビデオ画像の例を示す図である。図11Aは、図10のビデオ画像が、各画素の平均値を用いて背景のみを生成するように画像処理されたものを示す図である。図11Bは、図10のビデオ画像が、画像における各画素の分散を用いて背景のみを生成するように画像処理されたものを示す図である。図12は、追跡の結果として、図3Aに示す例に対応する各選手の周囲のバウンディングボックスが提供された例を示す図である。
図13は、グラウンドの各半分をビューに入れるためにそれぞれ配置された2つのカメラ(カメラ22.1、22.2等)をビデオ画像の生成に用いた場合のフレームの例を示す図である。図20は、図13において示すビデオ画像の実際のスクリーンショットの例を示す図である。左半分及び右半分の両方において、選手はバウンディングボックスによって図示されるように追跡され、バウンディングボックスは各選手に重ねられる。
図13の下半分では、図13の上半分における2次元ビデオ画像において、カメラから見たグラウンド上のポジションに従って番号を付けられた選手の位置を表すために、サッカーの試合の仮想モデルが生成されている。したがって、サッカーの試合の3Dモデルのビューは、図3Bに示す仮想モデルの説明に対応する。
[ライブビデオに重ねられた追跡]
本発明の実施形態の技術によれば、上述したサッカーの試合の2D画像の3Dモデルに対して生成される追跡情報を、ビデオカメラによって取得されたビデオ画像に追加することができる。一例が図14に示されている。図3Bに示すように、サッカーグラウンドの3Dモデルを用いて、サッカーグラウンド上の選手の追跡及び検出を支援する。選手の相対的な位置が3Dモデルから検出されると、その選手のためのマスクが2D画像に投影され、2D画像内での選手の検出及び追跡を支援するために用いられる。ここで、選手の位置が一旦比較的高い確率で識別されると、カメラの2Dビデオ画像内での選手の位置がわかる。これにより、追跡アルゴリズムにより推定されたその選手の識別情報を示すグラフィックを、コンテンツ処理ワークステーション10によって、カメラからのライブビデオフィードに重ねることができる。したがって、図14に示すように、各選手300、302、304、306には、対応するラベル308、310、312、314が提供され、その後、これらのラベルを用いて、選手の識別情報を追跡するために、グラウンドの周囲の選手が追跡される。このように、オブジェクトが位置する平面の3次元モデルを用いてオブジェクトを追跡することで、識別されたオブジェクトの相対的な位置がビデオ画像に逆投影され、グラフィカルラベル又は識別情報又は他の効果が導入され、それにより、ライブのビデオ画像又は処理済みのビデオ画像において選手の識別情報を見ることができる。
したがって、いくつかの例では、本発明の実施形態の技術に係る方法は、ビデオカメラによる或るシーンのビューから生成された、平面上に位置する複数のオブジェクトを含む前記シーンのビデオ画像を改善する改善方法を含む。当該改善方法は、前記各オブジェクトから1つ又は複数の画像特徴を抽出するように、前記取得したビデオ画像を処理し、前記1つ又は複数の画像特徴と、前記ビデオ画像に含まれると想定されるオブジェクト例の所定のセットから抽出されたサンプル画像特徴とを比較し、前記画像特徴と前記サンプル画像特徴との前記比較により、前記オブジェクトを識別し、前記各オブジェクトを識別する、各オブジェクトについてのオブジェクト識別データを含み、且つ前記ビデオ画像の前記平面における前記オブジェクトの経時的な位置を示すオブジェクト経路データを生成し、前記オブジェクト経路データに基づく前記各オブジェクトの前記位置を、前記平面から当該平面の前記3次元モデルに投影するための投影マトリクスを計算し、前記オブジェクトが位置する前記平面の前記3次元モデルに対して、前記オブジェクト経路データを用いて、前記ビデオ画像における各オブジェクトを識別し、前記ビデオ画像における前記各オブジェクトを識別する識別情報の図形表現を生成し、前記オブジェクトが前記ビデオ画像における前記平面上で動いた場合、当該オブジェクトのうちの1つ又は複数に前記識別情報を提供するために、前記ビデオ画像において前記識別情報を前記オブジェクトに重ねる。
図14の画像ビュー内には、抽出された複数の画像の2つのセット320、322も示される。サッカーグラウンドの各サイドには、抽出された複数の画像のセット320、322のうちの1つのセットが提供される。各画像は、カメラ20から提供された画像の分離された部分であり、この分離された部分は、選手をサッカーグラウンドからできるだけ分離することを目的とする。したがって、各選手を識別すると、ビデオ画像内のその選手の画像を、サッカーグラウンド上の各チームに対応する各セット内の他の選手と共に抽出して表示することができる。この抽出された画像を表示することにより、サッカーの試合を通して特定の選手を追跡するための別個のカメラの必要なしに、その選手を自動的に分離して視聴することができる。したがって、単一のカメラを用いてサッカーグラウンド全体を撮影することができ、あたかも各選手を追跡するために複数のカメラを用いているかのように、試合を通して各選手を追跡することができる。結果として、費用及びシステムの複雑性の大幅な低減を達成することができる。
[実画像と仮想画像との切り替え]
上記で説明したように、図3A及び図3Bを参照して、各選手を追跡するプロセスは、選手の識別及び位置特定を支援するために、サッカーグラウンドの3Dモデルを利用する。選手の位置の推定に関する情報を収集し、ビデオ画像の各フレーム間でその情報を追跡する(オブジェクト経路データ)すると、各選手の画像を合成し、それらの選手を3Dモデル内で表現することにより、ライブビデオ画像の仮想表現を作成することが可能である。さらに、仮想空間内でのモデルのビューの相対的な位置又は合成されたカメラ位置は、サッカーグラウンドの3Dモデルの相対的なビューを適応化するための既知の技術を用いて調整することができる。したがって、カメラにより提供された画像ビューから求められた経時的な選手の位置のそれぞれについて、所望のカメラ位置から見たそのライブのサッカーの試合の仮想3Dビューを再生することが可能である。
図15に示す例において説明すると、(図3B及び図13に示すように)各選手についての経路データを3Dモデルに適用することにより、3Dモデルが合成され、選手は、経時的に変化する位置における各選手のモデルによって表現される。さらに、3Dモデルのビューは変更可能であるため、実際にはカメラが存在しない位置における試合のビューを提供するために、カメラの相対的な位置を変更することができる。したがって、一例として、フリーキックが与えられた場合、図15に示すように、実際にはカメラが存在しない位置におけるフリーキックのビューを提供するために、カメラの相対的な位置をゴールの後ろから提供することができる。
上述のように、これは、投影マトリクスPを用いて、カメラ位置の3Dにおける相対位置を、グラウンドのコーナーからマッピングすることによって達成される。さらに、上述のように各選手の相対的な向きを推定して、この相対的な向きを、各選手についての経路データと共に提供することができ、選手の合成モデルを、この経時的に変化する向きで表示することができる。したがって、上記の追跡プロセスの一部として識別された選手の向きが、経路データと共に提供され、サッカーの試合の3Dモデルが生成される。この3Dモデルは実画像と対応するため、この向きデータを用いて、モデル内での選手の向きが変更される。
[ユーザがコンテンツを決定するためのIPTV]
本発明のさらなる例示的な実施形態が、図16、図17、図18及び図19に示される。上記で示したように、追跡アルゴリズムを用いて生成された追跡情報(オブジェクト経路データ)を用いることにより、及び、現実のライブのサッカーの試合の表現を生成するために、合成表現を、図3Bにおける方向線によって示されるような選手の相対的な向きと組み合わせて各選手に適用することにより、現実のサッカーの試合の3D仮想モデルを合成することが可能である。サッカーグラウンド上の選手の追跡された位置を合成モデルで置き換えることにより、ライブビデオ画像が、3次元の合成された形で表現されるため、事実上、これは圧縮形式を表現する。したがって、3D仮想モデルに従うサッカーの試合の表現を、インターネットを介してクライアント機器にストリーミングすることができる。このような構成は図16に示されている。図16において、コンテンツ処理ワークステーション10は、データ記憶装置400からデータを受信する。このデータは、サッカー選手の、事前に生成された合成表現を提供する。サッカーの試合の仮想表現を向上させるために、この表現は、各選手の姿勢、体勢、態度に関する情報も含むことができる。したがって、上記の追跡プロセスにより生成された経路データを、選手の姿勢、体勢、態度に関する情報を含むように増強することができ、この情報を用いて、対応する選手の合成モデルを選択することができる。
コンテンツ処理ワークステーション10は、合成表現をデータ記憶装置400から受信すると、サッカーの試合の3D仮想表現を生成することができ、任意選択で、この3D仮想モデルを表すデータを、後処理装置410に送ることもできる。配信サーバ420にストリーミングするための、サッカーの試合の3D仮想モデルに関する情報をパッケージ化するために、後処理装置410を用いることができる。
図16において、複数のクライアント機器422のそれぞれは、所望のチーム又は特定の選手の所望のビューに関する選択肢を選択することにより、サッカーグラウンドの3D仮想モデルの特定のビューを要求することができ、これらの要求はその後、配信サーバ420に供給される。配信サーバ420は、その後、クライアント機器によって提供された所望の選択結果に応じて、サッカーの試合の3D仮想モデルを表すデータをストリーミングするように構成されてもよい。その後、クライアント機器422は、カメラ20によって生成されたライブビデオ画像の圧縮バージョンを効率的に提供する、3D仮想モデルの所望のビューを再生することができる。したがって、サッカーの試合の3Dモデルを再生するためのデータをクライアント機器にストリーミングすることができ、このデータは、ライブ又はほぼライブのサッカーの試合の低帯域幅バージョンを提供する。このデータは単に、各選手の経時的な位置の追跡を提供するオブジェクト経路データを含んでもよく、各選手の向きを含んでもよい。クライアント機器におけるアプリケーションソフトウェアによって、サッカーグラウンドの3Dモデルを生成することができる。このアプリケーションソフトウェアは、選手の合成モデルをロードし、経路データを適用して、サッカーの試合の3Dモデルを生成する。或いは、3Dモデルを用いて、実際の試合を再生するコンピュータゲームを作成してもよい。
添付の特許請求の範囲において規定される本発明の範囲から逸脱することなく、上述の実施形態に対して種々の変形を行ってもよいことが理解されるであろう。例えば、例示した実施形態は、サッカーの試合を参照して説明されたが、任意の他のスポーツイベント又は演劇等の娯楽イベントに、上記で開示した本発明の実施形態の技術を適用することができると考えられる。本発明の実施形態の技術に係るプロセスは、フロッピーディスク、光ディスク、ハードディスク、PROM(Programmable Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ若しくはそれらの任意の組み合わせ又は他の記憶媒体等のデータ保持媒体に格納されたコンピュータが読み取り可能な命令を有するコンピュータプログラム製品の形で実行されてもよく、或いは、イーサネット(登録商標)、無線ネットワーク、インターネット、若しくはそれらの任意の組み合わせ又は他のネットワーク等のネットワークを介して、データ信号として送信されてもよい。
本発明の一実施形態に係るオブジェクト追跡システムの概略図である。 本発明の一実施形態に係るオブジェクト追跡方法のフロー図である。 本発明の一実施形態に係るオブジェクト追跡の概略図である。 本発明の一実施形態に係る遮蔽検出の概略図である。 本発明の一実施形態に係るオブジェクト追跡及び遮蔽検出の方法のフロー図である。 本発明の一実施形態に係るオブジェクト追跡及び遮蔽検出の方法の概略図である。 本発明の一実施形態に係る画像認識方法のフロー図である。 本発明の一実施形態に係る、画像特徴の画像処理の概略図である。 本発明の一実施形態に係る、特徴ベクトルを計算するための画像特徴の画像処理の概略図である。 追跡対象の選手を含むサッカーの試合を示す、シーンから取得されたビデオ画像の例である。 背景モデルを生成するために、本発明の実施形態の技術に従って、平均を取得することにより処理されるビデオ画像の例である。 分散を考慮する場合の背景モデルである。 追跡された選手の位置を示すために、本発明の実施形態の技術に従って処理されたビデオ画像の例である。 2つの異なるカメラによって取得された2つのビデオ画像の例であり、一方は、サッカーグラウンドの各サイドを示し、他方は、選手の位置が経時的に追跡されるサッカーの試合の仮想表現の例を示す。 本発明の実施形態の技術に従って追跡される選手にラベルが付された、サッカーの試合のビデオ画像の表現である。 試合のビューを変更することができる、サッカーの試合の仮想モデルの3次元表現である。 合成された要素によって試合を表現するサッカーの試合の仮想モデルを作成する、クライアント機器がインターネットを介して利用可能なシステムの概略ブロック図である。 図10において示すビデオ画像の実際のスクリーンショットの例である。 図11Aにおいて示すビデオ画像の実際のスクリーンショットの例である。 図11Bにおいて示すビデオ画像の実際のスクリーンショットの例である。 図12において示すビデオ画像の実際のスクリーンショットの例である。 図13において示すビデオ画像の実際のスクリーンショットの例である。

Claims (19)

  1. ビデオカメラによる或るシーンのビューから生成された、平面上に位置する複数のオブジェクトを含む前記シーンの1つ又は複数のビデオ画像から生成された、前記平面上の前記オブジェクトを含む前記シーンの3次元表現を生成する生成方法であって、
    前記各オブジェクトから1つ又は複数の画像特徴を抽出するように、前記取得したビデオ画像を処理し、
    前記1つ又は複数の画像特徴と、前記ビデオ画像に含まれると想定されるオブジェクト例の所定のセットから抽出されたサンプル画像特徴とを比較し、
    前記画像特徴と前記サンプル画像特徴との前記比較により、前記オブジェクトを識別し、
    前記各オブジェクトを識別する、各オブジェクトについてのオブジェクト識別データを含み、且つ前記ビデオ画像の前記平面における前記オブジェクトの経時的な位置を示すオブジェクト経路データを生成し、
    前記オブジェクト経路データに基づく前記各オブジェクトの前記位置を、前記平面から当該平面の前記3次元モデルに投影するための投影マトリクスを計算し、当該投影マトリクスを用いて、前記オブジェクト経路データに従う前記オブジェクトの前記位置を、前記シーンの3次元モデルの平面に投影することにより、前記シーンの3次元モデルを生成する
    生成方法。
  2. 請求項1に記載の生成方法であって、さらに、
    前記投影マトリクスと、前記各オブジェクトの高さに関する所定の推定値、又は前記3次元表現に向けられたカメラの擬似的な距離とを用いて、前記オブジェクト経路データに基づく前記オブジェクトの前記位置を前記シーンの前記3次元モデルの前記平面に投影することによって、前記平面上の前記複数の各オブジェクトの合成表現を含む、前記シーンの3次元表現を生成する
    通信システム。
  3. 請求項1に記載の生成方法であって、さらに、
    前記生成された3次元モデルがユーザに対して表示画面上に表示されているときに、ユーザ制御に応じて、当該3次元モデルの相対的な視点を変更する
    通信システム。
  4. 請求項1に記載の生成方法であって、さらに、
    前記平面上の前記各オブジェクトの相対的な方向に関する情報を、当該各オブジェクトについて生成し、
    前記相対的な方向に関する情報を、前記オブジェクト経路データに含め、
    前記シーンの前記3次元表現を生成するステップは、
    前記オブジェクト経路データに含められた前記相対的な方向に関する情報を用いて、前記3次元モデルの前記平面における前記各オブジェクトの前記合成表現を方向付けるステップを含む
    生成方法。
  5. 請求項1に記載の通信システムであって、
    前記各オブジェクトは人間であり、
    前記オブジェクト経路データを生成するステップは、
    前記ビデオ画像から、前記平面における前記人間の相対的な姿勢、体勢、態度に関する情報を生成するステップと、
    前記人間の前記姿勢、体勢、態度に関する前記情報を前記オブジェクト経路データに含めるステップとを含み、
    前記シーンの前記3次元表現を生成するステップは、
    前記オブジェクト経路データに含められた、前記ビデオ画像における前記人間の前記姿勢、体勢、態度に関して想定される情報のうちの1つに対応する各人間の表現のセットを有するデータ記憶装置にアクセスするステップと、
    前記オブジェクト経路データに含められた前記人間の前記相対的な姿勢、体勢、態度に関する前記情報に従って、前記各人間の前記想定される表現のセットから、前記各人間の表現を選択するステップと、
    前記3次元モデルの前記平面において、前記オブジェクト経路データに基づく姿勢及び方向で、前記選択された表現を生成するステップとを含む
    生成方法。
  6. 請求項1に記載の生成方法であって、
    前記投影マトリクスは、
    に従って求められ、ここで、x,yは前記2次元ビデオ画像の前記平面における前記オブジェクトの前記位置を表す座標値であり、x’y’z’、wは、前記3次元モデルにおける前記オブジェクトのビューのズームレベル、焦点中心、3次元位置及び3次元回転ベクトルを提供する
    生成方法。
  7. 請求項1に記載の生成方法であって、さらに、
    前記オブジェクトが位置する前記平面の前記3次元モデルに対して、前記オブジェクト経路データを用いて、前記ビデオ画像における各オブジェクトを識別し、
    前記ビデオ画像における前記各オブジェクトを識別する識別情報のグラフィカル表現を生成し、
    前記オブジェクトが前記ビデオ画像における前記平面上で移動した場合、当該オブジェクトのうちの1つ又は複数に前記識別情報を提供するために、前記ビデオ画像において前記識別情報を前記オブジェクトに重ねる
    生成方法。
  8. 請求項1に記載の生成方法であって、さらに、
    前記オブジェクトが位置する前記平面の前記3次元モデルを生成し、
    前記生成された3次元モデルにおける前記平面を、当該平面のコーナーを用いて、当該平面のビデオ画像に対して較正する
    生成方法。
  9. 請求項1に記載の生成方法であって、
    前記オブジェクトは、スポーツの試合の選手であり、
    前記平面は、サッカーグラウンド等の試合場である
    生成方法。
  10. コンピュータに、請求項1に記載の生成方法における各ステップを実行させるためのプログラム。
  11. ビデオカメラによる或るシーンのビューから生成された、平面に位置する複数のオブジェクトを含む前記シーンの1つ又は複数のビデオ画像から生成された、前記平面上の前記複数のオブジェクトを含む前記シーンの3次元表現を生成する画像処理装置であって、
    前記各オブジェクトから1つ又は複数の画像特徴を抽出するように、前記取得したビデオ画像を処理し、
    前記1つ又は複数の画像特徴と、前記ビデオ画像に含まれると想定されるオブジェクト例の所定のセットから抽出されたサンプル画像特徴とを比較し、
    前記画像特徴と前記サンプル画像特徴との前記比較により、前記オブジェクトを識別し、
    前記各オブジェクトを識別する、各オブジェクトについてのオブジェクト識別データを含み、且つ前記ビデオ画像の前記平面における前記オブジェクトの経時的な位置を示すオブジェクト経路データを生成し、
    前記オブジェクト経路データに基づく前記各オブジェクトの前記位置を、前記平面から、当該平面の前記3次元モデルに投影するための投影マトリクスを計算し、当該投影マトリクスを用いて、前記オブジェクト経路データに従う前記オブジェクトの前記位置を、前記シーンの3次元モデルの平面に投影することにより、前記シーンの3次元モデルを生成する
    データ処理部を具備する画像処理装置。
  12. 請求項11に記載の画像処理装置であって、
    前記データ処理部は、前記投影マトリクスと、前記各オブジェクトの高さに関する所定の推定値、又は前記3次元表現に向けられたカメラの擬似的な距離とを用いて、前記オブジェクト経路データに基づく前記オブジェクトの前記位置を、前記シーンの前記3次元モデルの前記平面に投影することによって、前記平面上の前記複数の各オブジェクトの合成表現を含む、前記シーンの3次元表現を生成する
  13. 請求項11に記載の画像処理装置であって、
    前記データ処理部に、前記3次元モデルの前記ビューの変更を表すユーザ制御信号を提供するユーザインタフェースを具備し、
    前記データ処理部は、前記生成された3次元モデルが表示画面上に表示されているとき、前記ユーザ制御信号に応答して、前記3次元モデルの相対的な視点を変更する
    画像処理装置。
  14. 請求項11に記載の画像処理装置であって、
    前記データ処理部は、
    前記平面上の前記各オブジェクトの相対的な方向に関する情報を、当該各オブジェクトについて生成し、
    前記相対的な方向に関する情報を、前記オブジェクト経路データに含め、
    前記オブジェクト経路データに含められた前記相対的な方向に関する情報を用いて、前記3次元モデルの前記平面における前記各オブジェクトの前記合成表現を方向付ける
    画像処理装置。
  15. 請求項11に記載の画像処理装置であって、
    前記各オブジェクトは人間であり、
    前記データ処理部は、
    前記オブジェクト経路データを生成するステップは、
    前記ビデオ画像から、前記平面における前記人間の相対的な姿勢、体勢、態度に関する情報を生成し、
    前記人間の前記姿勢、体勢、態度に関する前記情報を前記オブジェクト経路データに含め、
    前記オブジェクト経路データに含められた、前記ビデオ画像における前記人間の前記姿勢、体勢、態度に関して想定される情報のうちの1つに対応する各人間の表現のセットを有するデータ記憶装置にアクセスし、
    前記オブジェクト経路データに含められた前記人間の前記相対的な姿勢、体勢、態度に関する前記情報に従って、前記各人間の前記想定される表現のセットから、前記各人間の表現を選択し、
    前記3次元モデルの前記平面において、前記オブジェクト経路データに基づく姿勢及び方向で、前記選択された表現を生成する
    画像処理装置。
  16. 請求項11に記載の画像処理装置であって、
    前記データ処理部は、
    前記オブジェクトが位置する前記平面の前記3次元モデルに対して、前記オブジェクト経路データを用いて、前記ビデオ画像における各オブジェクトを識別し、
    前記ビデオ画像における前記各オブジェクトを識別する識別情報の図形表現を生成し、
    前記オブジェクトが前記ビデオ画像における前記平面上で移動した場合、当該オブジェクトのうちの1つ又は複数に前記識別情報を提供するために、前記ビデオ画像において前記識別情報を前記オブジェクトに重ねる
    画像処理装置。
  17. ビデオカメラによる或るシーンのビューから生成された、平面上に位置する複数のオブジェクトを含む前記シーンのビデオ画像を改善する改善方法であって、
    前記各オブジェクトから1つ又は複数の画像特徴を抽出するように、前記取得したビデオ画像を処理し、
    前記1つ又は複数の画像特徴と、前記ビデオ画像に含まれると想定されるオブジェクト例の所定のセットから抽出されたサンプル画像特徴とを比較し、
    前記画像特徴と前記サンプル画像特徴との前記比較により、前記オブジェクトを識別し、
    前記各オブジェクトを識別する、各オブジェクトについてのオブジェクト識別データを含み、且つ前記ビデオ画像の前記平面における前記オブジェクトの経時的な位置を示すオブジェクト経路データを生成し、
    前記オブジェクト経路データに基づく前記各オブジェクトの前記位置を、前記平面から当該平面の前記3次元モデルに投影するための投影マトリクスを計算し、
    前記オブジェクトが位置する前記平面の前記3次元モデルに対して、前記オブジェクト経路データを用いて、前記ビデオ画像における各オブジェクトを識別し、
    前記ビデオ画像における前記各オブジェクトを識別する識別情報のグラフィカル表現を生成し、
    前記オブジェクトが前記ビデオ画像における前記平面上で移動すると、当該オブジェクトのうちの1つ又は複数に前記識別情報を提供するために、前記ビデオ画像において前記識別情報を前記オブジェクトに重ねる
    改善方法。
  18. ビデオカメラによる或るシーンのビューから生成された、平面上に位置する複数のオブジェクトを含む前記シーンのビデオ画像を改善する画像処理装置であって、
    前記各オブジェクトから1つ又は複数の画像特徴を抽出するように、前記取得したビデオ画像を処理し、
    前記1つ又は複数の画像特徴と、前記ビデオ画像に含まれると想定されるオブジェクト例の所定のセットから抽出されたサンプル画像特徴とを比較し、
    前記画像特徴と前記サンプル画像特徴との前記比較により、前記オブジェクトを識別し、
    前記各オブジェクトを識別する、各オブジェクトについてのオブジェクト識別データを含み、且つ前記ビデオ画像の前記平面における前記オブジェクトの経時的な位置を示すオブジェクト経路データを生成し、
    前記オブジェクト経路データに基づく前記各オブジェクトの前記位置を、前記平面から当該平面の前記3次元モデルに投影するための投影マトリクスを計算し、
    前記オブジェクトが位置する前記平面の前記3次元モデルに対して、前記オブジェクト経路データを用いて、前記ビデオ画像における各オブジェクトを識別し、
    前記ビデオ画像における前記各オブジェクトを識別する識別情報の図形表現を生成し、
    前記オブジェクトが前記ビデオ画像における前記平面上で移動すると、当該オブジェクトのうちの1つ又は複数に前記識別情報を提供するために、前記ビデオ画像において前記識別情報を前記オブジェクトに重ねる
    データ処理部を具備する画像処理装置。
  19. ビデオカメラによる或るシーンのビューから生成された、平面上に位置する複数のオブジェクトを含む前記シーンの1つ又は複数のビデオ画像から生成された、前記平面上の前記オブジェクトを含むシーンの3次元表現を生成する生成装置であって、
    前記各オブジェクトから1つ又は複数の画像特徴を抽出するように、前記取得したビデオ画像を処理する手段と、
    前記1つ又は複数の画像特徴と、前記ビデオ画像に含まれると想定されるオブジェクト例の所定のセットから抽出されたサンプル画像特徴とを比較する手段と、
    前記画像特徴と前記サンプル画像特徴との前記比較により、前記オブジェクトを識別する手段と、
    前記各オブジェクトを識別する、各オブジェクトについてのオブジェクト識別データを含み、且つ前記ビデオ画像の前記平面における前記オブジェクトの経時的な位置を示すオブジェクト経路データを生成する手段と、
    前記オブジェクト経路データに基づく前記各オブジェクトの前記位置を、前記平面から当該平面の前記3次元モデルに投影するための投影マトリクスを計算し、当該投影マトリクスを用いて、前記オブジェクト経路データに従う前記オブジェクトの前記位置を、前記シーンの3次元モデルの平面に投影することにより、前記シーンの3次元モデルを生成する手段と
    を具備する生成装置。
JP2008229125A 2007-09-05 2008-09-05 画像処理装置及び方法 Pending JP2009064445A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GB0717272A GB2452508A (en) 2007-09-05 2007-09-05 Generating a three-dimensional representation of a sports game

Publications (1)

Publication Number Publication Date
JP2009064445A true JP2009064445A (ja) 2009-03-26

Family

ID=38640283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008229125A Pending JP2009064445A (ja) 2007-09-05 2008-09-05 画像処理装置及び方法

Country Status (5)

Country Link
US (1) US8284238B2 (ja)
EP (1) EP2034747A3 (ja)
JP (1) JP2009064445A (ja)
CN (1) CN101383910B (ja)
GB (1) GB2452508A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011065680A2 (en) * 2009-11-25 2011-06-03 Lg Electronics Inc. Managing multimedia contents using general objects
JP2012034365A (ja) * 2010-07-29 2012-02-16 Liberovision Ag コンピュータ実行画像処理方法および仮想再生ユニット
JP2013058132A (ja) * 2011-09-09 2013-03-28 Kddi Corp 被写体3次元領域推定方法およびプログラム
JP2013541096A (ja) * 2010-09-20 2013-11-07 クゥアルコム・インコーポレイテッド クラウド支援型拡張現実のための適応可能なフレームワーク
JP2014126906A (ja) * 2012-12-25 2014-07-07 Casio Comput Co Ltd 表示制御装置、表示制御システム、表示制御方法及びプログラム
WO2014207892A1 (ja) * 2013-06-28 2014-12-31 楽天株式会社 情報処理装置、情報処理方法、情報処理装置用プログラム、および、記録媒体
JP2017522640A (ja) * 2014-05-21 2017-08-10 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 受動的追跡要素を用いたアミューズメントパーク環境内の相互作用性の強化
KR101835818B1 (ko) * 2011-12-19 2018-03-07 주식회사 엔씨소프트 방송 객체의 3d 모델링 데이터를 이용한 방송 시청 시점 다각화 시스템 및 그 방법
JP2018056971A (ja) * 2016-09-30 2018-04-05 キヤノン株式会社 撮像システム、画像処理装置、画像処理方法、及びプログラム
JP2018163468A (ja) * 2017-03-24 2018-10-18 Kddi株式会社 前景抽出装置及びプログラム
JP2018180654A (ja) * 2017-04-04 2018-11-15 キヤノン株式会社 情報処理装置、画像生成方法及びプログラム
JP2018191251A (ja) * 2017-05-11 2018-11-29 キヤノン株式会社 情報処理システム、情報処理方法、およびプログラム
JP2018207336A (ja) * 2017-06-06 2018-12-27 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2019110582A (ja) * 2019-02-26 2019-07-04 Kddi株式会社 端末装置及び情報配信装置
KR20190085087A (ko) * 2016-11-30 2019-07-17 캐논 가부시끼가이샤 화상 처리 장치, 화상 처리 방법 및 저장 매체
US11082725B2 (en) 2017-02-27 2021-08-03 Kddi Corporation Video distribution system, terminal device, and video data distribution device
US11250619B2 (en) 2016-11-30 2022-02-15 Canon Kabushiki Kaisha Image processing apparatus and method

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2338278B1 (en) 2008-09-16 2015-02-25 Intel Corporation Method for presenting an interactive video/multimedia application using content-aware metadata
US20100186234A1 (en) 2009-01-28 2010-07-29 Yehuda Binder Electric shaver with imaging capability
GB2469074A (en) * 2009-03-31 2010-10-06 Sony Corp Object tracking with polynomial position adjustment
EP2241988B1 (en) * 2009-04-14 2018-07-25 Dassault Systèmes Method, program and product edition system for visualizing objects displayed on a computer screen
US8411107B2 (en) * 2009-08-18 2013-04-02 Autodesk, Inc. Adaptive snapping
GB0915588D0 (en) * 2009-09-07 2009-10-07 Sony Comp Entertainment Europe Image processing method, apparatus and system
KR20110027238A (ko) * 2009-09-10 2011-03-16 삼성전자주식회사 휴대용 단말기의 영상 데이터 처리 장치 및 방법
GB2475730A (en) * 2009-11-27 2011-06-01 Sony Corp Transformation of occluding objects in 2D to 3D image generation
KR20110116525A (ko) * 2010-04-19 2011-10-26 엘지전자 주식회사 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US9025030B2 (en) * 2010-06-08 2015-05-05 Cheryl Garcia Video system
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
CN101943575B (zh) * 2010-07-07 2012-08-29 深圳市银星智能科技股份有限公司 一种移动平台用测试方法和测试系统
US9375628B2 (en) * 2010-11-19 2016-06-28 Isolynx, Llc Associative object tracking systems and methods
US8401242B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
GB2489454A (en) * 2011-03-29 2012-10-03 Sony Corp A method of annotating objects in a displayed image
US9196180B2 (en) * 2011-05-25 2015-11-24 Koninklijke Philips N.V. Identification system for a surface
US9600933B2 (en) 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
US20130120668A1 (en) * 2011-11-16 2013-05-16 Seiko Epson Corporation Image projection system and control method for the image projection system
US20130226926A1 (en) * 2012-02-29 2013-08-29 Nokia Corporation Method and apparatus for acquiring event information on demand
TWI463451B (zh) * 2012-03-02 2014-12-01 Hon Hai Prec Ind Co Ltd 數位告示系統及其方法
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
US20130335528A1 (en) * 2012-05-15 2013-12-19 Board Of Regents Of The University Of Texas System Imaging device capable of producing three dimensional representations and methods of use
GB2517730A (en) * 2013-08-29 2015-03-04 Mediaproduccion S L A method and system for producing a video production
JP6324025B2 (ja) * 2013-11-05 2018-05-16 キヤノン株式会社 情報処理装置、情報処理方法
US9747680B2 (en) 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
US9390328B2 (en) * 2014-04-25 2016-07-12 Xerox Corporation Static occlusion handling using directional pixel replication in regularized motion environments
US10061058B2 (en) 2014-05-21 2018-08-28 Universal City Studios Llc Tracking system and method for use in surveying amusement park equipment
US9429398B2 (en) 2014-05-21 2016-08-30 Universal City Studios Llc Optical tracking for controlling pyrotechnic show elements
US10025990B2 (en) 2014-05-21 2018-07-17 Universal City Studios Llc System and method for tracking vehicles in parking structures and intersections
US9600999B2 (en) 2014-05-21 2017-03-21 Universal City Studios Llc Amusement park element tracking system
US10207193B2 (en) 2014-05-21 2019-02-19 Universal City Studios Llc Optical tracking system for automation of amusement park elements
US9433870B2 (en) 2014-05-21 2016-09-06 Universal City Studios Llc Ride vehicle tracking and control system using passive tracking elements
EP3176756A4 (en) * 2014-07-28 2017-08-09 Panasonic Intellectual Property Management Co., Ltd. Augmented reality display system, terminal device and augmented reality display method
AU2016277553B2 (en) * 2015-06-26 2022-02-17 Rovi Guides, Inc. Systems and methods for automatic formatting of images for media assets based on user profile
US10628009B2 (en) 2015-06-26 2020-04-21 Rovi Guides, Inc. Systems and methods for automatic formatting of images for media assets based on user profile
CN105427345B (zh) * 2015-11-30 2019-04-12 北京正安维视科技股份有限公司 基于相机投影矩阵的三维人流运动分析方法
US20170199511A1 (en) * 2016-01-12 2017-07-13 Globalfoundries Inc. Signal detection metholodogy for fabrication control
CN106991359B (zh) * 2016-01-20 2020-08-07 上海慧体网络科技有限公司 一种在全景模式下对球赛视频中篮球进行跟踪的算法
CN105872575A (zh) * 2016-04-12 2016-08-17 乐视控股(北京)有限公司 基于虚拟现实的直播方法及装置
US10241514B2 (en) * 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
CN105939481A (zh) * 2016-05-12 2016-09-14 深圳市望尘科技有限公司 一种交互式三维虚拟现实视频节目录播和直播方法
WO2017206097A1 (zh) * 2016-06-01 2017-12-07 深圳看到科技有限公司 全景视频制作方法
CN106651952B (zh) * 2016-10-27 2020-10-20 深圳锐取信息技术股份有限公司 基于足球检测跟踪的视频处理方法及装置
US10389935B2 (en) * 2016-12-13 2019-08-20 Canon Kabushiki Kaisha Method, system and apparatus for configuring a virtual camera
CN106803937B (zh) * 2017-02-28 2020-03-17 兰州理工大学 一种具有文本日志的双摄像头视频监控方法、系统和监控装置
CN108628337A (zh) * 2017-03-21 2018-10-09 株式会社东芝 路径生成装置、路径控制系统以及路径生成方法
CN107185195A (zh) * 2017-07-03 2017-09-22 哈尔滨体育学院 一种冰球赛后复盘装置与方法
JP6921686B2 (ja) * 2017-08-30 2021-08-18 キヤノン株式会社 生成装置、生成方法、及びプログラム
CA3061699C (en) 2017-12-14 2023-03-07 Canon Kabushiki Kaisha Generation device, generation method and non-transitory computer-readable meadium storing a program for generating a three-dimensional model from an image
US10922871B2 (en) 2018-01-19 2021-02-16 Bamtech, Llc Casting a ray projection from a perspective view
CN108654059B (zh) * 2018-04-23 2019-11-19 宁波市鄞州乐可机电科技有限公司 一种用以规范短道速滑运动的装置
CN109040619A (zh) * 2018-08-24 2018-12-18 合肥景彰科技有限公司 一种视频融合方法和装置
US10659698B2 (en) * 2018-09-19 2020-05-19 Canon Kabushiki Kaisha Method to configure a virtual camera path
WO2020061986A1 (en) * 2018-09-28 2020-04-02 Intel Corporation Multi-cam ball location method and apparatus
TWI696153B (zh) * 2018-11-20 2020-06-11 長庚大學 地板滾球比賽專用電子計分與賽況廣播系統及其方法
WO2020205671A1 (en) * 2019-03-29 2020-10-08 The Regents Of The University Of Michigan Peripersonal boundary-based augmented reality game environment
CN110284398A (zh) * 2019-05-31 2019-09-27 深圳市创想体育设施工程有限公司 多功能人造草坪
JP7401199B2 (ja) * 2019-06-13 2023-12-19 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
CN110960843A (zh) * 2019-12-23 2020-04-07 天水师范学院 一种篮球技巧辅助训练系统
EP4024335A1 (en) * 2021-01-05 2022-07-06 Leica Microsystems CMS GmbH Method, processing system and system for approximating image data
CN113011327A (zh) * 2021-03-18 2021-06-22 苏州市开鑫智慧教育科技有限公司 一种三维图形识别方法、装置、设备及存储介质
CN117274505B (zh) * 2023-11-20 2024-03-05 广州中鸣数码科技有限公司 图像映射到搭建图的显示方法及装置
CN117495986B (zh) * 2023-12-29 2024-04-16 宁波经纬数控股份有限公司 一种布料图案颜色采集方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149575A (ja) * 1997-09-16 1999-06-02 Canon Inc 画像処理方法及びその装置
JP2002518722A (ja) * 1998-06-12 2002-06-25 アニヴィジョン インコーポレイテッド スポーツ競技の仮想観覧形成方法及び仮想観覧形成装置
JP2004221870A (ja) * 2003-01-14 2004-08-05 Gen Tec:Kk プレーヤの動きを解析するための画像の編集方法等

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6104439A (en) * 1992-02-08 2000-08-15 Samsung Electronics Co., Ltd. Method and apparatus for motion estimation
IL108957A (en) * 1994-03-14 1998-09-24 Scidel Technologies Ltd Video sequence imaging system
JP3512992B2 (ja) * 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法
GB9706839D0 (en) * 1997-04-04 1997-05-21 Orad Hi Tec Systems Ltd Graphical video systems
EP0928460B1 (en) * 1997-07-29 2003-01-29 Philips Electronics N.V. Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system
US6970591B1 (en) * 1999-11-25 2005-11-29 Canon Kabushiki Kaisha Image processing apparatus
WO2001049028A1 (en) * 1999-12-27 2001-07-05 Diamondback Vision, Inc. Scene model generation from video for use in video processing
JP4501239B2 (ja) * 2000-07-13 2010-07-14 ソニー株式会社 カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
US7119833B2 (en) * 2002-12-03 2006-10-10 University Of Kentucky Research Foundation Monitoring and correction of geometric distortion in projected displays
CN100524364C (zh) * 2005-09-19 2009-08-05 北京灵图软件技术有限公司 用于三维模拟显示的三维体自动生成方法
US20070285554A1 (en) * 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US7675520B2 (en) * 2005-12-09 2010-03-09 Digital Steamworks, Llc System, method and computer program for creating two dimensional (2D) or three dimensional (3D) computer animation from video
JP4916167B2 (ja) * 2005-12-15 2012-04-11 キヤノン株式会社 指標識別方法及び指標識別装置
US20090009593A1 (en) * 2006-11-29 2009-01-08 F.Poszat Hu, Llc Three dimensional projection display
GB2444533B (en) 2006-12-06 2011-05-04 Sony Uk Ltd A method and an apparatus for generating image content

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149575A (ja) * 1997-09-16 1999-06-02 Canon Inc 画像処理方法及びその装置
JP2002518722A (ja) * 1998-06-12 2002-06-25 アニヴィジョン インコーポレイテッド スポーツ競技の仮想観覧形成方法及び仮想観覧形成装置
JP2004221870A (ja) * 2003-01-14 2004-08-05 Gen Tec:Kk プレーヤの動きを解析するための画像の編集方法等

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200000757007; 大野 義典 Yoshinori Ohno: 'サッカーゲームにおける選手とボールの追跡 Tracking Players and a Ball in Soccer Games' 情報処理学会研究報告 Vol.99 No.3 IPSJ SIG Notes Vol.99 No.3, 19990122, P.49-56, 社団法人情報処理学会 Information Processing Socie *
JPN6012031395; 大野 義典 Yoshinori Ohno: 'サッカーゲームにおける選手とボールの追跡 Tracking Players and a Ball in Soccer Games' 情報処理学会研究報告 Vol.99 No.3 IPSJ SIG Notes Vol.99 No.3, 19990122, P.49-56, 社団法人情報処理学会 Information Processing Socie *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011065680A3 (en) * 2009-11-25 2011-10-20 Lg Electronics Inc. Managing multimedia contents using general objects
WO2011065680A2 (en) * 2009-11-25 2011-06-03 Lg Electronics Inc. Managing multimedia contents using general objects
JP2012034365A (ja) * 2010-07-29 2012-02-16 Liberovision Ag コンピュータ実行画像処理方法および仮想再生ユニット
JP2015144474A (ja) * 2010-09-20 2015-08-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated クラウド支援型拡張現実のための適応可能なフレームワーク
JP2013541096A (ja) * 2010-09-20 2013-11-07 クゥアルコム・インコーポレイテッド クラウド支援型拡張現実のための適応可能なフレームワーク
US9633447B2 (en) 2010-09-20 2017-04-25 Qualcomm Incorporated Adaptable framework for cloud assisted augmented reality
US9495760B2 (en) 2010-09-20 2016-11-15 Qualcomm Incorporated Adaptable framework for cloud assisted augmented reality
JP2013058132A (ja) * 2011-09-09 2013-03-28 Kddi Corp 被写体3次元領域推定方法およびプログラム
KR101835818B1 (ko) * 2011-12-19 2018-03-07 주식회사 엔씨소프트 방송 객체의 3d 모델링 데이터를 이용한 방송 시청 시점 다각화 시스템 및 그 방법
JP2014126906A (ja) * 2012-12-25 2014-07-07 Casio Comput Co Ltd 表示制御装置、表示制御システム、表示制御方法及びプログラム
JP5894707B2 (ja) * 2013-06-28 2016-03-30 楽天株式会社 情報処理装置、情報処理方法、および、情報処理装置用プログラム
WO2014207892A1 (ja) * 2013-06-28 2014-12-31 楽天株式会社 情報処理装置、情報処理方法、情報処理装置用プログラム、および、記録媒体
JPWO2014207892A1 (ja) * 2013-06-28 2017-02-23 楽天株式会社 情報処理装置、情報処理方法、および、情報処理装置用プログラム
JP2017522640A (ja) * 2014-05-21 2017-08-10 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 受動的追跡要素を用いたアミューズメントパーク環境内の相互作用性の強化
JP2018056971A (ja) * 2016-09-30 2018-04-05 キヤノン株式会社 撮像システム、画像処理装置、画像処理方法、及びプログラム
KR20190085087A (ko) * 2016-11-30 2019-07-17 캐논 가부시끼가이샤 화상 처리 장치, 화상 처리 방법 및 저장 매체
KR102246010B1 (ko) * 2016-11-30 2021-04-29 캐논 가부시끼가이샤 화상 처리 장치, 화상 처리 방법 및 저장 매체
US11250619B2 (en) 2016-11-30 2022-02-15 Canon Kabushiki Kaisha Image processing apparatus and method
US11082725B2 (en) 2017-02-27 2021-08-03 Kddi Corporation Video distribution system, terminal device, and video data distribution device
JP2018163468A (ja) * 2017-03-24 2018-10-18 Kddi株式会社 前景抽出装置及びプログラム
JP2018180654A (ja) * 2017-04-04 2018-11-15 キヤノン株式会社 情報処理装置、画像生成方法及びプログラム
JP7080586B2 (ja) 2017-04-04 2022-06-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018191251A (ja) * 2017-05-11 2018-11-29 キヤノン株式会社 情報処理システム、情報処理方法、およびプログラム
JP2018207336A (ja) * 2017-06-06 2018-12-27 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2019110582A (ja) * 2019-02-26 2019-07-04 Kddi株式会社 端末装置及び情報配信装置

Also Published As

Publication number Publication date
US8284238B2 (en) 2012-10-09
US20090066784A1 (en) 2009-03-12
GB0717272D0 (en) 2007-10-17
EP2034747A3 (en) 2013-10-09
EP2034747A2 (en) 2009-03-11
CN101383910A (zh) 2009-03-11
CN101383910B (zh) 2012-02-22
GB2452508A (en) 2009-03-11

Similar Documents

Publication Publication Date Title
JP2009064445A (ja) 画像処理装置及び方法
JP2009077394A (ja) 通信システム及び通信方法
US8279286B2 (en) Apparatus and method of object tracking
US11998819B2 (en) Virtual environment construction apparatus, video presentation apparatus, model learning apparatus, optimal depth decision apparatus, methods for the same, and program
RU2498404C2 (ru) Способ и устройство для генерирования регистрационной записи события
JP5468933B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
US9437012B2 (en) Multiple-object tracking and team identification for game strategy analysis
US8805007B2 (en) Integrated background and foreground tracking
US8233721B2 (en) Image processing apparatus and method
US20110199372A1 (en) Method, client device and server
US20090141941A1 (en) Image processing apparatus and method for estimating orientation
WO2021016901A1 (en) Player trajectory generation via multiple camera player tracking
GB2452513A (en) Image recognition including modifying width of image
Martín et al. Automatic players detection and tracking in multi-camera tennis videos
Braslavskiy et al. Developing an AI-System for Analyzing Games of Team Sports Using VR/AR Technology
CN118842961A (en) Image display method, apparatus, readable storage medium, and computer program product
JP2022051532A (ja) 仮想環境を介してオブジェクトのパスを生成するための方法、装置、およびコンピュータプログラム製品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121002