JP4668500B2 - リアル・タイムで画像をビデオに挿入する方法および装置 - Google Patents
リアル・タイムで画像をビデオに挿入する方法および装置 Download PDFInfo
- Publication number
- JP4668500B2 JP4668500B2 JP2001537259A JP2001537259A JP4668500B2 JP 4668500 B2 JP4668500 B2 JP 4668500B2 JP 2001537259 A JP2001537259 A JP 2001537259A JP 2001537259 A JP2001537259 A JP 2001537259A JP 4668500 B2 JP4668500 B2 JP 4668500B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- target area
- target
- site
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
- H04N5/2723—Insertion of virtual advertisement; Replacing advertisements physical present in the scene by virtual advertisement
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Image Generation (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
(関連出願)
本願は、″METHOD AND APPARATUS FOR REAL TIME INSERTION OF IMAGES INTO VIDEO″(リアル・タイムで画像をビデオに挿入する方法および装置)と題し、1999年11月8日に出願された、同時係属中の米国予備特許出願第60/164,313号の優先権を主張する。その開示内容は、この言及により本願にも含まれるものとする。
【0002】
(発明の技術分野)
本発明は、一般的に、リアル・タイムで画像をビデオ画像ストリームに挿入し、当該画像が元のビデオ画像ストリームの一部であるかのように見せる分野に関する。
【0003】
(発明の背景)
広告のように、静的および動的画像をリアル・タイムでビデオに挿入するシステムや方法が多く提案されている。Sciamma Dominique に発行された一参考文献、FR−A−2730837号は、カメラ・サブシステムを駆動する動き制御システムを装備したカメラ・サブシステムを必要とする。この動きは、数学的に、カメラの移動、光学系の状態、および場面における物体の距離を特徴化する。動き制御システムはカメラの移動を指揮するので、それが制御する各カメラの状態がリアル・タイムでわかり、空間内におけるカメラの位置は、イベントが行われる前にわからなければならない。オクルージョンを考慮にいれると、画像をビデオにリアル・タイムで挿入するのは、複雑なプロセスであり、選手の陰に隠れてしまうパネルが常に変化するスポーツ・イベントのようなイベントの間、正確な測定およびリアル・タイムの応答が要求される。あいにく、 Sciamma Dominique は、その特許請求した発明を理解したり実施するために必要な詳細について、全く教示も示唆もしていない。加えて、本発明は、動き制御システムによってカメラを制御し、それによって移動を駆動する必要がない。代わりに、本発明は、人間のカメラ操作者によって生ずる実際の移動を監視する。別の参考文献として、WO−A−97 09822号(「ORAD出願」)は、その「装置が、さらに、少なくとも1つのクロマキー・カラーを検出するように動作するクロマキー・ユニットを含み、このクロマキーをクロマキー面のカラーに適合するように調節可能である」ことを必要とする。この技法は、ブルー・スクリーニング( blue-screening )として知られており、多くの場合、かかる照明が制御されていないスポーツ・イベントのようなイベントにおいて、非常に手間のかかるオクルージョンをリアル・タイムで処理する際の精度が低い。これら従来技術のシステムおよび方法には、種々の欠点や問題があり、その多くは、dicicco,etal.の米国特許第5,892,554号に詳細に記載されている。
【0004】
DiCicco,et al.が開示したものを含む最新のシステムおよび方法は、パターン認識技法に基づき、画像内における目標を識別する。ビデオ画像内部にある目標間の空間的関係を用いて、挿入画像の位置、サイズ、および方向を決定する。この手法にはいくつかの問題がある。第1に、これは比較的計算集約的であり、したがって比較的高価な機器を必要とする傾向がある。第2に、多数の画像を同時に同じフレームに挿入することが容易には行われない。第3に、画像から集めた二次元情報を基に三次元場面への画像挿入を導いている。三次元世界から二次元画像を作成するプロセスにおいて、三次元世界の物理的構造に関する情報が失われてしまう。その結果、挿入された素材は、現実的に見えない場合もある。
【0005】
(発明の概要)
本発明の目的は、リアル・タイムで静的および動的画像をビデオ画像ストリームに挿入するための方法および装置を改良し、従来技術の方法および装置に伴う1つ以上の問題を克服することにある。
【0006】
本発明による画像挿入システムは、サイト(site)内にある少なくとも1つのターゲット・エリアの三次元モデルを利用する。画像を挿入しようとするビデオ画像を発生したカメラの位置および角度から、このモデルをレンダリングする。レンダリングした画像を用いて、サイトの元のビデオ画像内にあるターゲット・エリアを識別し、予測背景画像をレンダリングし、ここではターゲット画像と呼ぶ画像をレンダリングし、ターゲット・エリアに挿入する。ターゲット・エリアは、例えば、ホッケー・リンク内のダッシャ・ボードのような、サイト内に存在する実際の表面とすることもできる。また、ターゲット・エリアは、モデル内でのみ規定され存在する、サイト内の想像上の表面、例えば、アリーナの天井から吊されている(仮装)国旗としてもよい。サイトの三次元モデルを用いてターゲット画像を発生することによって、得られた合成画像は一層現実的に見える。
【0007】
本発明の好適な実施形態では、サイト内で選択したターゲット画像の三次元モデルを規定し、コンピュータ援用設計(CAD)ソフトウエアを用い、ビデオを発生したカメラの位置および視野に基づいてレンダリングを行う。モデルを簡素に保つことによって、レンダリングは計算集約的である必要がなくなる。挿入するターゲット画像を、例えば、表面テクスチャ・マップとして、モデル内に配置する。カメラの視野を規定する十分な情報を、ビデオ内のフレーム毎に収集する。モデルのレンダリングは、予測背景画像、および挿入するターゲット画像を含む。レンダリングから容易にマスクを発生し、ターゲット・エリア内にある画像の元の部分を除去し、そのエリアにターゲット画像を挿入する。カメラの視野に関する情報は、カメラまたはカメラ取付部上のセンサを用いて収集し、ビデオ信号上に同期的にエンコードすることができる。したがって、画像の挿入は、下流、たとえば、放送されるイベントのビデオ・フィードを受信するテレビジョン・ネットワークの地方支局において行うことができる。下流システムを設けるとすれば、サイトのモデルのみを備えればよく、モデルに付加される異なるターゲット画像のデータベースを有することができる。したがって、挿入された広告は、地方の視聴者に合わせて変更することができる。加えて、カメラの視野に関する情報がビデオ信号上にエンコードされ、したがってビデオ信号が得られればいつでもどこでも使用できるので、後にビデオ信号を再放送する場合、異なるターゲット画像を挿入することができる。このように、放送時間に合わせて、広告の挿入を変更したり、あるいは再放送することができる。
【0008】
本発明のこれらおよび更に別の目的および利点は、添付図面を参照しながら行う、以下の本発明の好適な実施形態の説明から明らかとなろう。
【0009】
(図面の簡単な説明)
本発明、その目的および利点を一層よく理解するために、これより、添付図面に関連付けながら以下の説明を参照する。
【0010】
(図面の詳細な説明)
以下の説明では、同様の番号は同様の要素を示すこととする。
本発明によるリアル・タイム画像挿入ビデオ・システムの一用途は、スタジオ、アリーナ、陸上競技場、コース、あるいはその他のスポーツまたは娯楽行為地における生放送にある。したがって、以下ではこの用途に関連付けてかかるシステムを説明する。この画像挿入システムは、この用途において用いると特に有益であるが、他の用途でも使用可能である。
【0011】
図1を参照すると、リアル・タイム画像挿入ビデオ・システム100が、その主要機能構成要素によって概略的に示されている。これらの構成要素は、ハードウエアおよびソフトウエアの組み合わせとして実施されており、特に注記しない限り、個別のハードウエアまたはソフトウエア構成要素であることを表したり、いずれかの特定の実施態様に限定することを意図する訳ではない。画像挿入システム100は、ビデオ生成システム102からのビデオ信号を受信する。ビデオ生成システム102は、ビデオ・カメラ・システム104または複数のその他のカメラ・システム106の1台からビデオ信号を選択する。次に、この選択されたビデオ信号は、広告のような画像の挿入のために画像挿入システム100に供給される。画像挿入システムは、例えば、可動生成設備において、ビデオ生成システムと共に設置してもよい。また、中央生成設備、または地方テレビジョン局やケーブル運営会社のような、更に下流側に離れて設置してもよい。あるいは、画像挿入は、ビデオ信号の選択前に、例えば、生成システムに供給する前に、各カメラ・システムからのビデオ信号に画像を挿入することによって行ってもよい。
【0012】
画像挿入システム100の動作について、図2のフロー図に関連付けて更に詳しく説明する。図2は、例えば、画像挿入システム100上で行うことができる画像挿入プロセスを示す。
【0013】
ここで図1および図2を参照すると、カメラ・システム104は、ステップ202において、テレメトリ・データ(telemetry data)と共にエンコードされたビデオ信号を発生する。テレメトリ・データは、あるサイトの基準の既知のまたは予め規定した三次元フレームに関してカメラがどこを向いているかを少なくとも示す。カメラ・システムは、カメラ取付部110に接続されている従来からのビデオ・カメラ108を含む。取付部は、方位角およびふ角、またはカメラ108の焦点軸方向を規定する座標を示すそれ以外の情報を発生するセンサを含む。このテレメトリ情報は、テレメトリ・プロセッサおよびエンコーダ112に供給される。カメラ108、および取り付けられているその他のセンサも、テレメトリ.プロセッサおよびエンコーダに、カメラのレンズの焦点距離および絞りを示す追加のテレメトリ情報を供給する。焦点距離は、レンズのズーム度と共に変化する。絞りは、光状態の変化と共に変化する。オプションとして、全地球衛星測地システム114も、テレメトリ処理およびエンコーダに、カメラの位置を、その経度、緯度およびふ角に関して示す情報を供給してもよい。カメラの位置は容易に判定することができ、既定の場所に固定させ続けるのではなく、移動させてもよい。カメラが供給するビデオ・タイミング信号を用いて、テレメトリ・プロセッサおよびエンコーダは、カメラが発生するビデオ画像と同期可能なデータ信号を発生する。このデータ信号は、カメラが発生するビデオ信号のフレーム毎に、テレメトリ情報をエンコードする。ビデオ/テレメトリ結合部116は、テレメトリ・プロセッサの一部としてもよく、データ信号をビデオ信号と結合する。テレメトリ情報をビデオ信号内に同期的にエンコードすることにより、十分な情報が供給され、カメラ・システムのいずれの下流地点においても、画像を信号に挿入することが可能となる。
【0014】
一旦ビデオ挿入システム100がエンコード・ビデオ信号を受け取ると、ビデオ/テレメトリ分離部118が、ステップ204で示すように、ビデオ信号内の特定の画像に対するテレメトリ・データを抽出する。更に、ビデオ信号はビデオ・デコーダ/バッファ119によってデコードされ、ビデオ信号の各フレームからのビデオ画像を抽出し格納する。カメラが発生したビデオ画像の一例を図4にビデオ画像400として示す。この特定例は、アイス・ホッケーの試合である。これは、ダッシャ・ボード(dasher board)402、第1ホッケー選手404、および第2ホッケー選手406を含む。画像挿入システム100の動作および図2の画像挿入プロセスについて、画像400を参照しながら以下に説明する。しかしながら、画像挿入プロセスは、少なくともフレーム間で画像が変化するまでは、連続する各フレーム内のビデオ画像に対して繰り返される。
【0015】
制御部120は、ソフトウエアおよびハードウエア・エンティティ、またはエンティティの集合体を表し、画像挿入システム100の機能構成要素内で行われるプロセスを調整する。テレメトリ・データ、およびサイトにおいて行われるイベントを記述するその他の情報、例えば、野球の試合のインニング数、得点、またはスポーツの試合の流れに関するその他の情報を用いて、制御部120は、ステップ206において、データベース122内に予め既定されている画像挿入規則にアクセスし、テレメトリ・データ内に埋め込まれているカメラ識別子に少なくとも部分的に基づいて、ビデオ信号のフレーム内にある特定のビデオ画像に挿入する1つまたは複数の画像(ここではターゲット画像と呼ぶ)を決定する。ターゲット画像は、例えば、元のビデオ画像内において、予め選択された面(実在のまたは想像上の面)上に挿入される広告とすることもできる。ターゲット画像を挿入するサイトのエリアは、それが実在する物体の表面であっても、あるいは想像上の表面または物体として既定されていても、ターゲット・エリアと呼ぶ。規則を予め規定しておくことによって、既定の判断基準に応じて、予め選択したターゲット画像を自動的に挿入することが可能となる。例えば、ターゲット画像は、既定の時間または期間ごとに、あるいはテレビジョン放送されているイベントのステータスに基づいて変化することができる。例えば、広告ディレクタは、ディレクタ・コンソール123を用いて、イベント中に挿入プロセスを監視し制御することもできる。コンソールは、コマンドやデータを制御部120に入力するソフトウエアおよびハードウエアを含む。例えば、サイトにおけるイベントの状態に関する情報がデータベースから得ることができない場合、ディレクタはかかる情報をシステムに供給することができる。また、ディレクタはデータベース122内にある画像挿入規則を無視し、手作業で挿入するターゲット素材を選択したり、規則を動的に変更することもできる。また、広告ディレクタは、ターゲット画像を維持するデータベースの設定や維持を行うこともできる。広告ディレクタのコンソールはモニタを含むので、ディレクタは、ターゲット画像の挿入前に、ビデオを監視することができる。また、ディレクタのコンソールによって、ディレクタは、以下で説明する、基準画像およびターゲット画像のCADモデルを格納するデータベースを変更したり、更に、ターゲット挿入プロセスのステップを監視し調節することもできる。ターゲット挿入プロセスには、ターゲット画像および最終ビデオ画像のレンダリングが含まれるが、これについては以下で説明する。
【0016】
図2のプロセスのステップ208において、ビデオ画像内部のターゲット・エリア毎に、サイトにおける既定のターゲット・エリア内の基準画像、およびターゲット画像を、サイトのターゲット・エリアの既定基準モデルに基づいてレンダリングする。いずれの所与のビデオ画像においても、1つよりも多いターゲット・エリアを規定し表示することができる。好ましくは、モデルは、コンピュータ援用設計(CAD)モデルであり、ターゲット・エリアの表面(実在のまたは想像上の)を数学的に定義することによって、いずれの角度からもモデルを画像内にレンダリングすることを可能にする。ビデオ信号から抽出したテレメトリ・データによって、ビデオ画像を発生したカメラの視野とほぼ同じ視点から、モデルをレンダリングすることが可能となる。このレンダリングは、実際には、ビデオ画像と整合したサイトのターゲット・エリアの合成画像であり、ターゲット画像のビデオ画像をターゲット・エリアへ挿入する際に導くために用いられる。カメラ位置がフレーム間で変化する場合、このレンダリングはかかるフレーム毎に行われる。しかしながら、フレーム間で変化しない場合、以前のフレームに対するレンダリングを用いればよい。
【0017】
手短に図4、図5、および図6も参照すると、図5の画像502は、図4に示すビデオ画像を取り込んだサイトの既定モデルのレンダリングの一例である。コンピュータ上で実行する標準的な市販のCADソフトウエアとすることができるコンピュータ援用設計(CAD)システムが、既定モデルからレンダリングを発生する。尚、レンダリングは、図4のビデオ画像と同じ位置およびカメラ角度から行うのではないことを注記しておく。この例におけるターゲット・エリアは、ダッシャ・ボード402の表面の既定エリア504である。また、モデルは、ターゲット・エリアとして想像上の表面を既定しておくことも可能である。例えば、モデルは、ホッケー・アリーナの天井から吊された想像上の国旗(banner)の位置を規定してもよい。ターゲット・エリアの表面は、実在しても想像上であっても、平面である必要はない。この図では、ターゲット・エリアは、基準画像と共にレンダリングされている。基準画像とは、オクルージョン処理(occlusionprocessing)に用いられる実際のサイト内にあるターゲット・エリア表面の外観(appearance)である。基準画像は、例えば、レンダリングされる画像に挿入するビット・マップ画像として格納することができる。この特定例では、基準画像は白黒の壁である。しかしながら、ターゲット・エリア表面に取り付けた広告とすることも可能である。サイトの基準モデルは、各ターゲット・エリアの基準画像と共に、図1に示す第1CADファイル124に格納される。また、画像挿入システム100は、ターゲット・エリアにターゲット画像を埋め込んだモデルを、同様に図1に示した第2CADファイル126に格納する。図6の画像602は、図5と同じモデルのレンダリングであるが、ターゲット画像604がターゲット・エリア504に挿入されている。
【0018】
再度図1および図2を参照すると、CADモデル・レンダラ128は、図4に示したビデオ画像400に対するカメラからのテレメトリ・データに基づいて、CADファイル124に格納されているCADモデルのベースライン画像800をレンダリングする。図7のベースライン画像700は、ターゲット・エリア504に挿入されたターゲット・エリア基準画像506を含む。前述のように、テレメトリ・データは、ビデオ画像を捕獲したカメラの識別、角度、焦点距離および絞りの設定を示す。また、カメラの場所が固定されていない場合、カメラの位置を示すこともできる。同様に、同じテレメトリ・データを用いて、CADモデル・レンダラ130は、図8に示す画像800を発生する。画像800は、ファイル126に格納されているCADモデルのレンダリングを含む。この画像は、ターゲット・エリア502に挿入されたターゲット素材を含む。CADモデル・レンダラ128および140は、別々の構成要素ではなく、同じレンダリング・エンジン132の異なるレンダリング・プロセスまたはインスタンスを表す。これらのプロセスは、順序を特定せずに、順次行うことも、同時に行うことも可能である。しかしながら、レンダラは、同じコンピュータ上、または必要であれば異なるコンピュータ上において、別個のCADレンダリング・エンジンを用いて実施することも可能である。
【0019】
また、図2に示す画像挿入プロセスのステップ208は、ターゲット・エリア・マスクを発生することも含む。図9は、図4のビデオ画像例400に対するマスク画像900を示す。ターゲット・エリア・マスクは、モデル・レンダラ128が発生する基準画像を用いて、マスク・ビルダ(mask builder)134によって発生する。マスクを発生するには、ターゲット・エリア内の全画素を既定値に設定し、ターゲット・エリア外にある全ての画素を別の既定値に設定する。マスク画像900では、空白エリアが、ターゲット・エリア502を既定する白いエリアを包囲している。
【0020】
ターゲット・エリア・マスクは、図2のオクルージョン処理ステップ210との関連で、いくつかの目的に用いられる。その詳細を図3のフロー図に示す。ここで図1および図3を参照すると、ターゲット・マスクは、ステップ302において、背景/ターゲット・エリア基準画像分離部138によって用いられ、モデル・レンダラ128が発生したベースライン画像内にある各ターゲット・エリア基準画像を分離またはマスクする。図7に示す例では、マスクを用いて、ベースライン画像700内にあるターゲット・エリア基準画像506を、画像の残り部分から分離し、その結果、図10に示すマスク・ベースライン画像700aが得られる。ターゲット・マスクは、ステップ304において用いられ、元のビデオ画像内において、ターゲット・エリアを特定し、当該画像の残りの非ターゲット・エリアから分離する。非ターゲット・エリアを背景と呼ぶ。この機能を実行するのは、背景/ターゲット・エリア分離部136である。図11および図12は、図4に示す元のビデオ画像400においてターゲット・エリアから背景を分離した結果得られた2つの画像を示す。図11は、マスク背景画像400aであり、空白であるターゲット・エリア502内の部分を除いて、元のビデオ画像の全てを含む。図12は、マスク・ターゲット・エリア画像400bであり、ターゲット・エリア502に該当する、元の画像400の部分1200を含む。また、マスクは、背景/ターゲット画像分離部140が、モデル・レンダラ130によってレンダリングされた画像内においてターゲット画像を分離するためにも用いられる。図8に示す例では、ターゲット画像604が画像800の残り部分から分離され、図13に示すマスク・ターゲット画像レンダリング800aが得られる。これはターゲット画像802を含む。画像分離部136、138および140は、単一の画像分離システム142を用いて実施することができる。
【0021】
ステップ306および308は、オクルージョン分離部144によって実行する。図4のビデオ画像の例400では、第1ホッケー選手の一部が、ダッシャ・ボード402の一部を覆っており、この部分にターゲット素材を挿入する。ターゲット素材を挿入するために、ターゲット・エリア内にあるホッケー選手の部分(これをオクルージョン(occulusion)と呼ぶ)を、元の画像のターゲット・エリアの残り部分から分離し、一旦ターゲット画像をビデオ画像に挿入して、ターゲット画像上に位置付けなければならない。この分離を行う際、オクルージョン分離部144は、ステップ306において、マスク・ターゲット・エリア画像をマスク基準画像と比較する。いずれの相違もオクルージョン、即ち、カメラと、画像を挿入しようとするターゲット・エリアの規定表面との間にある物体の画像であると想定する。マスク基準画像と、カメラにおける電子ノイズによって混入するマスク・ターゲット画像との間の小さな相違は、例えば、小領域抑制のような、画像処理の分野において一般に実用化されている多数の技法を用いれば対処可能である。テレメトリ測定システムにおける誤差によるターゲット・エリアの不正確な位置決めは、一般に実用化されているターゲット追跡技法、例えば、カルマン・フィルタ処理を用いれば対処可能である。図示の例では、図12に示すマスク・ターゲット・エリア画像400bを、図10に示すマスク・ベースライン画像700aと比較する。図14に示す、得られたオクルージョン画像400cは、オクルージョンのみを含む。即ち、ターゲット・エリアに該当する、ホッケー選手404の部分である。画像の残り部分は空白となっている。また、オクルージョン分離部は、ステップ308においてオクルージョン・マスクを作成する。オクルージョン・マスクは、オクルージョンを構成する、元の画像内の部分を識別する。この例では、図14のオクルージョン画像400cからオクルージョン・マスクを発生する。
【0022】
これより図1および図2のみを参照する。マスク背景画像、マスク・ターゲット画像、およびオクルージョン画像を、ステップ212において画像結合部146によって結合し、複合画像を形成する。複合画像内では、ターゲット素材が元の画像内に挿入されている。図示の例では、図11に示すマスク背景画像400a、および図13に示すマスク・ターゲット画像800aを最初に結合し、図15に示す画像400dを発生する。次いで、オクルージョン画像400cを画像400dと結合し、図16に示す最終画像400eを生成する。最終画像は、ターゲット・エリア502に挿入されたターゲット画像604を含む。
【0023】
図2の画像挿入プロセスのステップ214において、ビデオ・バッファおよびエンコーダ148によって、最終画像をビデオ信号のフレームに挿入する。また、ビデオ信号は、オクルージョン分離部が発生したオクルージョン・マスク、ビデオを元々発生したカメラの位置および角度を記述するテレメトリ、ならびに、オプションとして、試合の状態を記述するその他の情報と共にエンコードされている。これによって、下流に位置する画像挿入システムは、画像内のオクルージョンを分離し、上流で挿入されたターゲット画像を異なるターゲット画像と交換するのが一層容易となる。例えば、ターゲット画像が広告であるとすると、地方の支局が、元の広告の代わりに、特定地域の市場に合わせた広告を挿入することができる。また、特定のビデオ画像に対するテレメトリ情報も信号に同期的に挿入し、下流での画像挿入を可能にする。挿入された情報は、暗号化することによって、意図した目的以外の使用を防止するようにしてもよい。
【0024】
図17は、下流の画像挿入プロセスを示す。下流位置で用いる画像挿入システムは、図1に示したものと実質的に同様である。下流の画像挿入処理は、必要であれば、ステップ1702から開始し、ビデオ信号のフレームから、ビデオ画像、および当該画像に対する同期化テレメトリ情報を抽出する。このステップは、図2におけるステップ204と同様に実行する。ステップ1704において、フレームからオクルージョン・マスクを抽出する。ステップ1706において、テレメトリ・データに含まれるカメラの識別に基づいて、個別(local)挿入規則にアクセスする。このステップは、図2のステップ206と同様に実行する。図2のプロセス・ステップ208と同様に、局在画像挿入システムは、ステップ1708において、ターゲット画像を含むサイトの画像を、当該画像を含むサイトの既定のモデルに基づいてレンダリングする。これは、上流で用いたサイトの基本モデルと同一である。しかしながら、異なるターゲット画像をこれに埋め込んでもよい。次に、ターゲット・エリア・マスクを発生する。ステップ1710において、オクルージョン処理および画像結合を行う。これは、多くの点において、図2のオクルージョン処理ステップ210および212と同様である。抽出したオクルージョン・マスクを用いて、受信したビデオ画像のマスク背景画像を発生する。図2のプロセスとは異なり、オクルージョン画像を作成するために、マスク基準画像を発生する必要はない。マスク背景画像およびマスク・ターゲット画像を結合し、次いでこの画像にオクルージョン画像を結合し、最終的な複合画像を発生する。次に、ステップ1712において、複合画像をビデオ信号上のフレームに挿入し、送信する。
【0025】
前述の説明は、本発明の代表的な実施形態を参照して行った。しかしながら、本発明の範囲から逸脱することなく、実施形態の変更または変形も可能である。本発明の範囲は、添付した特許請求の範囲に既定されており、これによってのみ限定されることとする。
【図面の簡単な説明】
【図1】 リアル・タイム画像ビデオ挿入システムを示す概略図。
【図2】 カメラが発生したビデオにリアル・タイム画像を挿入するプロセスのフロー図。
【図3】 図2のプロセスにおけるオクルージョン処理ステップのプロセスのフロー図。
【図4】 ターゲット画像の挿入前にビデオ・カメラが発生したビデオ画像の一例。
【図5】 図4のビデオ画像を捕獲したサイトのモデルをレンダリングし、基準画像を含むターゲット・エリアを規定することを示す図。
【図6】 図5のサイトのモデルをレンダリングし、予め定義してあるターゲット・エリアに挿入することを示す図。
【図7】 前述のサイトのモデルのレンダリングを含み、図4のビデオ画像を発生したカメラと同じ位置および角度から基準画像をレンダリングした画像を示す図。
【図8】 前述のサイトのモデルのレンダリングを含み、図4のビデオ画像を発生したカメラと同じ位置および角度からターゲット画像をレンダリングした画像を示す図。
【図9】 図7の画像から発生したターゲット・エリア処理マスクを示す図。
【図10】 図9のマスクを図7の画像に適用することによって発生した、マスク基準画像を示す図。
【図11】 図9のターゲット・エリア・マスクを図4の元のビデオ画像に適用することによって発生した、マスク背景画像を示す図。
【図12】 図9のターゲット・エリア・マスクを図4の元のビデオ画像に適用することによって発生した、マスク・ターゲット・エリア画像を示す図。
【図13】 図9のターゲット・エリア・マスクを図8のターゲット画像に適用することによって発生した、マスク・ターゲット画像を示す図。
【図14】 図12のマスク・ターゲット・エリア画像を図10のマスク基準画像と比較することによって発生したオクルージョン画像を示す図。
【図15】 図13のマスク・ターゲット画像および図11のマスク背景画像を組み合わせることによって発生した画像を示す図。
【図16】 図14のオクルージョン画像を図15の画像と組み合わせることによって発生した、挿入ターゲット画像を含む、最終的な複合画像を示す図。
【図17】 第1画像挿入プロセスの下流において、リアル・タイムで画像をビデオに挿入するプロセスを示す図。
Claims (12)
- カメラによって捕獲した実三次元サイトの画像ストリームに、ターゲット画像を挿入する方法であって、
カメラによって捕獲した実三次元サイトの元画像のストリームを受信するステップを有し、
実三次元サイトの既定三次元モデル内の少なくとも一つのターゲット・エリアを識別するステップを有し、ここで、前記既定三次元モデルは前記実三次元サイトの全てよりも小さく、
前記画像ストリーム内の元画像の各々について、
少なくとも1つのターゲット・エリア毎に、2次元のターゲット画像をレンダリングするステップを有し、ここでこのステップは、前記実三次元サイトの前記既定三次元モデル内にある前記少なくとも1つのターゲット・エリアの少なくとも1つの既定三次元モデルと、かつ前記実三次元サイトの前記カメラ位置および指向方向のデータと、に基づいて行なわれ、かつ
マスク背景エリアを、前記少なくとも1つのターゲット・エリアから分離して、元画像のなかに決定するステップを有し、ここでこのステップは、前記実三次元サイトの既定三次元モデル内にあり、かつ前記カメラ位置および指向方向を用いて2次元にレンダーされた、前記少なくとも1つのターゲット・エリアの既定三次元モデルを用いて、行なわれ、かつ
前記元画像のマスク背景エリアと、前記少なくとも1つのターゲット画像とを、結合して、出力画像を形成するステップを有する、
前記方法。 - 請求項1記載の方法において、前記画像内の少なくとも1つのターゲット・エリアを識別するステップは、
カメラ・パラメータを受信するステップであって、該カメラ・パラメータが、前記カメラの指向方向を示すパラメータを含む、ステップと、
前記カメラ・パラメータに基づいて、前記カメラ位置から前記既定三次元モデルをレンダリングするステップと、
前記画像内における前記ターゲット・エリアを規定するためのレンダリングマスクを生成するステップと、
から成る方法。 - 請求項2記載の方法において、前記カメラ・パラメータは、前記実三次元サイト内における前記カメラの位置を示すパラメータを含む方法。
- 請求項2記載の方法において、前記カメラ位置を前記既定三次元モデル内に予め規定する方法。
- 請求項1記載の方法において、少なくとも1つのターゲット・エリアに対して、ターゲット画像をレンダリングするステップは、
カメラ・パラメータを受信するステップであって、該カメラ・パラメータが、前記カメラの指向方向を示すパラメータを含む、ステップと、
少なくとも部分的に前記カメラ・パラメータに基づいて、前記既定三次元モデルをレンダリングするステップと、
から成る方法。 - 請求項5記載の方法において、前記カメラ位置を前記既定三次元モデル内に予め規定する方法。
- 請求項5記載の方法において、前記カメラ・パラメータは、前記実三次元サイト内における前記カメラの位置を示すパラメータを含む方法。
- 請求項7記載の方法において、前記カメラが発生したビデオ信号上に、前記カメラ・パラメータをエンコードする方法。
- 請求項1記載の方法において、更に前記少なくとも一つのターゲット・エリアの画像内においてオクルージョンを規定するステップを有し、
前記少なくとも一つのターゲット・エリアの画像内においてオクルージョンを識別するステップは、
前記少なくとも1つのターゲット・エリアの各々に挿入した基準画像を用いて、前記実三次元サイトの前記既定三次元モデルをレンダリングするステップと、
前記基準画像を前記元画像内のターゲット・エリアと比較するステップと、
を含む方法。 - 請求項1記載の方法であって、更に、前記出力画像およびカメラ・パラメータを出力ビデオ信号上にエンコードするステップを含み、前記カメラ・パラメータが、前記カメラの指向方向を示すパラメータを含む方法。
- カメラによって捕獲した実三次元サイトのビデオに、ターゲット画像を挿入する装置であって、この装置は、
前記実三次元サイトの既定三次元モデル内の少なくとも一つのターゲットエリアを識別する制御器を有し、ここで、前記既定三次元モデルは前記実三次元サイトの全てよりも小さく、更に
少なくとも1つのターゲット・エリア毎に、2次元のターゲット画像をレンダリングするモデル・レンダラを有し、ここでこのレンダリングは、前記実三次元サイトの前記既定三次元モデル内の1つのターゲット・エリアの1つの既定参照三次元モデルに基づき、かつ前記実三次元サイトのカメラ位置および指向方向を用いて行なわれ、
マスク背景エリアを、前記ターゲット・エリアから分離して、元画像のなかに決定する画像分離部を有し、ここでこの画像分離は、前記実三次元サイトの前記既定三次元モデル内の、前記少なくとも1つのターゲット・エリアの前記既定三次元モデルのレンダリングにより行なわれ、かつ
前記元画像のマスク背景エリアと、前記少なくとも1つのターゲット画像とを結合して、出力画像を形成する画像結合部を有する前記装置。 - 請求項11記載の装置であって、更に、
画像内にターゲット・エリアを限定する為のレンダリング・マスクを発生するマスク・ビルダーを有し、
ここで前記画像分離部は、前記レンダリング・マスクを、前記マスク背景エリアの決定のために用いるのに適合している前記装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16431399P | 1999-11-08 | 1999-11-08 | |
US60/164,313 | 1999-11-08 | ||
PCT/US2000/030650 WO2001035641A1 (en) | 1999-11-08 | 2000-11-07 | Method and apparatus for real time insertion of images into video |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003514454A JP2003514454A (ja) | 2003-04-15 |
JP4668500B2 true JP4668500B2 (ja) | 2011-04-13 |
Family
ID=22593934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001537259A Expired - Lifetime JP4668500B2 (ja) | 1999-11-08 | 2000-11-07 | リアル・タイムで画像をビデオに挿入する方法および装置 |
Country Status (11)
Country | Link |
---|---|
EP (2) | EP1250803B1 (ja) |
JP (1) | JP4668500B2 (ja) |
AT (1) | ATE401739T1 (ja) |
AU (1) | AU780494B2 (ja) |
BR (2) | BRPI0015403B1 (ja) |
CA (1) | CA2393803C (ja) |
DE (1) | DE60039534D1 (ja) |
ES (1) | ES2307538T3 (ja) |
IL (2) | IL149543A0 (ja) |
MX (1) | MXPA02004712A (ja) |
WO (1) | WO2001035641A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4136420B2 (ja) * | 2002-03-29 | 2008-08-20 | キヤノン株式会社 | 情報処理方法および装置 |
JP4401728B2 (ja) | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 複合現実空間画像生成方法及び複合現実感システム |
JP2006333420A (ja) * | 2005-05-27 | 2006-12-07 | Shinzo Ito | スポーツの映像を検出した検出映像とcm映像を組合せテレビ放送用のテレビ放送映像信号を生成する方法およびテレビ放送映像信号を含む信号を送信する装置 |
WO2010026496A1 (en) * | 2008-09-07 | 2010-03-11 | Sportvu Ltd. | Method and system for fusing video streams |
KR20110067268A (ko) | 2009-12-14 | 2011-06-22 | 삼성전자주식회사 | 디스플레이장치 및 그 정합영상의 생성방법 |
CN105191287B (zh) * | 2013-03-08 | 2019-06-21 | 迪基特阿雷纳股份公司 | 替换视频流中的对象的方法及计算机程序 |
GB2529182B (en) * | 2014-08-12 | 2019-03-27 | Supponor Oy | Method and apparatus for dynamic image content manipulation |
US9807316B2 (en) * | 2014-09-04 | 2017-10-31 | Htc Corporation | Method for image segmentation |
CN110213629B (zh) * | 2019-06-27 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 一种信息植入方法、装置、服务器及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09510336A (ja) * | 1994-03-14 | 1997-10-14 | サイテックス・アメリカ・コーポレイション | 画像合成システム及び画像合成方法 |
WO1999048285A1 (fr) * | 1998-03-18 | 1999-09-23 | Nippon Television Network Corporation | Systeme et procede de remplacement d'image |
JPH11512263A (ja) * | 1995-09-08 | 1999-10-19 | オラド ハイ−テック システムズ リミテッド | ビデオ画像におけるビルボードの自動電子式置換方法および装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4084184A (en) * | 1976-07-26 | 1978-04-11 | Crain David W | Tv object locator and image identifier |
US5903317A (en) * | 1993-02-14 | 1999-05-11 | Orad Hi-Tech Systems Ltd. | Apparatus and method for detecting, identifying and incorporating advertisements in a video |
FR2730837B1 (fr) * | 1995-02-22 | 1997-05-30 | Sciamma Dominique | Systeme d'insertion en temps reel ou differe de panneaux publicitaires ou informationnels virtuels dans des emissions televisees |
US5892554A (en) | 1995-11-28 | 1999-04-06 | Princeton Video Image, Inc. | System and method for inserting static and dynamic images into a live video broadcast |
GB9514313D0 (en) * | 1995-07-13 | 1995-09-13 | Beattie Robert J | Live-ads |
US5914748A (en) * | 1996-08-30 | 1999-06-22 | Eastman Kodak Company | Method and apparatus for generating a composite image using the difference of two images |
US5917553A (en) * | 1996-10-22 | 1999-06-29 | Fox Sports Productions Inc. | Method and apparatus for enhancing the broadcast of a live event |
-
2000
- 2000-11-07 BR BRPI0015403-2A patent/BRPI0015403B1/pt unknown
- 2000-11-07 EP EP00978415A patent/EP1250803B1/en not_active Expired - Lifetime
- 2000-11-07 JP JP2001537259A patent/JP4668500B2/ja not_active Expired - Lifetime
- 2000-11-07 WO PCT/US2000/030650 patent/WO2001035641A1/en active IP Right Grant
- 2000-11-07 BR BR0015403-2A patent/BR0015403A/pt not_active IP Right Cessation
- 2000-11-07 ES ES00978415T patent/ES2307538T3/es not_active Expired - Lifetime
- 2000-11-07 CA CA2393803A patent/CA2393803C/en not_active Expired - Lifetime
- 2000-11-07 DE DE60039534T patent/DE60039534D1/de not_active Expired - Lifetime
- 2000-11-07 EP EP08012721.0A patent/EP1981268B1/en not_active Expired - Lifetime
- 2000-11-07 AU AU15881/01A patent/AU780494B2/en not_active Expired
- 2000-11-07 IL IL14954300A patent/IL149543A0/xx active IP Right Grant
- 2000-11-07 AT AT00978415T patent/ATE401739T1/de not_active IP Right Cessation
- 2000-11-07 MX MXPA02004712A patent/MXPA02004712A/es active IP Right Grant
-
2002
- 2002-05-08 IL IL149543A patent/IL149543A/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09510336A (ja) * | 1994-03-14 | 1997-10-14 | サイテックス・アメリカ・コーポレイション | 画像合成システム及び画像合成方法 |
JPH11512263A (ja) * | 1995-09-08 | 1999-10-19 | オラド ハイ−テック システムズ リミテッド | ビデオ画像におけるビルボードの自動電子式置換方法および装置 |
WO1999048285A1 (fr) * | 1998-03-18 | 1999-09-23 | Nippon Television Network Corporation | Systeme et procede de remplacement d'image |
Also Published As
Publication number | Publication date |
---|---|
BR0015403A (pt) | 2004-06-29 |
ATE401739T1 (de) | 2008-08-15 |
CA2393803C (en) | 2010-09-14 |
EP1250803A1 (en) | 2002-10-23 |
EP1981268A2 (en) | 2008-10-15 |
EP1981268B1 (en) | 2017-01-25 |
MXPA02004712A (es) | 2004-09-10 |
IL149543A0 (en) | 2002-11-10 |
CA2393803A1 (en) | 2001-05-17 |
WO2001035641A9 (en) | 2002-05-10 |
AU780494B2 (en) | 2005-03-24 |
BRPI0015403B1 (pt) | 2018-02-27 |
JP2003514454A (ja) | 2003-04-15 |
EP1981268A3 (en) | 2009-11-04 |
DE60039534D1 (de) | 2008-08-28 |
AU1588101A (en) | 2001-06-06 |
ES2307538T3 (es) | 2008-12-01 |
EP1250803B1 (en) | 2008-07-16 |
IL149543A (en) | 2007-10-31 |
WO2001035641A1 (en) | 2001-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7230653B1 (en) | Method and apparatus for real time insertion of images into video | |
US6990681B2 (en) | Enhancing broadcast of an event with synthetic scene using a depth map | |
US10652519B2 (en) | Virtual insertions in 3D video | |
AU2001283437B2 (en) | Method and system for measurement of the duration an area is included in an image stream | |
US6940538B2 (en) | Extracting a depth map from known camera and model tracking data | |
US10121284B2 (en) | Virtual camera control using motion control systems for augmented three dimensional reality | |
US20120013711A1 (en) | Method and system for creating three-dimensional viewable video from a single video stream | |
US8022965B2 (en) | System and method for data assisted chroma-keying | |
AU2001283437A1 (en) | Method and system for measurement of the duration an area is included in an image stream | |
WO1997003517A1 (en) | Methods and apparatus for producing composite video images | |
JP4668500B2 (ja) | リアル・タイムで画像をビデオに挿入する方法および装置 | |
CA2244467C (en) | Chroma keying studio system | |
CN114845147B (zh) | 屏幕渲染方法、显示画面合成方法装置及智能终端 | |
US9906769B1 (en) | Methods and apparatus for collaborative multi-view augmented reality video | |
JP2003319388A (ja) | 画像処理方法及び装置 | |
JPH10501385A (ja) | 可視的ディスプレイシステム及びその可視化用記録を生成するシステム及びその方法 | |
Khoja et al. | Development of video based virtual studio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101214 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140121 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4668500 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |