JPH08202879A - 互いに相関する画像のシーケンスに属する連続するビデオ画像を変更する方法、ならびに対象点の集合によって識別されるターゲットの表現を同じシーケンスの連続するtvフレーム中の同じ幾何学的形状の予め定められるストアされるパターンのマッチングする表現と置換する装置およびその方法 - Google Patents

互いに相関する画像のシーケンスに属する連続するビデオ画像を変更する方法、ならびに対象点の集合によって識別されるターゲットの表現を同じシーケンスの連続するtvフレーム中の同じ幾何学的形状の予め定められるストアされるパターンのマッチングする表現と置換する装置およびその方法

Info

Publication number
JPH08202879A
JPH08202879A JP7130782A JP13078295A JPH08202879A JP H08202879 A JPH08202879 A JP H08202879A JP 7130782 A JP7130782 A JP 7130782A JP 13078295 A JP13078295 A JP 13078295A JP H08202879 A JPH08202879 A JP H08202879A
Authority
JP
Japan
Prior art keywords
target
frame
points
image
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7130782A
Other languages
English (en)
Inventor
Gerard Medioni
ジェラード・ミディオニ
Gideon Guy
ガイ・ギディオン
Hillel Rom
ヒレル・ロム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Symah Vision
Original Assignee
Symah Vision
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Symah Vision filed Critical Symah Vision
Publication of JPH08202879A publication Critical patent/JPH08202879A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/2723Insertion of virtual advertisement; Replacing advertisements physical present in the scene by virtual advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【目的】 互いに相関される画像のシーケンスに属する
連続するビデオ画像を変形するための改良されたシステ
ムを提供する。 【構成】 システムは、複数のフレームをストアするた
めのバッファ(12)と、ターゲットのピクセルがパタ
ーンのピクセルと置換された後に画像のシーケンスをス
トアするためのレコーダ(14a)と、ディスプレイ
(14b)と、伝送システム(14c)と、ターゲット
フレームを探す第1のファインダモジュール(16)
と、グローバルモーショントラッカモジュール(18)
と、記録ユニット(20)と、アダプタユニット(2
2)と、第2のファインダモジュール(24)と、置換
モジュール(26)とを含む。

Description

【発明の詳細な説明】
【0001】この発明は、予め定められるパターンのマ
ッチングする表現によって、画像のシーンのゾーン(こ
れ以降はターゲットと呼ぶ)を置き換えるための、任意
のビデオソース(カメラ、複数のカメラを組合せるスタ
ジオスイッチボードの出力、または衛星ダウンまたはア
ップ回線を含むがそれらに限定されるものではない)に
よって送られる画像のシーケンスのビデオ画像を変える
ためのビデオ処理システムに関する。これ以降はより明
確に曖昧性を避けるため、「フレーム」という語を「画
像」にしばしば置き換えて用いる。しかしながら、シー
ケンシャルラスタスキャニングが用いられる場合、処理
はフレーム対フレームでのみ生ずる。大抵の例において
は、従来のインタリーブされるラスタスキャンが用いら
れる場合、1つの完全なフレームはヨーロッパでは20
msの2つのフィールドにある対応するライン間に時間
遅延を有する2つのフィールドからなる。次いで、2つ
のアプローチのうちのいずれかが選択されなければなら
ない。アプローチの1つでは奇数フィールドを偶数フィ
ールドとは別途に処理する。しかしながら、同じ瞬間で
のシーンの状態にラインが対応するような画像を得るた
めには、2つのフィールド間で生ずる動きの量の評価を
行ない内挿技術を用いることがはるかに好ましい。
【0002】ターゲットのためのパターンの置換を可能
にする数多くの技術が公知となっている。国際出願番号
PCT/FR91/002196をたとえば参照しても
よい。米国特許第5,107,252号(トレイナー
(Traynar )ら)に開示される別の方法は、フレーム単
位で置換されるターゲットの表現のコーナを繰返して指
すことによるビデオ画像操作を必要とする。米国特許第
5,263,933号(ロッサー(Rosser)ら)は、デ
ィスプレイにおける選択される部分の代わりにストアさ
れるインデックスのビデオ表現を後に挿入するために、
ディスプレイにおける選択される部分を認識するための
従来のパターン認識および画像処理方法を用いることを
教示している。
【0003】置換されるべきキーフレームを手動で指定
することを伴うフレーム単位の処理は時間がかかり単調
である。各画像上で実行される全パターン認識を必要と
する任意の方法には数多くの制限がある。たとえば、パ
ターン認識アルゴリズムは、ビルボードの重要な部分が
画像に現れるまでは、または現れなければ、置換される
べきビルボードを識別することはできない。この結果、
ビルボードの大部分がカメラの視野に入った後にそのビ
ルボードが別のビルボードと突然置換されるということ
が起こるかも知れず、これは非常に好ましからぬことで
ある。
【0004】
【発明の概要】この発明の目的は、互いに相関する画像
のシーケンスに属する連続するビデオ画像を変更するた
めの改良されたシステムを提供することである。より特
定的な目的は、好ましいくない条件下で、および/また
は置換されるべきターゲットがディスプレイのフィール
ドに入ったほとんど直後に、(ならびに、逆に、置換さ
れるべきターゲットのわずかな部分が依然としてディス
プレイ内にあるまでは)、そのような変更を実行するこ
とを可能にするシステムを提供することである。この目
的のために、バッファメモリに複数の連続する画像をス
トアするステップと、次いで、当該技術分野において従
来のタイプのものであってもよいパターン認識技術を用
いて、前記画像の各々においてそのターゲットが信頼性
を持って見つけられるまでそれを探すステップと、次い
で、画像のグローバルな変化の評価に基づき、先行する
または後続する画像におけるターゲットの位置に関して
逆方向および順方向予測を実行するステップとを伴う方
法を提供し、それにより、ディスプレイ内でターゲット
のほんの一部が利用可能であるような場合でもターゲッ
トの位置の精密な識別が達成されるだろう。好ましい実
施例においては、予測された位置の更新はそれが信頼性
を持って可能である限りにおいて行なわれ、この結果、
ターゲットは先行技術の技術であれば不可能であろうよ
うな条件下でも追跡されるだろう。
【0005】より正しくは、上述の方法を請求項7に従
って実現するのに好適な、ターゲットの表現を置換する
ための請求項1または請求項2に従う方法および装置を
提供する。
【0006】カメラの動きを評価するための手段はアフ
ィンモーションモデルを用いてもよいが、スピードの増
大とより十分な正確度のために、好ましくは3パラメー
タモーションモデルを用いる。
【0007】この発明の上記のおよび他の局面は、例に
よって与えられる特定の実施例の以下の説明から明らか
となる。
【0008】
【好ましい実施例の詳細な説明】この発明は、テレビカ
メラのような単一のビデオソースを含み、カメラによっ
て見られるシーンにおける特定のゾーンからなるまたは
典型的には広告用ビルボードのようなシーンに存在する
実際の物体からなるターゲットの表現を置き換えるため
にプログラムされる、システムに関連してまず説明され
る。しかしながら、すべてが備わったシステムは、たと
えばスポーツイベントをゲームの連続する段階中に異な
るカメラから見られるように放送するために、いくつか
のカメラを含むかもしれない。説明されるようなこのシ
ステムは、ターゲットがシーンにおいて静止状態にあ
り、かつ2次元的であり、かつシーケンスの間は固定さ
れている、つまり変形可能でない場合に有効である。シ
ステムは、すべての動きが3パラメータモーションであ
る場合に必要となるであろうすべての幾何学的変換、つ
まりx方向の変換とy方向の変換とズームとを実行して
もよい。このような単純化により結果の速度および正確
度が増す。上記の仮定が破られるとシステムはシナリオ
を検出し得、それは確信の尺度に反映する。
【0009】これ以降は、「画像」という語よりもむし
ろ「フレーム」とう語を頻繁に使う。この2つの用語
は、システムがシーケンシャルラスタスキャンを用いる
場合は同義語である。逆に、飛越しスキャンが用いられ
る場合、特に速い動きが存在し、それが予測にとっては
厄介な2つのフィールド間の垂直シフトを生じさせるか
もしれない場合は、相関関係はフレーム対フレームより
もむしろフィールド対フィールドである。
【0010】図1を参照すると、システムは、たとえ
ば、処理に必要な何秒かの一定の遅延を有する擬似実時
間で作動する場合はTVカメラであり、オフラインで操
作する場合にはビデオテープリーダである、ビデオソー
ス10を含む。オペレーションの第2のモードが必要と
する計算能力は第1のモードよりも低い。
【0011】システムは、コンピュータプログラムの別
のデータ処理コンポーネントまたは部分であってもよい
複数のモジュールまたはユニット、つまり、典型的には
3〜5秒の期間に対応する、tn 至るn+1個のフレー
ム(nは1より大きい整数である)をストアするための
十分な容量を有し、シフトレジスタとして動作するよう
接続またはプログラムされるバッファ12と、ターゲッ
トのピクセルがパターンのピクセルと置き換えられた後
に画像のシーケンスをストアするレコーダ14aと、デ
ィスプレイ14bと、送信システム14c等とでもよい
出力コンポーネントと、その機能は過去の履歴に基づい
てターゲットフレームtn を捜すことである、第1のフ
ァインダモジュール16と、その機能は前のフレームt
n-1 からカメラで見られるシーンの動き(典型的にはカ
メラの照準線および/または焦点距離における変化によ
る動き)を計算することである、グローバルモーション
トラッカモジュール(GMT)18と、ターゲットがそ
れぞれのフレームにおいて発見されるとターゲットの属
性を各々が記録するための属性記録ユニット20の組
と、ターゲットが最初にフレームtn において発見され
た場合には計算された動きに基づいてすべての前のフレ
ームt0 、…、tn-1 におけるターゲットの位置を予測
して属性記録をそれに従って更新するための更新ユニッ
ト22と、フレーム中のターゲットを、今度はすべての
n個の先行フレームによって生ずる局所化予測を用いて
捜すための第2のファインダモジュール24と、ターゲ
ットが見つかった場合には(1つのパターンまたは複数
のパターンをそれらの間での考えられ得る選択のために
ストアする)パターンメモリ28から読出されるパター
ンの変換された表現の挿入を行なう置換モジュール26
とを含むと考えられてもよく、リプレーサはオプション
として、障害物検知およびその結果の、障害物を除去し
ないための部分的挿入をさらに行なうことができる。
【0012】更新ユニットがワンショットを超えて予測
を伝播しないよう、グローバルモーショントラッカは好
ましくはカメラで見られるシーンにおける突然の変化を
お信号送信するのにさらに用いられてもよい。
【0013】システムのモジュールおよびユニットを個
々に説明する前に、異なるシナリオ下でのシステムのオ
ペレーションおよび動作のモードをまとめることは役立
つかもしれない。これは、その位置および大きさがその
4つのコーナの座標によって定義されるであろうスタジ
アム、レーストラック、アリーナなどにおいてまたはそ
れらの周囲に掲げられるビルボードを置き換えるために
このシステムが用いられることを仮定してなされる。
【0014】図2を参照すると、カメラの運動のため、
ビルボード30の表現は、カメラの視野に徐々に入って
最後にはその視野から出るだろう。
【0015】システムは自動的に作動する。しかしなが
ら、これより説明する実施例においては事象の始まりに
おいて一度だけユーザのインタラクションを必要とす
る。次いで、図2の32で示されるように、オペレータ
は(マウスまたはライトペンを用いて)フレーム中の完
全に現れている置き換えられるべきターゲットビルボー
ドを選択し、その代わりに置かれるべきパターンを特定
する。これは、モニタ34(図1)上でシーンを見てマ
ウス36でそのコーナを指示することによってなされて
もよい。挿入されるべきパターンはメモリ28において
選択される。システムは次いで、置き換えられるべきタ
ーゲットビルボード内の特有の特徴(後に対象点と呼ば
れる)、および/またはターゲットビルボードの外にあ
りかつカメラで見られるシーンにおいてビルボードと固
定される関係を有する特有の特徴(たとえばターゲット
ビルボードを支持する壁上のマークなど)を識別する。
【0016】第2の可能性は、ターゲットが仮想であっ
て、パターンがその上に挿入されなければならないブラ
ンク面の区別されないゾーンを構成する場合に重要であ
る。その特有の特徴は装置によって識別されるよりもむ
しろ、ここでもマウスを用いてオペレータによって示さ
れるほうがよい。オペレータは事象の間の任意の時点で
ターゲットの選択を変更してもよい。
【0017】この時点以降、シーケンスのフレームの少
なくとも1つにおいて、視野に見られる特有な特徴の数
はパターン認識が生ずるのに十分な数でありかつ十分に
正確であるという条件下で、システムはズームインおよ
びズームアウトの間に(図2の左側に見られるように)
視野に入り視野を出るターゲットを置き換えることが可
能であり、これはこの発明のシステムおよび方法の独自
の特徴により認識がそのフレームから前方および後方に
伝播するからである。
【0018】様々なコンポーネントについて次に説明す
る。 [第1のファインダモジュール]図3を参照して、第1
のファインダモジュール16は5つのサブモジュールを
含むものと考えられる。
【0019】入力から始まって、サブモジュールは以下
のとおりである。対象オペレータ38は、以下「ポイン
トオペレータ」と呼ぶが、画像の中の特有の特徴、通常
はコーナまたは交差線を抽出し、それらをたとえば6×
8ピクセルの近傍上で識別する。
【0020】色に基づくフォーカス・オブ・アテンショ
ンサブモジュール40は、色情報に基づいて、ターゲッ
トの中で最も見つけられそうな対象ポイントを選択する
ように設計される。
【0021】ポイントマッチャ42は第1のファインダ
モジュール16の重要な部分を構成する。その機能はタ
ーゲットの記憶されたモデルの対象ポイントと実際のフ
レームtn 内で見出される対象ポイントとの間に対応す
るポイントの集合を見つけることである。ポイントマッ
チャはマッチングのために作られたハッシュ表およびア
フィン変換を一般に使用する。これはよく知られたパタ
ーン認識処理を実現し得る。
【0022】精密なロックイン(PLI)サブモジュー
ル44は、ポイントマッチャ42から得られた対応関係
が与えられたとすると、フレームのターゲットの精密な
(典型的にはサブピクセルの解像度までの)位置を見つ
けるためのものである。
【0023】最後に、プレディクタサブモジュール46
は、PLIサブモジュール44およびグローバルモーシ
ョントラッカ18から受取った情報に基づいて、ターゲ
ットがフレームn−1で発見されたと仮定して、オーダ
nのいずれかのフレーム内でビルボードの位置を予測す
る。
【0024】動作については、第1のファインダモジュ
ールはターゲットのモデルから関連の特徴を抽出するた
めに、前処理段階が完了していることを必要とする。こ
の処理については図4を参照して説明する。ターゲット
モデルから抽出された情報は以下のものを含む。
【0025】フォーカス・オブ・アテンションサブユニ
ット40によって使用される色情報ポイントオペレータ
38によって使用される特徴ポイントまたは特徴マーク
マッチングのために作られたハッシュ表、これについて
はポイントマッチャ42を説明する際により完全に言及
する。
【0026】ポイントオペレータサブモジュール38は
ターゲット上のある数の「対象ポイント」または「特徴
マーク」を検出しかつその場所を突き止めなければなら
ない。対象ポイントは典型的にはコーナまたは頂点であ
り、これらはたとえばビルボードの文字に非常によく見
られる。対象ポイントはより一般的にはその周囲から区
別されるあらゆる点である。任意のフレーム上でこのサ
ブモジュールによって発見されたポイントの集合をター
ゲットモデル(全く同じ方法で処理されている)上で発
見されたポイントの集合と比較し、類似性およびマッチ
ングを見つけようと試みる。
【0027】幾つかの要件がこの発明の実現例における
対象ポイントの意味を典型的に規定するであろう。
【0028】個別性および独自性:対象のポイントはそ
の輝度(放射値)に従ってその周囲から区別されなけれ
ばならない。このポイントはあるエリア内に特有のもの
でなければならない。なぜなら、ポイントまたは非常に
近いポイントの集積はマッチングステップを混乱させる
ことになるからである。
【0029】不変性および安定性:対象ポイントはター
ゲットモデル上のポイントとの比較を行なうことによっ
てターゲットのマッチングのために使用されるので、同
じポイントは異なった条件で見られても理想的には同じ
物体の上で発見されなければならない。しかしながら、
応用では視点およびスケールの変化、コントラストの変
化、照明の変化、動きの速いカメラの場合には強いブレ
などの変化する条件がある。
【0030】画像の第1および第2の微分係数の計算に
それぞれ基づく2つの異なった対象オペレータが典型的
には使用され得る。画像の第1の微分係数を使用するオ
ペレータはより安定した結果を与え、一般に好まれる。
それは以下のとおりである。
【0031】画像I(x,y)の第1の微分係数を計算
し、画像I2 x 、I2 y およびIxy を算定する。
【0032】これら3つの画像を大きなボックスフィル
タ(典型的にはサイズ9×9)で畳み込み、3つの画像
11、n22、n12になる。マトリックスNは行rおよび
列cに属する各ポイントで以下のように規定される。
【0033】
【数1】
【0034】Nから、ポイントの「対象」および等方性
画像を表わす重み付き画像が算定され得る。これらの値
は各ポイントで以下の式によって与えられる。
【0035】
【数2】
【0036】上述の式において、detはマトリックス
Nの行列式を示し、trは跡和(対角線項の和)を示
し、qは商を示す。
【0037】重み付き画像はしきい値と比較され、以下
に規定される画像h(r,c)となる。
【0038】w(r,c)、w(r,c)がしきい値よ
り上で、q(r,c)がしきい値より上の場合、および
0、他のすべての場合。
【0039】ポイントの集積を避けるためにしきい値処
理された画像に対して非最大抑制が行なわれる。9×9
ピクセルのウィンドウを使用することにより良い結果が
得られた。
【0040】使用される異なった数値(しきい値、ウィ
ンドウサイズ)は最終的に設定され、ほとんどのタイプ
の画像に当てはまる。典型的には、これらの値はフルフ
ォーカスでかつ「合理的な」サイズの、つまり小さ過ぎ
ない(なぜならポイントマッチャモジュール42が作用
するのに十分なポイントがないであろうから)、また大
き過ぎない(なぜなら多くのポイントがあり過ぎて、マ
ッチャが最も関連のあるポイントを選択することが不可
能になるから)ビルボードからなるターゲットに対して
最適化される。
【0041】フォーカス・オブ・アテンションサブモジ
ュール40はターゲット上に非常にありそうな対象ポイ
ントを選択するように設計される。ローカルヒストグラ
ム法が使用され得る。しかしながら、その計算上の複雑
さのために、対象ポイントの色に基づく選択には別の方
法が好ましいことがわかった。
【0042】フォーカス・オブ・アテンションが特徴ポ
イントを選択するために使用されるので、特徴ポイント
のみで色情報をテストすれば十分であり、計算時間が減
る。
【0043】好ましい方法は対象ポイントが通常2つの
異なった色の接合点であるということを使用し、オペレ
ータは前処理段階でモデルの考えられる色の対(大半の
場合には、考えられる対は1つまたは2つしかない)を
選択しさえすればよい。オンライン処理では、各特徴ポ
イントの周りのラインおよび列の幾つかのピクセルから
なるウィンドウがテストされる。ウィンドウ内の各ピク
セルについて、その色のモデルの最も近い色までの距離
が記録される。ウィンドウにわたってこれらの距離を合
計する。計算された距離に反比例するスコアが特徴ポイ
ントに割当てられ、ウィンドウは色対の両方の色を有す
ることが必要とされる。量子化ではなく色空間の距離が
使用されるので、この処理はしっかりしたものである。
この結果は非常に信頼性が高いことがわかった。
【0044】ポイントマッチャサブモジュール42のタ
スクは演繹的な知識を何も使用せずにすべてのフレーム
でターゲットビルボードの位置を突き止めることであ
り、この目的のために、対象ポイントオペレータサブモ
ジュール38によって発見された対象ポイントを記憶さ
れたターゲットモデルの対象ポイントとマッチングさせ
ることである。これはターゲットの記憶されたモデルと
実際の画像のターゲットの表現との間の変換、およびし
たがってターゲットがあると想定される実際の画像内の
ターゲットの位置を発見するために行なわれる。
【0045】この目的のために、幾つかの方法が使用さ
れ得る。しかしながら、アフィン不変マッチング技術を
使用することが有利である。
【0046】その方法に従って、画像座標はモデル座標
のアフィン変換座標であると仮定される。
【0047】ターゲットモデル(xm ,ym )の各ポイ
ントに対して、画像の対応のポイントの座標は(xi
j )である。
【0048】
【数3】
【0049】ポイントマッチャサブモジュールの目的
は、恐らく対応するポイントの2つの集合しか知らない
で、対(A,b)によって与えられる変換を発見するこ
とである。既に示したように、画像から得られたすべて
のポイントがターゲットモデルに対応するポイントを有
していることは確かではないし、逆にターゲットモデル
のすべてのポイントが画像に対応のポイントを有するか
どうかも確かではない。各集合の部分集合のみが対応す
るであろう。この部分集合のサイズはできるだけ大きく
なくてはならない。この部分集合のサイズは対象ポイン
トオペレータの性能によって決定され、また現在の画像
におけるフルターゲットの有効性によって条件付けられ
る。
【0050】ポイントマッチャサブモジュールは連続し
て2つのステップ、つまり前処理ステップおよび認識ス
テップを行なう。
【0051】前処理ステップ(図4)はパターンモデル
のポイントの初期処理であり、そうであるので、シーケ
ンスの始めにオフラインで一度だけ行なわれる。その目
標はモデルで発見されるすべての考えられる安定したベ
ース(説明された実施例ではポイントのトリプレット)
に対するすべてのモデルポイントのアフィン座標を計算
することである。アフィン座標の各対はそれを生み出し
た基底トリプレットとともに記憶される。効率的な計算
のために、このデータは2次元のハッシュ表に記憶され
る。1対のアフィン座標(x,y)は座標(f(x),
f(y))でハッシュ表に記憶される。ハッシュ関数f
は典型的には小さな値に対して最大判別を与える逆正接
であり、この関数はアフィン座標が小さくなりそうであ
るので有利である。
【0052】安定したベースの使用は2つの理由のため
に必要である。第1に、ポイントのいかなるトリプレッ
トも信頼できる基底を与えないであろう。もしたとえば
3つのポイントが同一線上であれば、基底は有効ではな
い。基底の2つのベクトル間の角度が小さければ、基底
は信頼できない。なぜなら、基底のあるポイントで測定
誤差が何かあれば非常に異なったアフィン不変座標を生
み出すであろうからである。安定したベースのみを考慮
する第2の理由はベースの数が始めは非常に多く、つま
りN(N−1)(N−2)であり、すべてのベースを処
理するには多くの計算時間がかかることである。したが
って、この数を減らすことが重要である。興味がある選
択基準はまず角度の基準に依存し、ポイントのトリプレ
ットによって形成される三角形の3つの角度は小さ過ぎ
てはいけない。そのポイントがあまりに近すぎるベース
もまた排除される。
【0053】認識またはマッチングステップ(図5)は
入力として画像の対象ポイントの集合を使用し、その幾
つかはモデルのポイントにマッチングすると考えられ
る。画像ポイントは基本的にはモデルポイントが前処理
で処理されるのと同じ方法で処理される。所与の安定し
た基底に対して、この基底に対する画像ポイントのすべ
てのアフィン座標が計算される。
【0054】ハッシュ表の同じバケットに対するポイン
トハッシュのアフィン座標がモデルポイントのアフィン
座標を有する場合には、その座標を生み出したモデル基
底に対して票が投じられる。
【0055】ポイントのすべてのアフィン座標が計算さ
れると、いずれかのモデル基底がマッチングを恐らく有
するのに十分な数の票を得たかどうかみるためにチェッ
クが行なわれる。もしそうであれば、画像基底およびこ
のモデル基底からの変換(A,b)、ならびに実際に対
応するポイントの数が計算される。まず、変換がチェッ
クされ、その変換が実際にアプリケーションを満たすこ
とが調べられる。たとえば、上下逆様の、または逆のビ
ルボード、深刻な変形は見つかってはならない。その
後、対応関係にあるポイントの数が決定される。もしこ
の数が低ければ(たとえば7より下)、マッチングは不
満足なものであると考えられ、画像ポイントの次の安定
した基底が試される。対応ポイントの数が非常に高けれ
ば(同じ例で少なくとも12)、マッチングは非常に満
足なものであることが明らかにされ、プログラムを退出
する。
【0056】これら2つの値の間に、「弱い」マッチン
グが宣言され、変換のパラメータが保持されるが、より
良いマッチングを発見することが可能であるかどうか見
るためにさらに他のベースが試される。
【0057】すべての安定したベースが試された後、
「確実な」マッチング(12ポイントまたはそれより
上)が何も発見されなければ、もしあれば弱いマッチン
グのすべての中の最も良いものが保持される。
【0058】実行時間を減らすために、画像のすべての
考えられる安定したベースを試さないことが好ましい。
なぜなら、その数は非常に多く、つまりN(N−1)
(N−2)であるからである。ここでNは画像ポイント
の数である。最少の20から30のポイントを考慮して
も、10,000のベースの大きさのオーダになる。あ
る数の安定したベース、典型的には100のオーダの数
のベースのみで十分であり、もしマッチングが明らかで
あれば、プログラムはそれをすばやく見つけるだろう
し、一方100の異なった安定したベースを試した後に
もプログラムがマッチングを発見しなければ、ターゲッ
トがそこにないか、またはマッチングのための十分な良
い特徴ポイントがないかいずれかのために、マッチング
するものはないと考える。
【0059】認識力を強めるために、発見されたマッチ
ングが正しいことを確実にするために(利用可能な場合
には)プレディクタからの予測されたコーナが使用され
得る。これは発見されたコーナから予測されたコーナま
での距離の合計があまりに大き過ぎないことを単にチェ
ックすることによって行なわれる。
【0060】第2に、ラベルを貼ったポイントが使用さ
れる。ポイントには画像の色環境に対応したラベルが付
けられる(たとえばビルボードが赤、黒および白のマル
ボロ(Marlboro)の看板であれば、黒と白とによって囲
まれた対象ポイントにはラベル1を貼り、赤と白とによ
って囲まれたポイントにはラベル2を貼る)。投票処理
の間、所与のポイントは同じラベルをつけたポイントに
しか票を投じない。さらに、投票後、2つのポイントは
同じラベルがついている場合のみマッチングされる。こ
れは実行の速度を大幅に上げるという利点と、より良い
認識結果を与えるという二重の利点を有する。
【0061】マッチャが処理できるポイントの数は制限
されており、たとえば全画像で約40ポイントに制限さ
れている。フルの解像度の画像においてビルボードを発
見しようとしたときにビルボードそれ自体に十分な特徴
ポイントがない場合には、これらの要件を緩和するため
にマッチャのための分割戦略が使用され得る。第1のス
テップは画像を2つに分割して、各半分に対して第1の
ファインダ16を実行することである。第1のファイン
ダ16はまず左半分でターゲットビルボードを探し、次
に右半分で探し、次に上半分で探し、次に下半分で探す
ことによって最終的に画像全体でターゲットビルボード
を探す。この戦略はフルの画像を直接サーチする際にタ
ーゲットビルボードが発見できない状況でうまくいく。
【0062】精密なロックインサブモジュール44(P
LI)は近似位置またはターゲットモデルと現在の画像
との間の対応する対象ポイントの集合のいずれかが与え
られると、ターゲットビルボードに厳密な局所化を与え
るように設計される。精密なロックインサブモジュール
44はポイントマッチャサブモジュール42の直後であ
り、ターゲットが発見された場合にのみ精密な局所化を
与える。
【0063】第2の精密なロックインサブモジュール
(図示せず)は第2のファインダモジュール24で発見
され、後で見られるように、通常は更新ユニットによっ
て計算される仮定された位置をロックインサブモジュー
ルに与える更新ユニット22によって与えられる。
【0064】精密なロックインサブモジュール44はフ
ルパースペクティブ変換を使用し得る。しかしながら、
ここで説明されるサブモジュールはより正確を帰すため
にフルパースペクティブ変換の代わりに3パラメータ変
換モデルを使用する。段階のシーケンスは以下のとおり
である。
【0065】特徴ポイントのサブピクセル局所化−この
入力はポイントマッチャによって発生された対応するポ
イントのリスト、ターゲットモデルの特徴ポイントの完
全なリスト、ターゲット画像、および発見されるべきタ
ーゲットモデルの画像を含む。この処理は3つの段階に
分けられる。
【0066】ねじれパラメータの大雑把な推定値を得
る。(u,v)から(x,y)へのパースペクティブ変
換のねじれを説明する8つのパラメータがある(以下a
i,j 、iおよびjは1、2または3である)。
【0067】
【数4】
【0068】上の式において、x=x′/w′およびy
=y′/w′である(w′は拡大係数である)。
【0069】次に、対応するポイントのすべてを使用し
て標準的な最小二乗平均(LMS)計算が行なわれ、推
定値を得る。
【0070】良い結果を与えた実現例では、PLIサブ
モジュール44は上の大雑把な変換を使用して特徴ポイ
ント(モデルの)の小さな近傍をねじり、それらを画像
の特徴ポイントの対応の位置と相関させようとする。こ
の相関関係は局所的にのみ、典型的には近似位置の周り
の10×10ピクセルウィンドウで行なわれる。これは
単に差分二乗和(SSD)を計算することによって行な
われ、1ピクセルまでの局所化をもたらす。
【0071】所与のしきい値を超える値は障害物による
誤ったマッチングを使用することを避けるために放棄さ
れる。現在、大部分の場合に50,000のしきい値は
満足なものであることがわかっている。
【0072】次にサブピクセル推定が行なわれる。この
推定はxおよびyで別々に行なわれ、最も良い位置およ
びその2つの近傍に対するSSDの値が使用される。こ
れら3つのポイントに放物線が当てはめられ、最大の位
置決めが完了する。マッチングされた特徴ポイントの対
のすべてに対する別の最小二乗平均により実際のモデル
から画像へのより精密なパースペクティブ変換がもたら
される。
【0073】最後の段階の間、すべての他の特徴ポイン
ト(つまりポイントマッチャ42によってマッチングさ
れなかった、したがって前の段階では使用されなかった
モデルからの特徴ポイント)の周りの小さなマスクを相
関させようという試みが行なわれる。これは第2の段階
では行なわれない。なぜなら、ねじれのもとの推定値
は、許容された範囲、ねじられた近傍およびウィンドウ
が10×10ピクセルであれば典型的には+/−5ピク
セルの範囲内で、ターゲット画像のこれらの特徴ポイン
トの位置を予測するのに十分ではないかもしれないから
である。
【0074】ここで、より精密な変換が利用可能であ
り、新しいマッチング(もしあれば)が最小二乗平均
(LMS)スキームに加えられ、最終パースペクティブ
変換を生み出す。
【0075】最後に、モデルビルボードのコーナは上の
変換を使用して変換され、考慮中の画像のコーナの位置
を引き出す。
【0076】単一のカメラシナリオのためにねじれのよ
り単純なモデル(アフィンモデル)が使用され得る。こ
のモデルは計算時間を減らし、より良い安定性チェック
を可能にするが、その特定の場合に質が目に見えて劣化
することはない。
【0077】プレディクタサブモジュール46は第1の
ファインダ16の小さなサブモジュールであり、あるフ
レームから他のフレームへの位置の単純な予測を計算す
るように設計される。ポイントマッチャサブモジュール
42がフレームLにおいてターゲットビルボードを発見
することができたと仮定して、プレディクタはGMTモ
ジュールによって報告され、モーションパラメータの助
けでフレームt+1の位置を予測する。ポイントマッチ
ャ42が何らかのより速いフレームでそのターゲットを
発見した限り、その予測を多くのフレームにわたって保
持することが可能である。すべての予測には確信の尺度
(MOB)が付加され、そのMOBがあるしきい値を下
回ったとき、ポイントマッチャ42はその予測を使用し
ないように知らされる。シーケンスブレーク時に(やは
りGMTによって報告される)、プレディクタ46はリ
セットする。
【0078】プレディクタサブモジュールが与えられる
と、ポイントマッチャ42はこのような予測がある場合
は、サブモジュール40の出力と同じように、予測をフ
ォーカス・オブ・アテンションとして用いる。このセッ
トアップによってトラッキングモードが可能になり、確
信の尺度を高く保つことによって全体のシステムの信頼
性を向上させる。ターゲットがビルボードである場合、
プレディクタがビルボードのコーナの5ピクセル以内に
あるなら、PLIサブモジュール44はマッチングがあ
るかないかにかかわらずロックインすることができる。
これは明確なトラッキングモードとして働く。
【0079】この段階において、オペレータの相互作用
を用いて測色に基づいて、オフラインである対象点を選
択するために可能な手段を与えると有用であるかもしれ
ない。一般的な内容はフォーカス・オブ・アテンション
サブモジュール40の説明のところで既に言及してい
る。
【0080】第1に、既に示したように、オペレータは
ターゲットが現われる画像において置換えるべきターゲ
ットを選択し、たとえばその四隅上でマウスをクリック
する。
【0081】一般に、対象点がストアされるべきターゲ
ットの外にあるのなら、オペレータはカメラの視野でサ
ーチするべきシーンの領域を示す。次にシステムはター
ゲットの外にある幾つかの対象点をストアし、それによ
りカメラを動かしている場合またはズームしている場合
に、視野におけるターゲットの様子を予測することがで
きる。
【0082】ターゲットおよびゾーンが示されると、オ
ペレータはコントラストが起こる多数の点があるカラー
の組を選択しなければならない。このような条件は、た
とえば2つの組、すなわち白黒および青黒の場合に存在
する。この選択は同じ組の幾つかの点に対して、その上
でマウスをクリックすることによって行なう。システム
は最も近いコントラスト点またはクローズドコントラス
ト点を探し出すようプログラムされているので、細かい
精密な手作業を必要としない。一般に6から10個の点
で十分である。システムはゾーン内におけるすべての
「対象点」を自動的にサーチする。多くの場合、たくさ
んの点が見つかる。システムはクリックされた点との色
比較が最良である所定の数の点(たとえば30から40
点)を保つ。必要なら、同じシーケンスが他の組に対し
ても繰り返される。
【0083】このような前処理ステップは放送が開始さ
れる前に行なわれてもよい。唯一の要件は事象の場所に
おいてテレビカメラが利用できなければならないことで
ある。
【0084】オンラインで放送の間、第1のファインダ
モジュールは対象点であるかもしれないすべての点を選
択する第1の画像をサーチする。可能な対象点を分類
し、これは一般的に幾つかの条件に基づいて行なわれ
る。たとえば選択された組の色に対する測色距離および
重み(「弱い」点を排除するようしきい値との比較)に
基づいて分類される。所定の数の点だけ、たぶん対象点
である可能性が最も高いものが保たれる。
【0085】各画像がバッファ12に入力されると、所
定の数の点の選択が同じように繰り返される。
【0086】次に、ターゲットモデルの対象点と幾何学
的対応を有する最も大きい点の部分集合が決定され、こ
れは図5を参照して既に説明されたように、モデルのア
フィン変換を考慮している。
【0087】[グローバルモーショントラッカモジュー
ル18]グローバルモーショントラッキングは、フレー
ム間のカメラの動きおよびシーンの位置合わせを検出す
る処理である。GTMは、連続するフレームtおよびフ
レームt+1の間のグローバルカメラモーションパラメ
ータの推定値を計算し、2つの連続するフレームの動作
は図6において概略的に示される。
【0088】図示されているように、画像はまずその空
間的相関を増やすために平滑化される。空間および時間
微分係数は次に計算される。この情報を用いて、モーシ
ョンパラメータの推定値が計算される。別の方法を用い
てもよい。たとえば、J.R.ベルゲン(Bergen)他の
「二コンポーネント画像成分画素モーションを推定する
ための三フレームアルゴリズム」PAMI、第14巻第
9号、1992年9月、886頁から896頁は、良い
結果をもたらす。
【0089】推定値を用いて、フレームt+1はフレー
ムtの方向にねじられ、この処理が繰り返される。フレ
ームt+1はその度にフレームtに近づくので、計算さ
れたモーションパラメータはだんだんと正確なものとな
る。計算されたモーションパラメータの変化が、所定の
しきい値以下の点に収束したときにこの処理を止める。
累積されたパラメータは更新ユニット22に伝えられ
る。しかし、モーションパラメータが何回かのくり返し
の後でも収束しない場合、ゼロの信頼度が報告されてそ
の処理がとまる。
【0090】2つのモーションモデルを用いてもよい。
すなわちロム(Rom )他の「モーションに基づく区分
化」、パターン認識国際会議、ニュージャージー州、ア
トランティックシティ、1990年、109−113頁
にあるような6パラメータ定数深度一般モーション、お
よび上記で言及したベルゲンらのアフィンモーションモ
デルを用いることができる。これらのモデルは連続フレ
ーム間の正確な動作回復を可能にする。
【0091】アルゴリズムは複数の解像度レベルで実現
することができる。各フレームからガウスピラミッドが
作られる。シーケンスのはじめにおいて、上記のアルゴ
リズムが最も低い解像度レベルに適用される。このレベ
ルの結果は次の上位レベルの初期推定値として伝えら
れ、この動作が最も高いレベルまで続けられる。これに
より、より大きい動作のリカバリが可能となる。シーケ
ンス内において、前の組のフレームからの結果は、現行
の組に対して適切な推定値となり、したがってアルゴリ
ズムは1つ下位の解像度レベルに適用され、前の結果は
次のレベルの初期推定値である。これにより、そのシー
ケンス内において大きな変化に対応しながらモーション
の迅速なリカバリを可能にする。
【0092】シーンにおける動いている障害物がある場
合に、より正確で安定した結果を必要とするのなら、モ
ーション方程式の係数は時間微分係数に反比例するよう
スケールリングしてもよい。動いている障害物は、画像
がカメラの動きに従ってねじられている場合は位置合わ
せできない。したがって、障害物に対応するピクセルは
高い時間微分係数を有し、その結果係数においてより低
い重み付けを有する。この向上した結果により、シーケ
ンスに沿ってより長い推定値の伝播が可能となる。
【0093】リカバされたパラメータの精度は高く、多
くのフレームに沿ったターゲット位置の伝播を可能にす
る。アルゴリズムはモーションがモデル化されたモーシ
ョンと著しく異なる場合のみ適用できず、たとえばその
平面にはない非常に速い回転がある場合は適用できな
い。
【0094】プレディクタをGMTプログラムに統合す
ることができる。このプレディクタは所定の数(一般的
には4つ)の前フレームからの計算された結果に基づい
て、次のフレームに対する最初の推定値を計算する。多
くの場合、これによりより正確な初期推定値となり、よ
り速い収束を得ることができる。しかし、フレームごと
にモーションが変わる場合、プレディクタは変化を察知
するのに遅く、前のフレーム1つに基づくプレディクシ
ョンが好ましいかもしれない。
【0095】既に示したように、シーケンスブレークを
検出するべきである。シーケンスブレークサブモジュー
ルは、グローバルモーショントラッキングモジュール1
8に統合することができる。シーケンスブレークは画像
のモーメントにおける変化に基づいて検出することがで
きる。これらは属性の「new seq」として示され
る(図1)。
【0096】[更新モジュール22]更新ユニット22
は、他のすべてのモジュールからデータを集め、処理さ
れたシーケンス内における欠落している情報または不正
確な情報を内挿する。モジュールは、図7で示されるよ
うに、各セルにおいてフレームおよびフレーム属性を有
する循環バッファとして表わすことができ、常に隣接し
かつ時間とともに動く入力ポインタ50および出力ポイ
ンタ52を有する。fの矢印は順方向の更新を示すが、
その範囲は限定されない。
【0097】更新ユニット22は少数のパラメータから
なる属性記録のみを操作する。図示されるように、属性
記録の構造は以下のとおりである(図1)。
【0098】・自己フレームおよび次のフレームの間の
グローバルモーション変換Gm、プラス確信の尺度。
【0099】・次のフレームおよび自己フレームの間の
変換、プラス確信の尺度(上記と同じではない)。
【0100】・シーケンスにおけるフレームの位置を表
わすフラグ(第1フレーム、最終フレーム、など)。
【0101】・仮説のリンクされたリスト、各々は画像
座標における4つのコーナ(ターゲットが4つのコーナ
を有する場合)プラス確信の尺度を含む。
【0102】更新ユニットにおける事象の流れは図8に
示される。フロー図の完全なサイクルは各フレーム時に
行なわれる。他のモジュールからの入力が読出され、最
終フレームから現在のフレームまでの仮説が計算され、
現在の仮説と比較される。もしそれがより良いものなら
置換えられる。
【0103】次に、時間に遡る伝播が開始される。連続
フレーム間で仮説が計算され、前の確信の尺度と比較さ
れる。それがより大きいものなら、古い仮説と置換され
る。
【0104】処理途中にブロッキングフラグに遭遇する
と、伝播処理は停止される。ブロッキングフラグは、シ
ーンが変わった場合、十分高い既存の確信の尺度の場
合、または現在の仮説に対する十分低い確信の尺度の場
合などによって起こる。
【0105】更新ユニット22の複雑性は、バッファの
大きさおよびシーケンスの長さと比例する。
【0106】1の値(または1に近い値)は入力パラメ
ータの高い確信度を示す。低い値(または0)は入力パ
ラメータが信頼のできないものであり、他のモジュール
からの補強がない限りは使用されるべきではないことを
意味する。
【0107】たとえば、第1のファインダ16がフレー
ム内におけるターゲットを見つけることができなかった
場合、更新ユニットに渡すデータに対して「ゼロ」の確
信度を割当てる。更新ユニット22はGMT18および
/または前のフレームからのデータ、ならびに/または
バッファ12で利用できるこれからのフレームからのデ
ータを用いて、そのフレームにおけるターゲットの位置
を内挿しようとする。更新ユニット22は適宜に確信の
尺度を変更する。
【0108】所与のシーケンスを渡すかどうかという決
定はできるだけ遅くなされる、すなわち現在のシーケン
スの第1のフレームがバッファ12を出る頃になされ
る。更新ユニット22はシーケンスの全体的な品質を評
価する(これは全体的確信の尺度でもある)。所与のし
きい値を通れば、パターンによってターゲットの置換を
行なうという決定が伝えられる。これは属性において
「ロック」されるとして示されてもよい(図1)。
【0109】バッファサイズより大きいシーケンスを扱
うためには、バッファ12の長さより長いシーケンスに
おいて離れてエラーが検出されたのなら、ターゲットビ
ルボードにクロスディゾルブバックするよう置換モジュ
ール26をフラグするよう更新ユニットを設計すること
ができる。
【0110】好ましい実施例において、システムはブレ
推定を行なうための手段を含む。ブレ推定は、画像にお
ける既知のターゲットビルボードの正確な局所化のた
め、ターゲット領域における障害物の検出のため、およ
び置換するパターン画像の実際的なレンダリングのため
に有用である。画像においてターゲットが検出され、ビ
ルボードの4つのコーナの位置が利用できると仮定し
て、ブレ推定はレンダリングおよび障害物検出目的のた
めにのみ取扱われる。
【0111】画像のブレは2つの形のどちらかにおいて
ビデオシーケンスで起こる。この形とは、焦点不良のた
めのブレおよびもう1つはカメラが動くためによるブレ
である。
【0112】画像における焦点合わせのブレは、所定の
大きさσのガウス核で畳み込まれた画像としてモデル化
できる。
【0113】画像におけるモーションブレは、連続フレ
ーム間の実際の動きの関数である。各フレームにおける
動きは、特定の横および縦の成分でもって特定の方向に
おける線形のモーションとしてモデル化できる。実際の
ブレの影響は、画像を方形カーネルで畳み込むことによ
ってモデル化できる。
【0114】焦点のブレは相関に基づく方法によって推
定することができる。1組のターゲットビルボード画像
は、異なるサイズσi のガウス核の組を用いることによ
って異なる量のブレでもってモデルビルボード画像から
発生させることができる。次に、ターゲットビルボード
からのビルボード対象点を中心とした小さなウィンドウ
の集合を用いて、相関による最もマッチングするブレビ
ルボードを見つける。モデルビルボードおよびターゲッ
トビルボードは一般に異なる位置での異なるサイズを有
するので、ターゲットビルボードからのウィンドウは相
関を行なう前にモデルビルボードの座標にねじらなけれ
ばならない。ブレのモデル画像における対応するウィン
ドウを有する各ウィンドウの相関値が計算され、最も小
さい相関値を有するモデル画像のσi がそのウィンドウ
に割当てられる。最終的には、ノイズフィルタを有する
平均化スキームを用いて、焦点ブレを推定するために、
指定されたすべてのσi が用いられる。
【0115】推定されたブレパラメータは2つの方法で
用いることができる。1つの方法は障害物検出目的のた
めにモデルビルボードを事前に処理することであり、も
う1つは画像にある同じ種類のブレでビルボードを置換
することであり、これは次のセクションで記載される。
【0116】障害物検出は必ずしも必要ではない。たと
えば、スポーツを放送している場合に競技者がビルボー
ドの前にいる場合、障害物検出が必要となる。これはタ
ーゲットの中および周りにおいて、ターゲットの前にあ
る物体に属する領域を抽出することを含み、ターゲット
が置換されたときにそれらは保たれる。
【0117】障害物検出モジュールは、図9のフローチ
ャートに従って動作するよう、ストアされたモデルビル
ボードとターゲットビルボードとの違いに基づいてもよ
い。モデルビルボードは前に説明したブレパラメータで
まずブレを施され、ターゲットビルボードはモデルビル
ボードの座標にねじられる。次にこの2つの差異が計算
される。この処理はモデルビルボード画像スペースにお
いて好ましくは行なわれる。なぜなら、この方法では、
処理は常に固定された大きさ(および恐らくは大きい)
ビルボードで行なわれ、これはターゲットビルボードの
サイズが変わることによって関連する問題をなくす。
【0118】差異画像は次にエッジ強度マップによって
重み付けされ、局所化精度によってモデルビルボードと
ねじられたターゲットビルボードとの間に一般に存在す
る小さなずれの影響を補償する。結果はターゲットビル
ボード画像スペースにねじられる前にしきい値処理され
およびフィルタリングされる。
【0119】たとえばスポーツを放送している場合、タ
ーゲットビルボードはその前に障害物が存在するという
可能性が全くない場所にあるかもしれない。反対に、一
般に動く障害物がターゲットの一部またはすべてを一時
的にマスキングするかもしれない。
【0120】障害物検出のこの一般的なスキームはグレ
ースケール(強度)画像スペースおよびRGBカラー画
像スペースの両方において実現してもよい。
【0121】[置換モジュール]置換モジュールはコー
ナ位置およびビルボードの障害物マップを有するターゲ
ット画像を捉え、そのビルボードを特定の置換パターン
画像で置換える。
【0122】置換モジュールのコアはリプレーサワーパ
である。ねじれ変換はパースペクティブ変換の下に、平
面における不変特性点に基づいている。これはE.バレ
ット(Barret)らによる「写真測量およびモデルマッチ
ングにおける不変線形方法」コンピュータビジョンおよ
びパターン認識予稿集、アーバーナ・シャンペィン(Ur
bana-Champaign)、IL、1992年6月、122頁にお
いて説明されている。置換するビルボード画像において
4つの対応する点(Pi ,Qi )およびターゲット画像
において(pi 、qi )が与えられ、i=1,…,4で
あり、ターゲット画像における所与の点(p,q)に対
応する置換画像における他の点(p,q)は、1組の線
形方程式を解くことによって見つけることができる。置
換画像における5点のセットの行列式の十字比は以下の
ように定義される:
【0123】
【数5】
【0124】同様に、ターゲット画像における対応点に
対する行列式の十字比はC(1,2,3,4,上つきバ
ーp,上つきバーq)として定義することができる。
【0125】不変条件である
【0126】
【数6】
【0127】は未知(p,q)と既知の量との間の線形
関係を規定する。点1および3を交換することにより、
上記の関係において第2の式である
【0128】
【数7】
【0129】を発生することができる。点(p,q)は
上記の2つの線形方程式を解くことにより見つけること
ができる。
【0130】障害物検出モジュールによって与えられる
障害物マップは、曖昧な物体が置換の後も見えるよう、
ターゲットビルボード内における画像ピクセルの一部分
を未変更のままに保つために用いられる。実際的なレン
ダリングの場合では、ブレ推定モジュールからの結果
は、画像を同じ焦点の量および/またはターゲットビル
ボードから推定されるモーションブレを施すことによ
り、置換ビルボード画像を用意するのに用いられる。
【0131】上記で示される構造および処理の他の変形
は、本発明の範囲内において行なうことができる。本発
明は前掲の特許請求の範囲に従って定めるものである。
【図面の簡単な説明】
【図1】メインモジュールが示すされているシステムの
ブロック図である。
【図2】TVカメラの視野におけるターゲットの連続す
る位置を示す、同じ撮影における画像のシーケンスの概
略図である。
【図3】図1の第1のファインダモジュールのブロック
図である。
【図4】前処理ステップのフローチャート図である。
【図5】システムの動作の際のマッチングステップのフ
ローチャート図である。
【図6】図1のグローバルモーショントラッカモジュー
ルの概略を示すフローチャート図である。
【図7】図1の更新ユニットのデータベースの実現の概
略図である。
【図8】図1の更新ユニットの動作を示すフローチャー
ト図である。
【図9】図1のシステムの任意のコンポーネントである
障害物検出モジュールの動作を示すフローチャート図で
ある。
【符号の説明】
10 ビデオソース 12 バッファ 14a レコーダ 14b ディスプレイ 14c 送信システム 16 第1のファインダモジュール 18 グローバルモードトラッカモジュール 20 属性記録ユニット 22 更新ユニット 24 第2のファインダモジュール 26 リプレーサ 28 パターンメモリ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ガイ・ギディオン アメリカ合衆国、91411 カリフォルニア 州、バン・ナイズ、レモナ・アベニュ、 6263 (72)発明者 ヒレル・ロム アメリカ合衆国、91411 カリフォルニア 州、バン・ナイズ、サロマ・アベニュ、 5755 (54)【発明の名称】 互いに相関する画像のシーケンスに属する連続するビデオ画像を変更する方法、ならびに対象点 の集合によって識別されるターゲットの表現を同じシーケンスの連続するTVフレーム中の同じ 幾何学的形状の予め定められるストアされるパターンのマッチングする表現と置換する装置およ びその方法

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 互いに相関する画像のシーケンスに属す
    る連続するビデオ画像を変更する方法であって、 前記画像中の置換されるべきターゲットの表現をストア
    するステップと、 シーケンスの複数の連続する画像をバッファメモリにス
    トアするステップと、 前記画像の少なくとも1つにおいてターゲットが信頼性
    を持って発見されるまで、パターン認識により前記画像
    においてターゲットを捜すステップと、 画像のグローバルな変化の評価に基づき、ターゲットが
    見つかった画像に先行および後続する画像におけるター
    ゲットの位置に関して逆方向および順方向予測を実行す
    るステップとを含み、それにより、前記画像のうちの特
    定の1つの内でターゲットのわずかな部分のみが利用可
    能な場合でも前記特定の画像におけるターゲットの位置
    の精密な識別が達成される、方法。
  2. 【請求項2】 メモリ中にストアされる対象点の集合に
    よって識別されるターゲットの表現を、ビデオカメラか
    ら撮られる同じシーケンスの連続するTVフレーム中の
    同じ幾何学的形状の予め定められるストアされるパター
    ンのマッチングする表現と置換する方法であって、 (a) バッファに前記シーケンスの連続するフレーム
    をストアするステップと、 (b) シーケンスの各現在のフレーム中の対象点を順
    番に抽出して、対象点の前記ストアされる集合のそれぞ
    れの部分集合とマッチングする、前記現在のフレーム中
    の前記抽出された対象点の少なくとも1つの部分集合を
    見つけようとするステップと、 (c) フレームの内容の間におけるグローバルな比較
    に基づいて、そのようなマッチングが見つけられた各前
    記現在のフレームと後続および先行するフレームとの間
    において前記カメラの動きを評価するステップと、 (d) 評価された動きからシーケンス中の前記後続お
    よび先行するフレームにおける前記ターゲットの位置を
    予測するステップと、 (e) 予測された位置を用いて前記シーケンス中の前
    記後続および先行するフレームにおいて前記ターゲット
    を自動的にサーチするステップと、 (f) 各前記フレームにおいて、それぞれのフレーム
    中のターゲットの前記表現中の複数の対象点とそれぞれ
    のストアされる複数の対象点との間の比較から計算され
    る変換を前記ストアされるパターンが受けた後、前記タ
    ーゲットの各前記表現を前記ストアされるパターンの表
    現と置き換えるステップとを含む、方法。
  3. 【請求項3】 前記対象点は各フレームによって表現さ
    れる画像の第1の微分係数を用いるオペレータを用いる
    ことによって得られ、 (b1) 画像の全体にわたって放射値Iの第1の空間
    微分係数を計算してI 2 x 、I2 y およびIx y を計
    算するステップを含み、xとyとは線スキャン方向と線
    スキャン方向に直交する方向とをそれぞれ指定し、さら
    に、 (b2) 3つの置換画像n11、n22、n12を得るため
    にI2 x 、I2 y およびIx y をボックスフィルタで
    畳み込むステップと、 (b3) n11、n22およびn12から始めて、重み付け
    画像と等方性画像とを計算し、重み付け画像および等方
    性画像をそれぞれのしきい値と比較し、重み付け画像と
    等方性画像との両方がそれぞれのしきい値よりも高い重
    み付け画像におけるそれらの値のみを保持するステップ
    とを含む、請求項2に記載の方法。
  4. 【請求項4】 関連の特徴がターゲットのモデルから抽
    出される前処理ステップをさらに含み、前記前処理ステ
    ップは、安定したベースを構成する点のトリプレットを
    検知するステップと、前記トリプレットをそれと関連す
    るアフィン座標の対とともにストアするステップとを含
    み、 1つのフレームにおいて対の色を分離する複数の点を指
    すことによって色の対を相互に指定するステップと、 前記対象点を含む前記関連の特徴を抽出する前に、前記
    対象点として、前記色を分離する前記フレームの少なく
    とも一部において他のいくつかの点を自動的に選択する
    ステップとをさらに含む、請求項2または請求項3に記
    載の方法。
  5. 【請求項5】 メモリ中にストアされる対象点の集合に
    よって識別されるターゲットの表現を、ビデオカメラか
    ら撮られる同じシーケンスの連続するTVフレーム中の
    同じ幾何学的形状の予め定められるストアされるパター
    ンのマッチングする表現と置換するための装置であっ
    て、 何秒かの期間にわたってすべてのフレームをストアする
    のに十分な長さを有する先入れ先出しメモリを構成す
    る、シーケンスの連続するフレームをストアするための
    バッファ手段(12)と、 シーケンスの各現在のフレームにおいて対象点を順番に
    抽出して、ストアされる集合のそれぞれの部分集合とマ
    ッチングする抽出された対象点の少なくとも1つの部分
    集合を見つけようとするための手段と、 連続するフレーム間における画像のグローバルな動きを
    評価し、パターンが見つけられたフレームに後続または
    先行するフレームにおけるターゲットの位置を予測する
    ための手段(18)と、 予測に基づき、ターゲットが発見されたフレームにおい
    てターゲットを精密に位置付けるためのターゲット発見
    手段(16)と、 それぞれのフレーム中のターゲットの表現中の少なくと
    もいくつかの対象点とそれぞれのストアされる対象点と
    の比較から計算される大きさおよびバースペクティブ変
    換を、ストアされるパターンが受けた後、各フレームに
    おけるターゲットの各部分的なまたは全体の表現を、も
    しそれが発見される場合には、ストアされるパターンの
    表現と置き換えるためのリプレーサ手段(26)とを含
    む、装置。
  6. 【請求項6】 グローバルな動きを評価するための手段
    は、前のフレームと各現在のフレームとの間でカメラに
    よって見られるシーンの動きを計算するよう構成され
    る、請求項5に記載の装置。
  7. 【請求項7】 前記ターゲット発見手段(16)は、 近傍の前記対象点を抽出するための対象点オペレータ
    (38)と、 色情報に基づいて、ターゲット中に最も発見されそうな
    対象点を選択するためのフォーカス・オブ・アテンショ
    ンサブモジュール(40)と、 ターゲットのストアされるモデル中の対象点と各実際の
    フレームに発見される対象点との間において対応する点
    の集合を発見するためのポイントマッチャサブモジュー
    ル(42)と、 前記ポイントマッチャサブモジュールによって与えられ
    る対応関係から、フレームにおけるターゲットの精密な
    位置を見つけるための精密ロックインサブモジュール
    (44)と、 ターゲットがシーケンスの別のフレームに見つけられた
    と仮定して、精密ロックインサブモジュールとグローバ
    ルモーショントラッカ(18)とから受取られる情報に
    基づいて、オーダnの任意のフレームにおいてターゲッ
    トの位置を予測するためのプレディクタサブモジュール
    (46)とを備える、請求項5または請求項6に記載の
    装置。
  8. 【請求項8】 他の前記手段からデータを集めて前記フ
    レーム間において情報を内挿するための更新モジュール
    (22)をさらに備え、 前記更新モジュールは、1つの前記フレームの属性を各
    々がストアする複数の連続するセルを有する循環バッフ
    ァメモリを備え、前記属性は、 それぞれのフレームと次のフレームとの間におけるグロ
    ーバルなモーション変換およびと確信の尺度と、 それぞれの前記フレームと次の前記フレームとの間にお
    ける変換、および確信の尺度と、 それぞれの前記シーケンスにおけるそれぞれの前記フレ
    ームの位置を表現するフラグと、 画像座標におけるターゲットのエッジ上の複数の表示を
    各々が含む、仮説のリンクされたリスト、および確信の
    尺度、 とのうちの少なくとも1つを含む、請求項7に記載の装
    置。
JP7130782A 1994-05-27 1995-05-29 互いに相関する画像のシーケンスに属する連続するビデオ画像を変更する方法、ならびに対象点の集合によって識別されるターゲットの表現を同じシーケンスの連続するtvフレーム中の同じ幾何学的形状の予め定められるストアされるパターンのマッチングする表現と置換する装置およびその方法 Withdrawn JPH08202879A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/249,348 US5436672A (en) 1994-05-27 1994-05-27 Video processing system for modifying a zone in successive images
US249348 1994-05-27

Publications (1)

Publication Number Publication Date
JPH08202879A true JPH08202879A (ja) 1996-08-09

Family

ID=22943088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7130782A Withdrawn JPH08202879A (ja) 1994-05-27 1995-05-29 互いに相関する画像のシーケンスに属する連続するビデオ画像を変更する方法、ならびに対象点の集合によって識別されるターゲットの表現を同じシーケンスの連続するtvフレーム中の同じ幾何学的形状の予め定められるストアされるパターンのマッチングする表現と置換する装置およびその方法

Country Status (6)

Country Link
US (1) US5436672A (ja)
EP (1) EP0684732B1 (ja)
JP (1) JPH08202879A (ja)
DE (1) DE69511620T2 (ja)
DK (1) DK0684732T3 (ja)
ES (1) ES2137464T3 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001506819A (ja) * 1996-11-27 2001-05-22 プリンストン ビデオ イメージ,インコーポレイテッド 物理的なセンサーおよびパターン認識の結合を用いたビデオストリームへの画像挿入

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903317A (en) * 1993-02-14 1999-05-11 Orad Hi-Tech Systems Ltd. Apparatus and method for detecting, identifying and incorporating advertisements in a video
IL108957A (en) * 1994-03-14 1998-09-24 Scidel Technologies Ltd Video sequence imaging system
US5530774A (en) * 1994-03-25 1996-06-25 Eastman Kodak Company Generation of depth image through interpolation and extrapolation of intermediate images derived from stereo image pair using disparity vector fields
IL123173A (en) * 1994-08-04 1999-07-14 Orad Hi Tec Systems Ltd Apparatus and method for video broadcasting
US5973733A (en) * 1995-05-31 1999-10-26 Texas Instruments Incorporated Video stabilization system and method
ES2134625T3 (es) * 1995-06-16 1999-10-01 Princeton Video Image Inc Sistema y metodo para introducir inserciones, en tiempo real, en video, utilizando oclusion adaptativa con una imagen de referencia sintetica.
US5892554A (en) * 1995-11-28 1999-04-06 Princeton Video Image, Inc. System and method for inserting static and dynamic images into a live video broadcast
US5912700A (en) * 1996-01-10 1999-06-15 Fox Sports Productions, Inc. System for enhancing the television presentation of an object at a sporting event
GB2305050A (en) * 1995-09-08 1997-03-26 Orad Hi Tec Systems Ltd Determining the position of a television camera for use in a virtual studio employing chroma keying
US5694490A (en) * 1995-11-27 1997-12-02 Sun Microsystems, Inc. System and method for a simultaneous multi-band block-stop filter
GB2312582A (en) * 1996-01-19 1997-10-29 Orad Hi Tech Systems Limited Insertion of virtual objects into a video sequence
US5751838A (en) * 1996-01-26 1998-05-12 Nec Research Institute, Inc. Correction of camera motion between two image frames
WO1997041683A1 (en) * 1996-04-29 1997-11-06 Princeton Video Image, Inc. Audio enhanced electronic insertion of indicia into video
US6133943A (en) * 1996-09-30 2000-10-17 Intel Corporation Method and apparatus for producing a composite image
US5917553A (en) * 1996-10-22 1999-06-29 Fox Sports Productions Inc. Method and apparatus for enhancing the broadcast of a live event
JPH10145674A (ja) * 1996-11-12 1998-05-29 Sony Corp ビデオ信号処理装置及びビデオ信号処理方法
JP3480648B2 (ja) * 1996-11-12 2003-12-22 ソニー株式会社 ビデオ信号処理装置及びビデオ信号処理方法
US6100925A (en) * 1996-11-27 2000-08-08 Princeton Video Image, Inc. Image insertion in video streams using a combination of physical sensors and pattern recognition
US5953077A (en) * 1997-01-17 1999-09-14 Fox Sports Productions, Inc. System for displaying an object that is not visible to a camera
US6252632B1 (en) * 1997-01-17 2001-06-26 Fox Sports Productions, Inc. System for enhancing a video presentation
GB2334643A (en) 1998-02-20 1999-08-25 Discreet Logic Inc Generating registration data for a virtual set
FR2775813B1 (fr) * 1998-03-06 2000-06-02 Symah Vision Procede et dispositif de remplacement de panneaux cibles dans une sequence video
GB2336057B (en) 1998-04-02 2002-05-08 Discreet Logic Inc Producing image data in a virtual set
US6229550B1 (en) 1998-09-04 2001-05-08 Sportvision, Inc. Blending a graphic
US6266100B1 (en) 1998-09-04 2001-07-24 Sportvision, Inc. System for enhancing a video presentation of a live event
US6525780B1 (en) 1998-12-18 2003-02-25 Symah Vision, Sa “Midlink” virtual insertion system
US20010017671A1 (en) * 1998-12-18 2001-08-30 Pierre Pleven "Midlink" virtual insertion system and methods
US6330366B1 (en) * 1998-12-21 2001-12-11 Intel Corporation Method and apparatus for buffer management in video processing
ES2286875T3 (es) 1999-04-22 2007-12-01 Leo Vision Procedimiento y dispositivo de tratamiento y de restitucion de imagenes, con nuevo muestreo.
WO2000069178A1 (de) * 1999-05-07 2000-11-16 Siemens Aktiengesellschaft Verfahren und anordnungen zur rechnergestützten bewegungskompensation eines digitalisierten bildes sowie computerprogramm-erzeugnisse und computerlesbare speichermedien
US7075556B1 (en) 1999-10-21 2006-07-11 Sportvision, Inc. Telestrator system
US7230653B1 (en) 1999-11-08 2007-06-12 Vistas Unlimited Method and apparatus for real time insertion of images into video
US6909438B1 (en) 2000-02-04 2005-06-21 Sportvision, Inc. Video compositor
KR20000050155A (ko) * 2000-05-18 2000-08-05 이종열 영상을 이용하는 방송 매체와 이동 통신을 포함한 통신 매체 그리고 영상을 저장한 배포 매체의 영상 자체 일부에 도안 등을 첨가하여 상업적 광고에 지속적으로 사용하는 방법
KR20000054304A (ko) * 2000-06-01 2000-09-05 이성환 방송 중계 영상 화면에 광고를 삽입하는 시스템 및 그제어방법
US6826292B1 (en) * 2000-06-23 2004-11-30 Sarnoff Corporation Method and apparatus for tracking moving objects in a sequence of two-dimensional images using a dynamic layered representation
WO2002013516A1 (en) * 2000-06-28 2002-02-14 Koninklijke Philips Electronics N.V. Method of and unit for processing an image
WO2002099750A1 (en) * 2001-06-07 2002-12-12 Modidus Networks 2000 Ltd. Method and apparatus for video stream analysis
KR20030002919A (ko) * 2001-07-02 2003-01-09 에이알비전 (주) 방송 영상에서의 실시간 이미지 삽입 시스템
KR100387901B1 (ko) * 2001-07-03 2003-06-18 에이알비전 (주) 카메라 센서를 이용한 이미지 추적 및 삽입 시스템
US7206434B2 (en) 2001-07-10 2007-04-17 Vistas Unlimited, Inc. Method and system for measurement of the duration an area is included in an image stream
DE10161097B4 (de) * 2001-12-12 2004-11-11 Loewe Opta Gmbh Verfahren und Fernseh- oder Videobildwiedergabevorrichtung zum Manipulieren von unerwünschten Darstellungsbereichen in einem Videobild
KR20030070446A (ko) * 2002-02-25 2003-08-30 (주)버추얼미디어 동영상의 영상합성장치 및 그 방법
KR20030090372A (ko) * 2002-05-23 2003-11-28 주식회사 밀리오네어즈 디지털 방송 중계를 위한 광고 교체 방법 및 그 장치
US20040100563A1 (en) * 2002-11-27 2004-05-27 Sezai Sablak Video tracking system and method
US20040194128A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method for providing digital cinema content based upon audience metrics
US20040194127A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method and system for modifying digital cinema frame content
US20040194123A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method for adapting digital cinema content to audience metrics
US7116342B2 (en) * 2003-07-03 2006-10-03 Sportsmedia Technology Corporation System and method for inserting content into an image sequence
US7382400B2 (en) * 2004-02-19 2008-06-03 Robert Bosch Gmbh Image stabilization system and method for a video camera
US7742077B2 (en) * 2004-02-19 2010-06-22 Robert Bosch Gmbh Image stabilization system and method for a video camera
US20050270372A1 (en) * 2004-06-02 2005-12-08 Henninger Paul E Iii On-screen display and privacy masking apparatus and method
US9210312B2 (en) * 2004-06-02 2015-12-08 Bosch Security Systems, Inc. Virtual mask for use in autotracking video camera images
DE102004026782A1 (de) * 2004-06-02 2005-12-29 Infineon Technologies Ag Verfahren und Vorrichtung zur rechnergestützten Bewegungsschätzung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, computerlesbares Speichermedium und Computerprogramm-Element
US8212872B2 (en) * 2004-06-02 2012-07-03 Robert Bosch Gmbh Transformable privacy mask for video camera images
US7397964B2 (en) * 2004-06-24 2008-07-08 Apple Inc. Gaussian blur approximation suitable for GPU
JP2006039689A (ja) * 2004-07-22 2006-02-09 Nara Institute Of Science & Technology 画像処理装置、画像処理方法、画像処理プログラムおよびそのプログラムを記録した記録媒体
US20060078162A1 (en) * 2004-10-08 2006-04-13 Dynapel, Systems, Inc. System and method for stabilized single moving camera object tracking
US7676081B2 (en) * 2005-06-17 2010-03-09 Microsoft Corporation Image segmentation of foreground from background layers
IL170320A (en) * 2005-08-17 2010-04-29 Orad Hi Tec Systems Ltd System and method for managing the visual effects insertion in a video stream
US7702183B1 (en) * 2006-05-17 2010-04-20 The Boeing Company Methods and systems for the detection of the insertion, removal, and change of objects within a scene through the use of imagery
CN101512553B (zh) * 2006-07-16 2012-06-20 西姆比有限公司 用于虚拟内容安置的系统和方法
US20090051679A1 (en) * 2007-08-24 2009-02-26 Simon Robinson Local motion estimation using four-corner transforms
FR2929794B1 (fr) * 2008-04-08 2010-12-31 Leo Vision Procede et systeme de traitement d'images pour l'incrustation d'elements virtuels
US8477246B2 (en) * 2008-07-11 2013-07-02 The Board Of Trustees Of The Leland Stanford Junior University Systems, methods and devices for augmenting video content
US20100259614A1 (en) * 2009-04-14 2010-10-14 Honeywell International Inc. Delay Compensated Feature Target System
US8786415B2 (en) * 2010-02-24 2014-07-22 Sportvision, Inc. Tracking system using proximity and/or presence
JP5375744B2 (ja) * 2010-05-31 2013-12-25 カシオ計算機株式会社 動画再生装置、動画再生方法及びプログラム
WO2012006356A2 (en) 2010-07-06 2012-01-12 Mark Lane Apparatus, system, and method for an improved video stream
US20120250984A1 (en) * 2010-12-01 2012-10-04 The Trustees Of The University Of Pennsylvania Image segmentation for distributed target tracking and scene analysis
JP5627439B2 (ja) * 2010-12-15 2014-11-19 キヤノン株式会社 特徴検出装置、特徴検出方法、およびそのプログラム
WO2012103092A2 (en) 2011-01-24 2012-08-02 Datalogic ADC, Inc. Exception detection and handling in automated optical code reading systems
US9215383B2 (en) 2011-08-05 2015-12-15 Sportsvision, Inc. System for enhancing video from a mobile camera
US9514381B1 (en) 2013-03-15 2016-12-06 Pandoodle Corporation Method of identifying and replacing an object or area in a digital image with another object or area
KR102135671B1 (ko) * 2014-02-06 2020-07-20 에스케이플래닛 주식회사 가상간접 광고 서비스 방법 및 이를 위한 장치
CN105284122B (zh) * 2014-01-24 2018-12-04 Sk 普兰尼特有限公司 用于通过使用帧聚类来插入广告的装置和方法
US10290119B2 (en) 2016-09-15 2019-05-14 Sportsmedia Technology Corporation Multi view camera registration
CN110049361B (zh) * 2019-03-05 2021-06-22 北京奇艺世纪科技有限公司 显示控制方法、装置、投屏设备及计算机可读介质
CN110532989B (zh) * 2019-09-04 2022-10-14 哈尔滨工业大学 一种海上目标自动探测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8822062D0 (en) 1988-09-20 1988-10-19 Quantel Ltd Video processing
US5263933A (en) 1988-12-14 1993-11-23 Patco Ventures Ltd. Safety syringe needle device with interchangeable and retractable needle platform
FR2661061B1 (fr) * 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
JP3037383B2 (ja) * 1990-09-03 2000-04-24 キヤノン株式会社 画像処理システム及びその方法
GB2254216B (en) * 1991-03-14 1994-08-31 Anthony John Cuthbert Visual image modifier
ATE181631T1 (de) * 1991-07-19 1999-07-15 Princeton Video Image Inc Fernsehanzeigen mit ausgewählten eingeblendeten zeichen
GB9119964D0 (en) * 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001506819A (ja) * 1996-11-27 2001-05-22 プリンストン ビデオ イメージ,インコーポレイテッド 物理的なセンサーおよびパターン認識の結合を用いたビデオストリームへの画像挿入

Also Published As

Publication number Publication date
DE69511620D1 (de) 1999-09-30
EP0684732B1 (en) 1999-08-25
DE69511620T2 (de) 2000-05-31
ES2137464T3 (es) 1999-12-16
US5436672A (en) 1995-07-25
DK0684732T3 (da) 2000-04-17
EP0684732A3 (en) 1996-11-06
EP0684732A2 (en) 1995-11-29

Similar Documents

Publication Publication Date Title
JPH08202879A (ja) 互いに相関する画像のシーケンスに属する連続するビデオ画像を変更する方法、ならびに対象点の集合によって識別されるターゲットの表現を同じシーケンスの連続するtvフレーム中の同じ幾何学的形状の予め定められるストアされるパターンのマッチングする表現と置換する装置およびその方法
KR101971866B1 (ko) 동화상에 있어서 물체를 검출하는 방법 및 장치, 및 그 프로그램을 기억한 기억 매체
Yu et al. Trajectory-based ball detection and tracking in broadcast soccer video
KR101469398B1 (ko) 텍스트 기반 3d 증강 현실
Farin et al. Robust camera calibration for sport videos using court models
Venkatesh et al. Efficient object-based video inpainting
Huang et al. Efficient image stitching of continuous image sequence with image and seam selections
US6826292B1 (en) Method and apparatus for tracking moving objects in a sequence of two-dimensional images using a dynamic layered representation
JP4157620B2 (ja) 移動物体検出装置及びその方法
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
US20040141633A1 (en) Intruding object detection device using background difference method
US20040120548A1 (en) Method and apparatus for tracking features in a video sequence
Erdem et al. Video object tracking with feedback of performance measures
Tian et al. Scene Text Detection in Video by Learning Locally and Globally.
Ratan et al. Object detection and localization by dynamic template warping
Johansson et al. A system for automatic pose-estimation from a single image in a city scene
EP3035242A1 (en) Method and electronic device for object tracking in a light-field capture
CN111914627A (zh) 一种车辆识别与追踪方法及装置
US20080198237A1 (en) System and method for adaptive pixel segmentation from image sequences
WO2024022301A1 (zh) 视角路径获取方法、装置、电子设备及介质
CN112508998A (zh) 基于全局运动的视觉目标对齐方法
Manafifard A review on camera calibration in soccer videos
Myers et al. A robust method for tracking scene text in video imagery
Ghita et al. Epipolar line extraction using feature matching
Arbués-Sangüesa et al. Multi-Person tracking by multi-scale detection in Basketball scenarios

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020806