JPH06168330A - 移動対象のトラッキング - Google Patents

移動対象のトラッキング

Info

Publication number
JPH06168330A
JPH06168330A JP5175433A JP17543393A JPH06168330A JP H06168330 A JPH06168330 A JP H06168330A JP 5175433 A JP5175433 A JP 5175433A JP 17543393 A JP17543393 A JP 17543393A JP H06168330 A JPH06168330 A JP H06168330A
Authority
JP
Japan
Prior art keywords
frame
head
image
motion
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5175433A
Other languages
English (en)
Inventor
Thanassas Dimitrios
ザナッサス ディミトリオス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV, Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JPH06168330A publication Critical patent/JPH06168330A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 表示デバイス上に表示するためにカメラによ
って捕獲された一連の画像フレームとして表された情景
で対象をトラッキングすることを目的とする。 【構成】 本方法は、a)初期フレームの対象を一様な
動きを有する領域に区分し、b)対象を初期フレームに
配置し、かつその重心と動きベクトルを見い出し、c)
対象の重心の新しい位置を規定するために動きベクトル
を使用して次のフレームに対象の重心を投影し、d)一
様な動きを有する多数の領域に次のフレームの影像を区
分し、e)以前のフレームの対象の領域に類似する影像
の領域を見い出し、かつそれと共に新しい対象を生成す
るために投影された重心に近い重心を生成し、f)新し
い対象のサイズと動きベトルを計算し、g)新しい対象
の動きベトルを使用して続いて起こるフレームに対象の
重心の新しい位置を投影し、h)ステップd)からg)
を繰り返すことの各ステップを具えている。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、表示デバイス上に表示
するためにカメラによって捕獲された一連の画像フレー
ムとして表された情景で対象をトラッキングする方法に
関連している。
【0002】本発明は、さらに表示デバイス上に表示す
るためにカメラによって捕獲された一連の画像フレーム
として表された情景で対象をトラッキングする装置に関
連している。
【0003】本発明は特にビデオフォンに適用され、典
型的には通信伝送者の顔のような情景の部分が観測者に
特別な関心がある。ビデオフォンが広く受け入れられる
と、異なる製造業者の機器の間の両立性を保証する国際
的な標準を厳密に一致させなければならい。統合サービ
スディジタル回線網(ISDN:Integrated ServiceDi
gital Network)にわたって動作するビデオフォンにこ
の標準化が適合している。そのような1つの標準は低ビ
ット速度(64kビット/秒の倍数)でディジタル回線網
にわたるビデオフォン伝送に対するCCITT研究グル
ープXVにより開発されたH.261 である。最も低いビ
ット速度(64kビット/秒)の達成に含まれた帯域幅低
減(あるいは、ビデオ圧縮比)は 300:1のオーダーで
ある。現行の符号化技術を使用するなら、復号された影
像の目に見える劣化としてそれ自身を表す伝送シーケン
スにいくらかの誤りを導入することなしにそのような大
きな低減の達成は可能ではない。
【0004】H.261 符号化アルゴリズムの基礎は、い
くつかのよく知られた技術の混成(hybrid)であり、そ
れは混成動き補償DPCM/DCT符号器として記述することが
でき、ここでDPCMは差分パルスコード変調であり、DCT
は離散余弦変換である。上記のアルゴリズムにより生成
された影像の本質的な品質は影像の複雑性と影像の動き
の程度およびタイプの双方に依存している。ビデオフォ
ンを使用する人々はその動きを不当に制限できず、かつ
典型的なオフィス環境では背景のかなりの動きが存在し
よう。それ故、影像のかなりの部分にわたる動きによる
画像劣化の問題を考慮しなければならない。
【0005】典型的なビデオフォン通信において、ビデ
オフォンを使用する人々は互いに会話し、互いの顔を眺
め、かつ何が背景に見えるかについては特に関心を持た
ない。それ故、ある戦略が提案され、そこでは例えば顔
のような影像の本質的な重要部分は、余り重要でない部
分を犠牲にして余分な利用可能ビット速度を受信するよ
うな態様で割り付けられている。このように、もし各画
像フレームにおいて、ユーザーの顔の配置が既知である
か、あるいは検出されたなら、顔の領域に使用された量
子化ステップは、余計なビットがこの領域に使用される
よう低下できる。その結果、背景は僅かなビットしか受
信せず、さらに劣化するが、しかしそれは注目の中心で
はないから、観測者によって知覚された受信画像の全体
の本質的な品質は改善される。影像の異なる部分へのビ
ット割り付けのこの荷重に対してH.261 標準内に規定
が存在している。
【0006】その結果、ビデオフォン通信の画像品質を
改善するビット割り付けの荷重に適用できるよう、一連
の画像フレームの顔の配置とトラッキングの問題が取り
扱われた。
【0007】顔をトラッキングする1つの方法はジェー
・エフ・エス・ヨー(J. F. S. Yau)とエヌ・ディー・
ダッフィ(N. D. Duffy )の論文、「モデルに基づく符
号化適用における動きパラメータ評価の特徴トラッキン
グ方法(A Featrue TrackingMethos for Motion Parame
ter Estimation In A Model-Based Coding Application
)」、影像処理とその適用の第3回国際会議(Third I
nternational Conference on Image Processing and it
s Applications )に提出、1989年7 月18−20にワーウ
ィック(Warwick )で開催、IEE会議刊行物No.307、
頁531 −535 に開示されている。
【0008】この論文は次のことを表している。すなわ
ち、「顔の動きのダイナミックスがモデルに基づく影像
符号化構造の適用にパラメータ化できる方法である。ト
ラッキングアルゴリズムが記述され、それにより被験者
の眼、鼻および口のボックス(box )が最初に配置さ
れ、次にブロック整合とコード一覧表(code book )探
索技術の双方を使用して引き続くフレームにわたりトラ
ックされた。頭の位置と方位を規定するのに必要な6次
元の自由度が動きパラメータ評価アルゴリズムによりト
ラックされたボックス位置から導出される。アルゴリズ
ムの実現はボックス位置の空間分布の解釈と、それらを
顔の簡単化された位相幾何学的3次元モデルの関連付け
を含んでいる。
【0009】解析された影像シーケンスの各フレームの
位置と方位の評価は2つのフェーズで実行される。第1
フェーズは影像シーケンスにわたる目、鼻および口のト
ラッキングを含んでいる。このことは第1フレーム内で
顔の特徴(facial features)を配置し、次にブロック
探索とコード一覧表技術を使用して引き続くフレームに
わたってそれらをトラッキングすることにより達成され
た。初期の特徴配置は手動で実行されるが、しかしその
後のすべての処理はソフトウエアアルゴリズムにより実
行された。特徴配置は関連した顔の特徴を完全に含有し
たボックスにより表現された。従って、影像シーケンス
解析の第1フェーズ(トラッキングフェーズ)の結果
は、時間軸に沿う影像シーケンスにわたる顔の特徴ボッ
クスの軌跡(trajectory)の記述である。第2フェーズ
(動きパラメータ評価フェーズと呼ばれた)は位置と方
位の評価を与える各フレームの顔の特徴の空間分布を解
釈する。2−Dデータから3−D情報を復元するタスク
は顔の簡単化された位相幾何学的モデルに顔の特徴ボッ
クス位置を参照することにより達成された。
【0010】ピクチャーフォン適用の影像シーケンス解
析からの3−D情報の導出はロボットビジョンの適用の
ような適用では確度と精度を要求しない。後者(精度)
は角度と距離の正確かつ絶対的測定を要求する。顔の影
像の場合では、位置と方位パラメータを近似することで
十分である。顔の動きのダイナミクスは元の影像シーケ
ンスからのダイナミクスと完全に同期して再生されるこ
とがさらに重要である。それはチャネルにわたる通信の
可視ニュアンスを伝える絶対位置と方位よりも顔の動き
のダイナミクスであるという理由からである。」
【0011】ヨー(Yau )とダァフィ(Duffy )により
説明された方法は多くの欠点を蒙っている。第1に、も
し目の1つあるいは口が閉塞(occlude )される(すな
わち対象がその前で通過される)なら、顔のトラッキン
グが不可能になる。第2に、もし1つの目がカメラに対
して見えないように頭が回転されるなら、顔をトラック
できない。第3に、それは顔の特定の特徴、すなわち
目、鼻および口の識別を要求する。
【0012】本発明は、表示デバイス上に表示するため
にカメラによって捕獲された一連の画像フレームとして
表された情景で対象をトラッキングする方法を与え、該
方法は、 a)初期フレームの対象を一様な動きを有する領域に区
分すること、 b)対象を初期フレームに配置し、かつその重心と動き
ベクトルを見い出すこと、 c)対象の重心の新しい位置を規定するために動きベク
トルを使用して次のフレームに対象の重心を投影するこ
と、 d)一様な動きを有する多数の領域に次のフレームの影
像を区分すること、 e)以前のフレームの対象の領域に類似する影像の領域
を見い出し、かつそれと共に新しい対象を生成するため
に投影された重心に近い重心を生成すること、 f)新しい対象のサイズと動きベトルを計算すること、 g)新しい対象の動きベトルを使用して続いて起こるフ
レームに対象の重心の新しい位置を投影すること、およ
び h)ステップd)からg)を繰り返すこと、の各ステッ
プを具えている。
【0013】この方法で、各フレームは一様な動きの領
域に区分される。対象の初期配置が必要とされ、それは
一様な動きのそのような多数の領域を具え、かつ連続す
る各フレームにおいて、対象に属する領域が見い出さ
れ、これらは新しい対象と呼ばれる。対象の重心は対象
の評価された動きを使用してフレームのシーケンスにわ
たってトラックされる。新しい対象の重心は対象のトラ
ックに使用されず、その代わりに、投影された重心が対
象のトラックに使用される。各ステージで得られた新し
い対象領域は新しい対象のサイズと動き特性の計算のみ
に使用されるが、その位置はそうではない。
【0014】ステップc)とステップf)において、前
方動きベクトル(forward motion vector )が計算さ
れ、一方、後方動きベクトル(backward motion vecto
r)は影像の区分に使用されよう。
【0015】後方動きベクトルは標準H.261 コーデッ
クで既に利用可能であり、かつそれは対象のトラックに
これらの動きベクトルを使用することに対し便利であろ
う。しかし、これらの後方動きベクトル、すなわち以前
のフレームに現行フレームを投影するのに使用された動
きベクトルは、H.261 符号化アルゴリズムのフレーム
間符号化モデルを満足するよう設計されている。それに
対して、トラッキングは現行フレームから前方を眺める
評価ベクトル、すなわち前方動きベクトルを要求する。
トラッキングは後方動きベクトルの向きを逆にすること
により近似できるが、しかしこれは背景をカバーしたり
カバーしないことにより生起するあいまいさを生じ得
る。その結果、トラッキング機能に対して前方動きベク
トルを計算し、一方、区分に対して後方動きベクトルの
使用を保留することが好ましい。
【0016】類似度(similarity)を決定するファクタ
は、サイズ、位置、および比較すべき領域の方向と方位
であろう。
【0017】これらのファクタの相対的重要性は実験的
に決定でき、かつ現在好ましい実施例では、類似度の測
度は次の式により決定される。
【数1】類似度=(mmd +mad +12×cd+2×sd)/8 ここでmmd は動きの大きさの差 mad は動きの角度の差 cd は重心の差 sd はサイズの差 である。
【0018】対象は人間の頭であり、かつこの方法は頭
の周りに矩形を構成するステップを含んでいる。画像の
残りよりも高い解像度でユーザーの顔を伝送できる量子
化器を導くよう、この矩形はH.261 ビデオフォンコー
デックに使用できよう。
【0019】このステップの区分は、 i)画素の2つの隣接ブロックの動きベクトルを比較す
ること、 ii)もしその動きベクトルの間の差が所与のしきい値内
にあるなら、画素のブロックを同じ領域に割り当てるこ
と、 iii)画素のすべての隣接ブロックが検査され、かつ画
素の別のブロックが領域に統合されなくなるまで、領域
内で画素のブロックに隣接する画素の各ブロックにステ
ップi)とii)を繰り返すこと、 iv)領域内に含まれない2つの別の隣接ブロックを選択
し、かつ一様な動きの別の領域を創成するためにステッ
プi)から iii)を繰り返すこと、および v)画像フレーム内のすべてのブロックが1つの領域に
割り付けられるまでステップiv)を繰り返すこと、のス
テップを具えることができる。
【0020】画像を区分するこの方法は、所与の対象が
さらに単一区分領域となりやすいという利点を有してい
る。例えば、たとえその端部の1方の周りで回転した棒
(bar )が各端部で著しく異なる動きを有しても、隣接
ブロック間の動きベクトルの差が小さいので単一領域に
区分されよう。領域の平均動きベクトルは可能なブロッ
ク(potential block )との比較に使用されない。その
代わりに、隣接ブロックの動きベクトルが使用される。
【0021】本発明は、表示デバイス上に表示するため
にカメラによって捕獲された一連の画像フレームとして
表された情景で対象をトラッキングする装置を備え、該
装置は、初期フレームの影像を一様な動きを有する領域
に区分する手段、対象を初期フレームに配置し、かつそ
の重心と動きベクトルを見い出す手段、対象の重心の新
しい位置を規定するために動きベクトルを使用して次の
フレームに対象の重心を投影する手段、一様な動きを有
する多数の領域に次のフレームの影像を区分する手段、
以前のフレームの対象の領域に類似する影像の領域を見
い出し、かつ新しい対象を生成するために投影された重
心に近い重心を有する手段、新しい対象のサイズと動き
ベトルを計算する手段、および新しい対象の動きベトル
を使用して続いて起こるフレームに対象の重心の新しい
位置を投影する手段、を具えている。
【0022】区分手段は画素ブロックの後方動きベクト
ルを使用し、一方、投影手段は対象の前方動きベクトル
を使用しよう。
【0023】領域の類似度は相対サイズ、位置および比
較すべき対象の動きの大きさと方向を考慮して決定され
よう。
【0024】対象は人間の頭であり、かつ頭の周りに矩
形を構成する手段が備えられよう。
【0025】区分手段は、画素の2つの隣接ブロックの
動きベクトルを比較する手段、もしその動きベクトルの
間の差が所与のしきい値より小さいなら、画素のブロッ
クを同じ領域に割り当てる手段、画素のすべての隣接ブ
ロックが検査され、かつ別のブロックが領域に統合され
なくなるまで、同じ領域内で画素のブロックに隣接する
画素のすべてのブロックを繰り返して考慮する手段、を
具えよう。
【0026】本発明は、さらにビデオフォン端末を備
え、それはカメラ、表示ユニットおよびコーデックを具
え、ここでコーデックは所与の帯域幅の通信リンクにわ
たって画像情報を伝送するよう配設され、かつ異なる解
像度で各画像フレームの異なる領域を量子化する手段を
含み、ここで本発明によるトラッキング装置は、トラッ
クされた対象を含む画像フレームの領域が画像フレーム
の残りよりも高い解像度で伝送されるようにコーデック
を制御するために配設されている。
【0027】本発明の上述および他の態様ならびにその
利点は添付図面を参照し、実例により記述された本発明
の以下の実施例から明らかであろう。
【0028】
【実施例】図1に示されたように、H.261 コーデック
の符号化セクションは、処理および伝送のために共通の
中間フォーマットに受信ビデオ信号を変換する符号化配
列2に接続されている入力1を有している。符号化配列
2の出力はライン20を介して減算器3の第1入力と動き
評価器4の第1入力に送られている。減算器3の出力は
量子化器6に送られる離散余弦変換(DCT)を形成す
る配列5に送られている。量子化器6の出力はバッファ
回路7の入力と逆量子化器8の入力に接続されている。
逆量子化器8の出力は逆DCTを実行する配列9の入力
に接続されている。逆DCT配列9の出力はその出力が
フレームメモリ11に送られている加算回路10の第1入力
に接続されている。フレームメモリ11からの出力は加算
回路10の第2入力と減算器3の第2入力に接続されてい
る。加算回路10の出力はその出力がフレームメモリ11に
接続されているライン21を介して動き評価器4の第2入
力に送られている。コーデックの第2入力12は伝送のた
めの適切なコードに受信音声信号を符号化する音声符号
器13に接続されている。バッファ回路7と音声符号器13
の出力は伝送マルチプレクサ14の第1入力と第2入力に
それぞれ接続され、伝送マルチプレクサ14の出力はコー
デックの出力15に接続され、かつそれは伝送のために符
号化信号を供給している。
【0029】これまで説明されたように、符号化セクシ
ョンはH.261 規格から知られたようなものであり、か
つ種々の機能ブロックの実現は当業者によく知られてお
り、従ってこれ以上説明されないであろう。H.261 コ
ーデックの前後関係で本発明を実行するために、多数の
追加機能ブロックが備えられている。符号化配列2の出
力はさらに動き検出器16の第1入力に接続され、一方、
加算回路10の出力はさらに動き検出器16の第2入力に接
続されている。動き検出器16の出力は初期ヘッドロケー
タ(initial head locator)17の入力に送られている。
ヘッドロケータ17の出力はその出力が量子化器6の別の
入力に接続されているヘッドトラッカー(head tracke
r)18に送られている。動き評価器4の出力は別の動き
評価器19の入力と、初期ヘッドロケータ17の第2入力
と、そしてヘッドトラッカー18の別の入力とに送られ
て。動き評価器19はヘッドトラッカー18の別の入力に印
加されている前方動きベクトルを以前のフレームについ
て計算する。
【0030】H.261 は低ビット速度(64kビット/秒
の倍数)でディジタル回線網にわたるビデオフォン伝送
のために、CCITT研究グループXVにより開発され
た国際標準である。H.261 符号化アルゴリズムの基礎
はいくつかのよく知られた技術の混成であり、それは混
成動き補償DPCM/DCT符号器として説明され、ここでDPCM
は差分パルスコード変調であり、DCT は離散余弦変換で
ある。図1はそのようなシステムのブロック線図を示し
ている。初期化の後、このアルゴリズムは以下のように
進行する。フレームメモリ11は以前のフレーム期間の間
に捕獲された影像を含み、かつ「マクロブロック」と名
付けられた16×16画素ブロックと整合するブロックを使
用する動き評価器4は以前のフレームのブロックと現在
のブロックの各ブロックとの最良の整合を見い出す。現
在のフレームのデータはライン20を介して動き評価器4
に伝えられ、一方、以前のフレームのデータはライン21
を介して動き評価器4にも伝えられる。動きベクトルは
DPCM予測を形成するため検出器に応答するフレームメモ
リ11に影像を置き換えるのに使用される。現行の影像の
この予測と実際の影像との間の差は動き補償されたフレ
ーム差を与えるために2つの影像の減算により計算され
る。これは伝送すべきデータの総量を低減するために影
像シーケンス内の時間相関を利用している。
【0031】アルゴリズムの次のステージは8×8画素
ブロックベースでその離散余弦変換を取ることにより動
き補償フレーム差内で、フレーム内相関あるいは空間相
関を利用するよう試みる。DCT の係数は量子化され(エ
ラーを導入するが)、かつ任意のブロックの小さい係数
を放棄するよう閾値化される。このステージの出力はハ
フマン(Huffman )符号化であり、かつ伝送チャネルの
固定速度に符号器の瞬時データ速度を整合するバッファ
7に送られる。バッファ7内のデータの総量はモニタさ
れ、かつ信号は、解像度と伝送されたDCT 係数の数を決
定する量子化器6のステップサイズとしきい値を制御す
るようフィードバックされる。もしステップがあまりに
も粗くなると、符号器設計者は各フレームにデータを伝
送するためにさらに時間を与えて、フレーム速度を減少
し、かつ細かい量子化ステップを使用するよう選択しよ
う。
【0032】符号器それ自身内で、符号化された影像は
複号され、かつ次の符号化サイクルに予測フレームを発
生するために蓄積される。たとえ符号化戦略の性質によ
りエラーが影像に導入されても、基準として複号された
影像の使用により導入されたネガティブフィードバック
はエラーが影像のそれらの部分に次第に集積されること
を許容し、その影像部分に対して予測は真の影像の良好
な近似であり、すなわち領域に対してそれは固定的かあ
るいは純粋に併進的な動きを有している。
【0033】上記のアルゴリズムにより生成された影像
の本質的な品質は影像の複雑性(およびいかにこの複雑
性が適しているかはDCT の基本機能である)と影像の動
きの程度とタイプ(すなわちブロック整合は2−Dの平
面的動きを全くうまく処理できるが、しかし回転を含む
動きあるいはカメラ軸に平行な動きは本質的な影像品質
の劣化となる整合プロセスの相関を低減しよう)の双方
依存している。ビデオフォンを使用する人々はその動き
を不当に制限できず、全くそうであるが、典型的なオフ
ィス環境で、どんな場合でも背景の全く多くの動きであ
り、そこで影像の顕著な部分にわたる動きにより画像の
忠実度の劣化の問題が重要である。
【0034】典型的なビデオフォン通信において、電話
を使用する人々は互いに会話し、互いの顔を眺め、かつ
背景の見かけには大きな関心がない。このことは影像わ
たって利用可能なビットを平等に割り付ける代わりに、
重要性の少ない部分を犠牲にして、影像の本質的な主要
部分が一層の利用可能なビット速度を受信する態様で割
り付けられるという戦略を提案する。このように、もし
ユーザーの顔の配置が既知なら、顔の領域で使用された
量子化は減少でき、従ってさらに多いビットがこの領域
で使用されよう。もちろん背景は少ないビットを受信
し、それ故劣化するが、しかしそれは注意の中心ではな
いから、全体の本質的な画像品質は改善される。影像の
異なる部分へのビット割り付けの荷重に対して、H.26
1 内に規定が存在する。話し手の頭の配置とトラッキン
グ、および、それを取り巻く矩形の生成によりこの規定
を使用するよう提案されている。矩形の座標は量子化器
6に印加され、従ってそれは矩形内で量子化を減少し、
このようにして顔の特徴は画像の他の部分と比較して増
大した解像度で伝送される。
【0035】ユーザーの頭を配置しかつトラックするた
めに、追加の機能ブロック16から19が使用されている。
初期ヘッドロケーター17は任意の適当な形式を取ろう。
1つのアプローチはドイツ国出願特許第4028191 号に開
示されたような態様で頭と肩のシルエットを最初に配置
することである。
【0036】影像フローフィールドのヒストグラムは、
水平軸に沿った16×16画素の連続する各ブロックに対し
て、その動きベクトルが零でない垂直軸に沿ったブロッ
クの数をカウントすることにより計算される。図2bに
示されてように、このことは肩に対して相対的に小さい
数と、頭に対して相対的に大きい数を与える。頭の縁部
に到達する場合に不連続性が存在し、この不連続性の検
出は水平方向に頭の縁部の配置を可能にする。このよう
にもし影像にわたり左から右に動くと、最初の不連続性
は顔の右側を識別しよう(被験者はカメラに対面してい
るものと仮定する)。
【0037】同様に、顔の左側は影像にわたって右から
左に動く場合に不連続性を検出することにより配置でき
る。図2bに示されたように、左側からの水平位置5と
6との間に垂直に5ブロックのジャンプが、そして右側
からの水平位置3と4との間に垂直に4ブロックのジャ
ンプが存在する。するとこの例で垂直に5ブロックを水
平に4ブロックだけ取って頭の周りに矩形が描かれる。
図3に示された区分領域が検査され、矩形内に含まれた
それらの領域の少なくとも50%を有する領域は頭の部分
であると見なされ、かつそれらの領域に関連する情報は
頭の組(head set)として規定される。画像に頭を配置
すると、この情報はヘッドトラッカー18に伝えられる。
【0038】ヘッドトラッカー18の目的はビデオフォン
シーケンスの人間のシルエットの頭の動き(ここで典型
的なシルエットは話し手の頭と肩である)をトラックす
ることであり、従って頭の領域の解像度は影像の残りに
対して増大でき、特に、H.261 規格の性質により、影
像の品質が劣化するかなりの動きを持つシーケンスでそ
うである。ヘッドトラッカーの入力は動きベクトルから
なるフレームの一連のペアーであり(それは影像の個別
ブロックに対応する)、ベクトルに対する1つのフレー
ムは水平方向であり、ベクトルに対するの他のフレーム
は垂直方向である。出力はシーケンスの人間のシルエッ
トの頭をカバーする矩形である。
【0039】システムの主要な特徴は以下の通りであ
る。 (1)各フレームの後方観察動きベクトル(backward l
ooking motion vector)により形成された光学的フロー
フィールドは一様な動きの領域に区分され、(2)頭の
初期の「良好な推定(good guess)」が得られ、それは
それぞれが一様な動きを有する一組の領域を具え、連続
する各フレームで、頭に属する領域が見い出され、そし
てそれらの領域は頭の組と呼ばれ、(3)頭の初期の
「良好な推定」の重心は、各フレームの頭の組の評価さ
れた前方動きを使用してフレームのシーケンスに沿って
トラックされ、(4)各フレームの頭の組の重心は保持
されるものではないが、しかしトラックされたものは保
持され、(5)各ステージで得られる頭の組は頭のサイ
ズと動き特性についての情報のみを与えるのに使用され
るが、その配置についてはそうではない。
【0040】要約すると、ヘッドトラッカーは以前の
頭、すなわち以前のフレームの頭の重心を取り、かつそ
の前方動きベクトルを使用してそれを現在のフレームに
投影する。それが現在のフレームを処理する場合、それ
は以前の頭に類似するシルエットの領域を分離し、かつ
それは一緒にとられる場合に投影されたものに可能な限
り近い重心を生成する。本質的には、それは投影された
重心の周りで頭の組を生じる。それは頭の周りで矩形を
創成する頭の組のサイズを計算し、かつ今後説明する再
スタート動作に使用される頭の複合後方動きベクトルを
計算する。
【0041】元の影像シーケンスからの各フレームはブ
ロック(16×16画素)に区分され、かつ各ブロックに対
して1つの水平動きベクトルおよび1つの垂直動きベク
トルが計算される。後方動きベクトルは既知の態様で動
き評価器4により計算される。追加の動き評価器19によ
り生成された前方動きベクトルはヘッドトラッカー18の
コーデックで既に利用可能な動き評価器4により生成さ
れた後方動きベクトルと共に使用される。動き評価器4
により生成された動きベクトルは以前のフレームに現行
のフレームを戻して投影することにより計算され、かつ
一様な動きの領域に影像を区分するためにヘッドトラッ
カー18で使用される。動き評価器4により生成された後
方動きベクトルを逆にし、かつそれらを以前のフレーム
の適当なブロック割り当てることにより生成される前方
観察動きベクトルは以前のフレームから現行フレームに
頭の重心を投影するために使用される。ヘッドトラッカ
ー18の入力は前方動きベクトルと後方動きベクトルの双
方を具えている。x(水平)方向とy(垂直)方向に個
別動きベクトルを得るから、第1ステップは各ブロック
の個別動きベクトルを、y軸の位置に対してその大きさ
と角度により特性化されるものに結合される。例えば大
きさ3.2 の画素と角度287 度を持つ動きベクトルが得ら
れるであろう。
【0042】次のステップは、以下の原理に従って、後
方動きベクトル(それぞれは単一ブロックに対応する)
を同様な動きの領域にグループ分けすることである。2
つの隣接ブロックの動きベクトルが検査され、もしそれ
らの大きさと角度の差があるしきい値(それはプリセッ
トできるかあるいは開始時にユーザーにより設定され
る)内にあるなら、それらの2つの動きベクトルは同じ
領域に所属しているように見える。このタスクを実行す
る手順は反復的であり、かつその結果としてプロセスの
開始点にかかわらず、出力として1つの区分のみが存在
する。このような態様で、もし上述の規準に応じる一連
の隣接動きベクトルが存在するなら、それらは単一領域
にグループ分けされよう。従って、もしその端部の点の
1つの周りに回転する固体の棒が一例として取られるな
ら、区分は棒全体の1つの領域を与えるであろう(もし
隣接ブロックの動きの差が所定のしきい値内にあるな
ら)。これは区分の通常の方法とは異なっており、そこ
では1つのブロックの動きベクトルは候補メンバーであ
る領域の複合動きベクトルと比較される。通常の方法で
は、1つの端部の周りに回転する固体の棒は2つの端部
の非常に異なる動きによりいくつかの領域に区分されよ
う。
【0043】一度1つの領域が見い出されたなら、その
領域の部分を形成しない2つの別の隣接ブロックが検査
され、かつ一様な動きの別の領域が同様な態様で構築さ
れる。全体のプロセスは画像フレームのすべてのブロッ
クが1つの領域に割り付けられるまで繰り返される。
【0044】以前の区分の各領域に対して、重心(座標
はブロックを示すが画素は示さない)、動き、およびサ
イズが決定され、かつフレームのその隣接領域が見い出
される。このすべての情報は頭の配置プロセスの次のス
テージで使用される。
【0045】現行フレームの各領域は以前のフレームの
各領域と比較される。領域はそれらの動き、サイズおよ
びそれらの重心間の距離に対して比較され、かつ類似度
測度は単一の実数であるこの情報から決定される。その
数が大きいほど、領域は似ていない。前述のファクタの
それぞれ1つは類似度測度に等しい寄与をしない。説明
された実施例では、2つの領域間の類似度測度を決定す
る式は、
【数2】類似度=(mmd +mad +12×cd+2×sd)/8 ここでmmd は動きの大きさの差 mad は動きの角度の差 cd は重心の差 sd はサイズの差 である。
【0046】上述の類似度の式を使用すると、類似度測
度の大きさが大きいと非類似度(dissimilarity )の程
度が大きい。上述の差のそれぞれ1つは計数できる(あ
るいは処理されたシーケンスで検出された)差に対応す
る最大値により分割され、その理由は小さい数で処理す
るのに便利であるからである。上述の式のファクタのそ
れぞれ1つの相対荷重は純粋に実験的に決定された。重
心の間の距離はサイズの差(それは動きの大きさと角度
の差よりもさらに寄与すべきである)よりも非類似度に
さらに寄与すべきであるということは理論的であるよう
に見える。このシステムはサイズと変位の変化よりも動
きの差にさらに寛容である。
【0047】引き続くステップに対して、現行フレーム
の1つの領域が以前のフレームの1つの領域に類似して
いるかどうか、従って類似度のしきい値を規定すべきか
を知る必要がある。所定のしきい値より低い類似度を持
つ領域のみが類似していないと考慮される。不連続性を
決定するために、類似度関数の傾斜を使用して、しきい
値の自動決定の方法がこの実施例で使用されている。特
に、現行のフレームの各領域に対して、以前のフレーム
のすべての領域の類似度測度は、バブルソートアルゴリ
ズム(bubble-sorting algorithm)を使用して、昇順に
配列され、かつ離散関数s(n)が得られる。ここでn
は昇順の各領域の場所を表し、s(n)は対応する類似
度である。例えば、現行フレームの領域8が、
【数3】n=1,a=5,s(1)=3.2 /n=2,a
=17,s(n)=5.7 /.. であると仮定し、ここで「a」は以前のフレームの領域
を表すものとする。以前のフレームの領域数5は3.2 に
等しい類似度を持つ第1のものであり、領域数17は5.7
に等しい類似度を持つ第2のものである等々である。
【0048】関数s(n)の傾斜は傾斜近似式、
【数4】d2s(n)/dn2 =〔s(n+dn)−2*
s(n)+s(n−dn) 〕/(dn)2 を使用して見い出され、ここでdnは3に設定されてい
る。もし負から正への傾斜の変化(あるいはその逆)が
nの値iとi+1との間で検出されるなら、領域iに対
応する類似度は検査されている現行フレームの特定の領
域のしきい値である。従って、現行フレームの各領域に
対して、しきい値が得られる。これらのすべてのしきい
値の平均値が計算され、これは以前のフレームと現行フ
レームの現行ペアの全体のしきい値である(それは多分
そのような次のペアとは異なるであろう)。もし、しき
い値が検出されないなら、システムはプリセット値を使
用する。
【0049】しきい値内の類似度を持つ領域は類似であ
ると自動的に宣言されたような類似ではない。そのため
に、それらの重心間の距離がある所定の限界(2つの領
域のサイズを考慮するファクタにより増大されるが)内
にでなければならないことが起こる。
【0050】一度、初期の頭が利用可能なら、すなわち
これまで説明されたように頭および肩シルエットから矩
形が見い出されるなら、システムは現在のフレームの頭
の組の計算を開始できる。第1ステップは以前のフレー
ム(それは最初、「良好な推定」である)の頭の組に対
応する前方動きベクトルを見い出し、かつ前方動きベク
トルにより述べられた位置で現在のフレームに以前の頭
の重心を投影することである。例えば、もし以前のフレ
ームの頭の重心がx=5,y=12(これらの数はブロッ
クに対応することを想起されたい)であり、かつ動きベ
クトルが例えば180 度の方向に10画素だけ動くなら、現
在のフレームの投影された重心はx=5,y=11(1ブ
ロックは16×16画素であることに注意されたい)であ
る。第1の反復において、頭の初期の重心は「良好な推
定」の重心である。それから、それは次のフレームに投
影され、その投影はそのフレームに対して頭の重心であ
る。重心は次のフレームに再び投影され、このプロセス
は終了するまで連続する。
【0051】既に説明したように、重心が以前のフレー
ムから現在のフレームに投影された後、その重心の周り
に新しい頭を構築する必要がある。このステージで実行
すべき3つの動作が存在し、それらは順次記述されよ
う。
【0052】新しい影像の頭の重心とすべての動き領域
の重心が既知であるから、もし新しい頭の組の重心への
それらの寄与が近いものよりもむしろ以前に投影された
ものからさらに離れるなら、第1ステップは領域(頭の
組に所属しない)の放棄を開始する。全シルエットの重
心が計算され、各領域は1つづつチエックされる。もし
以前の頭に類似していると見い出されるなら、すなわ
ち、もしそれが以前の頭の組の領域に類似したなら、考
慮されている領域は以前の頭の領域によりその類似度を
決定するためにまずチエックされ、かつ新しい頭の組に
のみ含むことができる。もし領域がこの判定規準に適合
するなら、それは一時無視され、かつ全シルエットの新
しい重心が計算される(その領域をマイナスする)。も
し新しい重心が予め投影されたものに近いなら、この領
域は頭の組に所属しないものと見える(その省略は残り
のものを所望の重心に近づけるからである)。もしこの
ことが起こらないなら、新しい領域は頭の組に含まれ
る。もし領域が放棄されるなら、残りの領域の重心は次
の領域がチェックされる場合に比較点として役立つもの
である。このような態様で、すべての領域がチェックさ
れ、頭の組に所属する領域の集合が見い出される。領域
がチェックされる順序は予め投影された重心に関してさ
らに遠いものから最も近いものである。従って、パブル
ソートアルゴリズムはその距離の昇順で領域を配列する
ために採用される。
【0053】第1ステップの終わりで、その重心が所望
のものに非常に近い頭の組が利用可能である。しかし、
1つの問題は、しばしば、予め投影された重心を囲む領
域のみが見い出され、矩形の境界線のようなものを形成
し、かつ矩形の境界線の内部である領域は含まれないこ
とである。重心はなお投影されたものに非常に近いが、
しかし内部領域は失われる。このように、システムはこ
の境界線を満たすように配設され、かつ、もしもそれら
が再び以前の頭に類似しているなら、頭の組で内部のす
べての領域を含む。このことを実行するために、水平方
向と垂直方向の予め投影された重心から現行の頭の組の
最も遠い点の距離が計算される。水平方向と垂直方向の
これらの距離の平均値が取られ、かつ矩形はその側部が
以前の平均値(すなわち、矩形の各側部からの重心の距
離が平均値に等しい)の2倍に等しいその側部を有する
重心の周りに有効に描かれている。それらのサイズの少
なくとも50%だけその矩形内に含まれ、かつ以前の頭に
類似しているすべての領域は頭の組に含まれる。
【0054】第3のステップは、空の頭の組が見い出さ
れている場合、すなわち頭の組のどの領域も以前の手順
により見い出されなかった場合の問題を処理している。
この場合、システムは全動作を再スタートすべきであ
り、そのようにするために、それは創成された頭の組が
存在した最後のフレームに戻る。すると最後に検出され
た頭の組と最大にオーバーラップする現行フレームの領
域を見い出し、これは初期の新しい頭の組である。この
頭の組は初期に加算された領域のオーバーラップに関し
てある限界内にある最後に検出された頭との全体のオー
バーラップを与える現行フレームのすべての領域により
さらに増大される。この手順は新しい頭の組2〔new he
ad set 2〕と呼ばれる。しかし、もしこの手順が失敗す
ると、システムはあるしきい値以下の以前の頭との類似
度を持つ領域を見い出す。この手順は新しい頭の組1
〔new head set 1〕と呼ばれる。すべてのこれらの努力
の後、もしもどんな頭も検出されないなら、あるいは、
もしも検出された頭の組の領域が非常に小さい(所与の
しきい値以下)であるなら、システムは以前の頭の情報
(サイズと動きベクトル)を現在のフレームに転送し、
もしどんな頭も見い出されないなら、頭が全く動かない
という理由で、多分どんな頭の組も見い出されないとい
うことを含んでいる。
【0055】現行の頭の組が決定された場合(もしそれ
が空の組でないなら)、そのサイズと後方動きベクトル
が計算される。サイズ情報は顔の周りの矩形の構築に採
用され、それは現在のフレームの顔についての最終予測
を表し、かつ後方動きベクトルはこれまで説明された動
作の再スタートに使用される。その重心は重心を現在の
フレームに投影するために前方動きベクトルを使用して
既に計算された頭の重心と同じであるようにこの矩形が
構築される。矩形の領域は通常頭の領域に等しい。しか
し、非常に僅かな領域が頭の組に所属する場合に、頭の
対応領域が非常に小さい(多分、頭が非常に小さく動
き、それ故、それに対応して僅かな動きベクトルが存在
する)という問題を処理するためにサイズ正規化が遂行
されよう。正規化手順は次のようである。現行の頭の領
域が以前の頭の領域と比較され、もし現行領域が以前の
ものよりも小さいなら、最終の現行領域が影像として取
られ、それは現行領域プラス現行領域と以前の領域の間
の差の90%である。このようなやり方で、頭は縮小(sh
rink)を許容される(というのは、例えば人間はカメラ
から離れるという理由で)が、しかし余り多くはない
(もし現行の頭の組の非常に僅かな領域を検出するなら
それは生起するであろう)。これが頭の最終予測であ
る。
【0056】以下が顔のトラッキング方法の特殊な実現
に関して注意すべき点である。 (1)頭の重心の計算は各フレームで見い出された頭の
組の重心によって影響されない。頭の組の最初の「良好
な推定」で開始し、かつ初期の頭の組の重心と動きベク
トルを計算した後、動きベクトルは重心を次のフレーム
に投影するよう使用される。新しい位置は新しい動きベ
クトルにより再び投影され、この手順はシーケンスの終
了まで繰り返される。第1のものから離れたすべてのフ
レームで構成された頭の組の重心(すなわち「良好な推
定」に対応するもの)はこのプロセスに含まれない。
【0057】(2)各ステージで見いだ出された頭の組
は頭の動きベクトルとサイズの決定にのみ使用される。
動きベクトルは次のフレームに重心を投影するのに使用
され、かつサイズは最終の矩形の創成に使用される。
【0058】(3)頭のサイズと動きの計算から重心の
計算を分離することは顔配置システムで必要な頑丈さを
システムに与える。たとえ不良な領域が頭の組に統合さ
れても(これはさもなければ領域が統合されない正しい
動きベクトルを徹底的に変化しないから)、システムは
回復能力を有し、かつ悪い方向に頭の重心をシフトしな
い。
【0059】(4)全プロセスに使用された2種類の動
きベクトルが存在する。それは、区分、類似度測定およ
び頭の再スタート動作に使用された後方動きベクトル
(それは現在のフレームの各ブロックが以前のフレーム
から到来した所を規定する)と、現在のフレームへの以
前の頭の重心の投影で使用された前方動きベクトル(そ
れは以前のフレームの各ブロックが現在のフレームに動
く所を規定する)である。
【0060】図4は本発明による対象のトラッキング方
法を例示するフロー線図を示しており、それは特にビデ
オフォンの適用で顔のトラッキングに適用されている。
ブロック100 (IIMV)は影像と動きベクトルのメモ
リへの入力のプロセスを表している。
【0061】図2は頭と肩の影像に重畳された動きベク
トルの一例を示し、頭と肩はトラックすべき対象であ
る。動きベクトルは16×16画素ブロックに対して導出さ
れている。入力影像はボックス101 (SAUM)により
表されたような一様な動きを有する領域に区分される。
【0062】図3は図2の頭と肩の対象の区分を示して
いる。ボックス102 (FF?)の判定は、これがシーケ
ンスの第1フレームであるかどうかに関して行われてい
る。もしそうなら、以前に説明したように頭と肩の位置
の初期評価を行う必要があり、このプロセスはボックス
103 (IEH)により表される。頭の位置の初期評価を
得ると、その重心と後方動きベクトルはボックス104
(CCMV)により表されたように計算される。ボック
ス105 (GTNF)は次のフレームに向かうステップを
表している。もしボックス102 (FF?)により表され
た判定が、これが初期フレームでないなら、以前のフレ
ームの頭の前方動きベクトルがボックス120 (CFM
V)で計算され、かつ以前のフレームの頭の重心をボッ
クス106 (PNC)で表されたような新しいフレームに
投影するのに使用される。現在の画像フレームに新しい
重心を投影すると、現在のフレームの区分された領域は
以前のフレームの区分された領域と比較される。それら
が以前のフレームのものに類似しているところ、および
投影された新しい重心から所与の距離内にある重心をと
もに生成する場合、それらはボックス107 (GH)によ
り表されたように重心の周りに対象を成長するよう新し
い頭に統合される。一様な動きの領域を取ることにより
重心の周りに成長した対象は頭の全領域を与える。する
とチェック、ボックス108 (HF?)が行われ、事実頭
が投影された重心の周りに見い出されるかどうかを見
る。もしそのような頭が見い出されたなら、ボックス10
9 (RRH)に表されたような頭の境界線を含むよう矩
形が頭の周りに形成される。矩形内の領域の複合後方動
きベクトルはボックス110 (CBMV)により表された
ように計算され、かつ次のフレームに重心を投影するの
に使用される。
【0063】もしボックス108 (HF?)の判定が、頭
が現在のフレームで見い出されなかってというものな
ら、再スタート手順はボックス111 (RST)により表
されたように行われる。再スタート動作にはいくつかの
異なる手順が存在する。第1の場合、システムは最後の
フレームに戻り、そこでは頭が見い出され、かつ現行フ
レームの区分された領域が最後に検出された頭と最大の
オーバーラップを有し、かつこれが初期の新しい頭であ
ると見い出される。この頭は初期の加算領域のオーバー
ラップの広がりに依存する程度で以前の頭の組の領域と
オーバーラップする現行フレームのすべての領域により
さらに増大される。もしこれが失敗すると、システムは
あるしきい値以下の以前の頭に、ある類似度を持つ領域
を見い出す。ボックス110 (CBMV)により表された
プロセスにより生成されたような頭の後方動きベクトル
が使用され、この機能を実行する。もしそれらのすべて
の努力の後で、どんな頭も検出されないか、あるいは検
出された頭の領域が非常に小さいなら(所与のしきい値
以下なら)、システムは現在のフレームに以前の頭の情
報を転送する。もしどんな頭も見い出されないなら、頭
が全く動かないという理由で、見い出すべき頭の領域が
多分存在しないと仮定される。もし情景に何の動きも存
在しないなら、すべての動きベクトルが零であるので、
全画像はただ1つの領域しか形成しないことに注意すべ
きである。
【0064】図5は本発明による対象をトラッキングす
る方法を詳細に例示する別のフロー線図である。図5に
示されたプロセスを遂行するために、データプロセッサ
とメモリアレイを有する必要がある。システムが採用す
る最も重要なデータ構造は次のようなものである。 a)入力動きベクトルの2つの固定サイズアレイ、(x
動き2,y動き2〔xmotion 2, y motion 2 〕)、 b)結合動きベクトルを各ブロックに蓄積する1つの固
定サイズアレイ、(結合動き2〔comb motion 2 〕)、 c)区分の後で生じる対応領域番号を各ブロックに蓄積
する1つの固定サイズアレイ、(xy領域数2〔xy a
rea number 2〕)、 d)区分が生じる領域の記述に対し、1つは以前のフレ
ーム、1つは現在のフレームに対するものである記録の
2つの可変サイズアレイ、(フレーム1,フレーム2
〔frame 1 ,frame 2 〕)、 e)現行フレームの各領域と以前のフレームの各領域の
比較結果の1つの可変サイズアレイ、(比較アレイ〔co
mpare arr 〕)、 f)現行フレームの各領域と以前の頭との比較結果の1
つの可変サイズアレイ、(頭の比較〔comp head 〕)、 g)現行フレームの頭に所属するすべての領域の1つの
組(頭の組2〔headset 2 〕)と、頭が検出された最後
のフレームの頭の1つの組(頭の組1〔headset 1
〕)、 h)頭の組2〔headset 2 〕の特性(動き、サイズ、重
心)を記録する1つの記録(head rec 1)、ならびに頭
の組1〔head set 1〕の特性を記録するもの(head rec
1)。頭の組2〔headset 2 〕は現在のフレームの頭の
領域の組であり、頭の組1〔headset 1 〕はそのような
組が最後に検出されたフレームの頭の領域の組である。
【0065】図5に示されたように、第1ステージ500
はメモリアレイ条件を初期化し、かつ最初の2つのフレ
ームに関するデータを読み取る。初期ステップ501 (I
NITO)はアレイの各要素を零に設定することによ
り、アレイ、x動き2,y動き2〔x motion 2, y m
otion 2 〕および結合動き2〔comb motion 2 〕)を初
期化する。次のステージのボックス502 (RBMV)は
水平方向および垂直方向に入力後方動きベクトルを読み
取り、かつアレイ、x動き2〔x motion 2 〕とy動き
2〔y motion 2 〕の対応要素にその値を割り当てる。
第3ステージのボックス503 (CMV)はその大きさと
角度を与える結合動きベクトルを画素の各ブロックに対
して計算する。これはアレイ、結合動き2〔comb motio
n 2 〕に蓄積される結合動きベクトルを計算するために
x動き2〔x motion 2 〕とy動き2〔y motion 2 〕
の値の入力を要求する。ボックス504 は入力影像の区分
を表している。この区分は影像を一様な動きの領域に区
分することに基づいて遂行される。ボックス505 (SI
I)は画素の各ブロックとその近傍の各々とを比較する
動作を表し、もし2つのブロックの後方動きベクトルの
対応する大きさと角度の間の差があるしきい値内にある
なら、2つのブロックは同じ領域に割り当てられる。全
動作は以前のテストに適合する各近傍ブロックに反復的
に繰り返される。これは判定点a(ボックス506 )によ
り示される。
【0066】ボックス504 への入力は、アレイ、結合動
き2〔comb motion 2 〕から取られ、かつ生成された出
力はアレイ、xy領域2〔xy area 2 〕に蓄積され
る。ボックス507 (CNA)は区分から生じる領域の数
の計数のステップを表している。これはアレイ、フレー
ム2〔frame 2 〕の創成に使用され、かつアレイのサイ
ズを規定する。ボックス508 (INITI)は、アレ
イ、フレーム2〔frame 2〕の要素を表す各記録の成分
への適当な初期値の割り当てを表している。ボックス50
9 (FAI)において、現行区分から生じる各領域に対
して、動き、サイズおよび重心が見い出される。このこ
とを達成するために、入力、x動き2,y動き2〔x m
otion 2, y motion 2 〕,xy領域2〔xy area 2
〕が使用され、かつ生成された出力はアレイ、フレー
ム2〔frame 2 〕に蓄積される。これがボックス510
(FF?)に表されたように決定されたシーケンスの第
1フレームでないなら、現行フレームの各領域はボック
ス511 (CF)において、動きの大きさ、動きの角度お
よび重心の位置に対する以前のフレームの各領域と比較
され、2つの全領域の類似度が計算され、かつアレイ、
比較アレイ〔comp arr〕に蓄積される。
【0067】現行フレームの類似度しきい値はバブルソ
ートを使用して昇順で配列した後で類似度測度のシーケ
ンスの不連続性の配置により見い出される。次に2つの
領域、すなわち現行フレームからのものと以前のフレー
ムからのものがその類似度と類似度しきい値とを比較す
ることにより類似しているかどうかが決定される。これ
はアレイ、フレーム1〔frame 1 〕とフレーム2〔fram
e 2 〕からの入力を使用し、かつ結果は比較アレイ〔co
mpare arr 〕に蓄積される。次のステージ、ボックス51
2 (CHD)は以前のフレームの頭に対して現行フレー
ムの各領域の類似度測度の計算と、その領域が以前の頭
に類似しているかどうかの決定を含んでいる。類似度測
度は、アレイ、頭の比較〔compare head〕に蓄積され
る。ボックス513 (SIM)により表された次のステー
ジは、以前のフレームの頭の組に所属しているどの領域
に類似しているかどうかを現行フレームの各領域に対し
て決定する。もし現行フレームの領域が以前の頭に類似
していると宣言されるなら、この情報はフレーム2〔fr
ame 2 〕の対応記録に蓄積される。ボックス514 (FH
2)により表された次のステージは現在のフレームの頭
に所属する領域を配置するプロセスを具えている。これ
は以前のフレームの前方動きベクトルを使用し、かつ投
影された重心に近い頭の組2〔headset 2 〕の重心を与
える一組の領域を具える頭の組〔headset 2 〕を見い出
すことにより、以前のフレームの頭の重心を現在のフレ
ームに投影して達成される。
【0068】投影された重心に近いことに加えて、それ
らの領域はボックス513 (SIM)に類似する手順によ
り決定されたような以前の頭に類似すべきである。この
手順は入力xとy(以前の頭の前方動きベクトルを使用
して以前のフレームから現在のフレームに投影されたよ
うな頭の重心の座標)とアレイ、フレーム2〔frame2
〕を使用し、かつ頭の組2〔headset 2 〕として蓄積
される出力を生成する。ボックス515 (FH3)により
表された次のステップは、頭の組2〔headset 2〕を充
填する手順である。この手順により決定される頭の組2
〔headset 2 〕の領域がボックス514 (FH2)で頭2
を見い出し、無視された内側領域を持つ矩形の実質的な
境界線の形を取る(この境界線は所望の重心を実際に有
している)ことが可能であるという理由で、この手順は
必要である。頭3を見い出すこのプロセスは、頭の組2
〔headset 2 〕にも含まれる以前の領域の領域に類似し
ている頭の組2〔headset 2 〕の境界線の内側のすべて
の領域を生起する。もしどの頭の組2〔headset 2 〕も
見い出されないなら(判定点b)、ボックス516 (NH
S2)において、頭の組1〔headset 1 〕と最大のオー
バーラップを与えるすべての領域を頭の組2〔headset
2 〕として取ることによりシステムは再スタートする。
このプロセスは新しい頭の組2〔headset 2 〕と呼ばれ
る。もしこれが失敗すると、判定点c(これは新しい頭
の組2〔headset 2 〕であるが)は空の組であり、する
とシステムはボックス517 (NHS1)において、ある
しきい値以下である以前の頭との類似度を持つそれらの
領域を見い出す。
【0069】もし頭の組2〔headset 2 〕が、以前の頭
の記録1〔head rec 1〕が頭の記録2〔head rec 2〕の
現行のフレームに転送されることをなお見い出さないな
いなら、頭は動かず、かつこれは頭の組2〔headset 2
〕が見い出されない理由であったということが仮定さ
れよう。頭の組が見い出されたと仮定すると(判定点
d)、プロセスは今や遂行され、それは頭の組2〔head
set 2 〕の動きベクトル、サイズ、および重心をボック
ス518 (HI)で見い出すことを必要とする。この計算
に使用された入力はx動き2,y動き2〔x motion 2,
y motion 2 〕,xy領域2〔xy area 2 〕であ
り、生成された出力は頭の記録2〔head rec 2〕に蓄積
される。次のプロセス、ボックス519 (FH1)は頭の
記録1〔head rec 1〕のサイズに従って正規化されたサ
イズ、頭の記録2〔head rec 2〕により決定されるサイ
ズを有する頭の重心の周りでの矩形の構築を必要とす
る。このように、このステージにおいて、頭は以前のフ
レームから現在のフレームにトラックされ、かつ矩形は
頭の周りに描かれ、従ってこれは量子化レベルを制御す
るために量子化器に送ることができる。
【0070】別のフレームの入力を準備するために、初
期化ステップ、ボックス520 (INIT2)が遂行さ
れ、それはアレイ、比較アレイ〔compare array 〕とフ
レーム1〔frame 1 〕を初期化する。次のステップ、ボ
ックス521 (SD)は現在のフレーム、すなわちフレー
ム2〔frame 2 〕からのすべての関連データを次のフレ
ームを処理するための準備にフレーム1〔frame 1 〕に
シフトする。次のステップ、ボックス522 (INIT
3)は頭の記録2〔head rec 2〕のすべての成分を初期
化する。プロセスはボックス501 の初期化プロセスで再
スタートする。
【0071】ボックス510 により決定された初期フレー
ムに対して、第1の頭を見い出すプロセス、ボックス53
0 (FFH)が遂行される。初期の頭がこれまで説明さ
れたように見い出され、かつ初期の頭を作成する領域の
動きベクトルとサイズに関する情報は、ボックス518
(HI)において、プロセス頭の情報(process head i
nfo )に使用される。
【0072】説明された実施例に種々の修正を行うこと
ができる。例えば、説明された再スタート手順は空の頭
の組が見い出されるたび毎に初期の頭配置プロセスに進
むことにより置き換えができる。さらに再スタート手順
の数の制限が設定でき、そこではもしもどんな頭の組も
フレームの所与の数に対して見い出されないなら、対象
はトラッキングシステムで失われる。この方法はビデオ
フォンリンクにわたり伝送すべき画像の頭のトラッキン
グを参照して説明されたが、しかし画像データが制限さ
れた容量のデータリンクにわたり伝送すべきであるか、
あるいは制限された容量のメモリに蓄積されるべきであ
る任意のシステム、および所与の環境で関心のある他の
対象にも等しく適用可能である。
【0073】そのようなシステムの一例は、対話式コン
パクトディスク(CD−I)と、動きを含む画像を表す
データが光ディスク(そこでは蓄積容量ならびに蓄積デ
ータの読み取り速度が制限されている)に蓄積される別
のシステムである。そのようなシステムでは、対象の初
期配置は、符号化動作が通常実時間で遂行されないの
で、画像フレームの各シーケンスに対してディスクの著
者により手動で遂行されよう。一方では、説明された実
施例で、後方動きベクトルは、区分、類似度測定、およ
び頭の再スタート動作に使用され、かつ前方動きベクト
ルは1つのフレームから次のフレームへの対象の重心の
投影に使用されているが、たとえこれが最良の全性能を
与えると現在信じられているとはいえ、それは動きベク
トルがこのような態様で使用すべきであるという新しい
概念にとって本質的ではない。H.261 コーデックにお
いて、後方動きベクトルはそれらがコーデック内で他の
機能に使用されるように既に利用可能であるが、しか
し、もしそれらが使用可能でないなら、区分、類似度測
定および種々のプロセスのタイミングに適当に修正して
ヘッドトラッカーの頭の再スタートに前方動きベクトル
を使用することは可能であろう。
【0074】この開示から、さらに別の修正も当業者に
とって明らかであろう。そのような修正はそれ自身既知
であり、かつここに既に記載された特徴の代わりに、あ
るいはそれに付加して使用できる別の修正を含んでいて
もよい。たとえ特許請求の範囲(クレーム)がこの出願
では特徴の特定の組合せについて形式化されていても、
本出願の開示の範囲が明示的にせよ、暗示的にせよ、あ
るいは当業者に明らかなその任意の一般化ないし修正の
いずれかでここに開示された新奇な特徴あるいはその新
しい組合せを含み、それが任意のクレームで現在請求さ
れた同じ発明に関連しているかどうか、あるいはそれが
本発明と同じ技術的問題のいくつかないしそのすべてを
軽減するかどうかにかかわらずそうであることを理解す
べきである。出願人は本出願あるいはそれから導かれる
別の出願の実施の間にそのような特徴および/またはそ
のような特徴の組合せに新しいクレームを形式化する権
利を保有していることを注意する。
【図面の簡単な説明】
【図1】図1は本発明による対象トラッキング配列を統
合するCCITTのH.261 規格に適合するよう構成さ
れたコーデックの符号化セクションのブロック線図であ
る。
【図2】図2は画像フレームを示し、図2aはその上に
重畳された動きベクトルを持つ画像フレームを示し、図
2bは図2aに示された動きベクトルのブロックのヒス
トグラムを示している。
【図3】図3は一様な動きの区分された領域を持つ図2
の画像フレームを示している。
【図4】図4は本発明による対象のトラッキング方法を
例示するフロー線図である。
【図5】図5は本発明による対象のトラッキング方法を
さらに詳しく例示する別のフロー線図である。
【符号の説明】
1 入力 2 符号化配列 3 減算器 4 動き評価器 5 DCT配列 6 量子化器 7 バッファ回路 8 逆量子化器 9 逆DCT配列 10 加算回路 11 フレームメモリ 12 第2入力 13 音声符号器 14 伝送マルチプレクサ 15 コーデックの出力 16 動き検出器 17 (初期)ヘッドロケーター 18 ヘッドトラッカー 19 動き評価器 20 ライン 21 ライン 100 ボックス 101 ボックス 102 ボックス 103 ボックス 104 ボックス 105 ボックス 106 ボックス 107 ボックス 108 ボックス 109 ボックス 110 ボックス 111 ボックス 500 ステージ 501 ボックスあるいはステップ 502 ボックス 503 ボックス 504 ボックス 505 ボックス 506 ボックス 507 ボックス 508 ボックス 509 ボックス 510 ボックス 511 ボックス 512 ボックス 513 ボックス 514 ボックス 515 ボックス 516 ボックス 517 ボックス 518 ボックス 519 ボックス 520 ボックス 521 ボックス 522 ボックス 530 ボックス

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 表示デバイス上に表示するためにカメラ
    によって捕獲された一連の画像フレームとして表された
    情景で対象をトラッキングする方法であって、該方法
    が、 a)初期フレームの影像を一様な動きを有する領域に区
    分すること、 b)対象を初期フレームに配置し、かつその重心と動き
    ベクトルを見い出すこと、 c)対象の重心の新しい位置を規定するために動きベク
    トルを使用して次のフレームに対象の重心を投影するこ
    と、 d)一様な動きを有する多数の領域に次のフレームの影
    像を区分すること、 e)以前のフレームの対象の領域に類似する影像の領域
    を見い出し、かつそれと共に新しい対象を生成するため
    に投影された重心に近い重心を生成すること、 f)新しい対象のサイズと動きベトルを計算すること、 g)新しい対象の動きベトルを使用して続いて起こるフ
    レームに対象の重心の新しい位置を投影すること、およ
    び h)ステップd)からg)を繰り返すこと、の各ステッ
    プを具える方法。
  2. 【請求項2】 ステップc)とステップf)において、
    前方動きベクトルが計算される請求項1に記載の方法。
  3. 【請求項3】 後方動きベクトルが影像の区分に使用さ
    れる請求項1あるいは2に記載の方法。
  4. 【請求項4】ステップe)において、類似度を決定する
    ファクタが、サイズ、位置および比較すべき領域の動き
    の大きさと方向である請求項1から3のいずれか1つに
    記載の方法。
  5. 【請求項5】 対象が人間の頭である請求項1から4の
    いずれか1つに記載の方法。
  6. 【請求項6】 頭の周りに矩形を構成するステップを含
    む請求項5に記載の方法。
  7. 【請求項7】 ステップの区分が、 i)画素の2つの隣接ブロックの動きベクトルを比較す
    ること、 ii)もしその動きベクトルの間の差が所与のしきい値内
    にあるなら、画素のブロックを同じ領域に割り当てるこ
    と、 iii)画素のすべての隣接ブロックが検査され、かつ画
    素の別のブロックが領域に統合されなくなるまで、領域
    内で画素のブロックに隣接する画素の各ブロックにステ
    ップi)とii)を繰り返すこと、 iv)領域内に含まれない2つの別の隣接ブロックを選択
    し、かつ一様な動きの別の領域を創成するためにステッ
    プi)から iii)を繰り返すこと、および v)画像フレーム内のすべてのブロックが1つの領域に
    割り付けられるまでステップiv)を繰り返すこと、のス
    テップを具える請求項1から6のいずれか1つに記載の
    方法。
  8. 【請求項8】 表示デバイス上に表示するためにカメラ
    によって捕獲された一連の画像フレームとして表された
    情景で対象をトラッキングする装置であって、該装置
    が、 初期フレームの影像を一様な動きを有する領域に区分す
    る手段、 対象を初期フレームに配置し、かつその重心と動きベク
    トルを見い出す手段、 対象の重心の新しい位置を規定するために動きベクトル
    を使用して次のフレームに対象の重心を投影する手段、 一様な動きを有する多数の領域に次のフレームの影像を
    区分する手段、 以前のフレームの対象の領域に類似する影像の領域を見
    い出し、かつ新しい対象を生成するために投影された重
    心に近い重心を有する手段、 新しい対象のサイズと動きベトルを計算する手段、およ
    び新しい対象の動きベトルを使用して続いて起こるフレ
    ームに対象の重心の新しい位置を投影する手段、を具え
    る装置。
  9. 【請求項9】 区分手段が画素ブロックの後方動きベク
    トルを使用する請求項8に記載の装置。
  10. 【請求項10】 投影手段が対象の前方動きベクトルを
    使用する請求項8あるいは9に記載の装置。
  11. 【請求項11】 領域の類似度が相対サイズ、位置およ
    び比較すべき対象の動きの大きさと方向を考慮して決定
    される請求項8から10のいずれか1つに記載の装置。
  12. 【請求項12】 対象が人間の頭である請求項8から1
    1のいずれか1つに記載の装置。
  13. 【請求項13】 頭の周りに矩形を構成する手段を具え
    る請求項12に記載の装置。
  14. 【請求項14】 区分手段が、 画素の2つの隣接ブロックの動きベクトルを比較する手
    段、 もしその動きベクトルの間の差が所与のしきい値より小
    さいなら、画素のブロックを同じ領域に割り当てる手
    段、 画素のすべての隣接ブロックが検査され、かつ別のブロ
    ックが領域に統合されなくなるまで、同じ領域内で画素
    のブロックに隣接する画素のすべてのブロックを繰り返
    して考慮する手段、を具える請求項8から13のいずれ
    か1つに記載の装置。
  15. 【請求項15】 ビデオフォン端末であって、 カメラ、表示ユニットおよびコーデックを具え、ここで
    コーデックは所与の帯域幅の通信リンクにわたって画像
    情報を伝送するよう配設され、かつ異なる解像度で各画
    像フレームの異なる領域を量子化する手段を含み、ここ
    で請求項8から14のいずれか1つに記載の対象トラッ
    キング装置が、トラックされた対象を含む画像フレーム
    の領域が画像フレームの残りよりも高い解像度で伝送さ
    れるようにコーデックを制御するよう配設されるビデオ
    フォン端末。
JP5175433A 1992-07-16 1993-07-15 移動対象のトラッキング Pending JPH06168330A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB9215102:6 1992-07-16
GB929215102A GB9215102D0 (en) 1992-07-16 1992-07-16 Tracking moving objects

Publications (1)

Publication Number Publication Date
JPH06168330A true JPH06168330A (ja) 1994-06-14

Family

ID=10718784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5175433A Pending JPH06168330A (ja) 1992-07-16 1993-07-15 移動対象のトラッキング

Country Status (4)

Country Link
EP (1) EP0579319B1 (ja)
JP (1) JPH06168330A (ja)
DE (1) DE69317821D1 (ja)
GB (1) GB9215102D0 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7813533B2 (en) 2003-10-06 2010-10-12 Fuji Xerox Co., Ltd. Operation-discerning apparatus and apparatus for discerning posture of subject
WO2011077524A1 (ja) * 2009-12-24 2011-06-30 株式会社 東芝 動画像符号化装置及び動画像復号装置
US8295350B2 (en) 1996-08-15 2012-10-23 Mitsubishi Denki Kabushiki Kaisha Image coding apparatus with segment classification and segmentation-type motion prediction circuit
US9538181B2 (en) 2010-04-08 2017-01-03 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
CN113435429A (zh) * 2021-08-27 2021-09-24 广东电网有限责任公司中山供电局 一种基于现场作业监控视频的多目标检测和跟踪系统

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0181036B1 (ko) * 1995-04-08 1999-05-01 배순훈 움직임 영상의 이동 물체 분할 및 그 움직임 추정방법
US5959673A (en) * 1995-10-05 1999-09-28 Microsoft Corporation Transform coding of dense motion vector fields for frame and object based video coding applications
KR100211916B1 (ko) * 1995-10-26 1999-08-02 김영환 물체 모양정보 부호화에서의 부호화타입과 모드의 결정방법
GB9623573D0 (en) * 1996-11-13 1997-01-08 Philips Electronics Nv Image segmentation
GB2324428A (en) * 1997-04-17 1998-10-21 Sharp Kk Image tracking; observer tracking stereoscopic display
US6735253B1 (en) 1997-05-16 2004-05-11 The Trustees Of Columbia University In The City Of New York Methods and architecture for indexing and editing compressed video over the world wide web
US6400831B2 (en) 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking
US6195389B1 (en) * 1998-04-16 2001-02-27 Scientific-Atlanta, Inc. Motion estimation system and methods
US6711278B1 (en) 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
AU6265499A (en) * 1998-09-24 2000-04-10 Trustees Of Columbia University In The City Of New York, The System and method for semantic video object segmentation
US7143434B1 (en) 1998-11-06 2006-11-28 Seungyup Paek Video description system and method
US6499060B1 (en) 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
AU767741B2 (en) * 2000-08-04 2003-11-20 Canon Kabushiki Kaisha A method for automatic segmentation of image data from multiple data sources
AUPQ921800A0 (en) 2000-08-04 2000-08-31 Canon Kabushiki Kaisha A method for automatic segmentation of image data from multiple data sources
US7742073B1 (en) 2000-11-01 2010-06-22 Koninklijke Philips Electronics N.V. Method and apparatus for tracking an object of interest using a camera associated with a hand-held processing device
CA2451992C (en) 2001-05-15 2013-08-27 Psychogenics Inc. Systems and methods for monitoring behavior informatics
WO2003051031A2 (en) 2001-12-06 2003-06-19 The Trustees Of Columbia University In The City Of New York Method and apparatus for planarization of a material by growing and removing a sacrificial film
US20030126622A1 (en) * 2001-12-27 2003-07-03 Koninklijke Philips Electronics N.V. Method for efficiently storing the trajectory of tracked objects in video
WO2003098922A1 (en) * 2002-05-15 2003-11-27 The Board Of Governors For Higher Education, State Of Rhode Island And Providence Plantations An imaging system and method for tracking the motion of an object
US7577198B2 (en) 2003-09-07 2009-08-18 Microsoft Corporation Number of reference fields for an interlaced forward-predicted field
US8085844B2 (en) 2003-09-07 2011-12-27 Microsoft Corporation Signaling reference frame distances
US8634413B2 (en) 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery
US20080187042A1 (en) * 2005-01-07 2008-08-07 Koninklijke Philips Electronics, N.V. Method of Processing a Video Signal Using Quantization Step Sizes Dynamically Based on Normal Flow
WO2006096612A2 (en) 2005-03-04 2006-09-14 The Trustees Of Columbia University In The City Of New York System and method for motion estimation and mode decision for low-complexity h.264 decoder
US7522749B2 (en) * 2005-04-08 2009-04-21 Microsoft Corporation Simultaneous optical flow estimation and image segmentation
WO2007026269A1 (en) * 2005-08-29 2007-03-08 Koninklijke Philips Electronics N.V. Communication system with landscape viewing mode
WO2009126785A2 (en) 2008-04-10 2009-10-15 The Trustees Of Columbia University In The City Of New York Systems and methods for image archaeology
WO2009155281A1 (en) 2008-06-17 2009-12-23 The Trustees Of Columbia University In The City Of New York System and method for dynamically and interactively searching media data
US8671069B2 (en) 2008-12-22 2014-03-11 The Trustees Of Columbia University, In The City Of New York Rapid image annotation via brain state decoding and visual pattern mining
CN109584509B (zh) * 2018-12-27 2020-08-11 太仓市小车东汽车服务有限公司 一种基于红外线与可见光组合的游泳池溺水监测方法
CN111551973B (zh) * 2020-04-16 2022-04-05 北京踏歌智行科技有限公司 一种露天矿无人驾驶惯导系统的故障检测和矫正方法
WO2022046649A1 (en) * 2020-08-23 2022-03-03 Envision Analytics, Inc. Assessing patient out-of-bed and out-of-chair activities using embedded infrared thermal cameras

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4951140A (en) * 1988-02-22 1990-08-21 Kabushiki Kaisha Toshiba Image encoding apparatus
DE4028191A1 (de) * 1990-09-05 1992-03-12 Philips Patentverwaltung Schaltungsanordnung zum erkennen eines menschlichen gesichtes
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
DE69126585T2 (de) * 1990-09-20 1998-01-02 Nec Corp Verfahren und Gerät zur Kodierung von bewegten Bildsignalen

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8295350B2 (en) 1996-08-15 2012-10-23 Mitsubishi Denki Kabushiki Kaisha Image coding apparatus with segment classification and segmentation-type motion prediction circuit
US7813533B2 (en) 2003-10-06 2010-10-12 Fuji Xerox Co., Ltd. Operation-discerning apparatus and apparatus for discerning posture of subject
WO2011077524A1 (ja) * 2009-12-24 2011-06-30 株式会社 東芝 動画像符号化装置及び動画像復号装置
US10542281B2 (en) 2010-04-08 2020-01-21 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US9794587B2 (en) 2010-04-08 2017-10-17 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US9906812B2 (en) 2010-04-08 2018-02-27 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10009623B2 (en) 2010-04-08 2018-06-26 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10091525B2 (en) 2010-04-08 2018-10-02 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US9538181B2 (en) 2010-04-08 2017-01-03 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10560717B2 (en) 2010-04-08 2020-02-11 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10715828B2 (en) 2010-04-08 2020-07-14 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10779001B2 (en) 2010-04-08 2020-09-15 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10999597B2 (en) 2010-04-08 2021-05-04 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US11265574B2 (en) 2010-04-08 2022-03-01 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US11889107B2 (en) 2010-04-08 2024-01-30 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
CN113435429A (zh) * 2021-08-27 2021-09-24 广东电网有限责任公司中山供电局 一种基于现场作业监控视频的多目标检测和跟踪系统

Also Published As

Publication number Publication date
DE69317821D1 (de) 1998-05-14
GB9215102D0 (en) 1992-08-26
EP0579319A2 (en) 1994-01-19
EP0579319B1 (en) 1998-04-08
EP0579319A3 (ja) 1994-08-31

Similar Documents

Publication Publication Date Title
JPH06168330A (ja) 移動対象のトラッキング
US5832115A (en) Ternary image templates for improved semantic compression
Eleftheriadis et al. Automatic face location detection and tracking for model-assisted coding of video teleconferencing sequences at low bit-rates
US6055330A (en) Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information
US5625715A (en) Method and apparatus for encoding pictures including a moving object
US6456328B1 (en) Object-oriented adaptive prefilter for low bit-rate video systems
US5760846A (en) Apparatus for estimating motion vectors for feature points of a video signal
EP1570413B8 (en) Region-of-interest tracking method and device for wavelet-based video coding
KR0181036B1 (ko) 움직임 영상의 이동 물체 분할 및 그 움직임 추정방법
WO1998015915A9 (en) Methods and apparatus for performing digital image and video segmentation and compression using 3-d depth information
WO1999009746A1 (en) Adaptive motion estimation method and apparatus
Ribas-Corbera et al. Optimizing block size in motion-compensated video coding
JP2003018602A (ja) 画像データ符号化および復号のための方法および装置
Wang et al. Fast depth video compression for mobile RGB-D sensors
Wang et al. Evaluation of mesh-based motion estimation in H. 263-like coders
EP0871332B1 (en) Method and apparatus for coding a contour of an object employing temporal correlation thereof
EP0858226A2 (en) Method and apparatus for encoding a contour of an object by using a vertex inserting technique
US6020933A (en) Method and apparatus for encoding a motion vector
Crowley et al. Robust tracking and compression for video communication
Bocheck et al. Real-time estimation of subjective utility functions for MPEG-4 video objects
Cheng Visual pattern matching in motion estimation for object-based very low bit-rate coding using moment-preserving edge detection
Trew et al. Automatic face location to enhance videophone picture quality
Yoon et al. Low bit-rate video coding with implicit multiscale segmentation
Venter et al. Stereo imaging in low bitrate video coding
Bartolini et al. A segmentation-based motion-compensated scheme for low-rate video coding