JPH07508633A - 映像系列における物体の追跡 - Google Patents

映像系列における物体の追跡

Info

Publication number
JPH07508633A
JPH07508633A JP6524042A JP52404294A JPH07508633A JP H07508633 A JPH07508633 A JP H07508633A JP 6524042 A JP6524042 A JP 6524042A JP 52404294 A JP52404294 A JP 52404294A JP H07508633 A JPH07508633 A JP H07508633A
Authority
JP
Japan
Prior art keywords
image processing
processing method
area
image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6524042A
Other languages
English (en)
Inventor
ポンティコス コンスタンティン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Philips Electronics UK Ltd
Koninklijke Philips NV
Original Assignee
Philips Electronics UK Ltd
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Electronics UK Ltd, Koninklijke Philips Electronics NV filed Critical Philips Electronics UK Ltd
Publication of JPH07508633A publication Critical patent/JPH07508633A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 映像系列における物体の追跡 本発明は、動画像の系列(sequence)の中の対象(subject)を 追跡する方法と装置、その種方法を実現する装置、およびその他関連ある方法と 装置に関係する。
本発明は、例えばテレビ電話(videopl+one)、または一般の動画像 系列のデジタル符号化、例えば動画像を光コンパクトディスクで出版する場合の 符号化に適用できる。
テレビ電話において、使用者の顔の周りの領域を、フレームの残りの部分を犠牲 にして強調すれば画像品質の向上が達成できることは既に以前から知られ、また それを達成できるアルゴリズムも既に開発されている。ところが、そう、したア ルゴリズムの商用ハードウェア上での実現は、計算の摸雑さのため遅れている。
最もT「効なアルゴリズムは、エツジ(edge)の検出に依存し、画素の速度 (pixelrates)で動作するため極めて高速なハードウェアを必要とす る。
アルゴリズムの中には、フレー11の差分を利用して運動を検出するという、遥 かにm’+++tな技術に基づくものがあるが、これらには、従来、全体の照明 強度、背景における運動(オフィスでは普通に起こる)、更には使用者が動かな いことにさえ基つく不具合、などの問題が存在していた。
その他のアルゴリズムでは、映像圧縮コデソク(codec)で符号化を行なう 際には画像をブロック(通常16X]6画素)に分割しそれぞれから2.3のパ ラメターを抽出する、という事実を利用している。これらパラメターの配列は遥 かに小規模であるため、それを利用して動作するこの種のアルゴリズムは、より 低速で走ることができ計算処理への要求は遥かに小さい。
本発明の技術では、運動はブロックまたは画素のレベルで検出するが、上記の諸 問題に対しては、テレビ電話の使用者とその他の運動物体を区別する方法で対処 している。こうした技術は一般の対象追跡にも適用でき、その場合、色彩その他 運動以外の属性がJD跡の根拠としてfll用できる。
本発明は、その第一の側面として、画像フレーム系列における1個の対象を追跡 するための画像処理方法を提供する。その方法には以下各項すなわち:(a)画 像領域(image regions)を、追跡対象の一部分となる可能性があ るかどうか分類するための規準を定めること;(b)各新画像フレーム用として 、前回その対象を含むと指定(designate)された画像領域の記録を取 得(oMain)すること;(c)各新画像フレームの領域を上記で定めた規準 に従って分類すること;および (d>新フレームの領域の分類と前回指定した領域の双方を参照して、指定領域 を更新すること; を含む。
本発明の実施例においては、追跡中の対象はフレームから次のフレームに移って も極端に遠くへは動かないという仮定の下に、その対象の部分となる可能性のあ る領域が、更新される指定領域に含まれるかどうかは、前回指定した領域からの 近接度に支配されるものとする。本発明の実施例では、この区分を行うため、空 間的に変化するしきい値(spatially varying tl+res bold)が用いられ、その値は前回指定した領域との関連で決定される。
本発明の実施例には、指定領域が隣接フレーム相互で過度に拡大縮小すること( 例えば対象と同一の属性を有する別の物体が、追跡中の対象に近接した場合など には起こる可能性がある)を防ぐため、指定領域の更新を禁止する段階を含む。
同様に、を旨定領域を更新すると、更新領域が追跡対象の一部になり得ない過剰 な部分を含むことになる場合には、指定領域の更新は禁止される可能性があるも のとする。
領域は、画素単位、ブロック単位、あるいはその混合の何れで分類してもよい。
領域は、先ず前回指定領域との比較のため等級をつけて(in a grade d form)分類し、その後更新指定領域を定めるため2値で分類してもよい 。
その他の特徴として、一般にあるいは特殊の応用分野に利点があると思われるも のは、以下に述べる特定の実施例で明らかにする。
本発明の別の一つの側面により、一連の画像フレームの中の対象を追跡するため の画像処理方法が提供される。その方法は以下各項すなわち;(a)各画像フレ ームの中で追跡対象のための省略時位置(default position) を定義すること; (b)一連の画像フレームの全系列ににわたり、各新フレームごとに、事前に定 めた対象識別規準を参照することにより、また前回の記録位置に基づく規準をも 参照して、追跡対象の位置の記録を取得し更新すること;(C)特徴領域(fe aLures)が追跡対象識別規準は満たすが前回の記録位置に基づく規準は満 たさない場合、その特徴領域が、省略時位置に対してより近接しているかどうか を測定すること:および (d)上記特徴領域がより近接していた場合には、それらの特徴領域を対象と解 釈して記録位置を更新すること: を含む。
この方法は特にテレビ電話で利用できる、というのはテレビ電話では使用者がカ メラの視野の中心に位置するからである。遅延時間を置いて更新の処理を行えば 、誤った省略時位置に戻るのを避けることができる。
本発明によれば、更に、上記のような対象追跡方法の結果を用いて、動画像符号 化方法のデータ速度(rate)を1tIIIIIJすることが可能になる。こ の符号化方法は、例えば11261規格互換、またはMPEG規格互換になり得 る。
本発明によれば更に、上述の画像フレーム符号化手段を含むテレビ電話装置、そ うした方法により生成される動画像信号、およびそうした方法で符号化した画像 を運ぶ動画記録が実現できる。
本発明により更に、1個のデータ処理装置が提供されるが、その装置では、蓄積 された規則的二次元配列要素が活性(active)か不活性(inacLiν e)か指定され、上記装置には、上記蓄積配列のすべての活性要素を囲む凸閉包 (convex hull)を識別する手段を含み、更に下記2点すなわち:( a)配列の行を走査して、各行の活性要素(単数または複数)のうち最も末端に 位置するものを拾いだして線形リストの形に記録する手段:および(b)上記の 末端活性要素の線形リストを処理して、配列の各行の活性要素のうち末端よりも 内側のものを更に考慮することなしに、所望の凸閉包を識別する手段。
を含んでいる。
そうした装置により、例えば、デジタル化した画像フレームの中で活性要素と指 定された画素またはブロックの周りに、1個の凸閉包を当て嵌める(fil)た めの効率よい方法が実現できる。上記線形リストを効率よく形成するには走査処 理を用いればよい。
以下に本発明の諸実施例を、単なる例示として、添付の図面を用いて説明する。
それらは: 図1が、本発明に基づくテレビ電話における運動検出のための前処理段階を示す 図であり; 図2が、図1の処理で生成された各ブロックごとの変化画素数の配列例を示す図 であり; 図3が、同一配列をしきい値処理したあとの状態を示す図であり:図4が、図3 でしきい値処理したブロックの周りに凸閉包を当て嵌めた状態を示す図であり。
図5が、図4の凸閉包の周りに空間的に変化するしきい値をを当て嵌めることに より形成したボテンツヤル井戸(potential well)を示す図であ り;図6が、テレビ電話における対象追跡のため、フレーム単位に行なわれる動 作を説明する図であり: 図7が、一般動画系列の符号化で用いるクロミナンス方式の実施例における、対 象追跡動作を説明する図であり; 図8が、図1〜Gまたは図7の処理に条件付の更新方法を適用した模様を示す図 であり: 図9が、テレビ電話の対象追跡における「中心回帰J (”return to  cenLre“)の振舞いを説明する図である。
画像符号化技術の予備知識となる情報については多くの文献が存在する。特にテ レビ電話の分野については、デジタル化した動画をデータ速度64にビ・ノド7 秒で効率よく符号化するための標準として開発された+1261が著名である。
このシステム、および自動的に顔を追跡する技術を用いたテレビ電話画像符号化 の実験装置か、例えば1992年刊のBr山sh Machine Visio n Conference Proceedings (英国機械画像会議予稿 集)の488頁に掲載されたTIP Trevほかによる論文“A RealT ime Face Location System Lo [1nbance  Videophone Picture Qualit凵hに纏め られている。この論文の内容、および+1201の標準は、参考として本出願に 組み込まれている。ただしその詳細は本発明の理解には必要ない。 今一つの符 号化標準で より高ビツトレイトに適したものは、MPEGとして知られている 。
以下に述べる諸実施例では特に、上記諸符号化システムがブロック単位であって 、計算処理集約型の画素レベル処理をなるべく避けてブロック単位で極力大屋の 処理を行なっている、という事実を利用している。しかしながら、ここで述べる 諸技術は、必ずしもブロック単位の処理に限らず、もし十分な計算能力が得られ るなら画素レベルでも実現可能である。
第1の実施例は、先ずフレームの中で、3個の連続するフレームの差を考慮する ことにより、裸のCuncovered :χI象または運動物体の陰にならな いの意)静止領域と運動領域とを区別する。もし唯一の運動物体がテレビ電話の 使用者(今後単に「対象」(“5ubject”)と呼ぶ)である場合、そして テレビ電話のカメラと周囲の照明の強さが固定されて変わらない場合には、フレ ームの差分に含まれる情報は対象の領域と裸の背景にのみ存在する。しかし、条 件は常にこのように理想的とは限らない、すなわち、背景には他の運動物体が存 在し、周囲の照明条件は、例えば、視野の一部を横切る陰影によって変化しio る。これらの条件は何れも異質のIexIraneous)運動を生成すること になる。こうして、フレームの差分信号にはこれら背景の変化に関する情報をも 含むことになる。従って、対象によって起こる画像の変化と、上記の不要効果に よって起こる変化とを、何とか区別する必要か生じる。もし、対象がフレームの 間で極端に動くことはないと仮定できるなら、このすn報は上記の目的に利用で きる。
各新フレーム(F51例えば352 X 288画素を含む)について、運動情 報が先ず抽出され、これか処理されてブロック(L>の形(format)に整 理され、高位の処理、すなわちアルゴリズムの主要部を形成するレベルの処理に 備えられる。上記最?l]の処理は領域の運動に敏感にきめ細かく行なう必要か あるか、しかもカメラ雑音には影響されてはならない。
画素レベルの手続きを下記に述べるが、蟹約すれば、典型的なL (図2)を用 いて図1に示したようになる。2個のフレームに−1とkについて、画素ごとの フレー1、の差が100で計算される。
次に、フレームの差信号の大きさが102でしきい値処理される(Lhresh olded)。これは、フレームの差があるしきい値より大きい画素は変化した と指定し、残りは変化しなかったと指定することを意味する。すなわち:ただし 在で:x、yは画素の座標を示し、I、はフレームにとに−1の差をしきい値処 理した結果を示し、F、はこの系列の第に番目のフレームのデータを示し、また 、T、はしきい値レベルである。
このしきい値処理の主目的はカメラ雑音の影響を抑制することである。このしき い値処理の二次的なしかし極めて望ましい効果は、フレーム間の差がT、以下で あるような、緩慢な照明の変化が無視できることである。一方、対象とその他運 動物体から出る運動情報もある程度失われるのは不可避であるが、大抵の場合こ れは気にする必要はない。
しきい値処理したフレーム間の差分L(x、y)は、次いで104においてブロ ック単位仕分けされる。このブロックの通常の大きさは16X16画素で、各ブ ロックごとの変化した画素数が10(iで勘定される。これかアルゴリズムの主 要部で処理対象となるブロック単位の運動情報であって、記号M、で表される。
ここでkはフレーム(k)と(k−])のフレーム間差分から得られた情報であ ることを示す。
ただし荘で:i、jはこのブロック配列の座標を示し、U、Vは1個のブロック 内の座標を示し、また、Nは画素数で測ったブロックの辺の長さである。
上記のように、物体が動くと、フレーム差分信号には、対象と裸の背景の双方の 情報か含まれる。対象を確実に追跡するには、この両者を区別するのが望ましい 。もしある運動物体を示す3個のフレームの系列から2個のフレーム差分を取り 出して考察できれば、これら2個のフレーム差分に共通の情報は、第2のフレー ムにおけるその物体の位置に存在することが明らかである。従って、MbとMo 、が双方とも零でない(non−zero)ブロックは、フレーム(k−1)に おける運動物体の位置を与え、一方、非零から零に変わったブロックは、裸の背 景を示す(また零から非零に変わったブロックは、フレーム(k+1)でこの背 景が何かに覆われ裸でなくなったことを示す)ことになる。このように、運動物 体の位置は、lフレーム分の遅延を利用してAND演算を行なえば識別可能であ る。
ブロックが、雑音により誤って運動物体と指定される可能性がある。大部分の雑 音は、前述の画素単位のしきい値処理で除去されてはいるが、雑音の残留効果を 除去すると同時にMを2値形式に変換するため、Mの内容にしきい値処理を施す ことによりフレーム差分の2値形式配列が得られる。こうして、変化画素数がし きい値T、よりも大きいすべてのブロックは変化していると指定される。このし きい値処理の結果はMo、で示されAND演算の結果はS、で示される。
St (i、4) =M’t (i、j) & Moh−+(i、Dブロックの 大きさがl[1XIG画素なら、Mm(i、Dの数値は0(変化画素なし)から 256(全画素か変化)にわたるが、そのような場合、しきい値T、=5とすれ ば好結果が得られることがわかった。図2に示した信号に対応してT、=5で処 理した結果のMoゎを図3に示す。
さて、AND演算の結果(S、)はこれまで述べた通り当然、フレーム(k)に おける対象とその他の運動物体の双方の位置を含んでいる。もし仮にAND演算 のオペランドの何れか一つが対象の運動(すなわち位置と裸の背景)の情報のみ を含むことか可能だったとすれば、Slよ他の物体を度外視して対象の位置を示 すことになる筈である。これを実現すべく、本発明では1個の空間的に変化する しきい値を考案したか、今後これを「ポテンシャル井戸」(“I]0LenLi al well”)と呼ぶ。
図4は、図2と図3に示したフレームに対応して、追跡中の対象に属するものと 目下を旨定されている領域(ブロック)を示す配列Hhを示している。図5は、 [ポテンシャル井戸Jを定義するしきい値の配列P、を示す。
図6の系統図には一つの実施例で採用した処理を要約しである。
先ず、配列S、、 (400に蓄積される)は、前回画像フレームF、−一二お いて対象の位置の一部を形成したブロックのみを示していると仮定される。この 状態を如何にして初期に達成し維持するかは後述する。1個の凸閉包配列H,− 1(図4)か次いで402で対象の周りに当て嵌められ、これがポテンシャル井 戸の底(N。
or)の境界となる。このボテンツヤル井戸の配列Ph−+ (図5)は404 で生成され、この−組のしきい値により、変化するブロックが対象の運動で生じ たのかどうかが判定される。
フレーム(k−1)において対象の周りに当て嵌められるこのようなしきい値の 配列はP*−+で示される。図5に示したように、これらのしきい値Ph−+( 1,J)は、ブロックがフレーム差分Iの凸閉包から遠いほど増加する。406 では、各要素Mn(i、」)(ブロック(i、 j)における変化画素の数)を 、配列P、−1の対応する要素Pn−1(+、D (そのブロックに関するポテ ンシャル井戸の対応値)と比較することにより一つの決定が下される。すなわち 変化画素数がポテンシャル井戸のしきい値を超えるようなブロックは、運動して いる対象の部分であると指定される。
運動は含むが、ポテンシャル井戸のしきい値を超えないブロックは(比較的対象 から離れているので)、対象以外の運動物体の部分であると指定される。
この例において、ポテンシャル井戸のしきい値P* (i、j)の値は、凸閉包 自体の内部の値に過ぎないことに気付くかも知れない。この値は、M’hを得る ために使用した雑音しきい値T1以下であり、追跡中の対象の部分を形成する可 能性の極めて高い領域は、雑音にも極端に敏感であることを意味する。実際上、 階調分布(texture)やコントラスト(contrast)に欠ける対象 を扱う場合には、この雑音感度(noise 5ensitivity)が追跡 処理に役立つことが判明している。
凸閉包の当て嵌め方法は既知であるが、その新規の方法については後述する。
ボテンノヤル井戸の急峻度(steepness)により、アルゴリズムがどの 程度運動に応答できるかが決まる:もし側面が)峻過ぎると、対象が速やかに動 き過ぎた場合に、ボテンツヤル井戸を突き抜けて、その他の物体の部分と指定さ れる危険がある。この問題を軽減する対策として、先行する2個のフレームの間 に観測した運動に基づいて凸閉包の位置を運動予測により修正することができる 。
このようにポテンシャル井戸を利用して、対象に基づく変化ブロックと他の変化 ブロックとを区別することができる。40Gにおける比較で、対象の変化のみ示 すブロック地図(block map) 408が得られ、そこでは対象のみが 記号り、で与えられる。このり、をMo、の代わりに用いて、M’に+1 との AND演算を410で行ない、フレーム(k)における対象の位置のみを含む理 想的な配列S、を生成する。次いでこのS、を用いて新たな凸閉包H&およびポ テンシャル井戸P、を生成し、それが今度はフレームF。、の中で動く対象の追 跡に用いられ、以下同様に繰り返す。
Sv (i、j) =D* (1,j) & M’h−+(i、j)〔その他の 実施例〕 導入部で述べたように、運動の存在のみが唯一の対象追跡手段ではなく、一般の 画像処理においては(テレビ電話の応用とは違って)、運動の検出が物体の追跡 に常に適切であるとは限らない、というのはカメラの位置自体が固定ではなく、 全景に運動が生じる場合かあるからである。図6に示した処理の前処理段階は、 如何なる分類処理を実現するにも容易に適応が可能であり、更にその分類処理を 使用して、指定領域の更新と対象追跡に用いるボテンツヤル井戸の更新とを行な うことができる。
特定の一例として、色彩空間のサブセット、特にクロミナンス空間(cboro +n1nancespace)か、追跡対象に典型的な色彩を含むものとして認 められる。この場合、条件付確率を設定して、それにより、ある色彩を有する画 素について、その画素か追跡中の対象の部分である確率が評価される。背景と追 跡対象に同程度に出現しそうな色彩には、中立の確率値を割り当て、一方、追跡 中の対象にのみ起こる傾向のある色彩には極めて高い確率1直か割り当てられる 。こうすればあとは簡単で、新しいフレームごとに、画素ごとまたはブロックご との確率値の配列を生成し、それを配列Mkの代わりに使用してポテンシャル井 戸配列P、−1と比較すればよい。もちろん非運動型実施例ではAND′6A算 処理は不要処理り、図6に示した配列り、とS、の区別はなくなる。
図7の段階700〜708に、上記で概説した追跡処理の一般形を示しである。
段階700では、追跡すべき対象を含む旨前回指定された領域が710で示しで ある。
対象の新たな位置は712に破線で示される。
段階702では、新画像の各画素またはブロックが追跡対象の部分である確率を 決定するために新フレームの画素の値(pixel value)を分類する。
特に各画素のクロミナンスを11[1の確率分布表と対比して、追跡対象に高確 率で属すると思われる色彩を識別する。追跡対象にかなりの確率で属する画素( またはブロック)は714と718に斜線(diagonal haLcbin g)で示しである。対象に掻めて高い確率で属する領域(画素またはブロック) は、交差斜線で、例えば71Gと720に示しである。本実施例では、これらの 確率は、クロミナンス分布に基づくこと既述の通りである。検出運動の原理に基 づくテレビ電話の実施例では、交差斜線の領域は運動の激しいブロックに対応で き、影の薄い領域は運動が中程度なブロックに対応させることができる。
6n域714と71(iは、追跡中の対象に適した色彩を含むとはいえ、実際は 画像7レーl、に出現するその他の物体に起因することが理解されよう。他方、 領域718と720はまさしく追跡中の物体に属している。
段階704では、ボテンツヤル井戸722を前回指定した領域710に基づいて 定義し、これを用いて、追跡中の対象の部分である領域をその他の領域と区分す る方法を説明しである。ずなわち、領域718と720とは、ポテンシャル井戸 722の低しきい値の部分に存在し、比較段階(図6の406)を経過すれば、 指定領域の更新決定に寄与すること力呵能である。他方、領域714と716と は、ポテンシャル井戸722の極めて高いしきい値領域に存在するので、指定領 域更新に影響を与えることはできない。
ボテンツヤル井戸の試験を通過した領域に、以下述べるある種の条件を段階70 6で与えると、段階708では、実線で示すように、指定領域が712のように 更新される。
〔条件付き更新〕
運動ベースのテレビ電話の話に戻ると、これまで述べた実施例では2つの問題が 生じる。すなわち:(i)対象が運動しない場合、これまで述べた技術では追跡 し損なうことになること、および(目)対象の背後にほかの運動物体があると、 アルゴリズムがそれをも対象としてSkで指定する領域に組み込み、そのため措 定領域の拡大を起こすことである。
図8には、これらの問題への対策として、特に、段階706(図7)である種の 条件か満たされない限り、各新フレームではポテンシャル井戸と活性領域Dkと が更新されないようにすれば、問題が解決できることを示しである。
具体的には、各フレームごとに、S、における対象の全活性面積(active  area)が800で計算され、これが時間平均フィルタ(time−ave raging filter)に送り込まれる(段階802)。このフィルタの 各タップは1フレ一ム分の遅延時間相当の間隔で分離され、またそれらのウェイ ト(係数)は総計がlになるように正規化されている。段階804では割算が実 行されて、対象の現在の領域(面積)の、そのウェイト付けした時間平均面積に 対する比率rlがめられる。もしrl〉■なら、対象の活性面積は、最近のフレ ーム(複数)と対比して増加しつつあることを示し、それは多分、対象が背景の 運動物体と合体したためと考えられる。同様に、r+<+なら、それは対象の運 動面積が減少しつつあることを意味し、対象が運動を停止したものと考えられる 。
rlのしきい値T□とT、2(例えばそれぞれ0.9と1.1)を、正常の動作 がその間で起こるように定めておくことができる。(段階80Gと808で試験 されて)これらのしきい値から外れる動作が起こると、アルゴリズムは指定領域 の更新を行なわない。その場合(段階810)には、凸閉包とポテンシャル井戸 とは新たなS、の周りには当て嵌められず、D、は更新されず(段階812)、 そして対象の面積データはフィルタを通過できない(段階802)。これらしき い値の範囲が広いほど、柔軟性が一層増す。対象は硬直した物体とは限らないの で、それが回転したり、カメラとの間で前後に動いたりてきるよう、ある程度の 柔軟性が必要である。しかし、もししきい値を広げ過ぎると(100gener ous)、処理が不安定になり、対象が静止状態になった時追跡できなくなった り、単に対象のみで占めていると思った領域に池の物体が組み込まれたりするこ とになる。
段階804で設定されるフィルタの長さくフレーム周期数)により、アルゴリズ ムがχj象の面積の記録を保持すべき時間長が定まる。そのインパルス応答によ り、処理かどの程度敏速に面積の急速な変化に応答できるかが定まる:すなわち 、最も現在に近い入力はどより大きなウェイトをかけることにすると、フィルタ の帯域幅は広がり、急速な変化への応答がより鋭敏になる。
面積試験がうまく行なわれたとした場合、凸閉包Hh++の更新値が段階814 で計算される。面積フィルタの主要機能は、対象が運動しないときも、処理がそ の追跡を持続できるようにすることである。ただし一方ではS、の面積の急速な 増加を制限する役割も十分果たしている。しかし、フィルタにより与えられるS の安定度は、多くの場合、他の物体が対象に近付いたときのSの拡大を制御でき る程十分ではない。そこで、この実施例では、もう一つの試験を導入して、処理 が指定領域の更新を行なうだめの条件を更に制御している。この第2の試験は、 816の段階で凸閉包[1の内部の面積の、運動面積Sに対する比率「、(すな わち面積フィルタへの入力)を計算するもので、これら面積は何れもブロック数 で測定する。面積フィルタのしきい値T1とT、、に合格した場合、この比率r 、が816で今一つのしきい値Trxと比較され、このしきい値を超えない場合 にのみ指定領域の更新処理が行なわれる。
r2の試験を行なう根拠は、他の物体が誤って対象の一部と見做される場合、こ れら2個の物体が狭い地峡(isLl+mus)だけで繋がっていることが多く 、そのためSの「活性」領域の周りの凸閉包にアルゴリズムを適用すると、凸閉 包の内部には背景か多くの「孔」を形成することになる。その結果12 >T+ zとなり、アルゴリズムは更新を行なわないこととなる。このように、r、は対 象の纏まり(CompacLness)の尺度と考えてよ(、ポテンシャル井戸 が更新されるのは(経路820)、対象が適当に纏まっている場合のみ実現する ことになる。試行結果によれば、T1.の値を1.5の付近に採れば動作良好で あると判明している。
図8に関する上述の説明は、追跡中の対象の部分を形成しそうな領域を判定する ための規準としての運動領域と運動に関するものであるが、条件付き更新のため のこの同し試験は、配列Sの中で識別された「活性領域」が、運動、クロミナン ス、色彩またはその他の如何なる分類現車で決定されようと適用可能である。
運動ベースの実施例では、段階808での第2而積フイルタ試験が、運動する対 象がある時間急に静止するような状況に有効に適応できるが、他方色彩ベースの 実施例では、この同じ試験が、対象が別の色彩の物体により一時的に覆われるよ うな状況に効果的である。
〔初期設定〕
使用開始時には、装置には対象の位置に関する知識は全く無い。テレビ電話用の 場合、D、の内容を指定することにより、画面の特定の領域で対象を探すように 装置に指示を与えることができ、これと画面の何らかの運動とがAND演算され てSflが得られる。このAND演算結果S0は、フレームOとlにおける対象 の位置の組合せに基づくので、完璧なものではないが近似としては適当である。
例えば、この最初の探索領域は画面の中央の半分(centre ball)と 決めてもよい。正常な処理動作(上記)は、この探索領域における活性(変化す る)ブロック数が例えば20個を超えた時点で開始か可能になる。
更に、正常な動作か始まるまで: 1)凸閉包内部のポテンシャル井戸のしきい値は、処理が雑音に妨げられないで 対象を迅 速正確に捕捉追跡(lock on)できるよう、雑音の影響防止に 要する平常レベルよりも僅 かに高く設定される。
11)面積フィルタは、そのすべてのタップに現在変化中の面積(Skの和)を 負荷として 与えることにより機能を殺し、それによりTalとTa2のしきい 値にかからないようにする。
1ii)rzかそれ以前の最小値よりも小さい場合のみ指定領域の更新処理が許 されるようにする。この機能(4eature)により、アルゴリズムかDOの 中に指定した全領域で対象の探索を開始し、次いで次第に対象に収斂することが 保証される。
試験の結果、アルゴリズムか約3フレーム以内で対象を捕捉できることが判明し た。
一般に動画の系列、例えは映画フィルムからデジタル映像記録を生成する分野な どで対象を追跡するためには、別の初期設定手続きの方かもつと適している可能 性かある。それは、利用者か関連系列の第1の画像フレームで、手作業により追 跡すべき対象を概略決定する(outline)方法である。当業者であれば、 これをどのようにデジタル映像編集環境で実現するかは容易に理解できよう。更 に、そのような実施例において、画素またはブロックが追跡すべき対象の部分に なる可能性があるかどうかの判断規準は、手作業で指定した領域の統計値(色彩 分布その他何でもよい)と画像フレーム全体の統計値とを比較することにより、 装置により自動的に決定できることが理解できよう。手作業で指定した領域が当 初から対象を含む領域と分かっている場合には、正常動作が即座に開始できるの で、上記(i)ないしくi i i)の対策は不要である。
〔誤りの訂正−[中心への回帰j(“Return to Centre”)) 時には、処理が対象の追跡に失敗し誤って他の物体を捕捉追跡(lock on to)することは避けられない。こうした場合の回復を可能にするため、「中心 回帰」機能か付加できるのは、図9八と図9Bに示す通りである。
各フレームについて、装置は、第1に凸閉包により囲まれたプロ・ツク(例えば 図9への900に示された)について、また第2に他の物体に属すると1旨定さ れたブロック(!1102)について、それぞれの水平軸の中心からの平均距離 を計算する。もしiiT者の距離“a”が後者の距離“b”よりもかなりのブロ ック数だけ大きいなら、目下対象と指定している物体よりも中心に遥かに近い他 の物体が存在することになる。
このような場合、この装置のプログラムは、実際に、対象は画面の中心の物体9 02であるのに何らかの間違いにより他の物体(900)を捕捉追跡してしまっ た、と誤解する可能性かある。この誤解の結果、画面の中心で動いている物体を 対象と指定してその周りに凸閉包とポテンシャル井戸を当て嵌めることになり、 一方、以前対象と指定していた物体は他の物体であると指定し直すことになる。
この変化した状況を図9Bに示す。
この現象(f2aLure)は、一般の「リセット」でも起こる可能性かある。
例えば、対象かカメラの視野から消えるとか、または誰か他の人が同一の会話中 に代わってテレビ電話を使う場合などである。このような場合には、アルゴリズ ムは、画面の中心に最も近い対象を選んで追跡することになる。システムか対象 を誤つて切り替えるのを防ぐには、追加の安全機能として中心に近い物体を切り 替え追跡するに先立ち、時間遅延を設ける方法もある。
〔強調ずべき(for enl+ancemcnL)領域の選択〕テレビ電話も MPEGなどのデジタル映像システムも、平均データ速度は固定しているので、 対象の画像品質強調は、背景のそれを犠牲にすれば達成できる。これは、情報( ビット)を背景から関心領域に移動(divert)させることで行なわれ、強 調すべき領域を追跡処理により制限することができる。テレビ電話の応用では、 対象のシルエットの中で頭のみを局限できれば一層の制限が可能になる。強調す べき領域はもちろんブロックの境界と合わせる(align)必要がある。
対象(使用者ンの頭を追跡(locale)する簡単な方法は、凸閉包の重心か らある距離(offset)をおいて矩形を設けることである。この矩形とその 重心からの距離の何れの11法ら、凸閉包の全面積から自動的に選択される。こ の手段により、強調すべき最適最小領域を維持しなから最も有効な強調を達成す ることが容易になる。
〔凸閉包の抽出〕
以下に述べるのは、二次元配列の離散位置を有する点の集合(例えばデジタル化 画像)から凸閉包を抽出するための高速アルゴリズムである。凸閉包は頂点(V erlices)の集合として抽出される。このアルゴリズムでの計算の手数( campuLattanal cost月よ、最大2が(Illは配列の最小− J法)の程度で納まり、囲むべき集合内の点の数には無関係である。大部分の場 合、計算はこれよりかなり簡単である。
先ず配列の最小寸法を見付ける。これか垂直方向でn1行であったと仮定しよう 。各行をこの配列の頭部から底部へと走査することにより、囲むべき集合の最右 端の点か選択される。これらの点の座標は一次元配列Aの中に逐次(suque ntially)並べられる。これか最左端の点で(も)繰り返されるか、今度 は走査は底部から頭部へと行なわれ、これらの点か八に付加される。こうして集 合の囲むべき点の円囲(circumference)が時31回りで八に記憶 され(bold)、Aは従って最大2mg1の要素をもっことになる。
次いでアルゴリズムは以下のように進行する:1、第1の要素を[始点J (P IVOT)として選べ。このベクトルが上向きの垂直軸と成す 角を方向(be aring )と定義せよ。
2、始点から、配列A内に位置する各点へのベクトルの方向を計算せよ。次に配 列Aの中で、始点からのベクトルが最小の方向(角)になるような点を選べ。こ れを「着地点」化ANDING POINT)と定義せよ。これを行なう場合、 ベクトルが最小寸法の軸(この場合は垂直軸)と成す角係数(slope)を考 え、この値に対して、そのベクトルの存在する象限を考慮に入れるためベクトル 成分の符号に従った適当なオフセットを加算すれば、逆圧切(ARCTANs) を計算しないで済む。もしAにおける2個の点が同一の方向を有するのであれば 、最大の配列指標を有する点(配列への中で最も始点から遠いもの)を着地点と して選ぶ。
3、もし着地点が線形配列への最後の点でない場合は、この着地点を次の始点と 指定して段階2から処理を進めよ。
着地点が、同時にACそれは当然凸I2!?包の上にある)の中の最後の点とな れば、それまで始点としてきた各点が凸閉包の周を定義することになる。
注、l!が必要なのは、二次元画像の中のある1個の行に、囲むべき点集合の中 の1点しか存在しない場合である。この場合、この点は配列の中で2度出現する 。
このような誤りを防ぐため、第(k+l−1)番目の点は、もしそれが第1番目 の点として同一水平軸を共有する(これら2個の点は同−打上にあるので垂直座 標は当然同一である)場合にはこれを無視する必要がある。
始点と着地点の座標をそれぞれ(x*、ys)及び(X+、y+)とする。これ により我々は等式(A、1)を用いて、始点と着地点の間の凸閉包の線分上の各 点(xc、ye)の座標を見付けることができる;(A、I) x、 り[、+ S (yg −yl)但し蔵で・Ycはy、とylの間の値をとり、Sは始点か ら着地点に至るベクトルが最小寸法の軸(この場合垂直軸)と成す角係数(sl ope)である。
この凸rA包抽出アルゴリズムが高速な理由には2つあり、その第1は前処理で ある。すなわち囲むべき点集合の全体を考える代わりに、各行ごと2点しか考え ない。実際に、顔の追跡アルゴリズムの試行過程で、対象は約120ブロツクを 含むのに、この凸閉包抽出アルゴリズムでは線形配列Aの中の18〜20ブロツ クを考えれば済むことが判明している。
計算が節約される第2の理由は、線形配列へでの整頓と始点設定(pivoLi ng acL 1on)の効果にある二次の始点を探すにあたっては、アルゴリ ズムは単にA配列の中で始点よりも指標値の大きな点のみを考えれば済む。従っ て、もし凸閉包がへの中の、占よりも少ない数の頂点で定義できるならば、方向 CbearIng)の計算回数は少なくなるのである。
凸閉包を見付けるための今一つのアルゴリズムは、グレアム走査(Graham  5can) [1083年Addison−Weslcy社刊のR,Sedg wick、”A1goritl+ms”、 p、326参照〕であり、これに僅 かな修正を加えれば利用できる。
このアルゴリズムの根拠は、囲むべき集合のすべての点から1個の閉じた多角形 を形成することである。次いでこの多角形の各辺(side)を線分と考え、こ の情報を用いて、どの点が凸閉包の部分を形成し、どれがそれで囲まれるかを決 定する。従って、への中の点にグレアム走査が利用できるのは、既にそれらが所 望の閉した多角形の形を成しているからである。凸閉包アルゴリズムの計算手数 の復稚さは、萌処理をすれば2111のtjiで済む。
C装置化〕 上記実施例の装置化にあたっては、フレームの差分またはクロミナンスの確率を 画素の速度で取り出す必要かあり、従ってフル寸法のフレームを記憶するバッフ 7か必要になる。しかしこのことにより、大部分の処理動作は、2値データに対 するブロック単位の解析(resolution)として実行される。こうして 要求される記憶容量は小さくて済む。
処理の中で!tW能力集約型の部分は、画素速度で処理する必要のある部分であ り、これに対しては、その目的に合致した在来設計の画像処理用ハードウェアを 用いればよい。ブロック速度で走る高レベル処理のうち、最も計算能力集約型の 部分は、Sの周りへの凸閉包とボテンシャル井戸の当て嵌め(fitLing) である。
幸い、凸閉包抽出のための高速アルゴリズムは上述の通りであり、ポテンシャル 井戸は、更新を正当化するに十分な変化の起こる場合に限り当て嵌めが必要にな るに過ぎない。面積のフィルタ動作は極めて単純な(sLraigl+Lfor ward)もので、残りの3I算は大部分論理または比較演算であり比較的実行 容易である。
運動の検出にブロックあたり多数の画素変化が起こるような実施例では、システ ムのカメラまたは他の映像源に雑音が多く発生しないことが重要である。上述の ように、装置にはかなりの量の雑音対策(noise i關uniLy)が組み 込まれてはいるが、一旦これが破れると雑音による性能の急速な劣化を引き起こ す。
追跡処理の性能に関する今一つの重要な要因は、画像のコントラストの量で、処 理がフレームの差分に依存している場合に問題になる。コントラストが小さいと 、大きな運動かあっても、フレームの差分に含まれる情報は多くならず、システ ムの1Fiu能力か害なわれる。コントラストの不足の原因は各種あり、例えば カメラによるものやシステムのADC(アナログデジタル変換回路)の較正の誤 りによるものかあり、更にはADCのグイナミノクレンジが不足してクリッピン グを起こすことすらもある。この最後の点は周囲の照明条件が極端な場合(明る 過ぎるなど)には、重大な問題になる。
本発明は主としてテレビm話使用者の頭を追跡する場合について述べてきたが、 本発明は他のあらゆる対象物体の追跡にも、テレビ電話以外の諸システム、例え ば、MI’ECなどの符号化システムを用いて対話型メディア用の映像信号を符 号化する場合にも適用できる。例えば、映画フィルムをデジタルコンパクトディ スクに変換する場合、クロミナンス確率分布に基づく上述の処理は、情景の主対 象を追跡して指定領域に落ちるブロックに多くのコストを割り当てるのに有効で あると判明している。明らかに、画像処理一般の目的について、上記処理で達成 される追跡は、運動またはクロミナンス単独ベースの追跡よりも遥かに優れてい る。
0000000000口OOOOOロロ0000口0oOo口oooo口O,− の000000000000000 ト〜Oqコ ■ U】 a) の CPI ロ 000000口0000000 W a) +j) O)0ロロOOOOOOO OOO■寸トド寸〜ロマLl’)マ寸 0oooooO〜ω■ののOへ−n CJ ト〜マのへ−寸寸の!へ oooOoooooo口OOOCo 11”l OC0co ■ cO叩 00口00000000000 CN (’Jの一000ロ0ロo00ロooo ロ0■トの0口の 000000000000000口〇−00000000OOOOOOOOOO o 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0一 ? Σ −−−l−1(J C) CI C) C) C) C) ()() ロ 0  0 0 00 0 0 0 0 0 0 0 0 0 0 0 0 0 1j’ ) u”) u″) Ll’)C’J C’J (X1cN〜CN N (’J 〜〜〜〜〜−−−−〇− ime Fk−IFkFk+1 「−]二]「−::;] 口=7−]

Claims (36)

    【特許請求の範囲】
  1. 1.1個の映像フレーム系列の中で1個の対象を追跡するための画像処理方法に おいて、その方法には: (a)面像の各領域が、追跡すべき対象の一部になる可能性があるかどうか分類 するための規準を定めること; (b)新画像フレームが発生することに、前回その対象を含むと指定された画像 領域の記録(Hk−1)を取得すること;(c)各新画像フレームの領域を上記 で定めた規準に従って分類すること;及び (d)上記指定された領域を、新フレームにおける領域の分類(Mk)と、前回 指定した領域(Hk−1)の双方を参照して更新すること;の各項を含むことを 特徴とする画像処理方法。
  2. 2.請求項1に記載の方法において、対象の一部になる可能性があると分類され た領域が更新指定領域に含まれるかどうかは、それら領域の前回の指定領域への 近接度によって支配されることを特徴とする画像処理方法。
  3. 3.請求項1または2に記載の方法において、領域は等級付けして分類され、前 回指定された領域との関連で空間的に変化する1個のしきい値レベル(Pk)が 定められ、そして分類等級がしきい値レベルよりも低い領域は更新指定領域に含 まれないことを特徴とする画像処理方法。
  4. 4.請求項1,2または3の何れか1項に記載の方法において、更新される指定 領域が、それに含まれるべきすべての領域と関連する1個の凸閉包の形で定めら れることを特徴とする画像処理方法。
  5. 5.請求項1ないし4のうちのいずれか1項に記載の方法において、指定領域の 過剰な拡大を防ぐため、指定領域の更新が自動的に禁止されることを特徴とする 画像処理方法。
  6. 6.請求項5に記載の方法において、指定領域の面積の増加が過大かどうかを、 先行する幾つかのフレームにわたり平均した面積値と比較することにより判定す ることを特徴とする画像処理方法。
  7. 7.請求項1ないし6のうちのいずれか1項に記載の方法において、指定領域の 過剰な縮小を防ぐため、指定領域の更新が自動的に禁止されことを特徴とする画 像処理方法。
  8. 8.請求項7に記載の方法において、指定領域の面積の縮小が過小かどうかを、 先行する幾つかのフレームにわたり平均した面積値と比較することにより判定す ることを特徴とする画像処理方法。
  9. 9.請求項1ないし8のうちのいずれか1項に記載の方法において、更新指定領 域が、対象の部分になる可能性がなさそうな過剰な領域を含むと判断される場合 には、自動的に指定領域の更新を禁止することを特徴とする画像処理方法。
  10. 10.請求項1ないし9のうちのいずれか1項に記載の方法において、対象また は指定領域の運動が連続するフレームにわたって検出され、また段階(d)にお ける指定領域の更新が、新フレームにおける領域の分類、前回指定された領域、 および連動の度合の予測値を参照して実行されることを特徴とする画像処理方法 。
  11. 11.請求項1ないし10のうちのいずれか1項に記載の方法において、新画像 フレームがそれぞれ画素のブロックに分割され、そして分類段階(c)がブロッ ク単位で順次行なわれることを特徴とする画像処理方法。
  12. 12.請求項11に記載の方法において、各フレームの画素が個別に分類され、 各ブロックの分類はそのブロック内の画素の分類の組合せにより得られることを 特徴とする画像処理方法。
  13. 13.請求項12に記載の方法において、個々の画素は2値形式で分類され、各 ブロックの分類は各ブロックの中で画素分類規準に適合した画素を計数すること により行なわれることを特徴とする画像処理方法。
  14. 14.請求項11,12または13に記載の方法において、ブロックが2値形式 で分類されることを特徴とする画像処理方法。
  15. 15.請求項1ないし14のうちのいずれか1項に記載の方法において、連動物 体は追跡中の対象になる可能性があるとして分類できるよう、分類規準が定めら れることを特徴とする画像処理方法。
  16. 16.請求項1ないし15のうちのいずれか1項に記載の方法において、各領域 の分類規準は、新フレームの中の領域の1個またはそれ以上の画素値が、前回の フレームにおける対応する画素値と異なるかどうかを含むことを特徴とする画像 処理方法。
  17. 17.請求項16に記載の方法において、分類段階(c)では、予め定めた雑音 しきい値より小さい画素の差は無視されることを特徴とする画像処理方法。
  18. 18.請求項16または17に記載の方法において、分類段階(c)が、対象の 運動に関する変化と、裸の背景(uncovering of backgro und)に関する変化とを区別する段階を含むことを特徴とする画像処理方法。
  19. 19.請求項18に記載の方法において、3個の連続するフレームにわたって2 個の連続する比較が行なわれること、および両方の比較の何れにおいても変化し た領域以外は無視されることを特徴とする画像処理方法。
  20. 20.請求項1ないし19のうちのいずれか1項に記載の方法において、各領域 に関する分類規準には、新領域の中の領域の1個またはそれ以上の画素の値が、 予め定めた可能な画素値のサブセット以内に納まるかどうかを含むことを特徴と する画像処理方法。
  21. 21.請求項20に記載の方法において、上記予め定めたサブセットは、画像フ レームを全体として比較する際指定領域の中に出現する画素値に関して、確率分 析を行なうことにより自動的に決定されることを特徴とする画像処理方法。
  22. 22.請求項20または21に記載の方法において、可能な画素値に関する上記 サブセットは、追跡すべき対象のクロミナンス特性を参照して定められることを 特徴とする画像処理方法。
  23. 23.請求項1ないし22のうちのいずれか1項に記載の方法において、画像系 列の開始時に1個の省略時指定領域が定められることを特徴とする画像処理方法 。
  24. 24.請求項23に記載の方法において、省略時指定領域の更新は、指定領域の 中のかなりの面積が対象の部分の可能性があると分類されるまでは、禁止される ことを特徴とする画像処理方法。
  25. 25.請求項1ないし22のうちのいずれか1項に記載の方法において、画像系 列に対する初期の指定領域が手作業入力により定められることを特徴とする画像 処理方法。
  26. 26.請求項25に記載の方法において、分類規準が初期の指定領域を参照して 自動的に定められることを特徴とする画像処理方法。
  27. 27.1個の画像フレーム系列の中の1個の対象を追跡するための画像処理方法 において、その方法が: (a)各画像フレームの中の対象の省略時位置を定めること;(b)画像フレー ム系列全体にわたって、各新フレームにおける対象の位置の記録を、予め定めた 対象識別規準を参照するとともに、前回の記録位置に基づく規準をも参照するこ とによって、取得し更新すること;(c)対象識別規準は満足するが前回の記録 位置に基づく規準は満足しない特徴領域(fcature)が、省略時位置に対 してより近接しているかどうかを測定すること;および (d)それらの特徴領域がより近接している場合にはそれらの特徴領域を対象と 解釈して記録位置を更新すること; を含むことを特徴とする画像処理方法。
  28. 28.請求項27に記載の方法において、更新段階(d)がある遅延時間を経過 した後行なわれることを特徴とする画像処理方法。
  29. 29.請求項1ないし28のうちのいずれか1項に記載の画像処理方法を用いて 、データ速度の制限された動画像フレームを符号化する方法において、特定の対 象を含む旨指定された領域の画像品質が強調されること、および上記指定領域は 対象を追跡するために更新されることを特徴とする符号化方法。
  30. 30.請求項29に記載の方法において、データ容量がブロック単位で割り当て られること、および指定領域は対応するブロック単位で更新されることを特徴と する符号化方法。
  31. 31.請求項20または30に記載の方法において、符号化がH261規格と互 換性があることを特徴とする符号化方法。
  32. 32.請求項29または30に記載の方法において、符号化がMPEG規格と互 換性があることを特赦とする符号化方法。
  33. 33.請求項29ないし32のうちのいずれか1項に記載の符号化方法により、 1個のカメラと、そのカメラによる画像フレーム出力を符号化する手段とを含む ことを特徴とするテレビ電話装置。
  34. 34.請求項29ないし32のうちのいずれか1項に記載の符号化方法により生 成されることを特徴とする動画信号。
  35. 35.請求項29ないし32のうちのいずれか1項に記載の符号化方法により符 号化された画像を伝達することを特徴とする動画記録(motion pict ure recordin)。
  36. 36.データ処理装置であって、記憶された規則正しい二次元配列の各素子につ いて活性か不活性かが指定され、上記装置には、上記記憶された配列のすべての 活性要素を包含する凸閉包を識別するための手段を含み、更に:(a)配列の各 行を走査して、各行ごとに最も末端に位置する活性要素(複数のこともある)を 記録して線形のリストに整理する手段;および(b)末端に存在する活性要素に 関する上記線形リストを処理して、配列の各行における末端以外の要素を更に考 慮することなく、所望の凸閉包を識別する手段; を含むことを特徴とするデータ処理装置。
JP6524042A 1993-04-30 1994-04-29 映像系列における物体の追跡 Pending JPH07508633A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB939308952A GB9308952D0 (en) 1993-04-30 1993-04-30 Tracking objects in video sequences
GB9308952.2 1993-04-30
PCT/GB1994/000921 WO1994025930A1 (en) 1993-04-30 1994-04-29 Tracking objects in video sequences

Publications (1)

Publication Number Publication Date
JPH07508633A true JPH07508633A (ja) 1995-09-21

Family

ID=10734737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6524042A Pending JPH07508633A (ja) 1993-04-30 1994-04-29 映像系列における物体の追跡

Country Status (6)

Country Link
US (1) US6035067A (ja)
EP (1) EP0648360B1 (ja)
JP (1) JPH07508633A (ja)
DE (1) DE69433991D1 (ja)
GB (1) GB9308952D0 (ja)
WO (1) WO1994025930A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008243215A (ja) * 2001-12-03 2008-10-09 Microsoft Corp 複数のキューを使用する複数の個人の自動検出および追跡のためのシステム
JP2011509451A (ja) * 2007-12-20 2011-03-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像データのセグメント化
JP2013217936A (ja) * 2006-06-01 2013-10-24 Ana Tec As 物体を解析するための方法及び装置

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6263088B1 (en) * 1997-06-19 2001-07-17 Ncr Corporation System and method for tracking movement of objects in a scene
US6295367B1 (en) 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6205242B1 (en) * 1997-09-29 2001-03-20 Kabushiki Kaisha Toshiba Image monitor apparatus and a method
US6404901B1 (en) * 1998-01-29 2002-06-11 Canon Kabushiki Kaisha Image information processing apparatus and its method
US6493041B1 (en) * 1998-06-30 2002-12-10 Sun Microsystems, Inc. Method and apparatus for the detection of motion in video
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US7121946B2 (en) * 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6591006B1 (en) * 1999-06-23 2003-07-08 Electronic Data Systems Corporation Intelligent image recording system and method
US7050606B2 (en) * 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US7123745B1 (en) * 1999-11-24 2006-10-17 Koninklijke Philips Electronics N.V. Method and apparatus for detecting moving objects in video conferencing and other applications
GB2357650A (en) * 1999-12-23 2001-06-27 Mitsubishi Electric Inf Tech Method for tracking an area of interest in a video image, and for transmitting said area
CN1326087C (zh) * 1999-12-28 2007-07-11 索尼公司 信号处理方法与设备以及记录介质
US6826292B1 (en) * 2000-06-23 2004-11-30 Sarnoff Corporation Method and apparatus for tracking moving objects in a sequence of two-dimensional images using a dynamic layered representation
US6795068B1 (en) * 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
US7742073B1 (en) 2000-11-01 2010-06-22 Koninklijke Philips Electronics N.V. Method and apparatus for tracking an object of interest using a camera associated with a hand-held processing device
US7200246B2 (en) * 2000-11-17 2007-04-03 Honeywell International Inc. Object detection
US6711279B1 (en) 2000-11-17 2004-03-23 Honeywell International Inc. Object detection
US6841780B2 (en) * 2001-01-19 2005-01-11 Honeywell International Inc. Method and apparatus for detecting objects
US7176440B2 (en) * 2001-01-19 2007-02-13 Honeywell International Inc. Method and apparatus for detecting objects using structured light patterns
US7768549B2 (en) * 2001-06-08 2010-08-03 Honeywell International Inc. Machine safety system with mutual exclusion zone
JP4596221B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US7177445B2 (en) * 2002-04-16 2007-02-13 Koninklijke Philips Electronics N.V. Discriminating between changes in lighting and movement of objects in a series of images using different methods depending on optically detectable surface characteristics
DE10225077B4 (de) * 2002-06-05 2007-11-15 Vr Magic Gmbh Objektverfolgeanordnung für medizinische Operationen
US7729511B2 (en) * 2002-09-24 2010-06-01 Pilz Gmbh & Co. Kg Method and device for safeguarding a hazardous area
US6757434B2 (en) 2002-11-12 2004-06-29 Nokia Corporation Region-of-interest tracking method and device for wavelet-based video coding
US7233413B2 (en) * 2002-11-22 2007-06-19 E. I. Du Pont De Nemours And Company Gamut description and visualization
US7764808B2 (en) * 2003-03-24 2010-07-27 Siemens Corporation System and method for vehicle detection and tracking
US7212651B2 (en) * 2003-06-17 2007-05-01 Mitsubishi Electric Research Laboratories, Inc. Detecting pedestrians using patterns of motion and appearance in videos
US8133115B2 (en) * 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US20050105789A1 (en) * 2003-11-17 2005-05-19 Isaacs Hugh S. Method and apparatus for detecting, monitoring, and quantifying changes in a visual image over time
KR100601933B1 (ko) * 2003-11-18 2006-07-14 삼성전자주식회사 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템
US20050111753A1 (en) * 2003-11-20 2005-05-26 Yissum Research Development Company Of The Hebrew University Of Jerusalem Image mosaicing responsive to camera ego motion
US7386190B2 (en) * 2004-04-30 2008-06-10 Corel Tw Corp. Method for image cropping
US20060062478A1 (en) * 2004-08-16 2006-03-23 Grandeye, Ltd., Region-sensitive compression of digital video
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US7336847B2 (en) * 2004-10-11 2008-02-26 Benq Corporation Texture error recovery method using edge preserving spatial interpolation
US7457433B2 (en) * 2005-01-20 2008-11-25 International Business Machines Corporation System and method for analyzing video from non-static camera
US7636126B2 (en) * 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US20070115355A1 (en) * 2005-11-18 2007-05-24 Mccormack Kenneth Methods and apparatus for operating a pan tilt zoom camera
US8150155B2 (en) * 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US7880746B2 (en) * 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7639874B2 (en) * 2006-08-03 2009-12-29 Tandent Vision Science, Inc. Methods for discriminating moving objects in motion image sequences
KR100758230B1 (ko) * 2006-09-19 2007-09-12 연세대학교 산학협력단 무선자원 관리 장치 및 방법
EP2131589B1 (en) * 2007-03-28 2018-10-24 Fujitsu Limited Image processing device, image processing method, and image processing program
US8483431B2 (en) * 2008-05-27 2013-07-09 Samsung Electronics Co., Ltd. System and method for estimating the centers of moving objects in a video sequence
US8325796B2 (en) 2008-09-11 2012-12-04 Google Inc. System and method for video coding using adaptive segmentation
EP3975138A1 (en) * 2008-10-06 2022-03-30 Mobileye Vision Technologies Ltd. Bundling of driver assistance systems
WO2010086866A1 (en) * 2009-02-02 2010-08-05 Eyesight Mobile Technologies Ltd. System and method for object recognition and tracking in a video stream
JP5834011B2 (ja) * 2009-10-06 2015-12-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 生体中の少なくとも周期的現象を表す成分を含む信号を処理する方法およびシステム
CN101739692B (zh) * 2009-12-29 2012-05-30 天津市亚安科技股份有限公司 实时视频目标的快速相关跟踪方法
EP2383696A1 (en) * 2010-04-30 2011-11-02 LiberoVision AG Method for estimating a pose of an articulated object model
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US8989448B2 (en) * 2011-03-22 2015-03-24 Morpho, Inc. Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program
US9154799B2 (en) 2011-04-07 2015-10-06 Google Inc. Encoding and decoding motion via image segmentation
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
DE102012009876A1 (de) 2011-11-10 2013-05-16 Audi Ag Verfahren zum Verarbeiten einer Bildsequenz und Testgerät für einen Kraftwagen
US8704904B2 (en) 2011-12-23 2014-04-22 H4 Engineering, Inc. Portable system for high quality video recording
US9262670B2 (en) 2012-02-10 2016-02-16 Google Inc. Adaptive region of interest
AU2013225712B2 (en) 2012-03-01 2017-04-27 H4 Engineering, Inc. Apparatus and method for automatic video recording
CA2866131A1 (en) 2012-03-02 2013-06-09 H4 Engineering, Inc. Multifunction automatic video recording device
US9723192B1 (en) 2012-03-02 2017-08-01 H4 Engineering, Inc. Application dependent video recording device architecture
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
US9369742B2 (en) 2012-12-06 2016-06-14 Avaya Inc. System and method to estimate end-to-end video frame delays
JP2016521411A (ja) * 2013-04-10 2016-07-21 オークランド ユニサービシズ リミテッド 頭部及び眼球追跡
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9392272B1 (en) 2014-06-02 2016-07-12 Google Inc. Video coding using adaptive source variance based partitioning
US9578324B1 (en) 2014-06-27 2017-02-21 Google Inc. Video coding using statistical-based spatially differentiated partitioning
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3118576B1 (en) 2015-07-15 2018-09-12 Hand Held Products, Inc. Mobile dimensioning device with dynamic accuracy compatible with nist standard
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
CN105405153B (zh) * 2015-10-29 2018-05-18 宁波大学 智能移动终端抗噪声干扰运动目标提取方法
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
WO2022109000A1 (en) * 2020-11-17 2022-05-27 Uatc, Llc Systems and methods for video object segmentation

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4183013A (en) * 1976-11-29 1980-01-08 Coulter Electronics, Inc. System for extracting shape features from an image
US4468704A (en) * 1982-10-28 1984-08-28 Xerox Corporation Adaptive thresholder
US4783829A (en) * 1983-02-23 1988-11-08 Hitachi, Ltd. Pattern recognition apparatus
US4742552A (en) * 1983-09-27 1988-05-03 The Boeing Company Vector image processing system
JPS6140684A (ja) * 1984-07-31 1986-02-26 Omron Tateisi Electronics Co 輪郭追跡装置
GB8528143D0 (en) * 1985-11-14 1985-12-18 British Telecomm Image encoding & synthesis
GB8703931D0 (en) * 1987-02-19 1993-05-05 British Aerospace Tracking systems
GB8710737D0 (en) * 1987-05-06 1987-06-10 British Telecomm Video image encoding
US5341142A (en) * 1987-07-24 1994-08-23 Northrop Grumman Corporation Target acquisition and tracking system
US4868871A (en) * 1987-08-13 1989-09-19 Texas Instruments Incorporated Nonparametric imaging tracker
US4991009A (en) * 1988-07-08 1991-02-05 Ricoh Company, Ltd. Dynamic image transmission system
JPH0220185A (ja) * 1988-07-08 1990-01-23 Ricoh Co Ltd 動画像伝送方式
US4937878A (en) * 1988-08-08 1990-06-26 Hughes Aircraft Company Signal processing for autonomous acquisition of objects in cluttered background
US5109425A (en) * 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
US5034986A (en) * 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
JP2552728B2 (ja) * 1989-05-31 1996-11-13 富士通株式会社 赤外線監視システム
US5148477A (en) * 1990-08-24 1992-09-15 Board Of Regents Of The University Of Oklahoma Method and apparatus for detecting and quantifying motion of a body part
DE4028191A1 (de) * 1990-09-05 1992-03-12 Philips Patentverwaltung Schaltungsanordnung zum erkennen eines menschlichen gesichtes
US5243418A (en) * 1990-11-27 1993-09-07 Kabushiki Kaisha Toshiba Display monitoring system for detecting and tracking an intruder in a monitor area
EP0595895B1 (en) * 1991-07-23 1997-12-29 BRITISH TELECOMMUNICATIONS public limited company Method and device for frame interpolation of a moving image
JPH05236466A (ja) * 1992-02-25 1993-09-10 Nec Corp 動き補償フレーム間予測画像符号化装置及び方法
US5420638A (en) * 1992-04-14 1995-05-30 U.S. Philips Corporation Subassembly for coding images with refresh correction of the data to be coded, and subassembly for decording signals representing these images and previously coded by means of a subassembly of the former kind
FR2690031A1 (fr) * 1992-04-14 1993-10-15 Philips Electronique Lab Dispositif de segmentation d'images.

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008243215A (ja) * 2001-12-03 2008-10-09 Microsoft Corp 複数のキューを使用する複数の個人の自動検出および追跡のためのシステム
JP4642093B2 (ja) * 2001-12-03 2011-03-02 マイクロソフト コーポレーション 複数のキューを使用する複数の個人の自動検出および追跡のためのシステム
JP2013217936A (ja) * 2006-06-01 2013-10-24 Ana Tec As 物体を解析するための方法及び装置
JP2011509451A (ja) * 2007-12-20 2011-03-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像データのセグメント化

Also Published As

Publication number Publication date
WO1994025930A1 (en) 1994-11-10
DE69433991D1 (de) 2004-10-21
US6035067A (en) 2000-03-07
EP0648360A1 (en) 1995-04-19
EP0648360B1 (en) 2004-09-15
GB9308952D0 (en) 1993-06-16

Similar Documents

Publication Publication Date Title
JPH07508633A (ja) 映像系列における物体の追跡
CN109214999B (zh) 一种视频字幕的消除方法及装置
JP5087614B2 (ja) デジタル画像における改良された前景/背景分離
KR100204442B1 (ko) 동체 검출방법
KR100721543B1 (ko) 통계적 정보를 이용하여 노이즈를 제거하는 영상 처리 방법및 시스템
Huang et al. Correlation-based motion vector processing with adaptive interpolation scheme for motion-compensated frame interpolation
KR100485594B1 (ko) 영상에서의 잡음을 제거하기 위한 잡음 처리 방법 및 그시스템
JP2008282416A (ja) コード化する前に画像をセグメントに分割するための方法および装置
CA3061908C (en) Ball trajectory tracking
EP2017788A1 (en) Shielding-object video-image identifying device and method
CN111654747A (zh) 弹幕显示方法及装置
CN110896498A (zh) 计算机场景特效系统
CN115719314A (zh) 一种去拖影方法、去拖影装置及电子设备
Ortego et al. Stationary foreground detection for video-surveillance based on foreground and motion history images
KR102500516B1 (ko) 상황 적응적인 블로킹을 사용한 개인 정보 보호 방법
CN113222870B (zh) 一种图像处理方法、装置及设备
JPH10155139A (ja) 画像処理装置および画像処理方法
CN110942420B (zh) 一种图像字幕的消除方法及装置
US11570331B2 (en) Image processing apparatus, image processing method, and storage medium
JP6738053B2 (ja) 画像信号から階段状アーチファクトを低減するための画像処理装置
KR102087296B1 (ko) 머신러닝 기반 영상의 장애물 제거 장치 및 방법
CN110211085B (zh) 一种图像融合质量评价方法和系统
Varadarajan et al. Background subtraction using spatio-temporal continuities
KR102498383B1 (ko) 전방위 3d 영상의 필터링을 위한 대표 프레임 추출 방법
Radha et al. Threshold based segmentation using median filter for sign language recognition system

Legal Events

Date Code Title Description
A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20040415

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20040607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040720

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050218

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050310

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060105