JP2000503509A - 画像のセグメンテーション - Google Patents

画像のセグメンテーション

Info

Publication number
JP2000503509A
JP2000503509A JP10522331A JP52233198A JP2000503509A JP 2000503509 A JP2000503509 A JP 2000503509A JP 10522331 A JP10522331 A JP 10522331A JP 52233198 A JP52233198 A JP 52233198A JP 2000503509 A JP2000503509 A JP 2000503509A
Authority
JP
Japan
Prior art keywords
segmentation
data
image
frame
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP10522331A
Other languages
English (en)
Inventor
ティモシー イアン パターソン トリュー
リチャード デヴィッド キャラリー
Original Assignee
フィリップス エレクトロニクス ネムローゼ フェンノートシャップ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フィリップス エレクトロニクス ネムローゼ フェンノートシャップ filed Critical フィリップス エレクトロニクス ネムローゼ フェンノートシャップ
Publication of JP2000503509A publication Critical patent/JP2000503509A/ja
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

(57)【要約】 画像符号化器又は他の画像処理装置は画素を所定の基準に従ってそれぞれの領域に割当てるセグメンテーション装置を具えている。このセグメンテーション装置は、或る動画像のシーケンスを通じて時間的に首尾一貫したセグメンテーションを行ない、この装置は:先行フレームのセグメンテーションデータ(S)と推定動きベクトル(M)とに基づいて現行フレーム(FO)に対するセグメンテーションデータを予測する手段(102)と;この予測したセグメンテーションデータを動きベクトル(M)に基づいて現行フレームに対して予測した画素値(FO´)の精度に応じて変更する手段(104〜106)とを具えている。特に、画素値が動きベクトルによって正確に予測されていない画像部分に対しては、予測したセグメンテーションデータを無効として、このような部分は再度セグメンテーション処理してから、予測セグメンテーションデータに併合して、時間的に一貫したセグメンテーションデータを得るようにする。実施例では、予測したセグメンテーションでのそれぞれの領域の境界上の画素も検討して、これらの画素を様々な基準に従って隣接領域に再割当てする。

Description

【発明の詳細な説明】 画像のセグメンテーション 本発明は改善した時間的一貫性を有する画像のセグメンテーション及びセグメ ンテーションに応じた処理ステップを含む画像処理に関するものである。 画像は通常その画像を構成する各画素の属性、特に画素の色を規定することに よって表される。単色画像では、各画素を規定する属性が通常その画素のグレー スケール値から成るのに対し、カラー画像では、画素ごとに多数の色成分値を規 定する必要がある。しかし、本発明はこうした慣例の画像及び属性に限定されず 、画素アレイの形態で二次元以上で首尾よく表すことができる空間属性にも適用 する。同様に、時間の概念及び時間的一貫性ということは、必ずしも時系列でな い第3の空間的次元にわたる画像シーケンスに対して断層画像“スライス”セグ メンテーションを行なう場合のようなアナログ的次元を含むものと理解すべきで ある。 画像セグメンテーションの既知の方法では、画素を各々が同様な属性を有する 画素だけを含む複数の領域に群別する。この方法は、特に画像符号化(圧縮)の 分野で多数適用されている。画像のセグメンテーションを用いる画像符号化法は 、特に画像の動きを低いデータ速度で伝送するのに好適である。一般にデータ速 度は64kビット/秒程度に低くすることができる。従って、こうした画像符号 化法は、実時間のビデオ情報を電話回線の狭い帯域幅に下げて伝送しなければな らないテレビ電話の如きアプリケーションにとって好適である。セグメンテーシ ョンそのものを符号化するのでなくても、セグメンテーションは、例えば話者個 人の顔の如き画像の“重要な”部分に有効帯域幅を集中させるのに有効である。 画像セグメンテーションを用いる画像符号化法は、公告された特許出願EP−A −0437002(PHB33610)及びEP−A−0454234(PHB 33626)に記載されているような領域兼テクスチャ符号化法である。動画像 における一連のフレームの符号化用にセグメンテーション法を用いると、個々の フレームにて実行したセグメンテーションによる可視的なアーチフェクトが各フ レ ームごとに変化し、主観的に極めて不愉快な画像列の表現となる。従って、セグ メンテーションは時間的に一致したものとするのが望ましい。即ち、画素の似て いるグループは、連続するフレームにおける似ている領域に属するようにすべき である。画像のセグメンテーションは画像符号化での使用に限定されるものでな く、一般に画像強調、目標追跡、画像からの3次元像の抽出、コンピュータ援用 アニメーション及びカラー化の如き種々の画像処理アプリケーションに用いるこ とができる。 時間的に首尾一貫した画像セグメンテーションの問題点に対する既知の方法は 、画像を動きが均一の複数領域に分割して、対象を導出することにある。この場 合には、こうした対象に対する動きベクトルを計算して、これらの動きベクトル を出力させる。このような方法の例については、Narbert Diehl著 による論文“Segmentation and Motion Estimation in Image Sequences”(SPI E Volume 1260,Sensing and Reconstruction of Three-dimensional Objects a nd Scenes 1990)及び本出願人によるEPO579319(PHB33802) に記載されている。 この方法での問題は、この方法が画像をその構成対象に満足のゆくように分割 することを当てにしていることにある。このことは牽いては、画像に存在しそう な対象についての予備知識を当てにするか、そうした知識を複数の後の画像フレ ームについての複雑な処理から導出することになる。このような対象についての 知識が殆どない場合には、モデル化が極めて困難となり、画像をこのような対象 に満足のゆくように分割することができない。画像のセグメンテーションが首尾 よくできないと、主観的に極めて不愉快な結果が生じることになる。例えば、1 つの実験的なテレビ電話のアプリケーションにて、伝送された顔の額から鼻が伸 びてしまうことがあった。前述したように、このような方法は対象モデルに複雑 で、しかも大規模なデータベースを必要とし、さらに、このようなモデルを画像 中の対象に整合させるのに過大な計算を必要とする。従って、この方法は一般的 な画像符号化にとって信頼できる方法ではない。 本発明の目的は画像における対象を特殊なモデル化をする必要なく、画像を時 間的に一貫してセグメント化する方法を提供することにある。本発明の使用によ って処せられる時間的な一貫性は、画像シーケンスにおける動きに関連する過度 に単純化した仮定をする場合に伴われる計算を、このような仮定が無効である場 合の誤りを検出し、且つ補正する機構を設けることによって低減させることもで きる。 添付した請求の範囲に記載した本発明によれば、一連の関連する画像に対して 一貫したセグメンテーションをすることにより、例えば動いている対象を包含し ている動画像シーケンスのセグメンテーションを時間的に一貫したものとするこ とができる。 ここに開示する例のセグメンテーション法は次のようなステップの幾つか、又 は全てを含むものである。即ち、 (a)一連の画像のうちの最初の画像を、その画像の画素を複数の領域に割当 てる初期のセグメンテーションをするセグメント化ステップ; (b)一連の画像のうちの最初と次の画像から動きベクトルを計算するステッ プ; (c)動きベクトルを初期のセグメンテーションに適用して、次の画像に対す る予測セグメンテーションを行なうステップ; (d)最初の画像及び動きベクトルを用いて、次の画像の予測画素値を得るス テップ; (e)次のフレームに対する予測画素値と実際の画素値とを比較することによ って動きベクトルが無効である画素を識別するステップ; (f)識別した画素をセグメント化して、他の画像領域を生成するステップ; (g)前記予測セグメンテーションの部分を前記他の画像領域と置き換えて、 次の画像に対するセグメンテーションを改善するステップ;及び (h)次のセグメント化画像を最初の画像として用い、且つ改善したセグメン テーションを初期セグメンテーションとして用いて前記(b)〜(g)の工程を 繰り返すステップ。 前記ステップ(f)の前に、様々なヒューリスティックを適用して、識別画素 を隣接する画素と同じ領域に割当てることにより識別画素の数を減らしたり及び /又は他の画素を前記ステップ(f)で検討するようにすることもできる。 本発明により行われるセグメンテーションによれば時間的一貫性が改善され、 従って画像のセグメンテーションにアーチファクトが存在したとしても、こうし たアーチファクトはフレームごとに一致し、従ってこうしたものによる結果は視 聴者にとって殆ど不愉快なものにはならない。 例えば、本発明による方法の具体化例では、全てのフレーム間の動きを二次元 的に平坦な動きとして特徴づけて、ブロック整合推定器の如き、通常の二次的な 平坦な動き推定器を用いて画像の各画素に対する動きベクトルを計算することが できるものとする。このことは一般に実際の時系列にとっては有効でないばかり か、動きベクトルがブロックによって計算されるだけであるので、フレーム間の 動きが二次元的な平坦な動きだけであり、各ブロックにおける個々の画素全てに 対する動きベクトルが正確に計算されると云うことは殆どあり得ないことである 。そこで、不正確な動きベクトルを検出するために、本発明の好適例では、各画 素の変位したフレーム差(DFD)を計算する。このDFDは、或るフレームと 、これに隣接するフレームに基づいた動きベクトルによって与えられるそのフレ ームの推定値との誤差を画素ごとに表す。従って、過剰なDFDは、或る特定の 画素に対する動きベクトルが無効であることを示す。この場合、DFDは動きベ クトルによって予測したセグメンテーションが補正を必要とすることを識別する のに用いられる。 以下添付図面を参照して本発明を実施例につき説明するに、ここに: 図1は本発明の実施例におけるセグメンテーションプロセスの大要を示すブロ ック図であり; 図2A、図2B及び図2Cは実施例における時間的に一貫した画像のセグメン テーションを示す詳細なブロック図であり; 図3は動きベクトルの計算方法及び動き推定が失敗した画素の検出方法を示し ているブロック図であり; 図4A及び図4Bは本発明の実施例における各画素の勾配の計算法を示し; 図5は実施例におけるエッジ画素の割当てプロセスを示す流れ図であり; 図6A及び図6Bは図5に示したプロセスの説明に役だてる画素の強度及び勾 配を示す線図であり; 図7は図1〜図6の画像のセグメンテーションプロセスを用いる画像符号化装 置のブロック図である。 図1は動画像の一連のフレームに対する画像のセグメンテーションプロセスの 大要を示している。ここで説明する例では、画像は単色で、各画素の強度が単一 のグレースケール値によって規定されるものとする。しかし、本発明は単色画像 の処理に限定されるものではなく、色つきの画像又は任意形態の画素アレイ用に 必要な変更を加え得ることは当業者に明らかである。 図面では実行すべきプロセスのステップを楕円形のボックスにて示し、主要な データ構成を長方形のボックス内に示してある。 F1は時間t=n−1におけるフレームに対するグレースケール値の画素アレ イを示し、即ちこのアレイはフレーム中の各画素のグレースケール値を包含して いる。フレームF1及び時間t=nにおけるフレームF0に対するセグメンテー ションは時間的に首尾一貫して成されるべきものとする。 フレームF1を一連のフレームにおける第1フレームとする場合には、これを 初期セグメンテーションプロセス100にて処理して、後に詳述する方法でセグ メンテーションデータS1を得るようにする。 フレームF1と次のフレームF0(これは時間t=nにおける)との間の動き について、グレースケールのフレームデータF1及び新規のグレースケールのフ レームデータF0から、後に図3及びステップ21につきもっと詳しく説明する 通常の方法にて動きベクトルMを計算する。このような動きベクトルの計算にも 多数の種々の方法が既知であるが、本例では動きを小さな画素ブロックの二次元 的移動としてモデル化する。 これらの動きベクトルを一旦計算したら、これらを動き補償プロセス102に よって初期のセグメンテーションデータS1に与えるようにする。これによりフ レームF0に所望されるセグメンテーションS0の第1予測値S01を得る。し かし、この予測値S01は、例えば画素のブロック化のような動き検出プロセス にて近似法及び仮定法を行なったとしても、一部に過ぎないため、多数の画素に 対する無効エントリを含むことになる。エラーは画像処理装置の内外の雑音及び 予測できない“無防備の背景”によっても導入されたりする。従って、本例では セグメンテーションが無効(この無効性に対する基準については後に説明する) となり得る画素を識別し、このような画素に様々な任意の処理を施して、これら の画素を現存する領域に割当てるようにする。この場合、首尾よく割当てられな い画素は、最初から割当て画素にセグメンテーションプロセスを行なうことによ り生成される新たな領域に割当てるようにする。 予測したセグメンテーションデータが無効なものとして処理されることになる 2つの独特な画素カテゴリが識別されている。本例では、これらの各カテゴリの 画素を、実際には一方又は他方のカテゴリの画素を無視したり、これらの画素の 処理を様々な方法で組合わせたりすることが同じように可能であるけれども、画 素を現存する領域に再割当てする別のプロセスによって処理する。 第1カテゴリの画素は予測領域の境界上にある画素である。このような画素は 特に雑音の影響を受け易いことが発明者によって確認されている。さらに、動き ベクトルは通常個々の画素と云うよりもむしろ画素ブロックについて計算される ため、ブロックが種々の対象に適当に属している画素を含んでいる領域(対象) の境界付近に誤りが導入されがちとなる。 第2カテゴリの画素は動き補償が失敗したと判断される画素である。画像フレ ームの動きベクトル及び画素データは、後に詳述するように、動き補償の失敗を 確かめるのに用いられる基準となるものである。 プロセス104は画素が予測セグメンテーションに割当てられる領域の境界に ある画素(カテゴリ1の画素)を大まかに識別する。後にもっと詳しく説明する ように、本実施例ではこのような画素をそれらの画素値及び計算した領域の統計 量に従ってもっと適した領域に再割当てするようにする。 プロセス106は、ブロックの動きベクトルが画素の動きを正しく示している とは思わない画素で、プロセス104で検討されなかった画素(カテゴリ2の画 素)を適当な領域に割当てるようにする。これには特に、画素が属するブロック の動きベクトルによって、その画素値が正しく予測されていない画素に対しては 、この画素の領域も予測セグメンテーションにて正しく予測されていなかったと 云う推論を活用する。 動き補償に失敗しているも(カテゴリ2)、1つ以上の現存する領域の境界又 はその近傍にある画素はこれらの領域の1つに割当てることができる。後に詳述 するように、本実施例ではこれを、斯様な各画素の画素値の勾配を考慮すること により達成する。 予測領域の境界上にあるか(カテゴリ1)、無効動きベクトルを有している( カテゴリ2)多数の画素が現存領域に割当てられているとは云え、それでもなお 上述した基準ではどの現存領域にも割当てることができない画素がまだあること がわかる。これは通常出現対象及び背景に関連して生じる。従って、こうした画 素は新たなセグメンテーションプロセスを行なって、新規の領域を生成するよう にする。 セグメンテーション処理の後には小領域をなくすのが好適である。これは各小 領域をそれを最も適している近傍の領域と併合することにより行なうことができ 、これにより後に実行すべき処理量をかなり低減させることができる。さらに、 セグメンテーションによって規定される種々の領域の数を調整する機構を設ける ようにする。これは、そのようにしないと領域数が多くなり過ぎてしまうからで ある。本実施例では新規の領域を現存領域と併合する前に互いに適当に併合させ るが、これは必ずしもそのようにする必要はない。 動画像シーケンスの各その後のフレームに対しては、図1に破線で示すように 、新規のセグメンテーションS0を初期のセグメンテーション(S1)として処 理を繰り返すようにする。 図2A,2B及び2Cは、本実施例における画像のセグメンテーションをもっ と詳しく示してある。 図2Aを参照するに、フレームF1に対するグレースケールデータをプロセス 11にて画像内容及びセグメンテーションの目的に応じて、いずれかの適当な方 法で初期セグメンテーション処理する。このようなセグメンテーションの例はブ ライス−フェンネマ(Brice-Fennema)法と称され、これは“Scene analysis usin g regions”(Artificial Intelligence 1(1970)205〜226)に記載されている。 本実施例では、画素アレイを生成し、各画素に対する値を入力して、この画素が 一部を成す領域を識別する。このようなセグメンテーションなる表現を、上述し た論文に記載されている“境界セグメント”のチェーンに優先して用いるが、こ れはこの方が本例の後続する処理工程段にとって簡単であるからである。しかし 、このような表現は必須のものでなく、前記チェーン表現を代わりに用いること もできる。特に、チェーン表現は初期のセグメンテーション処理中に用い、これ はフレームごとにセグメンテーションを更新するために画素アレイ形態に変換さ れるものとする。いずれにしてもセグメンテーションプロセス11の結果はセグ メントデータS1である。 プロセス13では、S1の各領域に対する様々な領域統計量(STATS)を 計算する。具体的に計算する統計量は各領域における画素数、各領域の平均グレ ースケール値及び各領域の標準偏差である。各領域の平均グレースケール値及び 標準偏差を記憶する代わりに、それぞれの画素のグレースケール値の和及びグレ ースケール値を2乗した和を記憶する。これは画素が領域に結びついたり、離れ たりする場合に後の標準偏差の計算を簡単にし、この標準偏差は次のような関係 式を用いて容易に計算することができる。 ここにσは標準偏差であり、xの値は領域の一部を成している画素の個々のグレ ースケール値であり、nは領域内における画素の数であり、μは領域の平均グレ ースケール値である。 次いで小領域をステップ14で“除去”する。具体的には、5画素よりも小さ な大きさの小領域を除去するのであって、これは経験上そのように定めるのであ るが、これは限定要件として見なすべきことではない。実際上、これにより36 0×280画素の画像に対するフレームにて例えば1000領域を除去する。こ のように小領域を除去することによって、当面のフレームに対するその後の処理 が低減し、順次の画像処理の期間中に領域の数が増える傾向も相殺される。小領 域の除去は後の段階にて行なうこともでき、このように後の段階にて行なう方が 、有意性を立証できない小領域のその後の処理をしなくて済むので好適である。 或いは又、セグメンテーションプロセス及びこのような処理に適する基準を注意 深く選定することにより、生成される小領域をなくすことができる。 小領域の除去処理は、各小領域を、平均グレースケール値が除去すべき領域の それに最も近い値を有している隣接領域と併合することにより行なう。セグメン テーションアレイS1は新規構成の領域S11で上書きされることになる。 さらに、各領域に対する統計的記録STATSをステップ17にて更新する。 本実施例では、これらの統計的記録を、どの画素が除去されたか、又は各領域に 結びつけられたかを考慮することにより単に更新するものとする。実際上、この ステップは小領域除去処理(ステップ15)と一緒にすることができる。除去ス テップ15の完了後に各領域に対する統計量を計算し直すことができることも明 らかである。これは例えば、統計量をハードウェアで計算する場合に好適である 。さらに他の方法として概して隣接領域は除去する小領域よりも遥かに大きいか ら、この隣接領域の統計量を何等変更することなく、新規領域の統計量に対する 穏当な近似値として用いることができる。つまり、ステップ17はオプションで ある。 図2B及び図2Cは、下記に説明するように、現行フレームF0に対する出力 セグメントデータS0を得るべく初期のセグメンテーションS11を行なった後 にこのセグメント化したフレームS11に対して実施する様々なプロセスを示し ている。 ステップ19では、動きベクトルMを用いて、フレームF1に対するセグメン トデータS1を画素単位で動き補償して、フレームF0に対するセグメントデー タを第1予測する。この予測値をS01にて示してある。動き補償については種 々の方法が当業者に知られている。本実施例では、現行フレームF0の各ブロッ クに対して動きベクトルMを1つ用立て、これがセグメンテーションデータS1 における画素の相対位置を示し、この位置の領域IDは、動き推定器によって行 われるブロック整合が極めて不十分な整合であっても、アレイS01における目 下考慮中のブロックの画素にコピーすることができるものとする。他の例では、 所定のブロックに動き推定器によって、動き検出に失敗したとしてフラグを立て させることができ、本実施例を、このようなことができるように適合させること ができることは当業者に明らかである。同様に、本発明による方法は、本実施例 における“後ろ向きの”動きベクトルを使用可能とする代わりに、“前向きの” 動きベクトルを使用可能とするか、又は動き推定情報を全く異なる形態のものと する場合にも適当に適合させることができる。 なお、STATSの値は予測したセグメンテーションS01にならってこの段 階にて更新させることができるが、実際にはこの更新は行なわない。統計量を以 前のセグメンテーションデータから発生させるのであるが、これらの統計量は穏 当な誤差範囲内で現行のセグメンテーションデータに適用できる。 ステップ21は、第1アレイのフラグU10によって無効としてフラグが立て られたS01の個々の画素をクリヤする。 図3は各画素の変位フレーム差(DFD)に関連づけられるフラグU10の決 定法を示している。動きベクトルMを計算するためにデータF1とF0を動き検 出器1へ入力する。動き検出器の例は当業者に周知であり、これらは通常高精細 度TV用の画像符号化及び周知のMPEG及びH.261標準方式の如き低ビッ トレートの画像符号化法に用いられている。このような動き検出器の例では、Ge rard de Haanによる論文“Motion Estimation and Compensation”(ISBN 90-744 45-01-2)及び Hans Musmann,Peter Pirsch Hans Joachim Grallert による論文 “Advance in Picture Coding ”(Proceedings of the IEEE,Vol.73,No.4, 1995 年4月)に記載されている。 本実施例にて用いる動き検出器は二次元の平坦な動きに対してのみ作動し、こ れは8×8画素のブロックのx及びy方向における移動量を計算する。しかし、 簡単な並進移動でなく、もっと複雑な転位をモデル化し得るさらに複雑な動き検 出器を用いることができ、しかもブロックの大きさを様々な大きさとしたり、単 一画素の大きさとすることもできることは当業者に明らかである。さらに、領域 による動きベクトルの計算をすることもできる。 本実施例にて採用した斯様な動きベクトルを計算する簡単な方法は、現行画像 フレームF0における各画素ブロックを、以前のフレームF1を通じて探索しな がら順次考慮して、最も良く整合する画素ブロックを見つけ、即ち現在の画素ブ ロックがどこに最もふさわしいかを確かめるようにする。フレームF1での探索 は代表的には、F0におけるブロックの位置から外向きのら旋状に行なう。この ような後ろ向きの動きベクトルの計算は、別の前向きの動きベクトルの計算に比 べて、F0の各々及びF0のブロックごとにベクトルが発生するから有利である 。しかし、前向きの動きベクトルは、特にこれらのベクトルを既存の装置にて使 用 可能な場合には使用することができる。F0における所定の画素に対する動きベ クトルの欠落は致命的にはならない。その理由は、本例ではこのような画素に対 して直接フラグU10をセットする(動きベクトル無効)ことができるからであ る。 上述したように、動き検出器1はF0における各画素ブロックに対する動きベ クトルを供給する。次いで、この動きベクトルMを用いてフレームF1をスキッ プ3にて動き補償する。つまり、動きベクトルをフレームF1に供給して、フレ ームF0を予測する。この予測値をF01にて示してある。各画素はそれ固有の 専用の動きベクトルを有さないが、その画素を包含しているブロックに対する動 きベクトルを用いるのであることは明らかである。動き補償プロセスも当分野で は周知であり、これは使用した動き検出プロセスのタイプに整合させるだけでよ く、この処理の結果として生じたもの及び動きベクトルを使用することができる 。予測セグメンテーションS01は、同じ方法で同じ動きベクトルを用いてセグ メンテーションS1から(ステップ19)発生される。 次いで、F0及びF01を画素差計算ステップ5に処理して、このステップに て対応する画素について、2つのアレイ間の各画素のグレースケール値の差、即 ち画素の実際値と、その予測値との差を検出する。本例では、各画素を順次検討 し、画素差を計算することによって画素差の絶対値(大きさ)を得る。このよう にして変位したフレーム差(DFD)の画素アレイを発生させ、これを図面にD FDにて示してある。実際上、DFDの値は具体化に応じて、ステップ1でのブ ロック整合処理の副産物として前もって入手することができる。 ステップ7では各画素に対するDFD値をテストして、それが或るしきい値T 以上であるかどうかを確かめる。このしきい値検査によって得られたデータは図 面にU10にて示したフラグアレイに記憶し、フラグは、画素を包含しているブ ロックに対する動きベクトルが、その個々の画素値を予測するのに失敗したかど うかを示す。本例では、DFDの全ての値に対して固定のしきい値を用いている が、これは必ずしもそのようにする必要はなく、しきい値は変えることもできる 。例えば、(前景及び背景の如き)対象を検出する処理を行なう方法に合わせて 、こうした異なる対象に異なるしきい値を適用することができる。 他の例では、動きベクトルの計算ステップ1の一部としてフラグをセットし、 ブロックに対する良好な整合が見つかって、動きベクトルが有効なものであり、 その画素ブロックに対してはDFDを計算する必要がない旨を指示することがで きる。これとは逆に、動きベクトルの計算中にU10フラグの如きフラグを直接 セットして、動きベクトルが殆ど間違いなく無効であるような、不良整合が行わ れた旨を指示することもできる。このような変更は複雑さを増す必要になるが、 特にソフトウェアに基づく履行においては、その後の処理時間を低減させること ができる。 図2Bに戻るに、ステップ21は予測セグメンテーションS01のステップで U10によりフラグを立てた画素をクリヤする。これはクリヤすべき各セルに対 してアレイS0に“空白”領域IDをセットすることにより達成される。このス テップは、冒頭にて述べた推論、即ち画素値の予測が不十分であった場合には、 その予測領域IDも多分かなりよくないと云うことを実現する。この処理ステッ プからの出力をセグメンテーションS02として示してある。 なお、S02データ及びフラグU10を用いることは、図1のステップ104 につき述べた領域の境界部を識別する第2フラグアレイを発生するのにも好適で ある。この第2フラグアレイにU20のラベルをつけてあり、これはステップ2 3にて計算される。フラグU20は、領域IDを包含している画素は名目上有効 (即ち、U10がセットされない)ではあるが、これらの画素はこれらの領域に 十分には関連づけられないことを示す。このような不十分な関連画素を判断する 上での基準は、或る画素が同じ領域に属する画素に完全に8通りで関連づけられ るかどうかと云う点にある。完全に8通りで関連付けられる画素は、同じ領域I Dで(S02に記憶されるように)水平方向に2つと、垂直方向に2つと、対角 線方向に4つの隣接領域を有する。画素が完全に8通りで関連づけられない場合 、その画素は或る領域の境界上にあると言える。従って、フラグU20の画素ア レイを生成する。 境界上の画素は、できれば境界割当てステップ25によって適当な領域に割り 当てる。この処理ステップは以前に生成した統計的データSTATS(図2Aの ステップ17参照)及びF0データ以外にU20のフラグを用いる。領域境界部 にはシステム内のノイズ及び原始画像内の“外部”ノイズによって所定のアーチ ファクトが生成されるのが普通である。例えば、50Hzの電源によって照射さ れる対象を60Hzのカメラによって見た場合にその悪影響が明らかになること がよくある。ステップ25は、領域境界部における画素を、以前に割当てた領域 とは限らない最も適した領域に再割当てすることにより、上述したようなアーチ ファクトを除去するのに役立つ。 隣接領域が注目画素に(より一層)適しているかどうかを決めるために、ステ ップ25は画素のグレースケール(x)、領域の平均グレースケール(μ)及び 領域の標準偏差(σ)を比較する。隣接領域は、次の不等式が満足される場合に 、注目する画素がそれに適当に割当てられていると判断される。 |x−μ|<1.5σ 1つ以上の隣接領域が適格である場合には、平均値との偏差が最小となるどれ かの領域に画素を割当てる或る隣接領域に首尾よく割当てられる画素に対しては 、その適当な領域IDをセグメンテーションデータに加えて、アレイSO2に上 書きし、U20のフラグをクリヤする。明瞭化のために、この更新したセグメン テーション(データ)をSO3と称し、更新したU20フラグアレイをU201と 称する。 U201のフラグを立てた画素のうちのあるものは実際上、動きベクトルが0 のものであることは明らかである。ステップ27はこのような画素をそれが予測 セグメンテーションにて割当てられた領域と同じ領域に割当てられたものとして “確認”する。 予測領域IDはまだセグメンテーションアレイSO3に記憶されるので、この データについての演算処理は実際には行われない。しかし、首尾よく割当てられ た(確認された)画素に対するフラグU201はクリヤされ(ステップ29)、 この更新フラグアレイを以後U202と称する。 クリヤステップ21と同様な方法で、まだU202によってフラグが立てられて いるこうした画素は、セグメンテーションアレイSO3に空白領域IDを挿入す ることによりクリヤされる。この更新セグメンテーションを図2BではSO4に て示してある。 次いで、ステップ31は、画素が画像のエッジ特徴部により、しかもこれらの 画素を適当な隣接領域に割当てることができるかどうかを検討することにより動 き補償に失敗した画素(アレイU10でフラグを立てた画素)の割当てをする。 この際、最も適した領域を決めるには、次のように画素におけるグレースケール の勾配を考慮して行う。 図4A及び図4Bは本実施例における勾配計算ステップ9を示す。ここで用い る勾配計算法は周知であり、これにはアレイFOに各々が3×3画素の大きさの 2つのマスクを適用して、各々がx成分Gxとy成分Gyとから成る勾配Gの画素 アレイを得る。これらのマスクは“ソーベル演算子”(sobel operators)とし て既知であり、これらのマスクを図4Bに示してある。これらの演算子は、マス クの中央の個所に相当する画素におけるグレースケール勾配を表わす値を提供す る。この代わりに、別の勾配計算法を用いることもできることは明らかである。 さらに、勾配計算のプロセスは画像フレームFOの全体に行うものとしたが、こ の勾配計算プロセスはそれを必要とする画素だけとすることもできることは明ら かである。この結果増大する複雑さは、具体化のディテールに従って、処理時間 及び記憶要件をできるだけ減らすことと平衡させる必要もある。 勾配Gを用いる割当てステップ31を図5を参照してもっと詳細に説明する。 この図のステップ3101〜3119は各画素に対して実施される。 ステップ3103では、画素がフラグU10によってフラグを立てられたかど うかを検討する。ステップ31では、U10のフラグが立てられた画素だけを検 討する。ステップ3105では、当面の画素の勾配の大きさが或るしきい値以上 であるかどうかを検討する。可能なグレースケール値の範囲が0〜255である 場合、エッジ特徴部が存在するかどうかを適当に示すものとして(2つの色間の コントラストの線)、本発明者等は15のしきい値を経験上確かめた。異なる範 囲のグレースケールを用いる場合か、又はカラー画像を処理する場合には、勾配 の計算及び/又はそのしきい値の大きさはそれ相当に調整することになることは 明らかである。勾配の大きさが15を越えない場合、画素は図5ではそれ以上は 検討せずに、処理プロセスを次の画素に進める。 ステップ3107では、識別したエッジの方向における隣接する一方又は双方 の画素が或る領域に割当てられるかどうかを検討する。どの画素も割当てられな い場合にはプロセスを次の画素に進める。 隣接画素の一方(双方ではない)が或る領域に割当てられる場合には、ステッ プ3109にて、当面の画素における勾配の大きさが、或る領域に既に割当てら れている隣接画素における勾配の大きさよりも大きいかどうかを検討する。この ような関係が存在する場合に、画素を隣接する画素の領域と同じ領域に割当て( ステップ3111)、プロセスを次の画素へと進める。ステップ3111でのテ ストが満足されない場合には、画素を領域に割当てないでプロセスを次の画素へ と進める。 ステップ3107では、双方の隣接する画素が既にそれぞれの領域に割当てら れていることを確かめることができる。この場合にはプロセスがステップ311 3へと枝分かれする。 このステップ3113では、隣接する画素の一方(双方ではない)の勾配の大 きさが現行画素の勾配の大きさよりも小さいかどうかを(ステップ3109と同 様なテスト)検討する。一方の隣接する画素がこの関係を満足しない場合には、 勾配がそれよりも低い他方の隣接画素の領域IDがステップ3115にて現行画 素にコピーされる。つまり、エッジは勾配がもっと高い方向に急峻になっている ことは明らかであり、従って、画素は勾配がより低い画素領域に属しがちとなる 。 或いは又、ステップ3113では、隣接する画素の双方のどちらかか、これら 隣接画素のいずれもの勾配が低いことを確かめることができる。こうした場合に 、ステップ3117は画素を低い勾配を有する隣接画素の領域と同じ領域に画素 を割当てる。双方の隣接画素が高い勾配を有する場合には、縁部が双方の方向に て明らかに急峻となるが、勾配が低い隣接画素の方向には急峻にならないため、 注目画素はその画素に割当てられる領域に属する。双方の隣接画素が低い勾配を 有する場合には、画素がエッジ上にあり、従って或る程度までは、その画素を割 当てる領域は任意である。しかし、勾配が低い画素は概念的なエッジとは隔たっ たものとなり、従って注目画素はその画素と同じ領域に割り当てる。 上述した割当て法の実際の効果を図6につき説明する。図6Aのグラフは、こ のグラフの左側の白画素とグラフの右側の黒画素との間の代表的なエッジ特徴部 のまわりのグレースケール値のグラフである。図6Bは図6Aに示したエッジの 勾配を表している。領域間の概念的な境界が勾配曲線のピークと整列しているこ とがわかる。4つの隣接する画素の位置をP1,P2,P3及びP4にて示して ある。 最初のケースでは、注目画素をP2とする場合を説明する。この説明の場合、 隣接する画素P1は或る特定の領域に割当てられているが、P3はまだ割当てら れていない(領域ID=空白)ものとする。図6Bから明らかなように、画素P 2の勾配は画素P1の勾配よりも大きい。この場合には、割当てプロセスが図5 のステップ3109に示したテストを実行することになる。このテストが満足さ れ、従ってP2はP1と同じ領域に割当てられることになる。しかし、P3が或 る領域に割当てられているも、P1がまだ割当てられていない第2のケースを検 討するに、この場合にはP3における勾配がP2における勾配よりも大きいため に、P2はP3と同じ領域には割当てられない。勾配がP2よりもP3における 方が大きいため、P2はP3と同じピークの側になく、従って領域間の概念的な 境界の反対側にあると想定される。 そこで、或る画素の隣接画素が双方共に異なる領域に割当てられる場合を検討 する。同じ画素P2を検討するも、P1及びP3が異なる領域に割当てられる場 合とする。割当てプロセスはステップ3113(図5)でのテストを実行し、画 素P2を概念的境界の同じ側にたぶんある画素P1と同じ領域に割当てる(ステ ップ3115)。 さらに、画素P3が注目の割当て画素でなく、P2及びP4を割当てる場合に は、P3を(これはたぶんエッジの同じ側にあるので)P2の領域と同じ領域に 割当てる(ステップ3115)。 なお、実施例では簡単化のために上述した割当て法を用いたが、(例えば幾つ かの画素にわたる曲線適合化を用いる)もっと複雑なプロセスを用い得ることは 当業者に明らかである。前述したように、各画素に対して図5のプロセスは繰り 返し行なうようにする。なお、或る画素を或る領域に割当てるこのプロセスが首 尾よく行なわれた場合には、U10フラグをクリヤして、このことを指示するよ うにする(図5には図示せず)。これによる変更フラグアレイをU101と称す る。ステップ31での処理後の変更セグメンテーションを図2BではS05にて 示してある。 ステップ31はオプションとみなせるが、これにより、大きなDFD値を発生 することになるエッジ特徴部における僅かな変位を有効に補償することができ、 これにより簡単なヒューリスティックテストによって後段にて処理すべき非割当 て画素の数をさらに低減させることができる。こうした特別のヒューリスティッ クはエッジ特徴部付近の画素の検出及び割当てに用いることができる基準例に過 ぎないことは勿論である。処理ステップは原則として一回以上繰り返して領域が エッジ特徴部を吸収すべく“成長”するように他の画素を割当てることができる 。 図2Bに戻るに、ステップ33では、2つのフラグアレイU101とU202を 単一のフラグアレイU0に合成して、或る領域にまだ首尾よく割当てられていな い画素にフラグを立てるようにする。このような合成は簡単な論理OR回路によ って達成することができ、U10か、U20のいずれかに対する記憶スペースに は新規のアレイU0を上書きすることができる。 割当てステップ35では、U0のフラグを立てた(非割当て)画素の、他の非 割当て画素への連結性を検討する。8通りの連結性が低い画素は次のようにして 隣接領域へ割当てる。 U0によってフラグを立てた各画素をチェックして、他のU0のフラグを立て た画素への8通りの連結性が2よりも大きいかどうかを確かめる。連結性が2よ りも小さい場合には、画素を、記憶済みの領域統計量に従ってその画素の平均グ レースケールに最も近い平均グレースケールを有している隣接領域のどれかに割 当てるようにする。その後、この画素に対するU0フラグをクリヤする。この更 新したフラグをU01と称する。位置調整は、他の非割当て領域から隔離されて いる不十分に関連づけられる画素はいずれもの注目する領域を形成することには ならないと云うことにより行なう。従って、本例におけるステップ35は後段で のみ除去する小領域の生成を抑制する手助けをする。ステップ35は領域の境界 に沿って生じたりする細長い非割当て画素のストリングも除去する。ステップ3 5もオプションとみなすことができ、適用するヒューリスティックを変えること ができる。特に、連結性のしきい値としては2以外の値を用いることができる。 3と云う値は細長領域に強力な影響を及ぼすことになるが、1と云う値は極めて 隔離された画素を除去するだけである。 上記ステップを本例では2度繰り返すが、これは最初のプロセスでは画素の関 連性が不十分であるからである。第2の繰り返し後の更新セグメンテーションを S06と称する。 この段階では、現存領域の1つにまだ首尾よく割当てられていない画素をステ ップ37(図2C)にてセグメンテーション処理して新規領域を生成する。本例 では、同じセグメンテーション処理を用いて、以前に割当てられなかった画素の 新規領域に対するセグメンテーションデータSU0をF1画像の初期のセグメン テーションに用いたもの(ステップ11)として得るようにするが、これは必ず しもこのようにする必要はない。 これらの新規領域も、前記Brice−Fennemaの論文に記載されてい るような併合基準を用いて、できればステップ39にて一緒に併合させる。この 併合処理によって多数の不必要な領域をなくすことができる。併合したセグメン テーションデータをSU01と称する。 ステップ41では、SU01の新規に生成した領域をS06の現存領域と併合さ せる。この併合基準は先の併合ステップ39の基準と同じとするか、又は相違さ せることができる。本例では同じ併合基準を用いる。再び併合によりグレースケ ールの統計量が似ている隣接領域を合成することによって不必要な領域の数を減 らすようにする。 併合ステップ41の後にはフレームF0に対する最終セグメンテーションデー タS0が得られたことになる。このS0はアプリケーションに適するように画像 の符号化又は他の処理に用いられる。図1に破線で示したように、更新セグメン テーションS0は次のフレームに対する初期セグメンテーションデータとして用 いられ、図2A〜図2Cの全プロセスを必要なだけ繰り返して、動画像シーケン ス全体を通じて時間的に一様なセグメンテーションを得るようにする。 図7は上述した時間的に一様なセグメンテーション処理を内蔵する画像符号化 装置を示す。符号化器は領域兼テクスチャ符号化法を用い、これについての詳細 は前述したEP−A−0454234にて見ることができる。ここでは簡単に説 明するだけとする。 画像の輝度信号Yがセグメンテーション装置72に供給され、この装置が上述 したプロセスを実行する。モルダフィルタ73はセグメンテーションデータを用 いて領域信号を発生する。画像信号及び領域信号の双方が減算回路75に供給さ れてテクスチャ信号を発生し、この信号は符号化器77にて符号化される。領域 信号はエッジマッピング装置79に供給され、原画像の領域リスト信号及びエッ ジマップを発生する。エッジマップはエレメント予測装置710にてテンプレー トにかけられて、メモリ712のルックアップテーブルから、テンプレートに隣 接する固定位置におけるエレメントの値に関する予測値を発生する。この予測が 正しい場合には、予測誤差信号は誤りがないことを示すも、誤差がある場合には 、予測誤差信号はルックアップテーブルにて見つけることができる実際値を搬送 する。予測誤差信号は第2符号化器714にて符号化される。716における領 域リスト信号、78におけるテクスチャ信号及び715における誤差信号は、原 画像を適切に再構成する復号器に低い帯域幅で伝送することができる。 一連の画像フレームが動画像伝送用の図7の符号化器に供給される場合に、セ グメンテーション装置72はモダルフィルタ73にフレームごとに時間的に首尾 一貫しているセグメンテーションデータを供給する。本例では領域信号又はテク スチャ信号を圧縮するのに動き情報は用いない。それでも、動画像シーケンスを 所定帯域幅の領域及びテクスチャ情報から復号化する場合には、セグメンテーシ ョン処理に果たした時間的一貫性のために、主観的に改善された画像品質が得ら れる。 当業者に明らかなように、上述したプロセスはソフトウェア又はハードウェア か、これらを組み合わせて具体化することができるが、上述した実施例はソフト ウェアにて実現したのであって、少なくとも実験目的用ではない。 様々な個所にて既に述べたように、実施のディテールについての多数のルーチ ン変更は可能であり、実際上、アプリケーション及び使用可能なハードウェアに 応じて所望な変更が可能であることは当業者に明らかである。フラグの画素レベ ルのアレイ(U10,U20)、領域ID(S1,S0)、DFD及び勾配値( G)が記憶容量の負担となることは明らかであり、これは次の画素へプロセスを 進める前に画像の一部分における画素を完全に処理することにより低減させるこ とができる。様々なプロセスを管理する複雑さもかなりなものとなる。特に、G の値は画素ごとに発生させなければならないことはなく、DFDの計算も、その 計算をセーブするのが重要な場合には特定の画素、画素ブロック又は他の画素グ ループに制限することができる。これに対し、発明者等は可変の全アレイセット 及びフラグを有する実験装置にて、様々なプロセスの作業を原始資料の範囲で極 めて有効に表示し得ることを確かめた。こうした表示は、しきい値及び他のパラ メータの微調整や、或る特定のアプリケーションにてプロセスのどの部分を最小 の品質低下でなくすべきかを識別するのに役立つことは勿論である。特に、ステ ップ23〜35のうちのいずれかのステップは適度な品質損で省くことができる 。 同様に、画像処理に使用できるセグメンテーションの範囲は上述した例のみに 限定されるものではない。画像符号化に当たっては、領域兼テクスチャ符号化に おけるように、セグメンテーションを符号化することができ、或いは特にH.2 61及びMPEGの如きコード構成の画素データを画素ごと、又はブロックごと に可変のビットレートで符号化する“ヒント”として用いることができる。画像 特徴部の特定な対象又はクラスのトラッキングを画像強化又は一般的な画像処理 に役立てることもできる。例えば、顕微鏡又は放射線写真の動画像列における或 る特定の色領域のコントラストを高めたり、このような領域にだけ何等かの他の 処理を自動的に行なうことが所望される。さらに、マシーンビジョンや、ディジ タルフィルム及びカラーリゼーションの如きビデオの特殊効果を含む様々な用途 があることは当業者に明らかである。 上述したそれぞれのプロセスはマルチカラー画像に対処すべく様々なやり方で 容易に拡張させることができる。特にカラー画像の場合には、セグメンテーショ ンルーチンによって処理される画素値を事前処理して、所定の属性の強化を図る ことができる。例えば、或る特定の色をマッピングすることにより“グレースケ ール”画像を代えて、肌色トーンを明るくすることができ、これはプロセスの1 つ以上の処理段にて元の色値の代わりに用いることができる。このような方法は 、ここに開示した発明の概念にとっては周辺的なものであるが、セグメンテーシ ョン結果の品質及び有用性を大いに拡大させるのに有効である。 さらに、上述したそれぞれのプロセスは原始動画像シーケンスにおける各連続 するフレームに必ずしも適用するものではない。例えば、周知のMPEG方式で は、イントラフレーム符号化、フレーム間予測及び双方向予測を原始フレーム( Iピクチャ、Pピクチャ及びBピクチャ)の種々のサブセットに適用する。同様 に、セグメンテーションの時間的に一貫した更新は、必ずしもフレームごとに適 用する必要はなく、しかもフレームの異なるサブセットにそれぞれ相違させて適 用することもできる。 本発明をIBMのコンパチブルなパーソナルコンピュータ(PC)等の如きコ ンピュータにて具体化し得ることは当業者に明らかである。このような例のコン ピュータは一般に、ハード及びフロッピーディスクドライブ又はCD−ROMの 如き固定及び取外し可能な記憶媒体を具えている。さらに、コンピュータを本発 明に従って機能させるのに必要な命令シーケンスは、後にコンピュータの中央処 理ユニットを制御するために内部メモリに読み取らせるために、固定か、取外し 可能な記憶媒体に記憶させることができる。プログラム命令は遠隔記憶装置から 通信信号によって発送することもできる。 本発明は上述した例のみに限定されるものではなく、幾多の変更を加え得るこ とは明らかである。
───────────────────────────────────────────────────── 【要約の続き】 従って隣接領域に再割当てする。

Claims (1)

  1. 【特許請求の範囲】 1.一連の関連する画像フレームの複数領域への首尾一貫したセグメンテーショ ンを行なうべく画像処理装置を作動させる方法であって、該方法が、注目する 各フレームに対して: a)前記注目フレームに対する現行フレームの画素データ、参照フレームの画 素データ及び参照フレームのセグメンテーションデータを受信するステップと ; b)前記現行フレームの画素データと前記参照フレームの画素データとから、 前記両フレーム間に生じている空間的な変換を表わす動き推定情報を計算する ステップと; c)前記動き推定情報と前記参照フレームのセグメンテーションデータとを用 いて、現行フレームの予測セグメンテーションデータを得るステップと; d)前記動き推定情報と前記参照フレームの画素データとを用いて、現行フレ ームの予測画素データを得るステップと; e)前記受信した現行フレームの画素データと前記現行フレームの予測画素デ ータとを比較することにより前記現行フレームの予測セグメンテーションの不 正確に予測した部分を識別するステップと; f)前記識別した部分に対する現行フレームの予測セグメンテーションデータ を変更して、前記現行フレームに対する所望な首尾一貫したセグメンテーショ ンデータを得るステップと; を具えていることを特徴とする画素処理装置の作動方法。 2.前記ステップ(f)が、前記識別した不正確な予測部分に対する新規のセグ メンテーションデータを構成し、該データを前記現行フレームの予測セグメン テーションデータに挿入するステップを含むことを特徴とする請求の範囲1に 記載の方法。 3.前記ステップ(f)が、前記新規のセグメンテーションデータを構成する前 に、前記不正確な予測部分を、前記ステップ(e)にて識別されていない隣接 部分と同じ領域に割当てる予備ステップを含むことを特徴とする請求の範囲2 に記載の方法。 4.前記新規のセグメンテーションデータを併合処理して、前記予測セグメンテ ーションデータに挿入する前に新規に生成される領域の数を減らすことを特徴 とする請求の範囲2又は3に記載の方法。 5.前記セグメンテーションデータを、前記識別した部分に対する前記新規のセ グメンテーションデータの挿入後に併合処理して、セグメンテーションにて得 られる領域の数を減らすようにすることを特徴とする請求の範囲2,3または 4に記載の方法。 6.前記ステップ(e)が前記予測セグメンテーションデータを用いて、該予測 セグメンテーションデータの他の部分を不正確な予測部分として指定するステ ップも具えていることを特徴とする請求の範囲1〜5のいずれかに記載の方法 。 7.前記不正確な予測部分として指定される前記他の部分を、前記予測セグメン テーションでの領域の境界にある部分とすることを特徴とする請求の範囲6に 記載の方法。 8.前記変更ステップ(f)が、不正確な予測部分を前記隣接部分の割当て領域 に応じて現存領域に割当てるステップを含むことを特徴とする請求の範囲1〜 7のいずれかに記載の方法。 9.前記ステップ(f)が、前記不正確な予測部分のうちの少なくとも幾つかの 部分を、現行フレームにおける画素データの勾配に応じて、正しく予測された 隣接部分と同じ領域に割当てるステップを含むことを特徴とする請求の範囲8 に記載の方法。 10.或るしきい値以上の勾配を有する不正確な予測部分が、隣接部分の割当て及 び勾配に応じて前記隣接部分と同じ領域に割当てることを特徴とする請求の範 囲9に記載の方法。 11.前記ステップ(f)が、前記不正確に予測した部分のうちの少なくとも幾つ かの部分を、これらの部分の領域に対する画素データの統計量に応じて、正し く予測した隣接部分と同じ領域に割当てるステップを含むことを特徴とする請 求の範囲8,9又は10に記載の方法。 12.前記ステップ(e)及び(f)にて、前記不正確な予測部分を画素単位の基 準で識別すると共に変更することを特徴とする請求の範囲1〜11のいずれか に記載の方法。 13.前記ステップ(a)〜(f)における現行フレーム及び得られたセグメンテ ーションデータを参照フレーム及び参照フレームのセグメンテーションデータ として用いて、注目する次のフレームに対する首尾一貫したセグメンテーショ ンデータを得ることを特徴とする請求の範囲1〜12のいずれかに記載の方法 。 14.前記一連の画像フレームが動画像を含むことを特徴とする請求の範囲1〜1 3のいずれかに記載の方法。 15.前記ステップ(f)にて得た現行フレームのセグメンテーションデータに従 って現行画像フレームの画素データを処理すると共にこの処理した画素データ を搬送する信号を出力するステップも具えていることを特徴とする請求の範囲 1〜14のいずれかに記載の方法。 16.前記処理した画像フレームを記録媒体上、又はその中に直接又は間接的に記 録するステップも具えていることを特徴とする請求の範囲15に記載の方法。 17.前記処理ステップが、前記注目する画像フレームを前記得られたセグメンテ ーションデータを用いて圧縮して符号化することを特徴とする請求の範囲15 又は16に記載の方法。 18.前記符号化フレームが前記得られたセグメンテーションデータの表現を含む ことを特徴とする請求の範囲17に記載の方法。 19.前記得られたセグメンテーションデータを用いて、前記画像の種々の部分に 異なる帯域幅を割当てることを特徴とする請求の範囲17又は18に記載の方 法。 20.動画像シーケンス用の画像処理方法において、該処理方法が前記動画像シー ケンスの各フレームに対して定めたセグメンテーションに依存し、現行フレー ムのセグメンテーションを、隣接フレームのセグメンテーション及び推定動き 情報に基づいて予測し、且つ現行画像の少なくとも幾つかの画素に対する予測 セグメンテーションを、動き情報に基づいて現行フレームに対して予測した正 しい画素値に応じて変更することを特徴とする画像処理方法。 21.領域の境界における画像部分を予測セグメンテーションで識別し、且つ前記 画像部分における予測セグメンテーションをこれらの部分及び隣接する部分の 画素データに従って変更して、改良セグメンテーションを得ることを特徴とす る画像のセグメンテーション法。 22.一連の関連する画像フレームの、複数領域への首尾一貫したセグメンテーシ ョンを行なう画像処理装置であって、該装置が: a)注目するフレームに対する現行フレームの画素データ、参照フレームの画 素データ及び参照フレームのセグメンテーションデータを受信する受信手段と ; b)前記現行フレームの画素データと前記参照フレームの画素データとから、 前記両フレーム間に生じている空間的な変換を表わすように動き推定情報を計 算する計算手段と; c)前記動き推定情報と前記参照フレームのセグメンテーションデータとを用 いて、現行フレームの予測セグメンテーションデータを得る手段と; d)前記動き推定情報と前記参照フレームの画素データとを用いて、現行フレ ームの予測画素データを得るステップと; e)前記受信した現行フレームの画素データと前記現行フレームの予測画素デ ータとの比較により前記現行フレームの予測セグメンテーションの不正確に予 測した部分を識別する識別手段と; f)前記識別した部分に対する現行フレームの予測セグメンテーションを変更 して、前記現行フレームに対する所望な首尾一貫したセグメンテーションを得 る変更手段と; を具えていることを特徴とする画像処理装置。 23.前記変更手段(f)が、前記識別した不正確な予測部分に対する新規のセグ メンテーションデータを構成して、該データを前記現行フレームの予測セグメ ンテーションデータに挿入する手段を含むことを特徴とする請求の範囲22に 記載の装置。 24.前記変更手段(f)が、前記新規のセグメンテーションデータを構成する前 に、前記不正確な予測部分を、前記識別手段(e)によって識別されていない 隣接部分と同じ領域に予備的に割当てる手段を含むことを特徴とする請求の範 囲23に記載の装置。 25.前記新規のセグメンテーションの領域を併合して、前記予測セグメンテーシ ョンに挿入する前に、新たに生成される領域の数を減らす併合手段も具えてい ることを特徴とする請求の範囲23又は24に記載の装置。 26.前記識別部分に対する前記新規のセグメンテーションの挿入後に前記セグメ ンテーションの領域を併合して、セグメンテーションにて得られる領域の数を 低減させるようにする手段も具えていることを特徴とする請求の範囲23,2 4又は25に記載の装置。 27.前記識別手段(e)が、前記予測セグメンテーションデータを用いて、該予 測セグメンテーションデータの他の部分を不正確な予測部分として指定する手 段も具えていることを特徴とする請求の範囲22〜26のいずれかに記載の装 置。 28.前記識別手段(e)を、前記不正確に予測されたとして指定された他の部分 が、前記予測セグメンテーションでの領域の境界にある部分となるように構成 したことを特徴とする請求の範囲27に記載の装置。 29.前記変更手段(f)が、不正確な予測部分を前記隣接部分の割当て領域に応 じて現存領域に割当てる手段を含むことを特徴とする請求の範囲22〜28の いずれかに記載の装置。 30.前記変更手段(f)が、前記不正確な予測部分のうちの少なくとも幾つかの 部分を、現行フレームにおける画素データの勾配に応じて、正しく予測された 隣接部分と同じ領域に割当てる手段も含むことを特徴とする請求の範囲29に 記載の装置。 31.前記変更手段(f)を、或るしきい値以上の勾配を有する不正確な予測部分 が、隣接部分の割当て及び勾配に応じて前記隣接部分と同じ領域に割当てられ るように構成したことを特徴とする請求の範囲30に記載の装置。 32.前記変更手段(f)を、前記不正確な予測部分のうちの少なくとも幾つかの 部分が、正確に予測された隣接部分と同じ領域に、これらの領域に対する画素 データの統計量に応じて割当てられるように構成したことを特徴とする請求の 範囲29,30又は31に記載の装置。 33.前記識別手段(e)及び変更手段(f)を、前記不正確な予測部分が画素単 位で識別され、且つ変更されるように構成したことを特徴とする請求の範囲2 2〜32のいずれかに記載の装置。 34.注目の現行フレーム及び得られるセグメンテーションが前記手段(a)〜( f)により参照フレーム及び参照フレームのセグメンテーションとして用いら れて、注目する次のフレームに対する首尾一貫したセグメンテーションを得る ようにしたことを特徴とする請求の範囲22〜33のいずれかに記載の装置。 35.前記一連の画像フレームが動画像を具えていることを特徴とする請求の範囲 22〜34のいずれかに記載の装置。 36.前記変更手段(f)によって得られる現行フレームのセグメンテーションに 従って現行画像フレームの画素データを処理する手段及び処理した画素データ を搬送する信号を出力する手段も具えていることを特徴とする請求の範囲22 〜35のいずれかに記載の装置。 37.前記処理された画素データを記録媒体上又はその中に直接又は間接的に記録 する手段も具えていることを特徴とする請求の範囲36に記載の装置。 38.前記処理手段を、前記得られたセグメンテーションを用いて前記注目フレー ムを圧縮して符号化する符号化器としたことを特徴とする請求の範囲36又は 37に記載の装置。 39.前記符号化フレームが前記得られたセグメンテーションの表現を含むことを 特徴とする請求の範囲38に記載の装置。 40.前記得られたセグメンテーションを用いて前記画像の種々の部分への帯域幅 の割当てを制御する手段も具えていることを特徴とする請求の範囲38又は3 9に記載の装置。 41.動画像シーケンス用の画像処理装置であって、動画像シーケンスの各フレー ムに対して定めたセグメンテーションに応答する処理手段と、現行フレームの セグメンテーションを隣接フレームのセグメンテーション及び推定動き情報に 基づいて予測する手段と、現行画像の少なくとも幾つかの画素に対する予測セ グメンテーションを、動き情報に基づいて現行フレームに対して予測した画素 値の精度に応じて変更する手段とを具えていることを特徴とする画像処理装置 。 42.領域の境界における画像部分を予測セグメンテーションにて識別し、且つ前 記画像部分における予測セグメンテーションを、これらの部分の画素データ及 び隣接部分の画素データに従って変更して、改良セグメンテーションを得るよ うにしたことを特徴とする画像セグメンテーション装置。 43.コンピュータグラフイック装置におけるプロセッサに、注目フレームに対す る現行フレームの画素データと、参照フレームの画素データと、参照フレーム のセグメンテーションデータとを規定するそれぞれの信号を処理させて、現行 フレームに所望される首尾一貫したセグメンテーションデータを発生させるた めのコンピュータ可読命令を記憶するコンピュータ使用に適した媒体であって 、前記命令が前記プロセッサに: a)前記現行フレームの画素データと前記参照フレームの画素データとから、 前記両フレーム間に生じている空間的な変換を表わすべく動き推定情報を計算 させ; b)前記動き推定情報と前記参照フレームのセグメンテーションデータとを用 いて、現行フレームの予測セグメンテーションデータを得るようにし; c)前記動き推定情報と前記参照フレームの画素データとを用いて、現行フレ ームの予測画素データを得るようにし; d)前記受信した現行フレームの画素データと前記現行フレームの予測画素デ ータとの比較によって、前記現行フレームの予測セグメンテーションの不正確 な予測部分を識別し;且つ e)前記識別した部分に対する現行フレームの予測セグメンテーションデータ を変更して、前記現行フレームに所望される首尾一貫したセグメンテーション データを得るようにする; 命令を含むようにしたことを特徴とするコンピュータの使用に適した媒体。
JP10522331A 1996-11-13 1997-10-30 画像のセグメンテーション Ceased JP2000503509A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB9623573.4 1996-11-13
GBGB9623573.4A GB9623573D0 (en) 1996-11-13 1996-11-13 Image segmentation
PCT/IB1997/001356 WO1998021893A1 (en) 1996-11-13 1997-10-30 Image segmentation

Publications (1)

Publication Number Publication Date
JP2000503509A true JP2000503509A (ja) 2000-03-21

Family

ID=10802845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10522331A Ceased JP2000503509A (ja) 1996-11-13 1997-10-30 画像のセグメンテーション

Country Status (7)

Country Link
US (1) US6173077B1 (ja)
EP (1) EP0873654B1 (ja)
JP (1) JP2000503509A (ja)
KR (1) KR100583902B1 (ja)
DE (1) DE69737141T2 (ja)
GB (1) GB9623573D0 (ja)
WO (1) WO1998021893A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014507166A (ja) * 2011-03-30 2014-03-27 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 腫瘍を追跡するための方法

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6463168B1 (en) * 1998-12-04 2002-10-08 General Electric Company Apparatus and method for rapid connectivity processing of images
EP1078332B9 (en) * 1999-03-18 2006-08-30 Koninklijke Philips Electronics N.V. Video signal processing
US6553069B1 (en) * 1999-06-17 2003-04-22 Samsung Electronics Co., Ltd. Digital image segmenting method and device
JP4224748B2 (ja) 1999-09-13 2009-02-18 ソニー株式会社 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、記録媒体、並びに画像処理装置
US7027665B1 (en) * 2000-09-29 2006-04-11 Microsoft Corporation Method and apparatus for reducing image acquisition time in a digital imaging device
TW589870B (en) 2000-12-19 2004-06-01 Pts Corp Adaptive transforms
US6901169B2 (en) * 2001-02-01 2005-05-31 At & T Corp. Method and system for classifying image elements
US6965379B2 (en) 2001-05-08 2005-11-15 Koninklijke Philips Electronics N.V. N-view synthesis from monocular video of certain broadcast and stored mass media content
US7120277B2 (en) * 2001-05-17 2006-10-10 Koninklijke Philips Electronics N.V. Segmentation unit for and method of determining a second segment and image processing apparatus
US20020191699A1 (en) * 2001-06-12 2002-12-19 O'brien Royal Detection system and method for enhancing digital video
US7248741B2 (en) * 2002-01-09 2007-07-24 Hiroshi Akimoto Video sequences correlation and static analysis and scene changing forecasting in motion estimation
US6925125B2 (en) * 2002-01-09 2005-08-02 Hiroshi Akimoto Enhanced aperture problem solving method using displaced center quadtree adaptive partitioning
AU2003247051A1 (en) * 2002-07-31 2004-02-23 Koninklijke Philips Electronics N.V. System and method for segmenting
GB0221144D0 (en) * 2002-09-12 2002-10-23 Snell & Wilcox Ltd Image processing using vectors
WO2005125218A1 (en) * 2004-06-16 2005-12-29 Koninklijke Philips Electronics N.V. Prediction error based segmentation refinement within a forward mapping motion compensation scheme
AU2005202715B2 (en) * 2004-06-22 2008-04-24 Canon Kabushiki Kaisha A Method for Detecting and Selecting Good Quality Image Frames from Video
US7916173B2 (en) 2004-06-22 2011-03-29 Canon Kabushiki Kaisha Method for detecting and selecting good quality image frames from video
WO2006082541A2 (en) * 2005-02-07 2006-08-10 Koninklijke Philips Electronics N.V. Segmentation of an image
US7787885B1 (en) 2006-08-10 2010-08-31 Nextel Communications Inc. Walsh code expansion in wireless communications systems
US7940970B2 (en) * 2006-10-25 2011-05-10 Rcadia Medical Imaging, Ltd Method and system for automatic quality control used in computerized analysis of CT angiography
US7940977B2 (en) * 2006-10-25 2011-05-10 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
US7873194B2 (en) * 2006-10-25 2011-01-18 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures and pathologies in support of a triple rule-out procedure
US7860283B2 (en) 2006-10-25 2010-12-28 Rcadia Medical Imaging Ltd. Method and system for the presentation of blood vessel structures and identified pathologies
US7983459B2 (en) 2006-10-25 2011-07-19 Rcadia Medical Imaging Ltd. Creating a blood vessel tree from imaging data
KR101370286B1 (ko) * 2007-04-06 2014-03-06 삼성전자주식회사 레지듀얼 블록의 변형을 이용한 영상 부호화, 복호화 방법및 장치
US8320665B2 (en) * 2009-05-13 2012-11-27 Tata Consultancy Services Ltd. Document image segmentation system
EP2360927A3 (en) * 2010-02-12 2011-09-28 Samsung Electronics Co., Ltd. Image encoding/decoding system using graph based pixel prediction and encoding system and method
US9665767B2 (en) 2011-02-28 2017-05-30 Aic Innovations Group, Inc. Method and apparatus for pattern tracking
ES2830823T3 (es) * 2013-12-12 2021-06-04 Mes Medical Electronic Systems Ltd Dispositivo para someter a prueba en casa
US10567788B2 (en) * 2017-04-21 2020-02-18 Zenimax Media Inc. Systems and methods for game-generated motion vectors
CN107609057B (zh) * 2017-08-25 2020-12-22 百度在线网络技术(北京)有限公司 一种获取商标图像的文字数据的方法与装置
DE102018100895A1 (de) * 2018-01-16 2019-07-18 Zoe Life Technologies Holding AG Währungseinheiten für Wissen

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0437002B1 (en) 1990-01-12 1998-09-23 Philips Electronics Uk Limited Region and texture coding
GB2243512A (en) 1990-04-23 1991-10-30 Philips Electronic Associated Bandwidth reduction of picture signals; predictive encoding of edge map signals
GB9215102D0 (en) * 1992-07-16 1992-08-26 Philips Electronics Uk Ltd Tracking moving objects
JP2576771B2 (ja) * 1993-09-28 1997-01-29 日本電気株式会社 動き補償予測装置
US5592226A (en) * 1994-01-26 1997-01-07 Btg Usa Inc. Method and apparatus for video data compression using temporally adaptive motion interpolation
US5608458A (en) * 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
JP3663645B2 (ja) * 1994-11-18 2005-06-22 ソニー株式会社 動画像処理装置とその方法
US5778192A (en) * 1995-10-26 1998-07-07 Motorola, Inc. Method and device for optimal bit allocation between different sources of information in digital video compression
US5774591A (en) * 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014507166A (ja) * 2011-03-30 2014-03-27 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 腫瘍を追跡するための方法

Also Published As

Publication number Publication date
GB9623573D0 (en) 1997-01-08
EP0873654A1 (en) 1998-10-28
DE69737141D1 (de) 2007-02-08
US6173077B1 (en) 2001-01-09
KR100583902B1 (ko) 2006-11-30
KR19990077203A (ko) 1999-10-25
DE69737141T2 (de) 2007-10-04
WO1998021893A1 (en) 1998-05-22
EP0873654B1 (en) 2006-12-27

Similar Documents

Publication Publication Date Title
JP2000503509A (ja) 画像のセグメンテーション
JP3847827B2 (ja) 動きベクトル検出方法
US6438275B1 (en) Method for motion compensated frame rate upsampling based on piecewise affine warping
US6335985B1 (en) Object extraction apparatus
JP4740657B2 (ja) カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス
US5572258A (en) Motion compensation estimating device and method achieving improved motion compensation
Wang et al. Use of two-dimensional deformable mesh structures for video coding. II. The analysis problem and a region-based coder employing an active mesh representation
KR100609249B1 (ko) 영상 오브젝트 트랙킹 방법과 대응 시스
Eisert et al. Model-aided coding: A new approach to incorporate facial animation into motion-compensated video coding
US20100135575A1 (en) Apparatus and method for reducing artifacts in images
US20140219559A1 (en) Apparatus and Method for Segmenting an Image
KR987001187A (ko) 세그먼트 화상의 코딩 방법과 시스템, 및 디코딩 방법과 시스템(Segmented Picture Coding Method and System, and Corresponding Decoding Method and System)
JP2008282416A (ja) コード化する前に画像をセグメントに分割するための方法および装置
KR20220137937A (ko) 투영 기반 메시 압축
US6687405B1 (en) Image segmentation
US20230306563A1 (en) Image filling method and apparatus, decoding method and apparatus, electronic device, and medium
Kanchana et al. Revealing disocclusions in temporal view synthesis through infilling vector prediction
Malassiotis et al. Object-based coding of stereo image sequences using three-dimensional models
JPH08205149A (ja) ビデオ信号の符号化方法
US8582882B2 (en) Unit for and method of segmentation using average homogeneity
JP3979768B2 (ja) デジタル映像分割方法及びその装置
Li et al. Hybrid model-and-object-based real-time conversational video coding
Meier Segmentation for video object plane extraction and reduction of coding artifacts
Chubach et al. Motion-based analysis and synthesis of dynamic textures
KR20010102216A (ko) 비디오 영상들의 움직임들의 추정

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041028

A72 Notification of change in name of applicant

Free format text: JAPANESE INTERMEDIATE CODE: A721

Effective date: 20041028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A313 Final decision of rejection without a dissenting response from the applicant

Free format text: JAPANESE INTERMEDIATE CODE: A313

Effective date: 20071114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071225