JP2006509292A - セグメント化されたイメージから偽エッジを除去するための装置及び方法 - Google Patents

セグメント化されたイメージから偽エッジを除去するための装置及び方法 Download PDF

Info

Publication number
JP2006509292A
JP2006509292A JP2004556701A JP2004556701A JP2006509292A JP 2006509292 A JP2006509292 A JP 2006509292A JP 2004556701 A JP2004556701 A JP 2004556701A JP 2004556701 A JP2004556701 A JP 2004556701A JP 2006509292 A JP2006509292 A JP 2006509292A
Authority
JP
Japan
Prior art keywords
pixel
segmentation
image
region
labels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004556701A
Other languages
English (en)
Inventor
フェレカンプ,クリスティアーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2006509292A publication Critical patent/JP2006509292A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

1又は2以上のイメージを処理する方法において、イメージは、少なくともいくつかの偽エッジを有するエッジにより隔てられた複数のピクセルグループを有するセグメンテーションマップにセグメント化される。当該セグメンテーションマップは、偽エッジを除去するためにフィルタリングされる。セグメンテーションステップは、出力セグメンテーションマップを生成するために繰り返される。

Description

本発明は一般的にイメージ及びビデオ処理の技術に関する。特に、イメージ及びビデオのリージョンベースのセグメント化及びフィルタリングに関し、特定の参照により説明される。
ビデオシーケンスは、実際のモーションフィールドにあるオブジェクトの時間依存三次元(3D)構造評価に使用される。時間依存3D再構成の恩恵を受ける応用には、ビジョンベース制御(ロボット工学)、セキュリティシステム、及び、従来のモノスコピックビデオ(2D)をステレオスコピック(3D)テレビで見るための変換が含まれる。この技術ではモーションメソッドから得られる構造が、ビデオシーケンスの2つの連続するイメージからデプスマップを引き出すために使用される。
イメージセグメンテーションは、重要な第1ステップであり、しばしばセグメントベースのデプス計算のような他のタスクに先行して行われる。一般的に、イメージセグメンテーションは、イメージを重複のない部分又はセグメントセットに分割するプロセスであり、イメージシーンに存在する物理オブジェクトにできるだけ多く対応するようにする。イメージセグメンテーションのタスクに取り組むためには様々な方法があり、ヒストグラムベースのセグメンテーション、従来のエッジベースのセグメンテーション、リージョンベースのセグメンテーション、及び、ハイブリッドセグメンテーションも含まれる。しかし、如何なるセグメンテーション方法にも存在する問題のひとつに、セグメント化されたイメージでの偽エッジの発生がある。これら偽エッジはいくつかの理由により発生するが、2つのオブジェクト間の境界でピクセルカラーを急激に変化させることなく滑らかに変化させることが、結果として単一の真のエッジの代わりに2つの対応する偽エッジを持つ細長いセグメントを発生させる。当該問題は、焦点がぼやけたオブジェクトの境界又は、3色チャネルの1つ若しくはそれ以上が削減された空間分解能を持つビデオマテリアルで発生する傾向がある。偽エッジの問題は特に、従来の2Dビデオを3Dテレビで見るために2Dビデオを3Dビデオに変換する際に煩わしいものとなる。
偽エッジを検出するためのいくつかの方法が他のアプリケーションで提言されている。例えば、米国特許第5268967号明細書は、所望とするデジタルX線画像の領域を、所望としない領域から自動的に分割するデジタルイメージ処理方法を開示する。当該方法は、エッジ検出、ブロック生成、ブロック分類、ブロック微調整及びビットマップ生成ステップを有する。
米国特許第5025478号明細書は、送信のためのピクチャ信号を処理する方法及び装置を開示する。ピクチャ信号がセグメンテーション装置に適用され、当該装置は類似する強度のリージョンを識別する。結果のリージョン信号はリージョンエッジをまっすぐにするモーダルフィルターに適用され、適応可能な輪郭スムージング回路に送信され、偽エッジとして識別される輪郭セクションを滑らかにする。フィルタリングした信号がオリジナルの輝度信号から取り去られ、符号化された輝度テクスチャ信号が生成される。リージョン信号は、リージョン信号にあるどちらの輪郭が偽エッジであるかを表すフラグと共に符号化される。
刊行された国際公開第00/77735パンフレットは、不完全に境界付けられたセグメントを塗りつぶす連続的フラッドフィルと、スケール変換と、別のスケールからのセグメンテーション結果による1スケールでのガイディングセグメンテーションとを使用し、多重のカラープレーンから合成された合成イメージを使用するエッジを検出し、スケール変換を使用するエッジチェーンを生成し、別のスケールで検出されたエッジに基づく1スケールでの偽エッジをフィルタリングするイメージセグメンターを開示する。
米国特許第5268967号明細書 米国特許第5025478号明細書 国際公開第00/77735号パンフレット Richard O.Duda、Peter E.Hart、David G.Stork、"Pattern Classification"、pp.548−549、John Wiley and Sons Inc.,New York、2001 C.Oliver、S.Quegan、"Understanding Synthetic Aperture Radar Images"、Artech−House、1998
しかし、従来技術は単にエッジ検出及び/又は偽エッジのスムージングを有するだけである。セグメンテーションマップ上でしか動作しないフィルターの使用を介するといったように、どの発明も実際には偽エッジをセグメント化されたイメージから除去していない。本発明は、上記の制限その他を克服する改良された装置及び方法を意図する。
本発明の一態様に従ってイメージ処理装置が提供される。セグメント化手段は、イメージをセグメンテーションマップにセグメント化する。セグメンテーションマップは複数のピクセルグループを有し、複数のピクセルグループは、少なくともいくつかの偽エッジを有するエッジでそれぞれ隔てられている。フィルター手段は、セグメンテーションマップをフィルタリングし、偽エッジを除去する。また、フィルター手段は、フィルタリングしたセグメンテーションを次のセグメンテーション手段のプレセグメンテーションのために出力する。
本発明の別の態様に従って、1又は2以上のイメージを処理する方法が提供される。イメージは、少なくとも1つの偽エッジを有するエッジで隔てられた複数のピクセルグループを有するセグメンテーションマップにセグメント化される。セグメンテーションマップは、偽エッジを除去するようフィルタリングされる。セグメンテーションステップは、出力イメージを生成するために繰り返される。
本発明の1つの利点は、2Dビデオマテリアルを3Dビデオに変換するためのセグメンテーション品質を改善することにある。
本発明の別の利点は、ビデオイメージのオブジェクトエッジでのセグメンテーション品質を改善することにある。
さらに、本発明の別の利点は、イメージ及びビデオ圧縮のエッジコーディングコストを低減することにある。
本発明の多くの追加の長所及び利点は、後述の好適な実施例による詳細な説明を読むことで、当該技術分野の通常の知識を有する者に明確となる。
本発明は様々なコンポーネント及びコンポーネントの配列の形態を取ることが可能であり、様々なステップ及びステップの配列の形態を取ることが可能である。図は、単に、好適な実施例を説明するだけが目的であり、本発明を制限するものとは認められない。
2Dビデオを3Dビデオに変換するときの重要なステップに、同質カラーすなわちイメージセグメンテーションによるイメージリージョンの識別がある。デプスの不連続性は、検出された同質カラーリージョンのエッジと一致するものとみなされる。単一のデプス値はカラーリージョン毎に評価される。このリージョン毎のデプス計算は、リージョン境界に沿った大きなカラーコントラストが定義毎に存在するという利点を有する。カラーエッジポジションの時間的安定性は、デプスマップの最終品質に決定的に重要な意味を持つ。エッジが長期にわたって安定でない場合に2Dビデオが3Dカラーテレビで表示されると、視聴者は目障りなフリッカを感知することとなる。従って、時間的安定性のあるセグメンテーション方法は、2Dビデオを3Dビデオに変換するプロセスの第1ステップとなっている。コンスタントカラーモデルを使用するリージョンベースのイメージセグメンテーションはこの所望とする効果を達成する。このイメージセグメンテーション方法はより詳細が後述される。
コンスタントカラーモデルは、オブジェクトリージョンの時間依存のイメージが、平均のリージョンカラーにより十分詳細に表現され得ることを前提とする。イメージは、次のイメージ座標のベクトル値の関数で表現される。
Figure 2006509292
ここで、r(x、y)、g(x、y)及びb(x、y)は、赤、緑及び青のカラーチャネルである。目的は、固定リージョン数Nを有するセグメンテーション
Figure 2006509292
を参照してリージョンパーティションを見つけることにある。最適なセグメンテーション
Figure 2006509292
は、誤差項と、イメージ中のすべてのピクセルにわたる規則化項f(x、y)との合計を最小にするセグメンテーションとして次のように定義される。
Figure 2006509292
ここで、kは規則化パラメータであり、規則化項の重要度を重くする。ひとつのクラスタから別のクラスタにサンプルが移動する場合の、単純で効率的な誤差基準更新の方程式は、Richard O.Duda, Peter E.Hart, and David G.Storkによる文献“Pattern Classification”、pp.548−549、John Wiley and Sons Inc.、New York、2001から導き出せる。これらから導き出されるものが、セグメンテーション方法の方程式を導出するために適用された。ここで留意すべき点は、規則化項は、C.Oliver and S.Queganによる文献“Understanding Synthetic Aperture Radar Images”、Artech−House、1998に紹介された手段に基づいている点である。規則化項は、ランダム信号変動(センサーノイズのようなもの。)がエッジポジションに与える影響を制限する。ピクセルポジション(x、y)の誤差e(x、y)は、カラー値I(x、y)及びリージョンラベル
Figure 2006509292
によって次のように定まる。
Figure 2006509292
ここで、mはリージョンcの平均カラーであり、
Figure 2006509292
はリージョンラベルマップのポジション(x、y)におけるリージョンラベルである。二重垂直バーの添え字はユークリッドノルムを意味する。規則化項f(x、y)はリージョンの形状によって次のように定まる。
Figure 2006509292
ここで、(x’、y’)は、(x、y)の8結合隣接ピクセルの座標群である。χ(A,B)の値は、リージョンラベルA及びBが異なるかどうかによって次のように定まる。
Figure 2006509292
関数f(x、y)は簡単な解釈を行う。所与のピクセルポジション(x、y)に対し、当該関数は単に異なるリージョンラベルを持つ8結合隣接ピクセル中のピクセル数を合計する。
セグメンテーションはスクエアテッセレーションで初期化される。初期セグメンテーションを所与として境界ピクセルを隣接するリージョンに割り当てることで、リージョン境界での変更が行われる。現在ラベルAのリージョンの座標(x、y)にあるピクセルが、暫定的にラベルBのリージョンに移動する場合を想定する。リージョンAの平均カラーの変化は、以下の通りである。
Figure 2006509292
そして、リージョンBの平均カラーの変化は、以下の通りである。
Figure 2006509292
ここで、n及びnは、それぞれ、リージョンA及びBにあるピクセルの数である。ラベル変更案は、次の式で与えられる誤差関数で対応する変更を行う。
Figure 2006509292
ピクセル(x、y)におけるAからBへのラベル変更案はまた、全体の規則化関数fを変更する。ラベル変更案は、ピクセル(x、y)ばかりでなく、ピクセル(x、y)の8結合隣接ピクセルポジションでのfに影響する。規則化関数の当該変化は、次の式による合計により与えられる。
Figure 2006509292
ここで、合計は、(x’、y’)で示される8結合隣接ポジションのすべてにわたるものである。変化Δfの、この単純な形式は、次式で示すように、χが対称である事実から理解される。
Figure 2006509292
ラベル変更案は、仮にΔe+Δf<0ならば、フィット基準を改善する。そして、最後にリージョンは融合される。
セグメンテーションマップを更新しデータへのモデルのフィットが改善するならばラベル変更案を受け入れる上述の手順は、シーケンス中の各イメージに対して別々に行われる。融合ステップ後に限り、ビデオストリームから読み込んだ新しいイメージにより更新されたリージョン平均値が存在する。リージョンフィッティング及びマージングステップはその後、新しいイメージに対応するため再開する。
図1を参照すると、リージョンベースのセグメンテーション工程30が、好適にはコンスタントカラーモデルに基づき、入力としてカラーイメージ10及び初期セグメンテーションマップ20を取得する。セグメンテーション工程30の出力は、セグメンテーションマップ40であり、イメージ中に見つかったオブジェクトを表示する。入力カラーイメージ10の例は、図2(a)に図示される。そこでのイメージは、サイズが小さくなっていく一連の矩形及びサイズが小さくなっていく一連の楕円である。当該イメージは、図2(b)に示される典型的な実施例では5x5ピクセルの四角いリージョンにセグメント化される。出力セグメンテーションマップ40の例は、図2(c)に図示される。
セグメント化されたイメージで発生し得る偽エッジは、図2(c)で最もよく見られる。これら偽エッジは、2つのオブジェクト間の境界で焦点がぼやけるために発生し得る。偽エッジはまた、多くのフィルムがカラーチャネルの低減された特定の解像度を持つために発生し得る。
さらに、カラーのサンプリング不足がセグメンテーションアルゴリズムで問題を引き起こす。セグメンテーションアルゴリズムがエッジの検出を高精度に試みる一方、概して信号の空間的サンプルの不足が生じ、オブジェクトの境界近くに小さく細長いリージョンを発生させる結果となる。この望まれない効果は、図2(c)に最もよく示される。白でコードされたマルチプルエッジが、オブジェクトの境界近くに見られる。これらの小さく細長いリージョンは、偽エッジ除去フィルターステップ50をセグメンテーションステップの間に付加することで除去される。図2(c)で示されるフィルター50のイメージデータへの適用の結果は、図2(d)に示される。
イメージセグメンテーションアプリケーションは、高いエッジ精度を有する少数のリージョンを必要とする。例えば、精密なエッジは2Dモノスコピックビデオから3Dステレオスコピックビデオへの精密な変換の際の要求事項である。そのようなアプリケーションのため、セグメンテーションはデプス計算に使用され、単一デプス値はセグメント化されたイメージ中の各リージョンに割り当てられる。エッジポジション及びその時間的安定性は、そのとき、3Dビデオの知覚品質のために重要となる。
偽エッジ問題の解決策は偽エッジ除去フィルターステップ50をセグメンテーション工程中に追加することである。図1を参照すると、好適な実施例はカラーイメージ10、初期セグメンテーションマップ20、セグメンテーションステップ30、第1出力セグメンテーションマップ40、偽エッジ除去フィルターステップ50、フィルタリング後セグメンテーションマップ60、第2セグメンテーションステップ70、及び、第2出力セグメンテーションマップ80を有する。フィルター50はセグメンテーションマップ40上で動作し、それゆえカラーイメージ10とは独立している。
図3を参照すると、偽エッジ除去フィルター50の動作は次のように説明される。ステップ100において、出力セグメンテーションマップ40の各ピクセル(i、j)は、そのカラーに応じたリージョン番号(又はセグメントラベル)がラベル付けされる。各リージョン番号kに割り当てられた値は任意の整数である。ステップ110において、各ピクセル(i、j)のため、四角いウィンドウw中のセグメントラベルのヒストグラムが計算される。ヒストグラムは次のベクトルにより表される。
Figure 2006509292
ここで、hはウィンドウw内のリージョン番号kの頻度であり、nはセグメンテーション内リージョンの総数である。ステップ120において、各リージョン番号の発生頻度が判断される。ステップ130において、最も発生頻度の高いリージョン番号が判断される。ステップ140において、ヒストグラムが単一の最大値を持つか否かの判断がなされる。仮に持つならば、ステップ150において、ピクセル(i、j)でのフィルタリング後のセグメンテーションマップに次式のように生じるリージョン番号kmaxが与えられる。
Figure 2006509292
しかし、2以上のリージョン番号が同じ頻度を有し、この頻度がウィンドウw内の他のすべての番号の頻度よりも高い場合が起こり得る。そのような状況の中で、タイブレーカー160が使用され、等しい頻度のリージョン番号中の最小値又は最大値を出力セグメンテーションに割り当てる。
図4は、ピクセル位置(i、j)を中心とした、典型的な5x5ピクセルウィンドウ200の説明図である。しかし代替案においては、3x3ピクセルウィンドウのような他のウィンドウサイズのものが予期される。図4においてフィルター工程の左側にあるのは、入力リージョン番号を持つウィンドウ200である。アスタリスク(*)を有するピクセル位置はイメージプレーンの外側にあることを意味する。すなわち、図示された例はピクチャの縁部である。これらピクセル位置のリージョン番号は、ヒストグラムを構成する場合には無視される。フィルター工程は出力として番号3を与える。この結果は、入力ウィンドウ内の各リージョン番号の頻度を次のようにカウントすることで検証できる。
Figure 2006509292
この例では、複数の最大値がヒストグラム中に存在する。すなわち、リージョン番号3及び4は双方頻度7を有する。小さいほうのリージョン番号(k=3)が、タイブレーカーによる回答として選択され、ピクセル位置(i、j)の出力セグメンテーションに割り当てられる。しかし代替案では、大きいほうのリージョン番号(k=4)が選択され、ピクセル位置(i、j)の出力セグメンテーションに割り当てられることも可能である。偽エッジ除去フィルターステップ50は、セグメンテーションマップ40のすべてのピクセル(i、j)が解析されるまで繰り返される。
与えられたリージョン境界を初期セグメンテーションにインタラクティブにフィット(又は更新)できる限り、いくつものリージョンセグメンテーション手段が使用され得る。偽エッジ除去フィルター50は小さく細長いリージョンを除去するばかりでなく、リージョン境界を変形し得る。従って、当該変形はフィルター工程を適用した後、再度セグメンテーション工程70を実行することで修正される。
フィルタリング後のセグメント化されたイメージマップは、フィルタリング後のセグメンテーションマップ又はメモリー領域60にロードされる。第2セグメンテーション工程70は、マップ60を再セグメント化し、出力マップ80を生成するよう実行される。場合によっては、フィルターステップ及びセグメントステップは、1又は2回以上繰り返される。
偽エッジ除去フィルターのためのアプリケーションは、2Dビデオマテリアルを3Dビデオに変換する際のセグメンテーション品質の改善、オブジェクトエッジ(エッジシャープニングアルゴリズム)のビデオイメージ品質の改善、並びに、イメージ及びビデオ圧縮のエッジコーディングコストの削減効果を有する。
本発明は、好適な実施例を参照して説明が行われた。明らかに、変更及び代替は先行する詳細な説明を読み取り理解することで他にも発生するものと思われる。本発明は、それらが付属の請求項の範囲又はそれと均等の範囲内に入る限りにおいて、そのようなすべての変更及び代替を含むものと思われる。
セグメンテーションステップ間に偽エッジ除去フィルターを有するイメージセグメンテーション方法の図である。 入力イメージの例を示す図である。 5x5ピクセルの四角のリージョンからなるセグメンテーションマップの初期状態の例を示す図である。 偽エッジのある出力セグメンテーションマップの例を示す図である。 フィルタリングし偽エッジを除去したセグメンテーションマップの例を示す図である。 典型的な偽エッジ除去フィルター方法を示す図である。 ピクセル位置(i、j)を中心とした5x5ピクセルウィンドウの例を示す図である。

Claims (18)

  1. 1又は2以上のイメージを、少なくともいくつかの偽エッジを有するエッジで隔てられた複数のピクセルグループを有する出力セグメンテーションマップにセグメント化する第1セグメンテーション手段と、
    前記偽エッジを除去するため、前記セグメンテーションマップをフィルタリングするフィルター手段であって、再セグメント化のために、次の第2セグメンテーション手段にフィルタリングしたセグメンテーションを出力するフィルター手段と、
    を有することを特徴とするイメージ処理装置。
  2. 前記第1及び第2セグメンテーション手段は、コンスタントカラーモデルを使用するものであって、
    該コンスタントカラーモデルは、同質カラー又はグレースケールによりイメージリージョンを識別する識別手段を有することを特徴とする請求項1に記載のイメージ処理装置。
  3. 前記ピクセルグループが、当初は矩形のリージョンであることを特徴とする請求項1に記載のイメージ処理装置。
  4. 前記フィルター手段が、
    前記セグメンテーションマップの所与のピクセルを囲むウィンドウ内のピクセルラベルのヒストグラムを計算する計算手段と、
    前記ウィンドウ内の各ピクセルラベルの発生頻度を判断する第1判断手段と、
    を有することを特徴とする請求項1に記載のイメージ処理装置。
  5. 前記フィルター手段がさらに、
    前記ヒストグラム内の最大発生頻度のピクセルラベルを判断する第2判断手段と、
    前記出力セグメンテーションマップの前記所与のピクセルに、前記最大発生頻度のピクセルラベルを割り当てる割り当て手段と、
    を有することを特徴とする請求項4に記載のイメージ処理装置。
  6. 2以上のピクセルラベルが同じ最大発生頻度を有する場合;
    等しい最大発生頻度を有するラベルの大きいほうのラベル、及び、
    等しい最大発生頻度を有するラベルの小さいほうのラベル、
    のうちのひとつを前記所与のピクセルに割り当てるため選択するタイブレーク手段をさらに有することを特徴とする請求項5に記載のイメージ処理装置。
  7. 2以上のピクセルラベルが同じ発生頻度を有し、該発生頻度が前記ヒストグラム内の他のすべてのピクセルラベルの発生頻度より大きい場合、前記所与のピクセルに割り当てるべきピクセルラベルを選択するタイブレーク手段をさらに有することを特徴とする請求項5に記載のイメージ処理装置。
  8. 前記ウィンドウが5ピクセル四方の矩形であることを特徴とする請求項4に記載のイメージ処理装置。
  9. 前記1又は2以上のイメージが2次元ビデオフレームを有することを特徴とする請求項1に記載のイメージ処理装置。
  10. 1又は2以上のイメージを処理する方法であって、
    少なくともいくつかの偽エッジを有するエッジで隔てられた複数のピクセルグループを有するセグメンテーションマップにイメージをセグメント化するセグメント化ステップと、
    前記偽エッジを除去するため、前記セグメンテーションマップをフィルタリングするフィルターステップと、
    出力イメージを生成するため、前記セグメント化ステップを繰り返す繰り返しステップと、
    を有することを特徴とする1又は2以上のイメージを処理する方法。
  11. 前記エッジをさらにリファインするため、リージョンの前記セグメント化ステップ及び前記フィルターステップを複数回反復する反復ステップをさらに有することを特徴とする請求項10に記載の1又は2以上のイメージを処理する方法。
  12. 前記イメージの前記セグメント化ステップがリージョンベースのセグメント化ステップであることを特徴とする請求項10に記載の1又は2以上のイメージを処理する方法。
  13. 前記リージョンベースのセグメント化ステップが、コンスタントカラーモデルを使用し、
    前記コンスタントカラーモデルは、同質カラーによるイメージリージョンの識別を有することを特徴とする請求項12に記載の1又は2以上のイメージを処理する方法。
  14. 前記ピクセルグループが5ピクセル四方の矩形リージョンであることを特徴とする請求項10に記載の1又は2以上のイメージを処理する方法。
  15. 前記フィルターステップが、
    前記セグメンテーションマップの所与の出力ピクセルのため、ウィンドウ内のピクセルラベルのヒストグラムを計算する計算ステップと、
    前記ウィンドウの各ピクセルラベルの発生頻度を判断する判断ステップと、
    を有することを特徴とする請求項10に記載の1又は2以上のイメージを処理する方法。
  16. 前記フィルターステップが、
    前記ヒストグラムの最大発生頻度のラベルを判断するラベル判断ステップと、
    最大発生頻度を持つ前記ピクセルラベルを前記出力ピクセルに割り当てる割り当てステップと、
    をさらに有することを特徴とする請求項15に記載の1又は2以上のイメージを処理する方法。
  17. 2以上のピクセルラベルが同じ最大発生頻度を有する場合;
    等しい最大発生頻度を有するラベルのうち最大のラベル、及び、
    等しい最大発生頻度を有するラベルのうち最小のラベル、
    のうちのひとつを前記所与のピクセルに割り当てるラベル割り当てステップをさらに有することを特徴とする請求項16に記載の1又は2以上のイメージを処理する方法。
  18. 前記1又は2以上のイメージが2次元ビデオフレームを有することを特徴とする請求項10に記載の1又は2以上のイメージを処理する方法。
JP2004556701A 2002-12-05 2003-12-04 セグメント化されたイメージから偽エッジを除去するための装置及び方法 Withdrawn JP2006509292A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US43117102P 2002-12-05 2002-12-05
PCT/IB2003/005677 WO2004051573A2 (en) 2002-12-05 2003-12-04 Method and apparatus for removing false edges from a segmented image

Publications (1)

Publication Number Publication Date
JP2006509292A true JP2006509292A (ja) 2006-03-16

Family

ID=32469598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004556701A Withdrawn JP2006509292A (ja) 2002-12-05 2003-12-04 セグメント化されたイメージから偽エッジを除去するための装置及び方法

Country Status (7)

Country Link
US (1) US20060104535A1 (ja)
EP (1) EP1570429A2 (ja)
JP (1) JP2006509292A (ja)
KR (1) KR20050085355A (ja)
CN (1) CN1720550A (ja)
AU (1) AU2003283706A1 (ja)
WO (1) WO2004051573A2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840067B2 (en) * 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
US7551795B2 (en) * 2005-11-01 2009-06-23 Samsung Electronics Co., Ltd. Method and system for quantization artifact removal using super precision
US8107762B2 (en) 2006-03-17 2012-01-31 Qualcomm Incorporated Systems, methods, and apparatus for exposure control
US8090210B2 (en) 2006-03-30 2012-01-03 Samsung Electronics Co., Ltd. Recursive 3D super precision method for smoothly changing area
EP1931150A1 (en) * 2006-12-04 2008-06-11 Koninklijke Philips Electronics N.V. Image processing system for processing combined image data and depth data
US8503796B2 (en) * 2006-12-29 2013-08-06 Ncr Corporation Method of validating a media item
US7925086B2 (en) 2007-01-18 2011-04-12 Samsung Electronics Co, Ltd. Method and system for adaptive quantization layer reduction in image processing applications
JP4898531B2 (ja) * 2007-04-12 2012-03-14 キヤノン株式会社 画像処理装置及びその制御方法、並びにコンピュータプログラム
DE102007021518B4 (de) * 2007-05-04 2009-01-29 Technische Universität Berlin Verfahren zum Verarbeiten eines Videodatensatzes
CN102016917A (zh) 2007-12-20 2011-04-13 皇家飞利浦电子股份有限公司 图像数据的分割
BRPI0822737A2 (pt) * 2008-09-25 2015-06-23 Tele Atlas Bv Método e disposição para obscurecer uma imagem
US9007435B2 (en) * 2011-05-17 2015-04-14 Himax Technologies Limited Real-time depth-aware image enhancement system
US9582888B2 (en) * 2014-06-19 2017-02-28 Qualcomm Incorporated Structured light three-dimensional (3D) depth map based on content filtering
JP6316330B2 (ja) * 2015-04-03 2018-04-25 コグネックス・コーポレーション ホモグラフィの修正
CN105930843A (zh) * 2016-04-19 2016-09-07 鲁东大学 一种模糊视频图像的分割方法及装置
US10510148B2 (en) * 2017-12-18 2019-12-17 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Systems and methods for block based edgel detection with false edge elimination
CN108235775B (zh) * 2017-12-18 2021-06-15 香港应用科技研究院有限公司 具有伪边缘消除的基于块的边缘像素检测的系统和方法
TWI743746B (zh) * 2020-04-16 2021-10-21 瑞昱半導體股份有限公司 影像處理方法及影像處理電路
DE102021113764A1 (de) * 2021-05-27 2022-12-01 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zur Analyse eines Bildes einer mikrostrukturierten Komponente für die Mikrolithographie

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8906587D0 (en) * 1989-03-22 1989-05-04 Philips Electronic Associated Region/texture coding systems
US5268967A (en) * 1992-06-29 1993-12-07 Eastman Kodak Company Method for automatic foreground and background detection in digital radiographic images
US5659624A (en) * 1995-09-01 1997-08-19 Fazzari; Rodney J. High speed mass flow food sorting appartus for optically inspecting and sorting bulk food products
US6035060A (en) * 1997-02-14 2000-03-07 At&T Corp Method and apparatus for removing color artifacts in region-based coding
US6741655B1 (en) * 1997-05-05 2004-05-25 The Trustees Of Columbia University In The City Of New York Algorithms and system for object-oriented content-based video search
US6631212B1 (en) * 1999-09-13 2003-10-07 Eastman Kodak Company Twostage scheme for texture segmentation based on clustering using a first set of features and refinement using a second set of features
US7085401B2 (en) * 2001-10-31 2006-08-01 Infowrap Systems Ltd. Automatic object extraction
US7116820B2 (en) * 2003-04-28 2006-10-03 Hewlett-Packard Development Company, Lp. Detecting and correcting red-eye in a digital image

Also Published As

Publication number Publication date
US20060104535A1 (en) 2006-05-18
WO2004051573A3 (en) 2005-03-17
CN1720550A (zh) 2006-01-11
AU2003283706A1 (en) 2004-06-23
KR20050085355A (ko) 2005-08-29
AU2003283706A8 (en) 2004-06-23
EP1570429A2 (en) 2005-09-07
WO2004051573A2 (en) 2004-06-17

Similar Documents

Publication Publication Date Title
JP2006509292A (ja) セグメント化されたイメージから偽エッジを除去するための装置及び方法
JP3862140B2 (ja) ピクセル化されたイメージをセグメント化する方法および装置、並びに記録媒体、プログラム、イメージキャプチャデバイス
US9183617B2 (en) Methods, devices, and computer readable mediums for processing a digital picture
US9251429B2 (en) Superpixel-based refinement of low-resolution foreground segmentation
US6668097B1 (en) Method and apparatus for the reduction of artifact in decompressed images using morphological post-filtering
KR101350853B1 (ko) 이미지들에서 아티팩트들을 감소시키기 위한 장치 및 방법
EP1190387B1 (en) Method for digital image segmentation
CN106934806B (zh) 一种基于结构清晰度的无参考图失焦模糊区域分割方法
JP4480958B2 (ja) デジタル画像作成方法
US5650828A (en) Method and apparatus for detecting and thinning a contour image of objects
CN103366354A (zh) 用于立体匹配的方法和系统
JP2016505186A (ja) エッジ保存・ノイズ抑制機能を有するイメージプロセッサ
EP1008106A1 (en) A method and apparatus for segmenting images prior to coding
JP2020506484A (ja) 画像特性マップを処理するための方法及び装置
US20080008243A1 (en) Method and apparatus for frame interpolation
EP2375748A1 (en) Method and apparatus for detecting coding artifacts in an image
JP4796072B2 (ja) 画像セグメンテーションに基づく画像レンダリング
CN109214996B (zh) 一种图像处理方法及装置
JP4156084B2 (ja) 移動物体追跡装置
Xu et al. Depth map misalignment correction and dilation for DIBR view synthesis
CN108830319A (zh) 一种图像分类方法和装置
EP1863283B1 (en) A method and apparatus for frame interpolation
US20070008342A1 (en) Segmentation refinement
Xu et al. Watershed based depth map misalignment correction and foreground biased dilation for DIBR view synthesis
Choi et al. Self-example-based edge enhancement algorithm for around view monitor images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070611