JP2005228340A - 画像解析装置、画像解析方法、及びブロブ識別装置 - Google Patents

画像解析装置、画像解析方法、及びブロブ識別装置 Download PDF

Info

Publication number
JP2005228340A
JP2005228340A JP2005036115A JP2005036115A JP2005228340A JP 2005228340 A JP2005228340 A JP 2005228340A JP 2005036115 A JP2005036115 A JP 2005036115A JP 2005036115 A JP2005036115 A JP 2005036115A JP 2005228340 A JP2005228340 A JP 2005228340A
Authority
JP
Japan
Prior art keywords
blob
pixel
signal
module
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005036115A
Other languages
English (en)
Other versions
JP4667062B2 (ja
Inventor
Donald J Curry
ジェイ.カリー ドナルド
Asghar Nafarieh
ナファリエ アスガー
Doron Kletter
クレター ドロン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of JP2005228340A publication Critical patent/JP2005228340A/ja
Application granted granted Critical
Publication of JP4667062B2 publication Critical patent/JP4667062B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 本発明は、類似画像特性を有する領域を識別するために画像を解析する画像解析装置、画像解析方法及びブロブ識別装置を提供する。
【解決手段】
各ラインの画素のエッジ連続値と、該画素の第1の近傍内の画素のエッジ連続値と、を比較して、比較結果を生成し、前記比較結果に基づいて、前記画素にブロブのブロブ識別を割り当て、該画素を該ブロブに関連付ける。
【選択図】 図5

Description

本発明は、類似連続値を有する画像内の領域を識別するための画像解析に関する。
一般に、高解像度でスキャンされるドキュメントに要求される記憶スペースはかなり大きいものである。更に、大容量の画像データは、ローカル・エリア・ネットワーク又はワイド・エリア・ネットワーク、イントラネット、エクストラネットやインターネット、又は他の分散ネットワークの周辺を移動するために、より多くの時間とより大きなバンド幅を必要とする。
一般に、ドキュメント画像データは、そのボリュームを減少させるためにデータ圧縮が何らかの形式で施され、これによって、このようなスキャンされたドキュメント画像データを記憶するために要する高いコストを節減する。
上述された異なるタイプの画像データなどのデータ圧縮の必要条件を満たすための一つのアプローチは、データを記述するための混合ラスタ・コンテンツ(MARC)・フォーマットを使用するエンコーダ・パイプラインを使用することであった。画像データは二つ以上の平面にセグメントされる。一般に、これらの平面は、背景平面と前景平面と称される。セレクタ平面は、複合画像内の各画素に対して、最終出力画像を再構築するために使用される実際の画像データをどの画像平面が含むかを示すために生成される。
特許文献1乃至3は本発明に関連する。
米国特許第4、849、914号明細書 米国特許第5、515、452号明細書 米国特許第5、583、659号明細書
本発明は、類似画像特性を有する領域を識別するために画像を解析し、類似エッジ極性又は類似エッジ連続性を有する領域を識別する、画像データ解析システム及び画像データ解析方法を提供する。
本発明は、また、現在のスキャン・ライン及び直前のスキャン・ライン内の画像データの隣接部分に関連付けられた識別値に基づいて、画像内の単一領域又は単一ブロブにポテンシャルに属するスキャン・ライン内の領域を識別する、システム及び方法を提供する。
本発明の第1の態様の画像解析装置は、各ラインの画素のエッジ連続値と、該画素の第1の近傍内の画素のエッジ連続値と、を比較して、比較結果を生成する第1の比較子と、前記比較結果に基づいて、前記画素にブロブのブロブ識別を割り当て、該画素を該ブロブに関連付ける、割当子と、を備える。
本発明の第2の態様の画像解析方法は、各ラインの画素のエッジ連続値と、該画素の第1の近傍内の画素のエッジ連続値と、を比較して、比較結果を生成し、前記比較結果に基づいて、前記画素にブロブのブロブ識別を割り当て、該画素を該ブロブに関連付ける。
本発明の第3の態様のブロブ識別装置は、各ラインの画素のエッジ連続値と、該画素の第1の近傍内の画素のエッジ連続値と、を比較して、比較結果を生成する手段と、前記比較結果に基づいて、前記画素にブロブのブロブ識別を割り当て、該画素を該ブロブに関連付ける手段と、を備える。
図面を参照して、本発明の種々の例示的な実施の形態が以下に詳細に記述される。
本発明によるシステム及び方法は、現在、TIFFとPDFスタンダードのみならず、PostScriptスタンダードにも含まれる混合ラスタ・コンテンツ(MRC)表示に応じて生成されるファイルを出力する。
図1は、三層混合ラスタ・コンテンツ画像データの例示的な一実施の形態を示す。図1に示されるように、この混合ラスタ・コンテンツ・フォーマットを使ってレンダリングされるドキュメント画像100は、背景平面110、前景平面130、及びセレクタ平面120を用いて生成される。混合ラスタ・コンテンツ画像データ・ファイル内には、第4の非画像データ平面が含まれていてもよい。しばしば、この第4の平面は、アドビ・アクロバット(Adobe Acrobat)又はアクロバット・リーダ(Acrobat Reader)などのレンダリング・エンジンによって使用され得るレンダリング・ヒントを含み、特定画素がどのようにしてレンダリングされるかについての更なるインストラクションが提供される。
図2に示されるように、ドキュメント画像200は、背景連続トーン又はグレー・スケール平面210、及び、例えば、6個のバイナリ前景平面220乃至270に分解されてもよい。バイナリ前景平面220乃至270の各々によって、背景平面210へ結合される低空間周波数のカラー画像データの空間的なエクステント(広がり)が画定される。
バイナリ前景平面220乃至270のいずれかの画像データは、複数のバイナリ前景平面220乃至270の他のいずれか一つの画像データとオーバーラップしない。この結果、バイナリ前景平面220乃至270の各々は、順序やシーケンス(連続性)とは無関係に、背景平面と個別に結合され得る。バイナリ前景平面のバイナリ・データに基づいて、バイナリ前景平面に関連付けられているカラー値を背景平面210に適用することにより、複数のバイナリ前景平面220乃至270の各々が背景平面210に結合されると、画像280が取得される。
図3は、三層画像データ生成システム1000の例示的な一実施の形態を示す。
図4は、図3に示されたセグメント・モジュール1600の例示的な一実施の形態を詳細に示す。
図5は、本発明の例示的な一実施の形態によるN層画像データ生成システム2000を示す。図5に示されるように、N層画像データ生成システム2000は、信号線2010を介してスキャナ・カラー変換モジュール2100へスキャナ信号SRCを入力する。スキャナ・カラー変換モジュール2100は、信号線2110を介して、スクリーン予測モジュール2200とデ−スクリーン・モジュール2300へ、スキャナ・カラー変換信号SCCを出力する。スクリーン予測モジュール2200は、信号線2210を介してデ−スクリーン・モジュール2300へ予測されたスクリーン周波数信号SCFを出力し、信号線2220を介してデ−スクリーン・モジュール2300とスケール・モジュール2400へ予測されたスクリーン・マグニチュード信号SCMを出力する。デ−スクリーン・モジュール2300は、信号線2310を介して統計モジュール3100へブラー(印刷汚れ)信号BLRを出力し、信号線2320を介してスケール・モジュール2400へデ−スクリーン化された画像データ信号DSCを出力する。スケール・モジュール2400は、信号線2410を介してセグメント・モジュール2600へスケーリングされたスクリーン・マグニチュード信号SMSを出力し、信号線2420を介して色域エンハンスド・モジュール2500へスケーリングされたされたデ−スクリーン画像データ信号DSSを出力する。色域エンハンスド・モジュール2500は、信号線2510を介してセグメント・モジュール2600へ色域エンハンスド画像データ信号GMEを出力する。
図5に示されるように、N層画像データ生成システム2000は、セグメント・モジュール2600、ブロブ識別モジュール2700、マップ・ブロブ及びクラスタ・モジュール2800及び背景調整モジュール2900を含む。
特に、図5に示されるように、セグメント・モジュール2600は、信号線2510を介して色域エンハンスド画像データ信号GMEと、信号線2410を介してスケーリングされたスクリーン・マグニチュード信号SMSと、を入力するにすぎない。セグメント・モジュール2600はこれらの信号を処理し、信号線2641を介してブロブ識別モジュール2700へ出力されるトリ・ステート・エッジ連続信号TECを生成する。セグメント・モジュール2600はさらに、ブロブ識別モジュール2700とマップ・ブロブ及びクラスタ・モジュール2800に、信号線2656を介して、エンハンスド画像データ信号ENHを出力する。ブロブ識別モジュール2700は、信号線2641と2656の各々を介してトリ・ステート・エッジ連続信号TECとエンハンスド画像データ信号ENHとを入力し、これらをブロブID信号(BID)とブロブ・グローバル・テーブルGTB510に変換する。これらの信号は各々、信号線2710と2720の各々を介してマップ・ブロブ及びクラスタ・モジュール2800へ入力される。
マップ・ブロブ及びクラスタ・モジュール2800は、信号線2656を介してエンハンスド画像データ信号ENHを入力し、信号線2710を介してブロブID信号BIDを入力し、信号線2720を介してブロブ信号のグローバル・テーブルGTBを入力し、異なる平面及び異なるブロブの各々に関連付けられている特定の色に一部依存する複数のバイナリ前景平面の異なる平面に、様々なブロブを割り当てる。
マップ・ブロブ及びクラスタ・モジュール2800は、信号線2857を介して圧縮モジュール3000へ、バイナリ前景層の各々に対するバイナリ・データを出力する。
圧縮モジュール3000は、バイナリ前景層の各々を圧縮し、次に、信号線3010を介してPDFラッパ・モジュール3200へ圧縮されたバイナリ前景層を出力し、信号線3020を介してPDFラッパ・モジュール3200へ圧縮された背景信号BGCを出力する。
図6は、図5に示されたN層画像データ生成システム2000のセグメント・モジュール2600の例示的な一実施の形態を詳細に示す。図6に示されるように、色域エンハンスド画像データ信号GMEは、信号線2510を介して、依存型最小最大モジュール2610と、変化パラメータ・ジェネレータ、例えば、動的閾値モジュール2620へ入力される。同様に、利用可能ならば、スケーリングされたスクリーン・マグニチュード信号SMSが信号線2410を介して動的閾値モジュール2620へ入力される。
図6に示されるように、依存型最小最大モジュール2610は、一対の信号線2611と2612の各々を介して動的閾値モジュール2620とエッジ・エンハンスド・モジュール2650の各々に、最大値信号MAXと最小値信号MINとを出力する。
種々の例示的な実施の形態において、測定された依存型の最大値信号MAXと最小値信号MINは、対象となる現在画素を囲むような近傍領域(例えば、7×7画素のウィンドウ)において依存型最小最大モジュールによって測定される。対象となる現在画素に対する依存型の最大値は、最高の明度値を有するウィンドウ内の画素の画像値である。依存型の最小値は、最低の明度値を有するウィンドウ内の画素の画像値である。
動的閾値モジュール2620は、色域エンハンスド画像データ信号GMEに適応する閾値を付与するために識別された画素の画像値を使用する。詳細には、動的閾値モジュール2620は、対象となる画素に対して依存型閾値と依存型の正規化された値とを決定する。種々の例示的な実施の形態において、依存型閾値は対象となる現在画素に対するMAX値とMIN値の平均又は中間点として求められ、種々の例示的な実施の形態において、依存型の正規化された値は、対象となる現在画素に対するMAX値とMIN値の値の差として求められる。
依存型の正規化された信号の絶対値がコントラスト閾値未満である場合、対象となる現在画素のトリ・ステート・エッジ連続信号TECの値は、ゼロにセットされる。依存型の正規化された信号の絶対値がコントラスト閾値以上である場合、対象となる現在画素のトリ・ステート・エッジ連続信号TECの値は、対象となる現在画素に対する色域エンハンスド画像データ信号GMEの値が動的閾値より大きいか又は小さいかに応じて、+1又は−1にセットされる。本発明の種々の実施の形態において、トリ・ステート・エッジ連続信号TECがブロブを識別するために使用されるので、すべての内部画素のカラー連続性をチェックする必要がなくなる。
量子化モジュール2640は、信号線2622を介して8ビットのロー・グレー・スケール・セレクタ信号Grrを入力し、この8ビット信号を2ビットのトリ・ステート値信号TECへ変換する。表1は、種々の実施の形態において、−128から+127に及ぶGrr値が、信号線2641を介して出力されるトリ・ステート・エッジ連続信号TECへ、及び信号線2642を介してエッジ・エンハンスド・モジュール2650へ出力されるEEE信号へ、どのようにして変換されるかを示す。
Figure 2005228340
表1に示されるように、トリ・ステート・エッジ連続信号TECは、三つの値、即ち、−1、0、+1を有する。トリ・ステート・エッジ連続信号TECがスキャナ解像度にある場合、セレクタ・エッジ抽出信号EEEはTECと同一値に相当する。TEC値の意味論的解釈では、トリ・ステート・エッジ連続信号TECの値(−1、0、+1)に代えてH、0、Lを使用する。表1に示されるように、トリ・ステート・エッジ連続信号TECとセレクタ・エッジ連続信号EEEに対する0(ゼロ)値は、ロー・グレー・スケール・セレクタ信号Grrの弱いエッジ又はエッジ無し、例えば、Grr信号値[−1乃至+1]を含む範囲、に相当する。これに対して、ロー・グレー・スケール・セレクタ信号Grrの値が+1より大きい強い正エッジは、トリ・ステート・エッジ連続信号TECとセレクタ・エッジ抽出信号EEEに対して+1(即ち、‘H’)の値に変換される。そして、ロー・グレー・セレクタ信号Grrの値が−1未満である強い負エッジは、トリ・ステート・エッジ連続信号TECとセレクタ・エッジ連続信号EEEに対して−1(即ち、‘L’)の値にマッピングされる。図17に詳細に示されるエッジ・エンハンスド・モジュール2650は、セレクタ・エッジ抽出信号EEEのH、0及びL値を使用し、エンハンスされた画像データ信号ENHとして、種々のカラー信号GME、MAX、又はMINのどれが出力されるかを判断する。
図7は、ブロブ識別モジュール2700の第1の例示的な実施の形態を示す。概して、ブロブ識別モジュール2700は、信号線2656を介して24ビットのエンハンスド画像データ信号ENHを入力し、信号線2641を介して2ビットのトリ・ステート・エッジ連続信号TECを入力する。ブロブ識別モジュール2700は、入力されたエンハンスド画像データを、各々が複数のバイナリ前景平面の個々の平面への表示に適するブロブへセグメントする。ブロブ識別モジュール2700は、画像の各画素を、前もって識別されたブロブ、新しいブロブ、又は背景グレー・スケール画像平面の順に、一画素ずつ割り当てることによって動作する。
対象となる現在画素と複数の隣接画素に対するトリ・ステート・エッジ連続信号TECの値に基づいて、ブロブ識別モジュール2700は、引き続く処理(プロセッシング)において使用されるブロブIDで各画素にラベルを付ける。ブロブ識別モジュール2700が異なるブロブIDを画素に割り当てることによって、異なるブロブへグループ化された画像の画素の領域を有すると、ブロブ識別モジュール2700は、マップ・ブロブ及びクラスタ・モジュール2800へブロブID信号BIDとブロブ信号のグローバル・テーブルGTBを出力する。
図7に示されるように、ブロブ識別モジュール2700の第一の例示的な実施の形態において、ブロブ識別モジュール2700はトップ・ツー・ボトム・モジュール2730とボトム・ツー・トップ・モジュール2740を含む。トップ・ツー・ボトム・モジュール2730はラスタ・スキャン順に各々の画素を解析するので、トップ・ツー・ボトム・モジュール2730は、トリ・ステート・エッジ連続値TEC及びエンハンスド画像データ値ENHに基づいて、先行画素に割り当てられているブロブ識別値BIDを連続的に更新する。これにより、エンハンスド画像データENHのスキャン・ラインの各々に現れるブロブの初期割り当てが生成される。
トップ・ツー・ボトム・モジュール2730から、最終スキャン・ラインの最終スキャン・ライン・テーブルを受け取ると、ボトム・ツー・トップ・モジュール2740は、2次元ブロブを形成するために結合される1次元ブロブ内の画素の、ブロブID値BIDとカラー値に応じて、最終スキャン・ラインのスキャン・テーブルからスタートして上方へ移動しながら、スキャン・テーブルの解析を開始し、各スキャン・テーブルに現れる1次元ブロブを結合して2次元ブロブを形成する。
図8は、トップ・ツー・ボトム・モジュール2730によって使用され、現在スキャン・ラインのスキャン・テーブル即ちブロブ信号のローカル・テーブルを決定する、対象となる現在画素を囲むコンテクスト画素と特定の信号との例示的な一実施の形態を示す。図8に示されるように、対象となる現在画素2731に対して、コンテクスト画素は、左側隣接画素2732と、この左側隣接画素2732に隣接する第2の左側隣接画素2733と、を含む。先行スキャン・ライン内画素である、上部隣接画素2735、上部左側隣接画素2736及び上部右側隣接画素2737を含む三つの更なるコンテクスト画素もまた、対象となる現在画素2731に隣接するコンテクスト画素内に含まれる。
図8に示されるように、対象となる現在画素2731に対してブロブID値iBCを決定する時、各対象となる現在画素2731及び各コンテクスト画素2732乃至2737に対するトリ・ステート・エッジ連続信号TECが、トップ・ツー・ボトム・モジュール2730によって使用される。また、図8に示されるように、トップ・ツー・ボトム・モジュール2730は、対象となる現在画素2731にどのブロブID値を割り当てるべきかを判断する際に、コンテクスト画素2732乃至2737に対して前もって割り当てられたブロブ識別値BIDを使用する。図8に示されるように、トップ・ツー・ボトム・モジュール2730は、常時、ブロブ識別信号BIDの先行ライン部分2711と現在ライン部分2712、トリ・ステート・エッジ連続信号TECの先行ライン部分2642と現在ライン部分2644、及びエンハンスド画像データ信号ENHの先行ライン部分2657と現在ライン部分2658を使用する。
更に、トップ・ツー・ボトム・モジュール2730は、信号線2656に出力されるエンハンスド画像データ信号ENHから、三つのカラー値を使用する。
図9は、所与のブロブID値に対するスキャン・テーブル・エントリ2760、即ち、ブロブのローカル・テーブル内エントリの例示的な一実施の形態を示す。図9に示されるように、第1の実施の形態において、各スキャン・テーブル・エントリ2760は、1バイトのxリンク値2761と1バイトのyリンク値2762とを含む。また、各スキャン・テーブル・エントリ2760は、対応するブロブIDに割り当てられた現在スキャン・ライン内の画素カウント、ブロブ・カラー分散(variance)の累積測定、ブロブ画素の明度値の合計、第1のブロブ画素のクロミナンス値の合計、及び第2のブロブ画素のクロミナンス値の合計を各々表す、2バイト値2763乃至2767を含む。xリンク2761は、次の水平リンク・ブロブを示すインデックス又はポインタである。同様に、yリンク2762は、現在ブロブの下方位置で後に続くスキャン・ライン内に現れる垂直方向にリンクされたブロブを示すインデックス又はポインタである。xリンク2761とyリンク2762の動作及び使用については、図15を参照することによって以下により詳細に説明される。
トップ・ツー・ボトム・モジュール2730は、スキャン・ライン毎にスキャン・テーブル2750を生成し、更なる処理のために、ボトム・ツー・トップ・モジュール2740へ生成されたスキャン・テーブル2750の集合を送る。
図9に示されるように、特定のスキャン・テーブル2750のテーブル・エントリ2760の各々は、該スキャン・テーブルに対応するスキャン・ライン内の画素グループに対応する。画素グループは同様の画像特性を有する領域又はブロブを形成する。領域やブロブを画定する基本的な画像特性は、この領域又はブロブに属する画素のエッジ連続性が一致しており、また、略同一のカラーを有しているということである。
図10は、信号線を介してボトム・ツー・トップ・モジュール2740へトップ・ツー・ボトム・モジュール2730によって出力されるスキャン・テーブル・ストラクチャ2750の例示的な一実施の形態を示す。
図11は、対象となる現在画素2731及びコンテクスト画素2732乃至2737のトリ・ステート・エッジ連続信号TECの2ビット・トリ・ステート・エッジ連続値2644a乃至2644c及び2643a乃至2643cが、8ビット・キー・コードを形成するために、どのように使用されることができるか、の一実施形態を示す。例えば、8ビット・キー・コードは、図8に示されるブロブID値iBCを対象となる現在画素2731に割り当てるために採られる特定のアクションを識別するために、ルック・アップ・テーブルを用いることにより、使用されることができる。図11に示されるように、種々の例示的な実施の形態において、8ビット・キー・コードを形成するためには、対象となる現在画素2731、左側隣接画素2732、上部隣接画素2735、及び上部左側隣接画素2736に対して、2ビット・トリ・ステート・エッジ連続値2644a、2644b、2643b、及び2643aのみが使用される。
トリ・ステート・エッジ連続信号TECは、強い負エッジを示すために2ビット値“01”を用い、エッジ無しを示すために2ビット値“10”を用い、強い正エッジを示すために2ビット値“11”を用いる。これにより、2ビット・トリ・ステート・エッジ連続値に対する値“00”が無効であることが理解されよう。
Figure 2005228340
表2は7個の可能なアクションの一実施形態を示す。8ビット・キー・コードが図11に示されるように生成されると、対象となる現在画素2731にブロブ識別値BIDを割り当てる、及び/若しくは、左側隣接画素2732、上部隣接画素2735、及び/若しくは、上部左側隣接画素2736に先に割り当てられたブロブID値BIDを更新する、ことを示すために、該8ビット・キー・コードを使用することができる。8ビット・キー・コードは、対象となる現在画素2731、左側隣接画素2732、上部隣接画素2735、及び、若しくは、上部左側隣接画素2736に関連して採用される。表2に示されるように、アクション・コードが“01”の時、対象となる現在画素2731に対して採られるアクション、及び、コンテクスト画素2732乃至2737の一つ以上に対して採られることができるアクションは、「背景にマージ(Merge to Background)」することである。他のアクションには、アクション・コード“02”の「左とマージ(Merge Left)」する、アクション・コード“03”の「斜めとマージ(Merge Diagonal)」する、アクション・コード“04”の「上とマージ(Merge with Top)」する、アクション・コード“05”の「両方(左側及び上)とマージ(Merge with Both)」する、アクション・コード“06”のカラー値の類似性に基づいてマージする(「チェック・マージ(Merge Check)」)、及びアクション・コード“07”の「新しいブロブ(識別値を)を割り当て(Asign a New Blob)」る、がある。対象となる現在画素2731及び/又はコンテクスト画素2732乃至2737の一つ以上のブロブIDに対して採られる特定のアクションが以下で更に詳細に説明される。
Figure 2005228340
表3は、本発明によるアクション・テーブルの例示的な一実施の形態を示す。表3に示されるように、所与の8ビット・キー・コードに対し、アクション・テーブルは表2に示されるアクションの何れが採られるべきかを示す。8ビット・キー・コードは、対象となる現在画素2731及び、隣接するコンテクスト画素2732、2735、及び2736の四つの2ビット・トリ・ステート・エッジ連続値TECを組み合わせることにより与えられる。
図3に示されたアクション・テーブルは、対象となる現在画素2731に用いられる3ビット・アクション・コードを含む。該アクション・コードが、コンテクスト画素2732乃至2737の一つ以上と関連付けられるブロブID値BIDに影響を与える場合もある。
上記に示されるように、対象となる現在画素へ割り当てるべきブロブID値BIDを決定するために、及び、できれば、コンテクスト画素2732乃至2737の一つ以上に割り当てられるブロブID値BIDを更新又は変更するために、実行され得る7つの有効アクションがある。アクション・コードが“01”のとき、グレー・スケール背景ブロブID値“00”を現在画素2731へ割り当てることによって、少なくとも現在画素2731をグレー・スケール背景平面にマージするために、「背景にマージ」するアクションが実行される。
アクション・コードが“02”である場合、対象となる現在画素2731を、左側隣接画素2732を含むブロブと同一のブロブへマージするために「左とマージ」するアクションが実行される。
アクション・コードが“03”のとき、現在画素2731を、上部左側隣接画素2736を含むブロブへマージするために「斜めとマージ」するアクションが実行される。
アクション・コードが“04”のとき、「上とマージ」するアクションが実行される。
「上とマージする」アクションは、対象となる現在画素2731を、上部隣接画素2735を含むブロブと同じブロブにマージさせる。
「両方とマージ」するアクション・コードは、対象となる現在画素2731のトリ・ステート・エッジ連続値TECが左側隣接画素2732及び上部隣接画素2735の各々のトリ・ステート・エッジ連続値TECと一致する時に生じる。アクション・コードが“05”の時、「両方とマージ」するアクションが、対象となる現在画素2731及び二のブロブを一のブロブにマージする。該二のブロブの各々は、左側隣接画素2732及び上部隣接画素2735を含む。
アクション・コードが“06”の時、「チェック・マージ(Merge Check)」アクションが実行される。対象となる現在画素2731と三つのコンテクスト2732、2735及び2736のトリ・ステート・エッジ連続値TECが、これらの画素2731、2732、2735及び2736の少なくとも一つに弱いエッジが発生したことを示す時に、「チェック・マージ」アクションが使用される。
「チェック・マージ」アクションにおいて、左側隣接2732及び上部隣接画素2735がこれらの画素に関連付けられるノン・ゼロ・ブロブID値を有するか否か、即ち、背景平面の一部ではないか否かを見るためにチェックされる。
左側隣接画素2732及び上部隣接画素2735のブロブID値BIDのいずれかが実際にノン・ゼロ・ブロブID値BIDにセットされている場合、対象となる現在画素2731に対するエンハンスド画像データ値ENHと上部隣接画素2735に対するエンハンスド画像データENHの色差の絶対値の合計が求められる。
種々の例示的な実施の形態において、二つの絶対値の合計値の大きい方の値が、対応するスキャン・テーブル・エントリ2760内の分散(variance)フィールド2764内に記憶される分散測定値として選択される。
アクション・コードが“07”の時、「新しいブロブを割り当て」るアクションが、対象となる現在画素に現在未使用のブロブID値を割り当てるために実行される。
上述されるように、トップ・ツー・ボトム・モジュール2730によって実行されるマージ・ファンクションは、背景平面又は予め画定されたブロブの一つに、対象となる現在画素2731をどのようにしてマージするかを判断するために、あるいは、対象となる現在画素2731で新しいブロブをスタートするために、対象となる現在画素2731に対して、現在ライン・ブロブ・インデックス値idB及び先行ライン・ブロブ・インデックス値idTを用いる。
先行と現在のスキャン・ラインに対する先行ライン・ブロブ・インデックス値idTと現在ライン・ブロブ・インデックス値idBの両方が、有効ブロブを示す場合、即ち、対応するスキャン・ライン・テーブル2750内の有効スキャン・テーブル・エントリ2760を示す場合、マージ・ファンクションは、現在ライン・ブロブ・インデックス値idBと先行ライン・ブロブ・インデックス値idTの両方によって示された二つのスキャン・テーブル・エントリ2760内で画定されたブロブを、単一ブロブにマージする。
先行ライン・ブロブ・インデックス値idTによって示された先行ライン・スキャン・テーブル2750内のスキャン・テーブル・エントリ2760がそのyリンク・フィールド2762内でノン・ゼロ値を含む場合、このスキャン・テーブル・エントリ2760は、先行ライン・スキャン・テーブル2750内の他のスキャン・テーブル・エントリ2760に既にリンクされている。
この現在ラインに対するスキャン・テーブル2750の第6のスキャン・テーブル・エントリ2760内のxリンク・フィールド2761の値に対しては三つの可能性がある。即ち、このスキャン・テーブル・エントリ2760のxリンク・フィールド2761は、それ自体か、現在スキャン・テーブル2750内の第3のスキャン・テーブル・エントリ2760か、背景平面を示す。
現在ライン・ブロブ・インデックス値idBによって示される、現在スキャン・ラインのスキャン・テーブル2750の第6のスキャン・テーブル・エントリ2760が、そのxリンク・フィールド2761内に値によって示されるように、現在スキャン・ラインのスキャン・テーブル2750内の他のスキャン・テーブル・エントリ2760へのリンクを既に含み、次に、先行スキャン・ラインのスキャン・テーブル2750の第2のスキャン・テーブル・エントリ2760のyリンク・フィールド2762によって示される、現在スキャン・ラインのスキャン・テーブル2750の第3のスキャン・テーブル・エントリ2760をマージする場合、循環型のxリンク値のリストは、この第3のスキャン・テーブル・エントリ2760を含むように変更されなければならない。
先行ライン・ブロブ・インデックス値idTによって示されたスキャン・テーブル・エントリ2760のxリンク・フィールド2761がそれ自体のみを示す場合、他は何もする必要はない。
マージ・ファンクションが現在ライン・ブロブ・インデックス値idBと先行ライン・ブロブ・インデックス値idTを入力するが、先行ライン・ブロブ・インデックス値idTが“−1”にセットされると共に、現在ライン・ブロブ・インデックス値idBがノン・ゼロで負ではない値を有する場合、左側隣接画素2732を含む有効ブロブはあるが、上部隣接画素2735を含む有効ブロブはない。この場合、マージ・ファンクションは、対象となる現在画素2731に左側隣接画素2732を含むブロブのみをマージすることができる。
これに対して、マージ・ファンクションが、“−1”にセットされた現在ライン・ブロブ・インデックス値idBと、ノン・ゼロで負ではない値を有する先行ライン・ブロブ・インデックス値idTと、によって呼び出された場合、上部隣接画素2735を含む有効ブロブは存在するが、左側隣接画素2732を含む有効ブロブは存在しない。
これに対して、先行ライン・ブロブ・インデックス値idTによって示されたスキャン・テーブル・エントリ2760が現在スキャン・ラインに対するスキャン・テーブル2750内のスキャン・テーブル・エントリ2760を示さない場合、即ち、そのyリンク・フィールド2762に有効値がない場合、マージ・ファンクションは、対象となる現在画素2731に新しいブロブID値を割り当て、これによって、現在スキャン・ラインに対して、スキャン・テーブル2750内に新しいスキャン・テーブル・エントリ2760を生成する。
現在ライン・ブロブ・インデックス値idBと先行ライン・ブロブ・インデックス値idTが共に“−1”にセットされる場合、上部隣接画素2735又は左側隣接画素2732を含む、対象となる現在画素2731とマージする有効ブロブは存在しない。この場合、マージ・ファンクションは、現在スキャン・ラインに対するスキャン・テーブル2750内に新しいスキャン・テーブル・エントリ2760を生成し、そのスキャン・テーブル・エントリ2760に新しいブロブID値を割り当て、xリンク・フィールド2761を新ブロブID値にセットする。これにより、スキャン・テーブル・エントリ2760がそれ自体を示し、対象となる現在画素2731に対するブロブID値BIDとして新しいブロブID値をリターンする。
対象となる現在画素2731に関するマージ動作が、対象となる現在画素2731のブロブID値BIDをリターンすると、このブロブID値BIDに対する現在スキャン・テーブル・エントリ2760内の種々のフィールド2763乃至2767は更新されなければならない。
図12は、本発明による図5に示されたN層画像データ生成システム2000のブロブ識別モジュールの第2の例示的な実施の形態2700’を示す。この例示的な実施の形態において、信号線2656のエンハンスド画像データ信号ENHは、トップ・ツー・ボトム・モジュール2730’へ入力されるのではなく、ボトム・ツー・トップ・モジュール2740’へ入力される。
上述されたように、ブロブ識別モジュール2700の第1の例示的な実施の形態における「チェック・マージ」アクションは、対象となる現在画素2731とコンテクスト画素2732、2735及び2736の色値間の類似性に基づいて動作する。
これに対して、図12に示されたトップ・ツー・ボトム・モジュール2730’の第2の例示的な実施の形態において、「チェック・マージ」アクションは、左側隣接画素2732と上部隣接画素2735をチェックし、これらの画素の両方が、これらに関連付けられるノン・ゼロ・ブロブID値BIDを有するか否か、即ち、これらの画素の両方が背景平面の一部ではないか否か、について調べる。
図15は、xリンク・フィールド2761とyリンク・フィールド2762が、現在ライン2658に対するスキャン・テーブル2750と、先行ライン2657に対するスキャン・テーブル2750と、において発生するブロブをリンクするためにどのように作用するかを示す。
図15に示されるように、先行スキャン・ライン2657は、文字“x”で表される識別された多数のブロブをそのライン中に有する。更に、図15に示されるように、先行スキャン・ラインに対して、対応するスキャン・テーブル・エントリ2760において、ブロブ・インデックス“3”を有するブロブがyリンク・フィールド2762内に値“5”を含み、このブロブが、現在スキャン・ライン2658中にブロブID“5”を有するブロブにリンクされることを示す。同様に、先行スキャン・ライン2657内のブロブ・インデックス“5”を有するブロブが、そのyリンク・フィールド2762内に値“7”を有し、現在スキャン・ライン2658の第7のブロブにリンクされることを示す。
図16は、マップ・ブロブ及びクラスタ・モジュール2800の例示的な一実施の形態を詳細に示す。図16に示されるように、ブロブID信号BIDは、信号線2710を介して入力され、ブロブ信号のグローバル・テーブルGTBは、信号線2720を介してマーク・グラフィック・モジュール2810へ入力される。マーク・グラフィック・モジュール2810は、各識別されたブロブを順に選択し、ある一定の条件が成立した場合に、このブロブを悪性ブロブとしてマークする。次に、マーク・グラフィック・モジュール2810は、ブロブID信号BIDとブロブ信号のグローバル・テーブルGTBが悪性ブロブをフラグするように変更されると、信号線2811を介して、マーク付きブロブ・フィルタ・モジュール(filter marked blobs module)2820へ出力する。
マーク付きブロブ・フィルタ・モジュール2820は、近傍の良性ブロブによって囲まれている悪性ブロブを識別するためにブロブのグローバル・テーブルを解析する。次に、マーク付きブロブ・フィルタ・モジュール2820は、ブロブのグローバル・テーブルから悪性ブロブを取り除き、これらのブロブIDを解除し、悪性ブロブを背景カラー平面へマージする。ブロブID信号BIDとブロブ信号のグローバル・テーブルGTBは、マーク付きブロブ・フィルタ・モジュール2820によって変更されると、信号線2821を介して、マーク付き内部ブロブ・モジュール2830へ出力される。
マーク付き内部ブロブ・モジュール2830は、他のブロブ内に完全に含まれるブロブ、例えば、“o”及び“e”の内部を形成するブロブ、を識別する。
ブロブID信号BIDとブロブ信号のグローバル・テーブルGTBは、マーク付き内部ブロブ・モジュール2830によって更に変更されると、信号線2831及び2832の各々を介して、マップ・ブロブ・モジュール2840へ出力される。ブロブID信号BIDは、信号線2831を介して、クラスタ・ブロブ・モジュール2850にも出力される。
マップ・ブロブ・モジュール2840は、同様のカラーの全ブロブをクラスタリングすることによって、ブロブ・ツー・カラー・インデックスを生成する。
ブロブの分類方法は、8進ツリー(Octal tree)方法におけるように、カラー特性に基づいて行われてもよいし、或いは、階層的バイナリ・ツリー(Hierarchical binary tree)方法におけるように、カラーとスペース特性の両方に基づいて行われてもよい。8進ツリー方法は、ページのどこに存在しようとも、同様のカラー・ブロブをグループ化するので、最小数の前景平面を生成することができるという利点を有する。これに対して、階層的バイナリ・ツリー(Hierarchical binary tree)方法は、ブロブが同様のカラーを有し、互いに近接している場合に限って、ブロブをグループ化する。階層的バイナリ・ツリー方法が8進ツリー方法よりも多くの前景平面を生成しても、カラー・クラスタがコンパクトでページ全体を通してスパースに存在している場合は特に、階層的バイナリ・ツリー方法はよりサイズの小さいファイルを作成する場合がある。ファイル・サイズに差が生じる主な理由は、非圧縮空間を浪費する上位及び下位特性の間にある、階層的バイナリ・ツリー方法における全ての中間的画素のためである。
一つの実施の形態において、ブロブ分類プロセスは、残りの良性ブロブに対して8進ツリーを組み立てる。これは、図24乃至図26を参照することによって更に詳細に説明される。
図17は、図6に示されたエッジ・エンハンスド・モジュール2650の例示的な一実施の形態を詳細に示す。図17に示されるように、エッジ・エンハンスド・モジュール2650は、第1の補間モジュール2651及び第2の補間モジュール2653と、マルチプレクサ2655と、を有する。第1の補間モジュール2651及び第2の補間モジュール2653は、色域エンハンスド画像データ信号GMEを、一画素ずつ、より明るくしたり、より暗くしたりすることによって、色域エンハンスド画像データ信号GMEから、エッジ・エンハンスド画像データを作成するように動作する。
より明るい画像データ信号EH及びより暗い画像データ信号ELは、各々、オリジナルの色域エンハンスド画像データ信号GMEと共にマルチプレクサ2655へ出力される。マルチプレクサ2655は、セレクタ・エッジ抽出信号EEEとしてトリ・ステート・エッジ連続信号TECを入力する。
図18は第1の補間モジュール2651及び第2の補間モジュール2653に信号線2631から入力されるエンハンスド・レベル信号ENLの効果を示す。オリジナル色域エンハンスド画像データ信号GMEが斜線による塗りつぶされたマークで図18に示されるように、エンハンスド・レベル信号ENLが50%の値を有する場合、すなわち、8ビット信号で128である場合、閾値2601より下の値は最小値2614に向けて移動される。閾値2601より上の値は最大値2616に向けて移動される。これにより50%のエンハンスド信号320が生じる。これに対し、100%のエンハンスド信号は、閾値2601より下のオリジナル色域エンハンスド信号GMEの値が完全に最小値2614まで移動され、閾値2601より上の値が最大値2616まで完全に移動されることにより生じる。
図19乃至図22は、ブロブ識別モジュールが2700が遭遇する可能性のある四つの異なる可能なタイプのブロブを示す。図19は、有効単一ブロブ400を示す。
図20は、第1のブロブが第2のブロブを含む、ブロブ・ペア400’を示す。
図21は、閉じられていないエッジ又は曲線430を有するポテンシャル・ブロブ400”を示す。
図22は、一対のポテンシャル・ブロブ400'''を示す。図22に示されるように、ポテンシャル・ブロブ400'''の第1のブロブは、閉じた曲線又は強いエッジ410によって境界付けされるが、ブロブ400'''の第2のブロブは、閉じていないエッジすなわち開いた曲線430を有する。これにより、一対のブロブ400'''の第2のブロブは有効ブロブではない。
図23は、あるブロブが他のブロブ内に完全に含まれている時に、異なるブロブ内の画素にブロブIDがどのようにして割り当てられるかを示す。
図24乃至図26は、8進ツリーと、この8進ツリーが、エンハンスド画像データ信号ENHの三つのカラー成分ベクトルに、どのようにして対応するかについて、の例示的な一実施の形態を示す。
図27に示されるように、これらのブロブの周りに形成された境界ボックス711、721及び733とともに、ブロブ710、720及び731の各々が示されている。境界ボックス711、721及び733は、これらのブロブの最左点、最右点、最上点及び最下点のドキュメント軸に沿ったエクステント(範囲)を表す。
図28は、図27に示されたプロセスを視覚化するための他の方法を示す。図28に示されるように、エンハンスド画像データ信号ENH、ブロブ・インデックス信号BID、及びブロブ情報が一ラインずつ入力される。これは図28に示されたライン900によって表される。図28に示されるように、エンハンスド画像データ信号ENHのスキャン・ライン900部分上の画素に対して、画素は7つのセクション901乃至907へ分割される。これらの7つのセクション901乃至907において、セクション901、903、905及び907は背景画素としてマークされ、背景画素911乃至921として背景層910にコピーされる。同時に、リフティングされる画素領域902、904、906の各層IDに基づいて、2値の値“1”がリフティングされる画素の各層IDに応じて各層930、940、950又は960へ書き込まれる。これにより、図28に示されるように、“1”のセット941が画素のセット902に対する層940に書き込まれる。同様に、“1”のセット951が画素のセット904に対する層950に書き込まれる。最後に、“1”のセット931が画素のセット906に対する層930に書き込まれる。画素のセット902、904、及び906のセットが種々の層930乃至960内へリフティングされると、同時に、背景層内の対応画素914がゼロにセットされる。
図29及び図30は、本発明の例示的な一実施の形態による、複数のバイナリ前景層を用いてスキャンされた画像データをポータブル・ドキュメント・フォーマット(PDF)のドキュメント・ファイルに変換する方法を示すフローチャートである。図29及び図30に示されるように、ステップS1000で本方法のオペレーションが開始され、ステップS2000へ進み、スキャンされた画像データを選択されたカラー・スペースヘ変換する。次に、ステップS3000において、スクリーン周波数及びスクリーン・マグニチュードなどの、変換された画像データに対するハーフトーン・スクリーン・パラメータが予測される。次に、ステップS4000において、少なくとも一つの予測されたハーフトーン・スクリーン・パラメータに基づいて、変換された画像データからハーフトーン・スクリーニングを除去するために、変換された画像データがデ−スクリーンされる。即ち、デ−スクリーニングは、画像データをハーフトーン画像データから真の連続トーン・グレー・スケール画像データへ戻すように変換する。次に、オペレーションは、ステップS5000へ進む。
ステップS5000において、デ−スクリーンされた変換された画像データがスケーリングされる。次に、ステップS6000において、スケーリングされた画像データから色域エンハンスド画像データが生成される。次に、ステップS7000において、色域エンハンスド画像データから、エッジ・エンハンスド画像データとエッジ連続データが生成される。オペレーションは、ステップS8000へ進む。
ステップS8000において、エッジ連続データに基づいて、エッジ・エンハンスド画像データ内で発生する複数のバイナリ前景層の中に分散される画像データの複数のブロブが決定される。ステップS9000において、例えば、「悪性」ブロブなどのうまく画定されなかったブロブが除去される。ステップS10000において、「悪性」ブロブが除去された後、残りのブロブからカラー・ツリーが作成される。次に、オペレーションはステップS11000へ進む。
ステップS11000において、残りのブロブがクラスタリングされ、バイナリ前景平面又は層とグレー・スケール背景平面とに分割される。次に、ステップS12000において、グレー・スケール背景平面内の画像データがグレー・スケール背景平面の圧縮度を改良するために調整される。次に、ステップS13000において、ステップS11000において決定された分割されたバイナリ前景平面の各々が当該バイナリ前景平面に適した圧縮技術を用いて圧縮される。次に、オペレーションはステップS14000へ進む。
ステップS14000において、グレー・スケール背景平面が当該グレー・スケール背景平面に適した圧縮技術を用いて圧縮される。次に、ステップS15000において、圧縮されたバイナリ前景平面と圧縮されたグレー・スケール背景平面から、ポータブル・ドキュメント・フォーマット(PDF)ドキュメント・ファイルが生成される。次に、ステップS16000において、生成されたPDFドキュメントファイルが下流プロセッサ及び/又はメモリに記憶される。次に、オペレーションはステップS17000へ進み、本方法のオペレーションが終了する。
図31は、本発明の例示的な一実施の形態による、ステップS7000の色域エンハンスド画像データから、エッジ・エンハンスド画像データとエッジ連続データを生成する方法をより詳細に示すフローチャートである。
図32及び図33は、本発明の例示的な一実施の形態による、ステップS8000のエッジ連続データに基づいてエッジ・エンハンスド画像データ内で複数のブロブを決定する方法をより詳細に示すフローチャートである。
図34は、本発明の例示的な一実施の形態による、ステップS9000の悪性ブロブを除去する方法をより詳細に示すフローチャートである。
図35は、本発明の例示的な一実施の形態による、ステップS9100の悪性ブロブをポテンシャルに識別する方法をより詳細に示すフローチャートである。
図36は、本発明の例示的な一実施の形態による、ステップS10000のカラー・ツリーを作成する方法をより詳細に示すフローチャートである。
図37は、本発明の例示的な一実施の形態による、ステップS11000のブロブをクラスタリングする方法をより詳細に示すフローチャートである。
本発明は種々の例示的な実施の形態に関して説明されているが、これらの実施の形態はあくまでも例示を目的とするものであり、本発明を限定するものではない。本発明の精神及び範囲を逸脱しない限り、あらゆる変更や代替を施すことが可能である。
本発明の例示的な一実施の形態による、三層混合ラスタ・コンテンツ・フォーマットのドキュメント画像の前景、背景、セレクタ平面、及び、これらによりレンダリングされるドキュメント画像を示す図である。 本発明の例示的な一実施の形態による、複数のバイナリ前景画像平面及びこれらにより得られるドキュメント画像を示す図である。 本発明の例示的な一実施の形態による、三層画像データ生成システムを示す図である。 本発明の例示的な一実施の形態による、図3の三層画像データ生成システムのセグメント・モジュールを示す図である。 本発明の例示的な一実施の形態よる、N層画像データ生成システムを示す図である。 本発明の例示的な一実施の形態による、図5のN層画像データ生成システムのセグメント・モジュールを示す図である。 本発明の第1の実施の形態による、図5のN層画像データ生成システムのブロブ識別モジュールを示す図である。 本発明の第1の実施の形態による、現在画素及びコンテクスト画素と、図7のトップ・ツー・ボトム・モジュールにおいてこれらの各画素に対して使用されるデータと、を示す図である。 本発明の第1の例示的な実施の形態による、トップ・ツー・ボトム・モジュールによって生成されるスキャン・テーブル入力を示す図である。 本発明の第1の例示的な実施の形態による、トップ・ツー・ボトム・モジュールによって生成されたブロブのスキャン・テーブル又はローカル・テーブルのストラクチャを示す図である。 現在画素に対してアクション・コードを判断するために使用可能なキー・コードが、現在画素及び三つの周辺コンテクスト画素に対するトリ・ステート・エッジ連続値から、どのようにして生成されるかを示す図である。 本発明の第2の例示的な実施の形態による、図5のN層画像データ生成システムのブロブ識別モジュールを示す図である。 本発明の第2の例示的な実施の形態による、現在画素及びコンテクスト画素と、例示的な一実施の形態による図12のトップ・ツー・ボトム・モジュールでこれらの画素の各々に対して使用されるデータと、を示す図である。 本発明の第2の例示的な実施の形態による、トップ・ツー・ボトム・モジュールによって生成されるスキャン・テーブル入力を示す図である。 本発明の例示的な一実施の形態による、現在スキャン・ライン内で識別されたブロブとその直前のスキャン・ライン内で識別されたブロブとの相関関係、関連したトリ・ステート・エッジ連続値、ブロブID値、xリンクとyリンク、及びスキャン・テーブルを示す図である。 本発明の例示的な一実施の形態による、図5のN層画像データ生成システムのマップ・ブロブ及びクラスタ・モジュールを示す図である。 本発明の例示的な一実施の形態による、図6のセグメント・モジュールのエッジ・エンハンスド・モジュールを示す図である。 オリジナル・スキャナ信号と、これらのオリジナル・スキャナ信号から得られた種々のエンハンスド信号と、を示すグラフである。 本発明による種々の有効及び無効ブロブを示す図である。 本発明による種々の有効及び無効ブロブを示す図である。 本発明による種々の有効及び無効ブロブを示す図である。 本発明による種々の有効及び無効ブロブを示す図である。 一つの有効ブロブがどのようにして他の有効ブロブ内に存在し得るかを示す図である。 本発明の種々の例示的な実施の形態による、複数のバイナリ前景平面において使用されるカラー情報を記憶するためのデータ・ストラクチャとカラー・データから生成可能なツリー・データ・ストラクチャとの例示的な一実施の形態を示す図である。 図15に示されたツリー構造を連結してツリー内のリーフ・ノードの数を削減するための種々の技術を示す図である。 図15に示されたツリー構造を連結してツリー内のリーフ・ノードの数を削減するための種々の技術を示す図である。 画像の種々のブロブを識別した後のオリジナル画像データと、種々のブロブ及び特定のバイナリ前景平面のカラー・データに基づいて、特定のバイナリ前景平面内へ識別されたブロブを集合させるための技術と、を示す図である。 処理された画像データが背景と複数の前景平面へどのようにして送られるかを示す図である。 本発明の例示的な一実施の形態による、複数のバイナリ前景層を用いて、スキャンされた画像データをポータブル・ドキュメント・フォーマット(PDF)・ドキュメント・ファイルに変換する方法を示すフローチャートである。 本発明の例示的な一実施の形態による、複数のバイナリ前景層を用いて、スキャンされた画像データをポータブル・ドキュメント・フォーマット(PDF)・ドキュメント・ファイルに変換する方法を示すフローチャートである。 本発明の例示的な一実施の形態による、色域エンハンスド画像データから、エッジ・エンハンスド画像データとエッジ連続データを生成する方法をより詳細に示すフローチャートである。 本発明の例示的な一実施の形態による、エッジ連続データに基づいてエッジ・エンハンスド画像データ内で複数のブロブを決定する方法をより詳細に示すフローチャートである。 本発明の例示的な一実施の形態による、エッジ連続データに基づいてエッジ・エンハンスド画像データ内で複数のブロブを決定する方法をより詳細に示すフローチャートである。 本発明の例示的な一実施の形態による、悪性ブロブを除去する方法をより詳細に示すフローチャートである。 本発明の例示的な一実施の形態による、悪性ブロブをポテンシャルに識別する方法をより詳細に示すフローチャートである。 本発明の例示的な一実施の形態による、カラー・ツリーを作成する方法をより詳細に示すフローチャートである。 本発明の例示的な一実施の形態による、ブロブをクラスタリングする方法をより詳細に示すフローチャートである。
符号の説明
2000 N層画像データ生成システム
2600 セグメント・モジュール
2700 ブロブ識別モジュール
2800 マップ・ブロブ及びクラスタ・モジュール

Claims (3)

  1. 各ラインの画素のエッジ連続値と、該画素の第1の近傍内の画素のエッジ連続値と、を比較して、比較結果を生成する第1の比較子と、
    前記比較結果に基づいて、前記画素にブロブのブロブ識別を割り当て、該画素を該ブロブに関連付ける、割当子と、
    を備える画像解析装置。
  2. 各ラインの画素のエッジ連続値と、該画素の第1の近傍内の画素のエッジ連続値と、を比較して、比較結果を生成し、
    前記比較結果に基づいて、前記画素にブロブのブロブ識別を割り当て、該画素を該ブロブに関連付ける、
    画像解析方法。
  3. 各ラインの画素のエッジ連続値と、該画素の第1の近傍内の画素のエッジ連続値と、を比較して、比較結果を生成する手段と、
    前記比較結果に基づいて、前記画素にブロブのブロブ識別を割り当て、該画素を該ブロブに関連付ける手段と、
    を含むブロブ識別装置。
JP2005036115A 2004-02-12 2005-02-14 画像解析装置、画像解析方法、及びブロブ識別装置 Expired - Fee Related JP4667062B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/776,515 US7379587B2 (en) 2004-02-12 2004-02-12 Systems and methods for identifying regions within an image having similar continuity values

Publications (2)

Publication Number Publication Date
JP2005228340A true JP2005228340A (ja) 2005-08-25
JP4667062B2 JP4667062B2 (ja) 2011-04-06

Family

ID=34711833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005036115A Expired - Fee Related JP4667062B2 (ja) 2004-02-12 2005-02-14 画像解析装置、画像解析方法、及びブロブ識別装置

Country Status (4)

Country Link
US (1) US7379587B2 (ja)
EP (1) EP1566767B1 (ja)
JP (1) JP4667062B2 (ja)
TW (1) TWI362007B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005228341A (ja) * 2004-02-12 2005-08-25 Xerox Corp 画像データを領域へ編成するシステムおよび方法

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9137417B2 (en) 2005-03-24 2015-09-15 Kofax, Inc. Systems and methods for processing video data
US9769354B2 (en) 2005-03-24 2017-09-19 Kofax, Inc. Systems and methods of processing scanned data
US20070091109A1 (en) 2005-09-13 2007-04-26 Roscoe Atkinson Image quality
US8849031B2 (en) * 2005-10-20 2014-09-30 Xerox Corporation Document analysis systems and methods
US8059893B2 (en) * 2007-07-25 2011-11-15 The United States Of America As Represented By The Secretary Of The Navy Method for single pass blob image analysis
US8155450B2 (en) * 2007-07-25 2012-04-10 The United States Of America As Represented By The Secretary Of The Navy Apparatus for single pass blob image analysis
US8014596B2 (en) * 2007-10-30 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for background color extrapolation
US8660373B2 (en) * 2008-07-22 2014-02-25 Xerox Corporation PDF de-chunking and object classification
US9177218B2 (en) * 2008-09-08 2015-11-03 Kofax, Inc. System and method, and computer program product for detecting an edge in scan data
US8111918B2 (en) * 2008-10-20 2012-02-07 Xerox Corporation Segmentation for three-layer mixed raster content images
US8520941B2 (en) * 2008-12-09 2013-08-27 Xerox Corporation Method and system for document image classification
US8290302B2 (en) * 2009-01-30 2012-10-16 Xerox Corporation Method and system for skew detection of a scanned document using connected components analysis
US8958605B2 (en) 2009-02-10 2015-02-17 Kofax, Inc. Systems, methods and computer program products for determining document validity
US8774516B2 (en) 2009-02-10 2014-07-08 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9349046B2 (en) 2009-02-10 2016-05-24 Kofax, Inc. Smart optical input/output (I/O) extension for context-dependent workflows
US9576272B2 (en) 2009-02-10 2017-02-21 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9767354B2 (en) 2009-02-10 2017-09-19 Kofax, Inc. Global geographic information retrieval, validation, and normalization
US8373721B2 (en) * 2009-12-14 2013-02-12 National Taiwan University Method of realism assessment of an image composite
US9165188B2 (en) 2012-01-12 2015-10-20 Kofax, Inc. Systems and methods for mobile image capture and processing
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US9483794B2 (en) 2012-01-12 2016-11-01 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US9058580B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US9058515B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
TWI597968B (zh) 2012-12-21 2017-09-01 杜比實驗室特許公司 在高位元深度視訊的可適性編碼中,高精度升取樣
US9208536B2 (en) 2013-09-27 2015-12-08 Kofax, Inc. Systems and methods for three dimensional geometric reconstruction of captured image data
JP2016517587A (ja) 2013-03-13 2016-06-16 コファックス, インコーポレイテッド モバイル装置を用いて取込まれたデジタル画像におけるオブジェクトの分類
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
DE202014011407U1 (de) 2013-05-03 2020-04-20 Kofax, Inc. Systeme zum Erkennen und Klassifizieren von Objekten in durch Mobilgeräte aufgenommenen Videos
JP2016538783A (ja) 2013-11-15 2016-12-08 コファックス, インコーポレイテッド モバイル映像データを用いて長尺文書の合成画像を生成するためのシステムおよび方法
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US9779296B1 (en) 2016-04-01 2017-10-03 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US11062176B2 (en) 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
CN117495797B (zh) * 2023-10-30 2024-06-14 武汉大学 基于隐式三维表达引导的航空数据变化检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6246783B1 (en) * 1997-09-17 2001-06-12 General Electric Company Iterative filter framework for medical images
US20040081355A1 (en) * 1999-04-07 2004-04-29 Matsushita Electric Industrial Co., Ltd. Image recognition method and apparatus utilizing edge detection based on magnitudes of color vectors expressing color attributes of respective pixels of color image
US20040165785A1 (en) * 2001-05-10 2004-08-26 Yusuke Monobe Image processing apparatus

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4849914A (en) * 1987-09-22 1989-07-18 Opti-Copy, Inc. Method and apparatus for registering color separation film
JP3099354B2 (ja) * 1989-12-29 2000-10-16 松下電器産業株式会社 画像処理装置及びこの装置を用いたディジタルカラー複写機
US5515452A (en) * 1992-12-31 1996-05-07 Electroglas, Inc. Optical character recognition illumination method and system
US5832112A (en) * 1993-12-24 1998-11-03 Canon Kabushiki Kaisha Image processing apparatus capable of detecting specific originals
US5583659A (en) * 1994-11-10 1996-12-10 Eastman Kodak Company Multi-windowing technique for thresholding an image using local image properties
US5745596A (en) * 1995-05-01 1998-04-28 Xerox Corporation Method and apparatus for performing text/image segmentation
US5900953A (en) * 1997-06-17 1999-05-04 At&T Corp Method and apparatus for extracting a foreground image and a background image from a color document image
US6058214A (en) * 1998-01-20 2000-05-02 At&T Corp. Compression of partially masked still images
US6400844B1 (en) * 1998-12-02 2002-06-04 Xerox Corporation Method and apparatus for segmenting data to create mixed raster content planes
US6324305B1 (en) * 1998-12-22 2001-11-27 Xerox Corporation Method and apparatus for segmenting a composite image into mixed raster content planes
US6633670B1 (en) * 2000-03-31 2003-10-14 Sharp Laboratories Of America, Inc. Mask generation for multi-layer image decomposition
US7672022B1 (en) * 2000-04-07 2010-03-02 Hewlett-Packard Development Company, L.P. Methods and apparatus for analyzing an image
US7123761B2 (en) * 2001-11-20 2006-10-17 Konica Corporation Feature extracting method, subject recognizing method and image processing apparatus
US20030189579A1 (en) * 2002-04-05 2003-10-09 Pope David R. Adaptive enlarging and/or sharpening of a digital image
JP4053345B2 (ja) * 2002-04-25 2008-02-27 シャープ株式会社 画像処理方法および画像処理装置、それを備える画像形成装置ならびにプログラムおよび記録媒体
US6859204B2 (en) * 2002-07-01 2005-02-22 Xerox Corporation Dynamic threshold system for multiple raster content (MRC) representation of documents
US7599579B2 (en) * 2002-07-11 2009-10-06 Ge Medical Systems Global Technology Company, Llc Interpolated image filtering method and apparatus
WO2004025567A2 (en) * 2002-09-12 2004-03-25 Nline Corporation System and method for acquiring and processing complex images
JP2004112603A (ja) * 2002-09-20 2004-04-08 Ricoh Co Ltd 画像処理装置、画像処理方法、およびコンピュータが実行するためのプログラム
US7171047B2 (en) * 2002-12-20 2007-01-30 Lsi Logic Corporation Adaptive Sem edge recognition algorithm
US7079687B2 (en) * 2003-03-06 2006-07-18 Seiko Epson Corporation Method and apparatus for segmentation of compound documents

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6246783B1 (en) * 1997-09-17 2001-06-12 General Electric Company Iterative filter framework for medical images
US20040081355A1 (en) * 1999-04-07 2004-04-29 Matsushita Electric Industrial Co., Ltd. Image recognition method and apparatus utilizing edge detection based on magnitudes of color vectors expressing color attributes of respective pixels of color image
US20040165785A1 (en) * 2001-05-10 2004-08-26 Yusuke Monobe Image processing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005228341A (ja) * 2004-02-12 2005-08-25 Xerox Corp 画像データを領域へ編成するシステムおよび方法
JP4587832B2 (ja) * 2004-02-12 2010-11-24 ゼロックス コーポレイション 画像データ内で識別された領域を編成する方法及び装置

Also Published As

Publication number Publication date
EP1566767B1 (en) 2017-01-11
EP1566767A2 (en) 2005-08-24
JP4667062B2 (ja) 2011-04-06
TW200539047A (en) 2005-12-01
TWI362007B (en) 2012-04-11
US7379587B2 (en) 2008-05-27
EP1566767A3 (en) 2008-07-02
US20050180628A1 (en) 2005-08-18

Similar Documents

Publication Publication Date Title
JP4667062B2 (ja) 画像解析装置、画像解析方法、及びブロブ識別装置
US7324120B2 (en) Segmentation method and system for scanned documents
US7403661B2 (en) Systems and methods for generating high compression image data files having multiple foreground planes
JP4745296B2 (ja) デジタル画像の領域分離方法および領域分離システム
EP1831823B1 (en) Segmenting digital image and producing compact representation
US7386166B2 (en) Systems and methods for connecting regions image data having similar characteristics
EP0713329A1 (en) Method and apparatus for automatic image segmentation using template matching filters
US20050180647A1 (en) Systems and methods for organizing image data into regions
JP2006004425A (ja) ディジタル画像セグメンテーション方法
JPH02105978A (ja) 自動文書セグメンテーションのためのシステム及び方法
US20110158517A1 (en) Image processing apparatus, image processing method, and computer-readable medium
US9158987B2 (en) Image processing device that separates image into plural regions
JP2000132690A (ja) ト―クン化によるイメ―ジ分割を用いたイメ―ジ処理方法および装置
KR100524072B1 (ko) 화질 개선 방법
US8620081B2 (en) Image processing apparatus, method, and storage medium for determining attributes
JP6370080B2 (ja) 画像処理装置、画像処理方法及びプログラム。
JP2004199622A (ja) 画像処理装置、画像処理方法、記録媒体およびプログラム
JP2005275854A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびこのプログラムを記憶した記録媒体
JP4228905B2 (ja) 画像処理装置及びプログラム
JP2004242075A (ja) 画像処理装置および方法
KR100484170B1 (ko) 디지털 화질 개선방법 및 장치
JP2020043461A (ja) 画像処理装置と画像処理方法、及びプログラム
AU2004242418A1 (en) Generating compressed output representation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4667062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees