JP2004032554A - Image processor and method - Google Patents

Image processor and method Download PDF

Info

Publication number
JP2004032554A
JP2004032554A JP2002188662A JP2002188662A JP2004032554A JP 2004032554 A JP2004032554 A JP 2004032554A JP 2002188662 A JP2002188662 A JP 2002188662A JP 2002188662 A JP2002188662 A JP 2002188662A JP 2004032554 A JP2004032554 A JP 2004032554A
Authority
JP
Japan
Prior art keywords
image data
data
separation
attribute
separating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002188662A
Other languages
Japanese (ja)
Inventor
Masayuki Hisatake
久武 真之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2002188662A priority Critical patent/JP2004032554A/en
Publication of JP2004032554A publication Critical patent/JP2004032554A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of separating an image wherein a character / line drawing and a pattern photographing image are intermingled into the character / line image part and the pattern part with high separation performance at high speed according to the local property of the image. <P>SOLUTION: A first attribute separation section 4 performs attribute separation by comparatively simple processing such as the discrimination of a pixel close to a black color to be a character / line image part. A second attribute separation section 5 uses comparatively sophisticated processing such as statistical processing to distinguish the character / line image part from other parts. A user uses an area designation section 2 to designate the area of an object of the sophisticated separate processing by the second attribute separation section 5 among image data received from an image data input section 1. A changeover section 3 shares and supplies the data in the area designated by the area designation section 2 to the second attribute separation section 5 and data of the other areas to the first attribute separation section 4 respectively among the received image data. Since the section 5 can separate the data which the first attribute separation section 4 can hardly separate, the image processor can obtain an excellent attribute separation result. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、文字・線画と絵柄とが混在した画像データを処理する画像処理装置及び方法に関するものである。
【0002】
【従来の技術】
近年標準化されたITU−T勧告T.44に規定されるMRC(Mixed Raster Content)では、文字・線画と写真等の連続階調の絵柄とが混在する画像データを、背景プレーン、前景プレーン、及びそれら両者のどちらを選択するかを示す選択プレーン、の合計3層のプレーンに分離し、それぞれのプレーンを個別に圧縮符号化する方式を規定している。このITU−T勧告T.44に従うと、文字・線画部分と絵柄部分とを、それぞれ別のプレーンに分離し、各プレーンを、各々に含まれる画像データの特徴に適合する圧縮符号化方式で圧縮符号化することができる。例えば絵柄部分のプレーンはITU−T勧告T.81に示されたJPEG方式のような非可逆圧縮方式で圧縮符号化し、文字・線画部分のプレーンはITU−T勧告T.6に示されたMMR方式のような可逆圧縮方式で圧縮符号化するなどである。
【0003】
このように、文字・線画と絵柄とが混在する画像データをその局所的な特性に応じて3層の画像データプレーンに分離し、プレーン毎に圧縮符号化方式を選択的に切り替える技術は、JPEG方式単独で文字写真混在画像データを圧縮する場合に比して圧縮効率を稼ぎつつ圧縮画像品質を高く保つことができるという利点がある。
【0004】
一方、どのように文字・線画部分と絵柄部分を分離するかについてはITU−T勧告T.44で規格化されていない。そのため、MRCフォーマットを生成するための属性分離方法としては、画素値に基づき画素単位で分離を行う簡単な方法から、例えば特開2001−223903や本出願人による特開2001−127999などに示される複雑な方法まで、様々な方法が提案されている。
【0005】
【発明が解決しようとする課題】
しかしながら従来技術として開示されてきた属性分離技術には次のような課題があった。
【0006】
まず比較的簡単な属性分離アルゴリズムでは、文字・線画と絵柄とが混在する画像を高速に分離することができる反面、分離の能力はそれほどよくはなく、例えば絵柄部分に重畳している文字・線画部分を良好に分離することは難しい。
【0007】
これに対し複雑な分離アルゴリズムでは、一般に分離性能が高いので複雑な構造の画像の分離も可能となり、例えば絵柄部分に重畳している文字・線画部分を良好に分離することが可能になるが、その反面処理が複雑になり処理速度が低下する。
【0008】
本発明は、上記従来技術の問題点を解決するものであり、文字・線画と絵柄写真画像とが混在する画像を、その局所的な性質に従って、高速かつ高い分離性能で文字・線画部分と絵柄部分に分離することができる画像処理装置を提供することをその目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するため、本発明に係る装置は、画像データを互いに異なる方式で文字・線画部分と絵柄部分とに分離する複数の属性分離手段と、処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータを、それぞれ対応する属性分離手段に処理させる制御手段とを備える。
【0010】
また、本発明に係る装置は、画像データを、第1の前景画像データと、第1の背景画像データと、前記第1の前景画像データ及び前記第1の背景画像データのうちのいずれを選択するかを画素毎に示した第1の選択データと、の3層に分離する第1の分離手段と、画像データを、前記第1の分離手段とは異なる方式で、第2の前景画像データと、第2の背景画像データと、前記第2の前景画像データ及び前記第2の背景画像データのうちのいずれを選択するかを示す第2の選択データと、の3層に分離する第2の分離手段と、処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータを、前記第1の分離手段と前記第2の分離手段とに振り分けて処理させる制御手段と、を備える。
【0011】
本発明の好適な態様では、前記第1の分離手段が生成した第1の選択データと、前記第2の分離手段が生成した第2の選択データとを合成して合成選択データを生成する合成手段、を備える。
【0012】
また本発明の別の好適な態様では、前記領域指定手段が出力する領域指定情報に基づいて第3の選択データを生成すると共に、前記第1の分離手段が出力する3層のデータと、前記第2の分離手段が出力する3層のデータと、第3の選択データとからなる多層画像データプレーンを生成する多層画像データ生成手段、を更に備える。
【0013】
また、本発明に係る装置は、画像データを文字・線画部分と絵柄部分に分離する第1の属性分離手段と、前記第1の属性分離手段が出力する分離結果に関連する情報を表示する表示手段と、前記表示手段の表示に対応付けて、前記画像データ上で閉領域の指定を受け付ける領域指定手段と、前記領域指定手段で指定された閉領域に含まれる画像データを、前記第1の属性分離手段とは異なる方式で文字・線画部分と絵柄部分に分離する第2の属性分離手段と、を備える。
【0014】
【発明の実施の形態】
図1は、本発明に画像処理装置の概略の構成を示す図である。
【0015】
画像データ入力部1は、文字・線画と絵柄が混在した画像データを画像処理装置の内部に取り込む手段である。画像データ入力部1の例としては、例えばプラテンガラス上に置かれた原稿を光学的に読み取るスキャナなどを挙げることができる。
【0016】
領域指定部2は、画像データ入力部1から取り込んだ画像データ上の任意の位置に閉領域を指定するための手段である。領域指定部2としては、例えば、キーボードから領域の位置と大きさを数値形式で入力する構成を用いることができる。また、ディスプレイ上に表示された画像上で、タッチペンやマウス等のポインティングデバイスを用いて領域を視覚的且つ直感的に領域を指定する構成を用いることもできる。
【0017】
切り替え部3は、ユーザが指定した領域を示す領域情報を領域指定部2より受け取り、画像データ入力部1が取り込んだ画像データを、その領域情報に従って後段の第1の属性分離部4または第2の属性分離部5に振り分ける。
【0018】
第1の属性分離部4および第2の属性分離部5は、文字・線画と絵柄が混在する入力画像データを、文字・線画に属する画像データと絵柄に属する画像データと、に属性分離する手段である。第1の属性分離部4と第2の属性分離部5とは、互いに異なる属性分離方式を用いる。ここでは、第1の属性分離部4としては、分離性能はそれほど高いものではないが、比較的簡単な処理で文字・線画部分と絵柄部分とを高速に分離できるものを用い、第2の属性分離部5としては、処理速度は低いが分離性能の高いものを用いる。第1の属性分離部4には、例えば画像データの局所的な性質を解析することで文字・線画部分と絵柄部分を分離する構成を用いることができる。また、第2の属性分離部5には、例えば画像データ全体を文書とみなして構造解析することで文字・線画部分と絵柄部分を分離する構成を用いることができる。
【0019】
全体の動作の概要について、図1と図3を参照しつつ説明する。図3は、画像データ入力部1から読み込まれる文字・線画部分と絵柄部分が混在する画像データの一例を示している。この画像は、絵柄と文字が重畳する部分31、文字・線画だけからなる部分32、絵柄だけからなる部分33を含んでいる。
【0020】
一般のビジネス文書では、文字や線の色は黒であることが多く、この点に着目すると画像データの「黒色」画素を検出していくことで多くの文字・線画部分を抽出することができる。そこで、以下の例では、第1の属性分離部4は、そのような単純な属性分離アルゴリズムを用いた手段とする。
【0021】
一方、ビジネス文書であっても強調したい文字や線の色は黒以外にしたり、あるいは文字・線画部分の背景に絵柄を配置することがある。このような箇所は、第1の属性分離部4では分離が難しい。このような箇所は、例えば、画像データの局所的性質を統計処理によって解析したり、あるいは文書構造解析を行ったりするアルゴリズムを用いることで、文字・線画部分と絵柄部分とに分離することができる。ここでは第2の属性分離部5は、そのような複雑な属性分離アルゴリズムを用いるものとする。
【0022】
領域指定部2は、文字・線画と絵柄が混在する画像データの中で複雑な処理を必要とする部分(すなわち第2の属性分離部5で処理する部分)を指定するために用いる。図3に例示した画像を処理する場合、ユーザは領域指定部2を用いて、絵柄と文字が重畳する部分33を閉領域として指定する。
【0023】
切り替え部3は、領域指定部2が出力する領域情報に基づいて、処理対象の画像データのうち絵柄と文字が重畳する部分33に該当する領域内の画像データを第2の属性分離部5へ、それ以外の領域の画像データを第1の属性分離部4へと、それぞれ振り分ける。
【0024】
そして第1の属性分離部4および第2の属性分離部5は、それぞれ切り替え部3から入力される画像データを、自己の有する所定の属性分離アルゴリズムに従って文字・線画部分と、絵柄部分とに属性分離する。
【0025】
以上の例では、切り替え部3によるスイッチングで画像データを2つの属性分離部4,5に振り分ける例を示したが、このような切り替え部3は必ずしも必要な構成ではない。例えば、入力部1から入力される入力画像のデータを第1の属性分離部4と第2の属性分離部5の両方に並列的に入力する構成とし、領域指定部2が出力する領域情報に応じ、それら両分離部4,5の一方を選択的に動作させるような構成も可能である。これには例えば、領域指定部2の出力をそれら両分離部4,5に供給するようにし、領域指定部2が、入力部1から両分離部4,5への画像データ供給に同期して、供給される画素のデータに応じた領域情報(すなわち指定された閉領域内の画素であるか否かを示す信号)を両分離部4,5に供給するようにし、各分離部4,5がその領域情報に応じて動作又は停止するように制御すればよい。
【0026】
このように、領域指定部2が出力する領域情報に基づいて複数の属性分離アルゴリズムを選択的に切り替え可能としたことにより、画像の大部分を高速処理が可能な属性分離アルゴリズムで処理し、分離性能が要求される領域だけ、処理速度は遅いが分離性能が高い属性分離アルゴリズムで処理することができる。即ち、処理速度を大きく低下させることなく、精度よく画像全体を属性分離することができ。
【0027】
次に第1の属性分離部4及び第2の属性分離部5の構成について、図2を用いて説明する。なお、第1の属性分離部4と第2の属性分離部5とは、共に図2に示すモジュール構成を有するものであるが、文字形状抽出部21内での処理内容は両者で異なる。また、以下では、文字・線画部分の形状に注目して属性分離を行う場合を例にとって説明する。しかし、これはあくまで一例であり、それ以外にも例えば、文字部分の外接矩形の集合体で文字領域を抽出したりするなどの方法で行ってもよい。
【0028】
文字形状抽出部21は、入力される画像データから文字や線画などの形状を抽出し(抽出方法については後述)、抽出された文字・線画部分に対して「1」を、文字・線画部分の背景に相当する部分(すなわち抽出した形状の外側)に対しては「0」を出力する。文字形状抽出部21の出力は第1画像データDT1(以下の説明における文字色データに対応)と第2画像データDT2(以下の説明における背景画像データに対応)の一方を一義的に選択する選択データSELとして用いることができる。なお、文字形状抽出部21に入力すべき画像データの色空間は、以下の説明ではCIE−L均等色空間を想定しているが、これに限定されるものではない。
【0029】
マルチプレクサ(MUX)22は、文字色データDT1と背景画像データDT2との、2系統の出力を備える。マルチプレクサ22には、処理対象であるL画像データと、文字形状抽出部21からの選択データSELとが入力される。そして、マルチプレクサ22は、選択データが「1」を示した時は、その時の(すなわち当該選択データに対応する画素の)L画像データの値を文字色データDT1として出力すると同時に、背景画像データDT2としては、所定値の画像データ、例えばL=a=b=0、を出力する。また、選択データが「0」を示した時は、マルチプレクサ22は、その時の入力L画像データの値を背景画像データDT2として出力すると同時に、文字色データDT1として所定値の画像データ、例えばL=a=b=0、を出力する。従って、第1属性分離部4及び第2属性分離部5からそれぞれ出力される選択データSEL、文字色データDT1、及び背景画像データDT2は全て、主走査方向と副走査方向が同じ大きさとなる。この3つの出力を、ITU−T勧告T.44(MRC)の3つのプレーンとして用いることができる。
【0030】
以上説明した文字形状抽出による属性分離を、文字部分と絵柄部分が混在した画像データに対して適用した結果について、図6を参照しつつ説明する。
【0031】
図6(a)は、入力される原稿画像60の一例であり、絵柄部分に相当する「日本地図」と色付き文字部分に相当する「JAPAN」が混在している。これに対し図6(b)は、その原稿画像に対する属性分離処理の結果としてできる3つの画像プレーン61,62,63を示す図である。属性分離処理によって抽出された「JAPAN」の文字形状は、選択データSELのプレーン61(選択プレーン)となる。また、第1画像データDT1のプレーン62(文字色プレーン)には、原稿画像60のうち選択データSELが「1」(即ち図6(b)における選択データSELの「黒」の部分)に該当する領域のデータが選択され、ここでは色付き文字の「JAPAN」となる。そして第2画像データDT2のプレーン63(背景画像プレーン)には、原稿画像60のうち選択データSELが「0」である領域のデータが選択される。従って、図6の例では、第2画像データDT2のプレーン63「日本地図」の図形が選択される。
【0032】
属性分離の結果得られた図6(b)の3つのプレーンを、そのままMRCの3つの画像データプレーンとしてもよいが、データ圧縮効率を考えると、文字色プレーンや背景画像プレーンには改善の余地がある。図6(c)に、圧縮効率がより良好な画像データプレーンの組を示す。この例では、選択プレーン66は図6(b)の例と同じものを用いるが、文字色プレーン64及び背景画像プレーン67については、画像パターンの単純化を図る。
【0033】
すなわち、文字・線画部分の形状は選択プレーン66に表現されているので、文字色プレーンは64、その文字・線画部分の色の情報を持っていればよく、形状の情報まで持っている必要はない。このため、図6(b)に示した文字色のプレーン61の代わりに、各文字を包摂する領域を当該文字の色のパッチ65で表した文字プレーン64を用いれば、元の原稿画像64の文字部分を再現できる。データ圧縮効率の観点から、パッチ65としては、単純な形状のものを用いることが好適である。図6(c)の例では、文字色のパッチ65として、各辺が主走査方向及び副走査方向に平行でかつ各文字に外接する矩形領域を用いている。文字色プレーンとして、単純な形状のパッチ65からなるプレーン64を用いることで、文字形状そのものを含んでいたプレーン61よりもエッジ情報が大幅に少なくなるため、ITU−T勧告T.81に示されたJPEG方式で高能率にデータ圧縮することが可能となる。
【0034】
また、背景画像のプレーン67については、次のような改善が可能である。すなわち、マルチプレクサ22の背景画像DT2の出力では、原稿画像60の文字・線画部分の領域内は0値となっており、有意な画像データは残っていないので、その領域内に対し、その周辺の画像データに基づいた穴埋め処理を施して平坦化する。すなわち、その領域内の各画素をその領域の周囲の画素の値に置き換えていく。これにより、JPEG方式で圧縮率を低下させる要因となる文字の外形部エッジが緩やかになることから高能率にデータ圧縮することが可能となる。このようにして、図6(c)に示すような多層の画像データプレーンが生成される。
【0035】
次に、第1の属性分離部4と第2の属性分離部5のそれぞれについて、文字形状抽出部21の処理内容を説明する。
【0036】
図4は、第1の属性分離部4の文字形状抽出部21で実行される、画像データの「黒色」部分を文字・線画部分として抽出する簡単な属性分離アルゴリズムを説明するフローチャートである。この処理では、画像データは、例えばラスタ走査順などの所定順序に従って逐次処理されていく。この順序に従って1画素のデータが入力されるごとに、先ず輝度成分Lと所定の閾値τ1との比較を行う(S41)。ここでは黒色に近い低輝度の画素を文字・線画部分として検出することから、閾値τ1としては小さい所定の値を予め設定しておく。もし当該画素の輝度信号Lがτ1よりも大きい値の時は黒色でない、即ち文字・線画の一部ではないと判定し、当該画素に対する選択データSELを「0」とする(S42)。一方、当該画素の輝度信号Lがτ1以下の場合には、色差成分a,bの大きさから黒色かどうかを判定する。色差成分は負の値を取り得ることから、ここではそれぞれの二乗和を求めて所定の閾値τ2との比較を行う(S43)。黒色に近い色は色差成分の大きさが小さいことから、この閾値τ2としては比較的小さな所定の値を予め設定する。色差成分a,bの二乗和がτ2よりも小さい値であれば、黒色に近い色、即ち文字・線画の一部であると判定し、当該画素に対する選択データを「1」とする(S44)。色差成分の二乗和がτ2以上の時は黒色ではない、即ち文字・線画の一部でないと判定し、当該画素に対する選択データを「0」とする(S42)。この処理を全ての画像データに対して繰り返し行う(S45)。以上の処理により、画像データ中の黒色に近い部分が2値の「1」を示す選択データSELを得ることができる。
【0037】
以上の説明からも明らかなように、第1の属性分離部4で実行される本アルゴリズムは、簡単な処理なので、ASIC化等によるハードウェア実装が容易であると共に、ソフトウェアで実装する場合でも高速処理が可能である。
【0038】
次に第2の属性分離部5で実行される、第1の属性分離部4よりも複雑なアルゴリズムの一例について、図5を参照しつつ説明する。
【0039】
まず、処理対象のL画像データのL,a,b各成分毎に、当該成分の画像データを所定の大きさ(例えば8×8画素)のブロック毎にブロック化し(S51)、当該ブロック内の各画素の当該成分の画素値のヒストグラムを求める。そして、その中での最大画素値Maxと最小画素値Minの差分を求め、この差分が所定の第1閾値TH1より大きいかどうかを調べ、更にそのブロック内の画素値の分散値σを求め、この分散値σが所定の第2閾値TH2より大きいかどうかを調べる(S52)。画素値の差分と分散値が、共に、対応する閾値TH1,TH2より大きいと判定された場合、当該ブロックは画素値変化が急峻な部分を含んでいるということなので、文字・線画部分を含んだブロック(文字・線画ブロックと呼ぶ)と判定し、ステップS53に進む。ステップS52で、差分値または分散値のいずれか一方でもしきい値以下である場合は、当該ブロックが文字・線画ブロックでないと判定し、当該ブロック内の各画素についての選択データを全て「0」とする(S57)。なお、ここで求めた選択データの値は、最終結果ではなく、後に他の成分についての処理で求めた選択データの値と総合して、最終的な各画素の選択データを求めることになる。
【0040】
ステップS52で文字・線画ブロックと判定されたブロックについては、当該ブロックの最大画素値Maxと最小画素値Minの平均値を求め、これを当該ブロックの二値化処理に関わる閾値Bとする(S53)。そして当該ブロックに属する画素(i,j)(i,jはブロック内での画素の縦座標、横座標を示す番号)の画素値Dijと閾値Bとの比較を行い(S54)、閾値Bより値が大きい画素に対しては選択データSELとして「1」を割り当て(S56)、閾値Bより値が小さい画素に対しては選択データSELとして「0」を割り当てる(S55)。この処理をブロック内の全画素について繰り返す(LOOP1)。これにより、当該成分についての当該ブロック内の各画素の選択データが求められる。ステップS55及びS56で求められる選択データも、ステップS57の場合と同様、仮の値であり、後で別の成分について求めた選択データと総合される。
【0041】
同じブロックについて、以上のステップS51〜S56の処理を、L,a ,bの各成分について繰り返す(LOOP2)。これにより、それら各成分ごとに、当該ブロック内の各画素の選択データの値(「0」又は「1」)が得られる。そのブロック内の画素毎に、これら3つの成分の選択データの値の論理和を求め、これを当該画素の最終的な選択データとして出力する(S58)。
【0042】
以上が1ブロック分の処理である。この1ブロック分の処理を、1ページ分の画像データ全てを処理するまで繰り返す(LOOP3)。これにより1ページ全体についての属性分離が完了する。
【0043】
以上の説明では、画像データの輝度信号L、色差信号a,bのそれぞれについての統計分析結果をすべて用いて最終の属性分離結果を判定していたが、これは必須ではない。例えば、輝度信号Lの統計分析結果だけに基づいて最終的な属性分離結果を求める構成でも、良好な結果が得られる。
【0044】
文字形状抽出部21の処理としては、この他にも例えば、画像データの空間周波数分布を直交変換処理などにより求め、この結果を基に文字・線画部分の形状を抽出するような処理を用いることもできる。
【0045】
以上、図1に例示した第1の属性分離部4と第2の属性分離部5で行われる属性分離アルゴリズムの一例をそれぞれ説明した。図1の構成では、領域指定部2での領域指定に応じ、第1の属性分離部4と第2の属性分離部5から、それぞれ、当該属性分離部(4又は5)に振り分けられた領域についての属性分離結果のデータ(すなわち選択データ、文字色データ、背景画像データの3つ)が出力される。この構成では、各属性分離部4及び5の各々から、属性分離結果である3つの出力データがそれぞれ出力されることになるが、入力される画像データは、切り替え部3の振り分けにより、同じ画素については一方の属性分離部4又は5にしか入力されないので、これら両属性分離部4及び5の出力を時系列順に統合することができ、これにより入力画像全体についての属性分離結果の3プレーンのデータを得ることができる。
【0046】
以上説明した実施の形態によれば、画像中で属性分離がしやすい領域は比較的簡単な処理で高速に属性分離を行い、属性分離が困難な領域については高度な分離処理を適用することで、例えば自然画像上に配置された文字を分離するなどの高度な属性分離を行うことができる。本実施形態によれば、属性分離処理をソフトウェア的に実現する場合に、全体としての処理速度を大きく低下させることなく、高度な属性分離を実現することができる。
【0047】
次に、本発明に係る装置の別の構成について図7を参照して説明する。
【0048】
この構成において、画像データ入力部71は、文字・線画と絵柄が混在した画像データを画像処理装置の内部に取り込むブロックであり、図1の構成の入力部1に対応する。領域指定部72は、画像データ入力部71が取り込む画像データ上の任意の位置に閉領域を指定するブロックであり、図1の構成の領域指定部2に対応する。オペレータは図示しないディスプレイなどを参照しながら、文字・線画と絵柄が複雑に重畳している部分を囲むよう、領域指定部72より閉領域を指定する。領域指定部72が後段の第1および第2の文字形状抽出部73,74へ出力する領域情報信号は、閉領域の内部を示すときに「1」に、閉領域の外部を示すときに「0」になるものとする。
【0049】
第1の文字形状抽出部73は、例えば図4を参照して説明した、分離性能はそれほど高くないが処理速度が速い属性分離アルゴリズムを実行することができるブロックである。第2の文字形状抽出部74は、例えば図5を参照して説明した、処理速度はそれほど速くないが分離性能が高い属性分離アルゴリズムを実行することができるブロックである。それぞれの文字形状抽出部73,74は、領域指定部72が出力する領域情報信号の論理レベルによって動作を制御されており、領域情報信号が「0」を示す位置、即ちオペレータにより指定された閉領域の外側、では処理速度が速い第1の文字形状抽出部73のみ動作可能となる。また、領域情報信号が「1」を示す位置、即ち閉領域の内側、では分離性能が高い第2の文字形状抽出部74のみ動作可能となる。
【0050】
図4および図5の説明からも明らかなように、第1および第2の文字形状抽出部の出力は文字・線画に分類される画素に対して「1」を示し、文字・線画に属さない絵柄などの背景に分類される画素に対して「0」を示すので、それぞれの文字形状抽出部が出力する選択データに対して論理和を演算することにより、画像全体に対する1つの選択データを求めることができる。論理和回路75は、第1の文字形状抽出部73が出力する選択データSEL1と第2の文字形状抽出部74が出力する選択データSEL2の論理和演算を行って、最終的な選択データを求めるブロックである。
【0051】
マルチプレクサ76は、入力L画像データを選択データが「1」を示した時は文字色データとして出力すると同時に、背景画像データとして所定値の画像データ、例えばL=a=b=0を出力する。また、選択データが「0」を示した時は、マルチプレクサ76は入力画像データを背景画像データとして出力すると同時に、文字色データとして所定値の画像データ、例えばL=a=b=0を出力する。ITU−T勧告T.44に従えば、以上説明した選択データがマスクレイヤに、文字色データがフォアグラウンドレイヤに、そして背景画像データがバックグラウンドレイヤにそれぞれ対応する。
【0052】
以上説明したように、図7の構成でも、図1を用いて説明した上記実施形態と同等の属性分離結果を得ることができる。図7の構成では、マルチプレクサ部76が1つで済む。
【0053】
次に、本発明に係る装置の更なる別の構成について図8及び9を参照して説明する。
【0054】
ITU−T勧告T.44では、その付属書Aにおいて、3層以上に拡張されたMRCに関する記載がある。これによると、3層以上のMRCは、一番下のレイヤをレイヤ1として、上に昇順にレイヤ2、レイヤ3、…、レイヤNが重ね合わされる。この多層構造では、奇数番号のレイヤを多値画像データからなるイメージレイヤとし、偶数番号のレイヤを二値の選択データからなるマスクレイヤと称している。イメージレイヤとマスクレイヤの重ね合わせルールは、図8に示すように、一番下にイメージレイヤがバックグラウンド(背景)として配置され、その上にマスクレイヤとイメージレイヤとが対になって重ね合わされることとなっている。この規則に従うと、上述の実施形態で説明した2つの異なる属性分離アルゴリズムでの属性分離結果を、3層以上のMRCとして扱うことができる。この装置構成例を図9に示す。
【0055】
図9において、画像データ入力部91は、文字・線画と絵柄が混在した画像データを画像処理装置の内部に取り込むブロックであり、図1の入力部1に対応する。領域指定部92は、画像データ入力部91が取り込む画像データ上の任意の位置に閉領域を指定するブロックであり、図1の領域指定部2に対応する。これまでの説明と同様に、オペレータは図示しないディスプレイなどを参照しながら、文字・線画と絵柄が複雑に重畳している部分を囲むよう、領域指定部92より閉領域を指定する。領域指定部92が出力する領域情報信号は、閉領域の内部を示すときに「1」に、閉領域の外部を示すときに「0」になるものとする。
【0056】
第1の属性分離部93は、図4で説明されるような分離性能はそれほど高くないが処理速度が速い属性分離アルゴリズムを実行可能なブロックである。ただし、この例での第1の属性分離部93は、上述の実施形態とは異なり、領域指定部92の領域情報信号によらず、入力される画像データを全て属性分離処理していく。
【0057】
第2の属性分離部94は、図5で説明されるような処理速度はそれほど速くないが分離性能が高い属性分離アルゴリズムを実行可能なブロックであって、領域情報信号が閉領域の内部を示す「1」のときのみ属性分離処理を行う。
【0058】
ここで、第2の属性分離部94が出力する属性分離結果は、領域情報信号が「1」のときに有効となることから、領域情報信号を第2のマスクレイヤ(マスク2)とすることにより、この第2マスクレイヤの論理が「1」の時は第2マスクレイヤより上のレイヤに含まれる画像データが有効となって、第2の属性分離部94による属性分離結果をその上に重ね合わせることができる。
【0059】
なお、この構成では、領域指定部92で指定された閉領域に含まれる画像データの属性分離結果が、第1および第2の属性分離部93及び94から出力されることになるが、ここで第1の属性分離部93の出力には結果的に上書きされる部分に無駄な画像データが含まれることになる。属性分離した結果を属性毎に最適な方法、具体的には第1バックグラウンドレイヤ(バックグラウンド1。背景画像データ)や第1フォアグラウンドレイヤ(フォアグラウンド1。前景画像データもしくは文字色データ)は、多値画像であることからITU−T勧告T.81に示されたJPEG方式で圧縮し、第1マスクレイヤ(選択データ)は二値画像であることからITU−T勧告T.4に示されたMH/MR方式や、T.6に示されたMMR方式、T.85に示されたJBIG方式などで圧縮する場合、無駄なデータが残っていることは圧縮率を稼げない方向に作用するので望ましくない場合がある。このような場合は、必要に応じて第1の属性分離部93の属性分離結果の内、領域指定部92で指定された領域に含まれている部分の分離結果を削除して所定の初期値に置き換える処理機構を追加してもよい。
【0060】
次に、パーソナルコンピュータを使用した本発明の別の実施例を図10により説明する。
【0061】
文字・線画と絵柄が混在した画像データを取り込む手段としてのスキャナ101は、プラテンガラス上に置かれた原稿を蛍光灯ランプなどで照射し、反射光をCCDなどの撮像デバイスを用いて光学的に読み取り、読み取り信号のオフセット調整、ゲイン調整を行った後にアナログ画像データをディジタル画像データに変換する画像読取部102を内部に備えている。画像読取部102が出力する信号は、スキャナ101内部の属性分離部103に入力される。属性分離部103は、上述の実施形態と同様、入力画像データを文字色データプレーン、背景画像データプレーン、及び選択データプレーンに分離し、それら3つのプレーンからなる多層画像データプレーンとしてスキャナ101から外部へ出力する機能を備える。ここで、属性分離部103が実行する属性分離処理は、スキャナの原稿走査時間に対してほぼリアルタイムで処理が可能な高速な処理方式が望ましい。以下の説明では、属性分離部103は、図4で説明した高速処理可能な属性分離アルゴリズムを実行可能なものとする。なお、スキャナ101内の読み取った原稿画像を一次記憶するバッファ手段を設ければ、属性分離部103として、原稿走査時間に対してリアルタイム処理ができないものを用いることもできる。
【0062】
スキャナ101は、パーソナルコンピュータ105とネットワークケーブル104を介して接続されており、このネットワークケーブル104を経由して、スキャナ101の動作を制御する信号やスキャナ101の内部状態を示す信号などをパーソナルコンピュータ105とやり取りしたり、スキャナ101が出力する属性分離された画像データプレーンをパーソナルコンピュータ105内部に取り込んだりすることができる。
【0063】
パーソナルコンピュータ105は、CD−ROM106もしくはフレキシブルディスク107などの可搬記憶メディアを着脱可能なディスクドライブを有し、当該可搬記憶メディアに記憶されたソフトウェアプログラムをディスクドライブ経由でパーソナルコンピュータ105本体の内蔵メモリに読込むことができる。
【0064】
図11は、パーソナルコンピュータを説明する図である。パーソナルコンピュータ105は、ディスプレイ111、キーボード112、ポインティングデバイスとしてのマウス113を備えている。ディスプレイ111に処理対象の画像を表示し、マウス113の操作により、高度な方の属性分離処理の対象となる領域を指定することができる。これが、上述の実施形態での領域指定部の機能を果たす。
【0065】
ディスプレイ111には、スキャナ101が出力する多層画像データプレーンに基づいて、スキャナ101が読み取った元の画像データに対応する表示画像115や、選択データプレーンに対応する表示画像117、背景画像データプレーンに対応する表示画像118などが表示される。元の画像に対応する表示画像の代わりに前景画像データプレーンに対応する画像を表示してもよいし、背景画像データプレーンに対応する表示画像118を表示しなくてもよい。
【0066】
図11では、背景画像データプレーンに対応する表示画像118の中に文字(ただし黒色文字ではない)と絵柄が重畳した部分が混在しており、選択データプレーンに対応する表示画像117の中には当該部分の文字が抽出されていないことを例示している。このように属性分離部103の分離処理で分離できていない文字・線画部分を分離するために、本実施形態では、分離できなかった部分をパーソナルコンピュータで実行する、より分離精度の高い属性分離アルゴリズムで再度分離処理する。この再分離処理のため、オペレータは、対象とする閉領域を、ディスプレイ111上に表示した元の画像データの表示画像115を参照して指定する。ディスプレイ111を参照して所望の閉領域を指定する方法としては、オペレータがマウス113を操作し、例えば属性分離結果を修正したい領域116の開始点(矩形領域の左上点)にマウスポインタ114を合わせてマウス113の左ボタンを押下し、そのまま領域116の終了点(矩形領域の右下点)までマウス113を操作してマウスポインタ114をドラッグするなどの操作方法が可能である。なお、この領域指定操作はあくまで一例であり、これ以外の操作による領域指定が可能であることは明らかであろう。
【0067】
図10に示した画像処理装置の動作について、図12のフローチャートを参照しつつ説明する。オペレータは先ず最初に、文字・線画部分と絵柄部分を属性分離してその結果を保存したい原稿をスキャナ101のプラテン上にセットする(S1201)。次いでオペレータはパーソナルコンピュータ105よりスキャナ103に対して走査開始命令を発行しスキャナを起動させる(S1202)。この走査開始命令に応じ、スキャナ101はプラテン上の原稿を光学的に走査することで当該原稿に対応するディジタル画像データを生成し、属性分離部103に入力する。ここで、必要に応じて、属性分離部103に入力する画像データに対し、該分離部103での属性分離処理に適した色空間への変換を行う。属性分離部103では、入力される画像データに対して、例えば図4に示すアルゴリズムにより原稿に含まれる黒文字部分を検出することで第1の属性分離を行い、この分離結果に基づき、文字色データプレーン、背景画像データプレーン、選択データプレーンからなる第1の多層画像データを生成する(S1204)。パーソナルコンピュータ105は、スキャナ101における第1の属性分離処理を特に制御する必要はないので、スキャナ101での属性分離処理が終了するのを監視する(S1203)。スキャナ101で属性分離処理が終了したことを検知すると、スキャナ101より第1の多層画像データをネットワークケーブル104を経由してパーソナルコンピュータ105内部に取り込む(S1205)。
【0068】
パーソナルコンピュータ105は、スキャナ101での属性分離の結果をオペレータに確認させるために、取り込んだ第1の多層画像データをもとに、ディスプレイ111に表示する表示画像115,117,118等を生成する(S1206)。ここで、もとの原稿画像を示す表示画像115は、第1の多層画像データの選択データの論理に従って文字色データプレーンと背景画像データプレーンとを合成することで生成できる。なお、多層画像データプレーンの各プレーンをそのまま表示することも可能であり、その場合は合成処理を実施する必要はない。
【0069】
次に、分離結果をディスプレイに表示するために、第1の多層画像データの選択データプレーンと背景画像データプレーン、および合成された第1の多層画像データの解像度をディスプレイ解像度に適合するように解像度変換処理を行う(S1207)。解像度変換された各画像は、図11に例示したように、第1の分離結果としてディスプレイ上に表示される(S1208)。
【0070】
オペレータはディスプレイ上に表示された第1の分離結果を参照し、分離結果を修正したり、さらに精度よく属性分離を施したい部分を閉領域として指定する(S1209)。このとき、複数の閉領域を指定することもできる。パーソナルコンピュータ105は、合成された画像データ(原稿を読み取ったときの画像データに対応)のうち、このようにして指定された閉領域内の画像データのみを切り出す(S1210)。そしてパーソナルコンピュータ105は、切り出した閉領域内の画像データに対し、図5に示すフローチャートに従って画像の局所的性質に基づく第2の属性分離処理を実行し(S1211)、当該属性分離結果に基づいて第2の多層画像データを生成する(S1212)。図7で説明したように、第2の多層画像データに含まれる選択データは、第1の多層画像データに含まれる選択データと合成することができるので、2種類の属性分離アルゴリズムから生成されたこれら2つの選択データを1つの選択データへと合成する(S1213)。次に、ステップS1206で生成した合成多層画像データを、この合成された選択データを使用して属性分離し、背景画像データプレーンと文字色データプレーンを生成する(S1214)。この分離結果を第2分離結果と呼ぶ。第2分離結果が作成されると、その結果の良否をオペレータに判断させるために、この第2分離結果に対して解像度変換を必要に応じて施した上でディスプレイに表示する(S1215)。
【0071】
オペレータはその結果を見て所望の属性分離処理が行えたかどうかを判断し(S1216)、結果が満足できない場合はステップS1209に戻り再度領域の指定から作業を繰り返す。結果が満足されるものであれば、第2分離結果を最終的な属性分離結果として保存する(S1217)。
【0072】
なお、第2分離結果の良否の確認は、選択データプレーンの表示だけでもかなりの程度可能なので、ステップS1215では選択データプレーンのみを表示するだけでもよい。この場合、ステップS1214の段階で属性分離を行う必要はなく、ステップS1213で合成した選択データが良好であると判断した後で属性分離を行えばよい。
【0073】
以上、本発明の好適な実施形態を説明した。以上の実施形態では、異なる2種類の属性分離処理方式を適宜割り振って属性分離処理を行う場合について説明を行ってきたが、属性分離処理方式の種類が3以上の場合であっても本発明は適用可能である。この場合、オペレータは、領域毎にどの属性分離処理を割り当てるかを別途指定すればよい。
【0074】
以上説明した図1,図7,図9等の各装置構成は、ソフトウェアで実現することもできるし、ハードウェア回路で構成することもできる。また以上では、処理能力が異なる複数の属性分離方式として、図4及び図7に示したものを例示したが、これに限らず様々な方式を採用することができる。
【0075】
以上説明してきたように、本実施形態によれば、属性分離を施したい画像データに対して閉領域を指定し、閉領域毎に、例えば分離性能はそれほど高くはないが処理速度が速い属性分離処理方法や、処理速度は遅いが分離性能が高い属性分離処理方法を割り当てることができるため、画像全体の処理速度の低下を抑えつつ精度の高い属性分離処理を実行することができる。
【図面の簡単な説明】
【図1】本発明に係る画像処理装置の概略の構成を示す図である。
【図2】属性分離部の構成を示す図である。
【図3】文字・線画部分と絵柄部分が混在する画像データの一例を示す図である。
【図4】簡単な属性分離アルゴリズムを説明するフローチャートである。
【図5】複雑な属性分離アルゴリズムを説明するフローチャートである。
【図6】文字・線画部分の形状を抽出するアルゴリズムを適用して属性分離を行った結果を説明する図である。
【図7】本発明に係る画像処理装置の別の実施例を説明する図である。
【図8】3層以上のMRCを説明する図である。
【図9】3層以上のMRCを生成することができる本発明の別の態様を説明する図である。
【図10】本発明の別の実施態様を説明する図である。
【図11】パーソナルコンピュータを説明する図である。
【図12】パーソナルコンピュータを用いた構成における処理手順の例を示すフローチャートである。
【符号の説明】
1 画像データ入力部、2 領域指定部、3 切り替え部、4 第1の属性分離部、5 第2の属性分離部。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus and method for processing image data in which characters / line drawings and pictures are mixed.
[0002]
[Prior art]
In recent years, ITU-T Recommendation T. In an MRC (Mixed Raster Content) defined in 44, image data in which a character / line drawing and a continuous tone pattern such as a photograph are mixed is indicated by a background plane, a foreground plane, or both of them. The system is divided into a total of three layers, that is, a selection plane, and a method for individually compressing and encoding each plane is defined. This ITU-T Recommendation T. According to 44, the character / line drawing portion and the picture portion can be separated into separate planes, and each plane can be compression-encoded by a compression encoding method suitable for the characteristics of the image data included in each plane. For example, the plane of the picture portion is in accordance with ITU-T Recommendation T. 81, compression encoding is performed by a lossy compression method such as the JPEG method, and the plane of the character / line drawing portion is in accordance with ITU-T Recommendation T.81. For example, compression encoding is performed by a lossless compression method such as the MMR method shown in FIG.
[0003]
As described above, the technique of separating image data in which characters / line drawings and pictures are mixed into three layers of image data planes according to the local characteristics and selectively switching the compression encoding method for each plane is disclosed in JPEG. There is an advantage that the compression image quality can be kept high while the compression efficiency is improved as compared with the case where the text / photo mixed image data is compressed by the method alone.
[0004]
On the other hand, how to separate a character / line drawing portion from a picture portion is described in ITU-T Recommendation T. 44, not standardized. Therefore, as an attribute separation method for generating the MRC format, a simple method of performing separation on a pixel basis based on a pixel value is disclosed in, for example, JP-A-2001-223903 and JP-A-2001-127999 by the present applicant. Various methods have been proposed, up to the complicated one.
[0005]
[Problems to be solved by the invention]
However, the attribute separation technology disclosed as a conventional technology has the following problems.
[0006]
First, a relatively simple attribute separation algorithm can quickly separate an image in which characters and line drawings and pictures are mixed, but the separation capability is not so good. For example, characters and lines that are superimposed on a pattern part It is difficult to separate the parts well.
[0007]
On the other hand, with a complicated separation algorithm, it is generally possible to separate an image having a complicated structure since the separation performance is high.For example, it is possible to satisfactorily separate a character / line drawing portion superimposed on a picture portion. On the other hand, the processing becomes complicated and the processing speed decreases.
[0008]
The present invention solves the above-mentioned problems of the prior art. In the present invention, an image in which a character / line drawing and a pattern photographic image are mixed is converted into a character / line drawing portion and a pattern with high speed and high separation performance according to the local property. It is an object of the present invention to provide an image processing device that can be separated into parts.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, an apparatus according to the present invention accepts a plurality of attribute separating means for separating image data into a character / line drawing part and a picture part by different methods, and receives designation of area division for an image to be processed. And control means for causing the corresponding attribute separating means to process data of each area of the image to be processed in accordance with the area division designation.
[0010]
Further, the apparatus according to the present invention selects the image data from first foreground image data, first background image data, and any one of the first foreground image data and the first background image data. A first selection data indicating whether each pixel is to be divided into three layers: first selection data indicating whether the image data is divided into three layers, and second foreground image data in a different method from the first separation means. A second background image data, and second selection data indicating which of the second foreground image data and the second background image data is to be selected. Receiving the designation of area division for the image to be processed, and distributing the data of each area of the image to be processed to the first separation means and the second separation means according to the area division designation. Control means for performing the processing.
[0011]
According to a preferred aspect of the present invention, the first selection data generated by the first separation unit and the second selection data generated by the second separation unit are combined to generate combined selection data. Means.
[0012]
In another preferred aspect of the present invention, the third selection data is generated based on the area specifying information output by the area specifying means, and the three-layer data output by the first separating means includes: The image processing apparatus further includes a multi-layer image data generation unit that generates a multi-layer image data plane including the three-layer data output by the second separation unit and the third selection data.
[0013]
In addition, the apparatus according to the present invention includes a first attribute separating unit that separates image data into a character / line drawing portion and a picture portion, and a display that displays information related to a separation result output by the first attribute separating unit. Means, area designation means for receiving designation of a closed area on the image data in association with the display of the display means, and image data included in the closed area designated by the area designation means, There is provided a second attribute separating unit that separates a character / line drawing part and a picture part by a method different from the attribute separating unit.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a diagram showing a schematic configuration of an image processing apparatus according to the present invention.
[0015]
The image data input unit 1 is means for taking in image data in which a character / line drawing and a pattern are mixed into the image processing apparatus. As an example of the image data input unit 1, for example, a scanner that optically reads an original placed on a platen glass can be cited.
[0016]
The area specifying unit 2 is a means for specifying a closed area at an arbitrary position on the image data taken in from the image data input unit 1. As the area specifying unit 2, for example, a configuration in which the position and size of the area are input in a numerical format from a keyboard can be used. Further, a configuration in which an area is visually and intuitively specified using a pointing device such as a touch pen or a mouse on an image displayed on the display may be used.
[0017]
The switching unit 3 receives area information indicating the area specified by the user from the area specifying unit 2 and converts the image data captured by the image data input unit 1 into a first attribute separating unit 4 or a second To the attribute separation unit 5 of the application.
[0018]
The first attribute separating section 4 and the second attribute separating section 5 are means for separating input image data in which a character / line drawing and a pattern are mixed into image data belonging to a character / line drawing and image data belonging to a pattern. It is. The first attribute separating unit 4 and the second attribute separating unit 5 use different attribute separating methods. Here, as the first attribute separating unit 4, a unit which does not have a very high separating performance but can separate a character / line drawing portion and a picture portion at a high speed by relatively simple processing is used, and the second attribute separating unit 4 is used. As the separation unit 5, a separation unit having a low processing speed but high separation performance is used. The first attribute separating unit 4 can use a configuration in which, for example, a local property of image data is analyzed to separate a character / line drawing portion from a picture portion. The second attribute separating unit 5 may employ a configuration in which, for example, the entire image data is regarded as a document and the structure is analyzed to separate the character / line drawing portion from the picture portion.
[0019]
An outline of the entire operation will be described with reference to FIGS. FIG. 3 shows an example of image data in which a character / line drawing part and a picture part read from the image data input unit 1 are mixed. This image includes a portion 31 where a pattern and a character overlap, a portion 32 consisting only of characters and line drawings, and a portion 33 consisting only of a pattern.
[0020]
In general business documents, the color of characters and lines is often black, and by paying attention to this point, many characters and line drawings can be extracted by detecting "black" pixels of image data. . Therefore, in the following example, the first attribute separating unit 4 is a unit using such a simple attribute separating algorithm.
[0021]
On the other hand, even in a business document, the color of characters or lines to be emphasized may be other than black, or a picture may be arranged in the background of a character / line drawing portion. Such a portion is difficult to be separated by the first attribute separating unit 4. Such a portion can be separated into a character / line drawing portion and a picture portion by using, for example, an algorithm for analyzing local properties of image data by statistical processing or performing document structure analysis. . Here, the second attribute separating unit 5 uses such a complicated attribute separating algorithm.
[0022]
The area specifying unit 2 is used to specify a part that requires complicated processing (that is, a part to be processed by the second attribute separating unit 5) in image data in which characters / line drawings and pictures are mixed. When processing the image illustrated in FIG. 3, the user uses the area specifying unit 2 to specify a portion 33 where the picture and the character overlap each other as a closed area.
[0023]
The switching unit 3 sends the image data in the area corresponding to the part 33 where the picture and the character overlap in the image data to be processed to the second attribute separating unit 5 based on the area information output from the area specifying unit 2. , And the image data of the other areas are distributed to the first attribute separating unit 4.
[0024]
The first attribute separating unit 4 and the second attribute separating unit 5 respectively convert the image data input from the switching unit 3 into a character / line drawing portion and a picture portion according to a predetermined attribute separating algorithm of the image data. To separate.
[0025]
In the above example, an example in which the image data is distributed to the two attribute separating units 4 and 5 by switching by the switching unit 3 has been described, but such a switching unit 3 is not necessarily required. For example, a configuration is adopted in which data of an input image input from the input unit 1 is input in parallel to both the first attribute separating unit 4 and the second attribute separating unit 5, and the area information output by the area specifying unit 2 Accordingly, a configuration in which one of the separation units 4 and 5 is selectively operated is also possible. For example, the output of the area specifying unit 2 is supplied to both of the separating units 4 and 5, and the area specifying unit 2 synchronizes with the supply of the image data from the input unit 1 to the separating units 4 and 5. The region information (ie, a signal indicating whether or not the pixel belongs to the designated closed region) according to the supplied pixel data is supplied to both of the separation units 4 and 5. May be controlled to operate or stop according to the area information.
[0026]
As described above, since a plurality of attribute separation algorithms can be selectively switched based on the area information output from the area specifying unit 2, most of the image is processed by the attribute separation algorithm capable of high-speed processing. Only in the area where performance is required, processing can be performed by an attribute separation algorithm having a low processing speed but high separation performance. In other words, the attribute of the entire image can be accurately separated without significantly lowering the processing speed.
[0027]
Next, the configurations of the first attribute separating unit 4 and the second attribute separating unit 5 will be described with reference to FIG. The first attribute separating unit 4 and the second attribute separating unit 5 both have the module configuration shown in FIG. 2, but the processing contents in the character shape extracting unit 21 are different between them. In the following, a case will be described as an example where attribute separation is performed by focusing on the shape of a character / line drawing portion. However, this is merely an example, and other methods may be used, such as extracting a character area with a set of circumscribed rectangles of character parts.
[0028]
The character shape extraction unit 21 extracts a shape such as a character or a line drawing from the input image data (an extraction method will be described later), and assigns “1” to the extracted character / line drawing part and “1” for the character / line drawing part. "0" is output for a portion corresponding to the background (ie, outside the extracted shape). The output of the character shape extracting unit 21 is a selection for uniquely selecting one of the first image data DT1 (corresponding to the character color data in the following description) and the second image data DT2 (corresponding to the background image data in the following description). It can be used as data SEL. Note that the color space of the image data to be input to the character shape extraction unit 21 is CIE-L in the following description. * a * b * Although a uniform color space is assumed, the present invention is not limited to this.
[0029]
The multiplexer (MUX) 22 has two systems of outputs: character color data DT1 and background image data DT2. The multiplexer 22 has a processing target L * a * b * Image data and selection data SEL from the character shape extraction unit 21 are input. Then, when the selection data indicates “1”, the multiplexer 22 outputs the current L (that is, of the pixel corresponding to the selection data). * a * b * At the same time as outputting the value of the image data as the character color data DT1, as the background image data DT2, image data of a predetermined value, for example, L * = A * = B * = 0 is output. When the selection data indicates “0”, the multiplexer 22 outputs the input L at that time. * a * b * At the same time as outputting the value of the image data as the background image data DT2, image data of a predetermined value, for example, L * = A * = B * = 0 is output. Therefore, the selection data SEL, the character color data DT1, and the background image data DT2 output from the first attribute separating unit 4 and the second attribute separating unit 5, respectively, have the same size in the main scanning direction and the sub-scanning direction. These three outputs are referred to in ITU-T Recommendation T. 44 (MRC) can be used as three planes.
[0030]
The result of applying the above-described attribute separation by character shape extraction to image data in which a character portion and a picture portion are mixed will be described with reference to FIG.
[0031]
FIG. 6A shows an example of an input document image 60 in which "Japan map" corresponding to a picture portion and "JAPAN" corresponding to a colored character portion are mixed. On the other hand, FIG. 6B is a diagram showing three image planes 61, 62, and 63 formed as a result of the attribute separation processing on the original image. The character shape of “JAPAN” extracted by the attribute separation processing becomes the plane 61 (selected plane) of the selected data SEL. Also, in the plane 62 (character color plane) of the first image data DT1, the selection data SEL of the document image 60 corresponds to “1” (ie, the “black” portion of the selection data SEL in FIG. 6B). The data of the area to be selected is selected. In this case, the data is a colored character "JAPAN". Then, in the plane 63 (background image plane) of the second image data DT2, data of an area where the selection data SEL is “0” in the document image 60 is selected. Therefore, in the example of FIG. 6, the figure of the plane 63 “Japan map” of the second image data DT2 is selected.
[0032]
The three planes shown in FIG. 6B obtained as a result of the attribute separation may be directly used as the three image data planes of the MRC. However, considering the data compression efficiency, there is room for improvement in the character color plane and the background image plane. There is. FIG. 6C shows a set of image data planes having better compression efficiency. In this example, the same selection plane 66 as that of the example in FIG. 6B is used, but the image pattern of the character color plane 64 and the background image plane 67 is simplified.
[0033]
That is, since the shape of the character / line drawing portion is represented on the selection plane 66, the character color plane only needs to have 64, the color information of the character / line drawing portion. Absent. For this reason, if instead of the character color plane 61 shown in FIG. 6B, a character plane 64 in which an area containing each character is represented by a patch 65 of the character color is used, the original document image 64 The character part can be reproduced. From the viewpoint of data compression efficiency, it is preferable to use a patch 65 having a simple shape. In the example of FIG. 6C, a rectangular area in which each side is parallel to the main scanning direction and the sub-scanning direction and circumscribes each character is used as the character color patch 65. By using a plane 64 composed of patches 65 of a simple shape as a character color plane, the edge information is significantly less than that of the plane 61 including the character shape itself. Data compression can be performed efficiently by the JPEG method shown in FIG.
[0034]
The following improvements can be made to the plane 67 of the background image. That is, in the output of the background image DT2 of the multiplexer 22, the value in the area of the character / line drawing portion of the document image 60 is 0, and no significant image data remains. A flattening process is performed based on the image data. That is, each pixel in the area is replaced with the value of a pixel around the area. This makes it possible to perform data compression with high efficiency because the outer edge of the character, which causes a reduction in the compression ratio in the JPEG system, becomes gentler. In this way, a multilayer image data plane as shown in FIG. 6C is generated.
[0035]
Next, the processing contents of the character shape extraction unit 21 for each of the first attribute separation unit 4 and the second attribute separation unit 5 will be described.
[0036]
FIG. 4 is a flowchart illustrating a simple attribute separation algorithm executed by the character shape extraction unit 21 of the first attribute separation unit 4 to extract a “black” portion of image data as a character / line drawing portion. In this process, the image data is sequentially processed in a predetermined order such as a raster scanning order. Each time data of one pixel is input according to this order, first, the luminance component L * Is compared with a predetermined threshold value τ1 (S41). Here, since a low-luminance pixel close to black is detected as a character / line image portion, a small predetermined value is set as the threshold τ1 in advance. If the luminance signal L of the pixel * Is larger than τ1, it is determined that the pixel is not black, that is, it is not part of a character / line drawing, and the selection data SEL for the pixel is set to “0” (S42). On the other hand, the luminance signal L of the pixel * Is less than or equal to τ1, the color difference component a * , B * Is determined based on the size of the image. Since the color difference component can take a negative value, the sum of the squares is calculated here and compared with a predetermined threshold value τ2 (S43). Since a color close to black has a small color difference component, a relatively small predetermined value is set as the threshold τ2 in advance. Color difference component a * , B * If the sum of the squares is smaller than τ2, it is determined that the color is a color close to black, that is, a part of a character or a line drawing, and the selection data for the pixel is set to “1” (S44). When the sum of squares of the color difference components is equal to or greater than τ2, it is determined that the pixel is not black, that is, it is not a part of a character or a line drawing, and the selection data for the pixel is set to “0” (S42). This process is repeated for all the image data (S45). Through the above processing, it is possible to obtain the selection data SEL in which a portion close to black in the image data indicates a binary “1”.
[0037]
As is clear from the above description, the present algorithm executed by the first attribute separation unit 4 is a simple process, so that it is easy to implement hardware by ASIC or the like, and even if it is implemented by software, Processing is possible.
[0038]
Next, an example of an algorithm executed by the second attribute separating unit 5 that is more complicated than that of the first attribute separating unit 4 will be described with reference to FIG.
[0039]
First, the L to be processed * a * b * L of image data * , A * , B * For each component, the image data of the component is divided into blocks of a predetermined size (for example, 8 × 8 pixels) (S51), and a histogram of the pixel values of the component of each pixel in the block is obtained. Then, a difference between the maximum pixel value Max and the minimum pixel value Min is obtained, it is checked whether the difference is larger than a predetermined first threshold value TH1, and a variance σ of the pixel values in the block is obtained. It is checked whether the variance value σ is greater than a predetermined second threshold value TH2 (S52). If it is determined that both the difference between the pixel values and the variance value are larger than the corresponding threshold values TH1 and TH2, it means that the block includes a portion where the pixel value change is steep, and thus the character / line drawing portion is included. It is determined to be a block (referred to as a character / line drawing block), and the process proceeds to step S53. In step S52, if either one of the difference value or the variance value is equal to or smaller than the threshold value, it is determined that the block is not a character / line drawing block, and all the selection data for each pixel in the block is “0”. (S57). It should be noted that the value of the selection data obtained here is not the final result, but is combined with the value of the selection data obtained later in the processing for other components to obtain the final selection data for each pixel.
[0040]
For the block determined to be a character / line drawing block in step S52, an average value of the maximum pixel value Max and the minimum pixel value Min of the block is obtained, and this is set as a threshold value B relating to the binarization processing of the block (S53). ). Then, the pixel value Dij of the pixel (i, j) (i, j is a number indicating the ordinate and abscissa of the pixel in the block) belonging to the block is compared with the threshold value B (S54). “1” is assigned to the pixel having a large value as the selection data SEL (S56), and “0” is assigned to the pixel having a value smaller than the threshold B as the selection data SEL (S55). This process is repeated for all pixels in the block (LOOP1). Thereby, selection data of each pixel in the block for the component is obtained. The selection data obtained in steps S55 and S56 are also temporary values, as in the case of step S57, and are combined with the selection data obtained for another component later.
[0041]
For the same block, the processing of steps S51 to S56 * , A * , B * (LOOP2). Thereby, the value (“0” or “1”) of the selection data of each pixel in the block is obtained for each of these components. For each pixel in the block, the logical sum of the values of the selection data of these three components is obtained, and this is output as the final selection data of the pixel (S58).
[0042]
The above is the processing for one block. This processing for one block is repeated until all the image data for one page is processed (LOOP3). This completes attribute separation for the entire page.
[0043]
In the above description, the luminance signal L of the image data * , Color difference signal a * , B * Was used to determine the final attribute separation result, but this is not essential. For example, the luminance signal L * Even in a configuration in which the final attribute separation result is obtained based only on the statistical analysis result, a favorable result can be obtained.
[0044]
As a process of the character shape extracting unit 21, for example, a process of obtaining a spatial frequency distribution of image data by an orthogonal transformation process or the like and extracting a shape of a character / line drawing portion based on the result is used. You can also.
[0045]
An example of the attribute separation algorithm performed by the first attribute separation unit 4 and the second attribute separation unit 5 illustrated in FIG. 1 has been described above. In the configuration shown in FIG. 1, the first attribute separating unit 4 and the second attribute separating unit 5 respectively assign the regions assigned to the attribute separating unit (4 or 5) in accordance with the region specification by the region specifying unit 2. Are output as attribute separation results (ie, three data of selection data, character color data, and background image data). In this configuration, each of the attribute separation units 4 and 5 outputs three output data as the attribute separation result. However, the input image data is divided by the switching unit 3 into the same pixel data. Is input to only one of the attribute separation units 4 and 5, so that the outputs of these two attribute separation units 4 and 5 can be integrated in chronological order, whereby the three planes of the attribute separation result for the entire input image can be integrated. Data can be obtained.
[0046]
According to the above-described embodiment, by performing attribute separation at high speed with a relatively simple process in a region where attribute separation is easy in an image, and by applying an advanced separation process to a region where attribute separation is difficult. For example, advanced attribute separation such as separating characters arranged on a natural image can be performed. According to the present embodiment, when the attribute separation processing is realized by software, advanced attribute separation can be realized without greatly lowering the overall processing speed.
[0047]
Next, another configuration of the device according to the present invention will be described with reference to FIG.
[0048]
In this configuration, the image data input unit 71 is a block that takes in image data in which characters / line drawings and patterns are mixed into the image processing apparatus, and corresponds to the input unit 1 having the configuration in FIG. The area specifying section 72 is a block for specifying a closed area at an arbitrary position on the image data captured by the image data input section 71, and corresponds to the area specifying section 2 having the configuration in FIG. The operator designates a closed area from the area designating unit 72 so as to surround a portion where the character / line drawing and the picture are complicatedly overlapped while referring to a display (not shown). The area information signal output by the area specifying section 72 to the first and second character shape extracting sections 73 and 74 at the subsequent stage is “1” when indicating the inside of the closed area, and “1” when indicating the outside of the closed area. 0 ".
[0049]
The first character shape extraction unit 73 is a block that can execute the attribute separation algorithm described with reference to FIG. 4, for example, which has a low separation performance but a high processing speed. The second character shape extraction unit 74 is a block that can execute the attribute separation algorithm described with reference to FIG. 5, for example, which is not so fast but has high separation performance. The operation of each of the character shape extracting units 73 and 74 is controlled by the logical level of the area information signal output from the area specifying unit 72, and the position where the area information signal indicates “0”, that is, the closed state specified by the operator. Outside the region, only the first character shape extraction unit 73 having a high processing speed can operate. At the position where the area information signal indicates “1”, that is, inside the closed area, only the second character shape extraction unit 74 having high separation performance can operate.
[0050]
As is clear from the description of FIG. 4 and FIG. 5, the output of the first and second character shape extraction units indicates “1” for the pixel classified as character / line drawing and does not belong to the character / line drawing. Since “0” is indicated for a pixel classified as a background such as a picture, one selection data for the entire image is obtained by performing a logical sum on the selection data output by each character shape extraction unit. be able to. The OR circuit 75 performs a logical OR operation on the selection data SEL1 output by the first character shape extraction unit 73 and the selection data SEL2 output by the second character shape extraction unit 74 to obtain final selection data. It is a block.
[0051]
The multiplexer 76 has an input L * a * b * When the selection data indicates "1", the image data is output as character color data, and at the same time, image data having a predetermined value, such as L * = A * = B * = 0 is output. When the selection data indicates “0”, the multiplexer 76 outputs the input image data as background image data, and at the same time, outputs image data of a predetermined value as character color data, for example, L * = A * = B * = 0 is output. ITU-T Recommendation T. According to 44, the selection data described above corresponds to the mask layer, the character color data corresponds to the foreground layer, and the background image data corresponds to the background layer.
[0052]
As described above, even with the configuration of FIG. 7, the same attribute separation result as that of the above-described embodiment described with reference to FIG. 1 can be obtained. In the configuration of FIG. 7, only one multiplexer unit 76 is required.
[0053]
Next, still another configuration of the device according to the present invention will be described with reference to FIGS.
[0054]
ITU-T Recommendation T. 44, in Annex A, there is a description of MRC extended to three or more layers. According to this, in the MRC of three or more layers, layer 2, layer 3,..., Layer N are superimposed in ascending order with the lowest layer as layer 1. In this multilayer structure, the odd-numbered layers are referred to as image layers composed of multi-valued image data, and the even-numbered layers are referred to as mask layers composed of binary selection data. As shown in FIG. 8, the image layer and the mask layer are superimposed on each other with the image layer arranged at the bottom as a background and the mask layer and the image layer superimposed thereon in pairs. It is supposed to be. According to this rule, the result of attribute separation by two different attribute separation algorithms described in the above embodiment can be handled as an MRC of three or more layers. FIG. 9 shows an example of this device configuration.
[0055]
9, an image data input unit 91 is a block that takes in image data in which a character / line drawing and a pattern are mixed into the inside of the image processing apparatus, and corresponds to the input unit 1 in FIG. The area specifying unit 92 is a block that specifies a closed area at an arbitrary position on the image data captured by the image data input unit 91, and corresponds to the area specifying unit 2 in FIG. In the same manner as described above, the operator designates a closed area from the area designating section 92 so as to surround a portion where the character / line drawing and the picture are complicatedly overlapped while referring to a display (not shown) or the like. The area information signal output by the area specifying unit 92 is “1” when indicating the inside of the closed area, and “0” when indicating the outside of the closed area.
[0056]
The first attribute separation unit 93 is a block capable of executing an attribute separation algorithm having a not so high separation performance as described in FIG. 4 but a high processing speed. However, unlike the above-described embodiment, the first attribute separation unit 93 in this example performs attribute separation processing on all input image data regardless of the area information signal of the area specification unit 92.
[0057]
The second attribute separating unit 94 is a block capable of executing an attribute separating algorithm having a high processing performance, although the processing speed is not so high as described in FIG. 5, and the area information signal indicates the inside of the closed area. Attribute separation processing is performed only when the value is “1”.
[0058]
Here, since the attribute separation result output by the second attribute separation unit 94 is valid when the area information signal is “1”, the area information signal is used as the second mask layer (mask 2). Accordingly, when the logic of the second mask layer is “1”, the image data included in the layer above the second mask layer becomes valid, and the result of attribute separation by the second attribute separation unit 94 is displayed thereon. Can be superimposed.
[0059]
In this configuration, the attribute separation results of the image data included in the closed area specified by the area specifying unit 92 are output from the first and second attribute separating units 93 and 94. The output of the first attribute separation unit 93 will include useless image data in the resulting overwritten portion. An optimal method for the attribute separation result for each attribute, specifically, a first background layer (background 1. background image data) or a first foreground layer (foreground 1. foreground image data or character color data) is often used. Value image, the ITU-T Recommendation T. 81, and the first mask layer (selection data) is a binary image. The MH / MR system shown in FIG. 6, the MMR method shown in FIG. In the case of performing compression by the JBIG method or the like shown in FIG. 85, it may not be desirable because remaining useless data acts in a direction in which the compression ratio cannot be increased. In such a case, if necessary, of the attribute separation results of the first attribute separation unit 93, the separation results of the part included in the area specified by the area specification unit 92 are deleted and a predetermined initial value is set. May be added.
[0060]
Next, another embodiment of the present invention using a personal computer will be described with reference to FIG.
[0061]
The scanner 101 as a means for capturing image data in which characters, line drawings and patterns are mixed irradiates a document placed on platen glass with a fluorescent lamp or the like, and optically reflects reflected light using an imaging device such as a CCD. An image reading unit 102 for converting analog image data into digital image data after performing reading, offset adjustment of a read signal, and gain adjustment is internally provided. A signal output from the image reading unit 102 is input to an attribute separating unit 103 inside the scanner 101. The attribute separating unit 103 separates the input image data into a character color data plane, a background image data plane, and a selected data plane as in the above-described embodiment, and outputs a multi-layer image data plane including the three planes from the scanner 101 to the outside. It has a function to output to Here, the attribute separation process executed by the attribute separation unit 103 is desirably a high-speed processing method capable of performing processing in almost real time with respect to the document scanning time of the scanner. In the following description, it is assumed that the attribute separation unit 103 can execute the attribute separation algorithm capable of high-speed processing described with reference to FIG. If a buffer means for temporarily storing the read document image in the scanner 101 is provided, an attribute separating unit 103 that cannot perform real-time processing on the document scanning time can be used.
[0062]
The scanner 101 is connected to a personal computer 105 via a network cable 104, and transmits a signal for controlling the operation of the scanner 101 and a signal indicating the internal state of the scanner 101 to the personal computer 105 via the network cable 104. And the image data plane output from the scanner 101 and separated by attributes can be taken into the personal computer 105.
[0063]
The personal computer 105 has a disk drive to which a portable storage medium such as a CD-ROM 106 or a flexible disk 107 can be attached and detached, and stores a software program stored in the portable storage medium into the personal computer 105 via the disk drive. Can be read into memory.
[0064]
FIG. 11 is a diagram illustrating a personal computer. The personal computer 105 includes a display 111, a keyboard 112, and a mouse 113 as a pointing device. An image to be processed is displayed on the display 111, and by operating the mouse 113, it is possible to specify a region to be subjected to advanced attribute separation processing. This fulfills the function of the area designation section in the above-described embodiment.
[0065]
The display 111 includes a display image 115 corresponding to the original image data read by the scanner 101, a display image 117 corresponding to the selected data plane, and a background image data plane based on the multilayer image data plane output by the scanner 101. The corresponding display image 118 is displayed. The image corresponding to the foreground image data plane may be displayed instead of the display image corresponding to the original image, or the display image 118 corresponding to the background image data plane may not be displayed.
[0066]
In FIG. 11, the display image 118 corresponding to the background image data plane includes a portion where characters (but not black characters) and a pattern are superimposed, and the display image 117 corresponding to the selected data plane includes This illustrates that the character of the portion is not extracted. In this embodiment, in order to separate a character / line drawing part that cannot be separated by the separation processing of the attribute separation unit 103, the part that cannot be separated is executed by a personal computer. To perform the separation process again. For this re-separation process, the operator designates a target closed area with reference to the display image 115 of the original image data displayed on the display 111. As a method of designating a desired closed area with reference to the display 111, the operator operates the mouse 113, and for example, positions the mouse pointer 114 on the start point (upper left point of the rectangular area) of the area 116 where the attribute separation result is to be corrected. An operation method such as pressing the left button of the mouse 113 and operating the mouse 113 to the end point of the area 116 (the lower right point of the rectangular area) and dragging the mouse pointer 114 is possible. Note that this region designation operation is merely an example, and it is clear that region designation can be performed by other operations.
[0067]
The operation of the image processing apparatus shown in FIG. 10 will be described with reference to the flowchart in FIG. First, the operator first sets a document whose attribute is to be separated into a character / line drawing portion and a picture portion on the platen of the scanner 101 (S1201). Next, the operator issues a scan start command to the scanner 103 from the personal computer 105 to activate the scanner (S1202). In response to the scanning start command, the scanner 101 optically scans the original on the platen to generate digital image data corresponding to the original, and inputs the digital image data to the attribute separating unit 103. Here, if necessary, the image data input to the attribute separating unit 103 is converted into a color space suitable for the attribute separating process in the separating unit 103. The attribute separating unit 103 performs the first attribute separation on the input image data by detecting a black character portion included in the document by, for example, the algorithm shown in FIG. First multilayer image data including a plane, a background image data plane, and a selected data plane is generated (S1204). The personal computer 105 does not need to particularly control the first attribute separation processing in the scanner 101, and thus monitors the completion of the attribute separation processing in the scanner 101 (S1203). When the scanner 101 detects that the attribute separation processing has been completed, the scanner 101 loads the first multilayer image data into the personal computer 105 via the network cable 104 (S1205).
[0068]
The personal computer 105 generates display images 115, 117, and 118 to be displayed on the display 111 based on the captured first multilayer image data so that the operator can confirm the result of the attribute separation performed by the scanner 101. (S1206). Here, the display image 115 indicating the original document image can be generated by combining the character color data plane and the background image data plane according to the logic of the selection data of the first multilayer image data. In addition, each plane of the multi-layer image data plane can be displayed as it is, and in that case, it is not necessary to perform the combining process.
[0069]
Next, in order to display the separation result on a display, the resolution of the selected data plane and the background image data plane of the first multilayer image data and the resolution of the synthesized first multilayer image data are adjusted to match the display resolution. Conversion processing is performed (S1207). Each image whose resolution has been converted is displayed on a display as a first separation result, as illustrated in FIG. 11 (S1208).
[0070]
The operator refers to the first separation result displayed on the display, corrects the separation result, and designates a portion where attribute separation is to be performed more accurately as a closed area (S1209). At this time, a plurality of closed areas can be specified. The personal computer 105 cuts out only the image data in the closed area designated in this manner from the synthesized image data (corresponding to the image data when the document is read) (S1210). Then, the personal computer 105 executes a second attribute separation process based on the local property of the image according to the flowchart shown in FIG. 5 on the image data in the cut-out closed area (S1211), and based on the attribute separation result. The second multilayer image data is generated (S1212). As described with reference to FIG. 7, since the selection data included in the second multilayer image data can be combined with the selection data included in the first multilayer image data, the selection data is generated from two types of attribute separation algorithms. These two selection data are combined into one selection data (S1213). Next, the combined multilayer image data generated in step S1206 is attribute-separated using the combined selection data to generate a background image data plane and a character color data plane (S1214). This separation result is called a second separation result. When the second separation result is created, resolution conversion is performed on the second separation result as needed, and the result is displayed on the display in order to allow the operator to determine whether the result is good or not (S1215).
[0071]
The operator determines whether or not the desired attribute separation processing has been performed by viewing the result (S1216). If the result is not satisfied, the operator returns to step S1209 and repeats the operation from the designation of the area again. If the result is satisfied, the second separation result is stored as a final attribute separation result (S1217).
[0072]
It should be noted that the quality of the second separation result can be confirmed to a considerable extent only by displaying the selected data plane. Therefore, in step S1215, only the selected data plane may be displayed. In this case, it is not necessary to perform attribute separation at the stage of step S1214, and the attribute separation may be performed after determining that the selected data synthesized in step S1213 is good.
[0073]
The preferred embodiment of the present invention has been described above. In the above embodiment, the case where the attribute separation processing is performed by appropriately allocating two different types of attribute separation processing methods has been described. However, even when the number of types of the attribute separation processing methods is three or more, the present invention Applicable. In this case, the operator may separately designate which attribute separation process is to be assigned to each area.
[0074]
Each device configuration of FIGS. 1, 7, 9 and the like described above can be realized by software or can be configured by a hardware circuit. In the above description, the method shown in FIGS. 4 and 7 is exemplified as a plurality of attribute separation methods having different processing capacities. However, the present invention is not limited to this, and various methods can be adopted.
[0075]
As described above, according to the present embodiment, a closed region is specified for image data to be subjected to attribute separation, and for each closed region, for example, the attribute separation is not so high but the processing speed is high. Since a processing method and an attribute separation processing method having a low processing speed but a high separation performance can be assigned, it is possible to execute the attribute separation processing with high accuracy while suppressing a reduction in the processing speed of the entire image.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of an image processing apparatus according to the present invention.
FIG. 2 is a diagram illustrating a configuration of an attribute separating unit.
FIG. 3 is a diagram showing an example of image data in which a character / line drawing portion and a picture portion are mixed.
FIG. 4 is a flowchart illustrating a simple attribute separation algorithm.
FIG. 5 is a flowchart illustrating a complicated attribute separation algorithm.
FIG. 6 is a diagram illustrating a result of attribute separation performed by applying an algorithm for extracting a shape of a character / line drawing portion.
FIG. 7 is a diagram for explaining another embodiment of the image processing apparatus according to the present invention.
FIG. 8 is a diagram illustrating an MRC having three or more layers.
FIG. 9 is a diagram illustrating another embodiment of the present invention that can generate an MRC having three or more layers.
FIG. 10 is a diagram illustrating another embodiment of the present invention.
FIG. 11 is a diagram illustrating a personal computer.
FIG. 12 is a flowchart illustrating an example of a processing procedure in a configuration using a personal computer.
[Explanation of symbols]
1 image data input section, 2 area designation section, 3 switching section, 4 first attribute separation section, 5 second attribute separation section.

Claims (9)

画像データを互いに異なる方式で文字・線画部分と絵柄部分とに分離する複数の属性分離手段と、
処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータを、それぞれ対応する属性分離手段に処理させる制御手段と、
を備える画像処理装置。
A plurality of attribute separating means for separating image data into a character / line drawing portion and a picture portion by different methods,
Control means for receiving designation of area division for the image to be processed, and causing the corresponding attribute separation means to process data of each area of the image to be processed according to the designation of area division;
An image processing apparatus comprising:
画像データを、第1の前景画像データと、第1の背景画像データと、前記第1の前景画像データ及び前記第1の背景画像データのうちのいずれを選択するかを画素毎に示した第1の選択データと、の3層に分離する第1の分離手段と、
画像データを、前記第1の分離手段とは異なる方式で、第2の前景画像データと、第2の背景画像データと、前記第2の前景画像データ及び前記第2の背景画像データのうちのいずれを選択するかを示す第2の選択データと、の3層に分離する第2の分離手段と、
処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータを、前記第1の分離手段と前記第2の分離手段とに振り分けて処理させる制御手段と、
を備える画像処理装置。
The image data is a first foreground image data, a first background image data, and a first pixel for each pixel indicating which one of the first foreground image data and the first background image data is to be selected. First separation means for separating the data into three layers, namely, one selection data;
The image data is converted into a second foreground image data, a second background image data, and the second foreground image data and the second background image data by a method different from the first separation means. Second selection data indicating which one to select, and second separation means for separating into three layers:
A control unit that receives designation of area division for an image to be processed, and distributes and processes data of each area of the image to be processed to the first separation unit and the second separation unit in accordance with the region division designation When,
An image processing apparatus comprising:
請求項2記載の画像処理装置であって、前記第1の分離手段が生成した第1の選択データと、前記第2の分離手段が生成した第2の選択データとを合成して合成選択データを生成する合成手段、を備える画像処理装置。3. The image processing apparatus according to claim 2, wherein the first selection data generated by the first separation unit is combined with the second selection data generated by the second separation unit. An image processing apparatus comprising: a synthesizing unit configured to generate an image. 前記領域指定手段が出力する領域指定情報に基づいて第3の選択データを生成すると共に、前記第1の分離手段が出力する3層のデータと、前記第2の分離手段が出力する3層のデータと、第3の選択データとからなる多層画像データプレーンを生成する多層画像データ生成手段、を更に備えたことを特徴とする請求項2記載の画像処理装置。The third selection data is generated based on the area specifying information output by the area specifying means, and the three-layer data output by the first separating means and the three-layer data output by the second separating means are output. 3. The image processing apparatus according to claim 2, further comprising: a multi-layer image data generation unit configured to generate a multi-layer image data plane including the data and the third selection data. 画像データを文字・線画部分と絵柄部分に分離する第1の属性分離手段と、
前記第1の属性分離手段が出力する分離結果に関連する情報を表示する表示手段と、
前記表示手段の表示に対応付けて、前記画像データ上で閉領域の指定を受け付ける領域指定手段と、
前記領域指定手段で指定された閉領域に含まれる画像データを、前記第1の属性分離手段とは異なる方式で文字・線画部分と絵柄部分に分離する第2の属性分離手段と、
を備えたことを特徴とする画像処理装置。
First attribute separating means for separating image data into a character / line drawing portion and a picture portion;
Display means for displaying information related to the separation result output by the first attribute separation means;
Area designation means for receiving designation of a closed area on the image data in association with the display of the display means,
A second attribute separating unit that separates the image data included in the closed region specified by the region specifying unit into a character / line drawing portion and a picture portion in a different manner from the first attribute separating unit;
An image processing apparatus comprising:
画像データを、第1の前景画像データと、第1の背景画像データと、前記第1の前景画像データ及び前記第1の背景画像データのうちのいずれを選択するかを画素毎に示した第1の選択データと、の3層に分離する第1の分離ステップと、
画像データを、前記第1の分離ステップとは異なる方式で、第2の前景画像データと、第2の背景画像データと、前記第2の前景画像データ及び前記第2の背景画像データのうちのいずれを選択するかを示す第2の選択データと、の3層に分離する第2の分離ステップと、
処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータに対して、前記第1の分離ステップ又は前記第2の分離ステップを選択的に実行させる制御ステップと、
を含む画像処理方法。
The image data is a first foreground image data, a first background image data, and a first pixel for each pixel indicating which one of the first foreground image data and the first background image data is to be selected. A first separation step of separating the selected data into three layers;
The image data is converted into a second foreground image data, a second background image data, and the second foreground image data and the second background image data by a method different from the first separation step. Second selection data indicating which to select, a second separation step of separating into three layers,
Receiving designation of area division for the image to be processed, and selectively executing the first separation step or the second separation step on data of each area of the image to be processed in accordance with the designation of area division. A control step;
An image processing method including:
画像データを文字・線画部分と絵柄部分に分離する第1の属性分離ステップと、
前記第1の属性分離ステップの分離結果に関連する情報を表示する表示ステップと、
前記表示ステップの表示に対応付けて、前記画像データ上で閉領域の指定を受け付ける領域指定手段と、
前記領域指定手段で指定された閉領域に含まれる画像データを、前記第1の属性分離ステップとは異なる方式で文字・線画部分と絵柄部分に分離する第2の属性分離ステップと、
を含む画像処理方法。
A first attribute separation step of separating the image data into a character / line drawing part and a picture part;
A display step of displaying information related to a separation result of the first attribute separation step;
Area designation means for accepting designation of a closed area on the image data in association with the display of the display step;
A second attribute separating step of separating the image data included in the closed area specified by the area specifying means into a character / line drawing portion and a picture portion in a manner different from the first attribute separating step;
An image processing method including:
画像データを、第1の前景画像データと、第1の背景画像データと、前記第1の前景画像データ及び前記第1の背景画像データのうちのいずれを選択するかを画素毎に示した第1の選択データと、の3層に分離する第1の分離手段、
画像データを、前記第1の分離手段とは異なる方式で、第2の前景画像データと、第2の背景画像データと、前記第2の前景画像データ及び前記第2の背景画像データのうちのいずれを選択するかを示す第2の選択データと、の3層に分離する第2の分離手段、
処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータを、前記第1の分離手段と前記第2の分離手段とに振り分けて処理させる制御手段、
としてコンピュータシステムを動作させるためのプログラム。
The image data is a first foreground image data, a first background image data, and a first pixel for each pixel indicating which one of the first foreground image data and the first background image data is to be selected. A first separation unit for separating the data into three layers:
The image data is converted into a second foreground image data, a second background image data, and the second foreground image data and the second background image data by a method different from the first separation means. Second selection data indicating which one to select, and second separation means for separating into three layers:
A control unit that receives designation of region division for an image to be processed, and distributes and processes data of each region of the image to be processed to the first separation unit and the second separation unit in accordance with the region division designation ,
As a program for operating a computer system.
画像データを文字・線画部分と絵柄部分に分離する第1の属性分離手段、
前記第1の属性分離手段が出力する分離結果に関連する情報を示す表示データを生成する表示手段と、
前記表示手段で生成した表示データに対応付けて、前記画像データ上で閉領域の指定を受け付ける領域指定手段、
前記領域指定手段で指定された閉領域に含まれる画像データを、前記第1の属性分離手段とは異なる方式で文字・線画部分と絵柄部分に分離する第2の属性分離手段、
としてコンピュータシステムを動作させるためのプログラム。
First attribute separating means for separating image data into a character / line drawing portion and a picture portion;
Display means for generating display data indicating information related to the separation result output by the first attribute separation means;
Area specifying means for receiving designation of a closed area on the image data in association with the display data generated by the display means;
A second attribute separating unit that separates the image data included in the closed region specified by the region specifying unit into a character / line drawing portion and a picture portion by a method different from the first attribute separating unit;
As a program for operating a computer system.
JP2002188662A 2002-06-27 2002-06-27 Image processor and method Pending JP2004032554A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002188662A JP2004032554A (en) 2002-06-27 2002-06-27 Image processor and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002188662A JP2004032554A (en) 2002-06-27 2002-06-27 Image processor and method

Publications (1)

Publication Number Publication Date
JP2004032554A true JP2004032554A (en) 2004-01-29

Family

ID=31183342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002188662A Pending JP2004032554A (en) 2002-06-27 2002-06-27 Image processor and method

Country Status (1)

Country Link
JP (1) JP2004032554A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185336A (en) * 2004-12-28 2006-07-13 Canon Inc Image processor, method and computer program
US7639880B2 (en) 2004-12-10 2009-12-29 Ricoh Company, Ltd. Compressing a multivalue image with control of memory space requirement
JP2010130214A (en) * 2008-11-26 2010-06-10 Ricoh Co Ltd Image processing apparatus, image processing method, and program
JP2014072556A (en) * 2012-09-27 2014-04-21 Oki Data Corp Image processing apparatus, program and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7639880B2 (en) 2004-12-10 2009-12-29 Ricoh Company, Ltd. Compressing a multivalue image with control of memory space requirement
JP2006185336A (en) * 2004-12-28 2006-07-13 Canon Inc Image processor, method and computer program
JP4574347B2 (en) * 2004-12-28 2010-11-04 キヤノン株式会社 Image processing apparatus, method, and program
JP2010130214A (en) * 2008-11-26 2010-06-10 Ricoh Co Ltd Image processing apparatus, image processing method, and program
JP2014072556A (en) * 2012-09-27 2014-04-21 Oki Data Corp Image processing apparatus, program and method

Similar Documents

Publication Publication Date Title
US6941014B2 (en) Method and apparatus for segmenting an image using a combination of image segmentation techniques
US7889974B2 (en) Method and apparatus for editing images, and method and apparatus for reproducing the edited images
JP5180670B2 (en) Image processing apparatus and image processing method
US8384964B2 (en) Image processing apparatus and image processing method
JP2006005923A (en) Image inputting system and method for dynamically controlling file size of digital image
US20180220032A1 (en) Image processing method that obtains special data from an external apparatus based on information multiplexed in image data and apparatus therefor
JP5645612B2 (en) Image processing apparatus, image processing method, program, and storage medium
US6924909B2 (en) High-speed scanner having image processing for improving the color reproduction and visual appearance thereof
JP2010056827A (en) Apparatus and program for processing image
US7929185B2 (en) System and method for switching screens from overview and preview
US7307760B2 (en) Raster image path architecture
US20090110313A1 (en) Device for performing image processing based on image attribute
JP2010146218A (en) Image processing apparatus, image processing method, computer program
JP2004032554A (en) Image processor and method
JP2005275854A (en) Image processor, image processing method, image processing program and recording medium with this program stored thereon
JP2002369011A (en) Image processing apparatus, image processing method and image processing program
JP2007088912A (en) Image processing apparatus and program
JP5212451B2 (en) Region specifying method, region specifying device, program, server, and system
JP2011053901A (en) Device, system, method and program for providing document image data, and background processing program
JP2008092419A (en) Image processor and image processing method
US8515186B2 (en) Image processor, image processing method and storage medium
JP3882657B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded
US8553294B2 (en) Outlining method for properly representing curved line and straight line, and image compression method using the same
JP2005323066A (en) Image processing apparatus
JP3882603B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080603