JP2004032554A - Image processor and method - Google Patents
Image processor and method Download PDFInfo
- Publication number
- JP2004032554A JP2004032554A JP2002188662A JP2002188662A JP2004032554A JP 2004032554 A JP2004032554 A JP 2004032554A JP 2002188662 A JP2002188662 A JP 2002188662A JP 2002188662 A JP2002188662 A JP 2002188662A JP 2004032554 A JP2004032554 A JP 2004032554A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- data
- separation
- attribute
- separating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、文字・線画と絵柄とが混在した画像データを処理する画像処理装置及び方法に関するものである。
【0002】
【従来の技術】
近年標準化されたITU−T勧告T.44に規定されるMRC(Mixed Raster Content)では、文字・線画と写真等の連続階調の絵柄とが混在する画像データを、背景プレーン、前景プレーン、及びそれら両者のどちらを選択するかを示す選択プレーン、の合計3層のプレーンに分離し、それぞれのプレーンを個別に圧縮符号化する方式を規定している。このITU−T勧告T.44に従うと、文字・線画部分と絵柄部分とを、それぞれ別のプレーンに分離し、各プレーンを、各々に含まれる画像データの特徴に適合する圧縮符号化方式で圧縮符号化することができる。例えば絵柄部分のプレーンはITU−T勧告T.81に示されたJPEG方式のような非可逆圧縮方式で圧縮符号化し、文字・線画部分のプレーンはITU−T勧告T.6に示されたMMR方式のような可逆圧縮方式で圧縮符号化するなどである。
【0003】
このように、文字・線画と絵柄とが混在する画像データをその局所的な特性に応じて3層の画像データプレーンに分離し、プレーン毎に圧縮符号化方式を選択的に切り替える技術は、JPEG方式単独で文字写真混在画像データを圧縮する場合に比して圧縮効率を稼ぎつつ圧縮画像品質を高く保つことができるという利点がある。
【0004】
一方、どのように文字・線画部分と絵柄部分を分離するかについてはITU−T勧告T.44で規格化されていない。そのため、MRCフォーマットを生成するための属性分離方法としては、画素値に基づき画素単位で分離を行う簡単な方法から、例えば特開2001−223903や本出願人による特開2001−127999などに示される複雑な方法まで、様々な方法が提案されている。
【0005】
【発明が解決しようとする課題】
しかしながら従来技術として開示されてきた属性分離技術には次のような課題があった。
【0006】
まず比較的簡単な属性分離アルゴリズムでは、文字・線画と絵柄とが混在する画像を高速に分離することができる反面、分離の能力はそれほどよくはなく、例えば絵柄部分に重畳している文字・線画部分を良好に分離することは難しい。
【0007】
これに対し複雑な分離アルゴリズムでは、一般に分離性能が高いので複雑な構造の画像の分離も可能となり、例えば絵柄部分に重畳している文字・線画部分を良好に分離することが可能になるが、その反面処理が複雑になり処理速度が低下する。
【0008】
本発明は、上記従来技術の問題点を解決するものであり、文字・線画と絵柄写真画像とが混在する画像を、その局所的な性質に従って、高速かつ高い分離性能で文字・線画部分と絵柄部分に分離することができる画像処理装置を提供することをその目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するため、本発明に係る装置は、画像データを互いに異なる方式で文字・線画部分と絵柄部分とに分離する複数の属性分離手段と、処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータを、それぞれ対応する属性分離手段に処理させる制御手段とを備える。
【0010】
また、本発明に係る装置は、画像データを、第1の前景画像データと、第1の背景画像データと、前記第1の前景画像データ及び前記第1の背景画像データのうちのいずれを選択するかを画素毎に示した第1の選択データと、の3層に分離する第1の分離手段と、画像データを、前記第1の分離手段とは異なる方式で、第2の前景画像データと、第2の背景画像データと、前記第2の前景画像データ及び前記第2の背景画像データのうちのいずれを選択するかを示す第2の選択データと、の3層に分離する第2の分離手段と、処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータを、前記第1の分離手段と前記第2の分離手段とに振り分けて処理させる制御手段と、を備える。
【0011】
本発明の好適な態様では、前記第1の分離手段が生成した第1の選択データと、前記第2の分離手段が生成した第2の選択データとを合成して合成選択データを生成する合成手段、を備える。
【0012】
また本発明の別の好適な態様では、前記領域指定手段が出力する領域指定情報に基づいて第3の選択データを生成すると共に、前記第1の分離手段が出力する3層のデータと、前記第2の分離手段が出力する3層のデータと、第3の選択データとからなる多層画像データプレーンを生成する多層画像データ生成手段、を更に備える。
【0013】
また、本発明に係る装置は、画像データを文字・線画部分と絵柄部分に分離する第1の属性分離手段と、前記第1の属性分離手段が出力する分離結果に関連する情報を表示する表示手段と、前記表示手段の表示に対応付けて、前記画像データ上で閉領域の指定を受け付ける領域指定手段と、前記領域指定手段で指定された閉領域に含まれる画像データを、前記第1の属性分離手段とは異なる方式で文字・線画部分と絵柄部分に分離する第2の属性分離手段と、を備える。
【0014】
【発明の実施の形態】
図1は、本発明に画像処理装置の概略の構成を示す図である。
【0015】
画像データ入力部1は、文字・線画と絵柄が混在した画像データを画像処理装置の内部に取り込む手段である。画像データ入力部1の例としては、例えばプラテンガラス上に置かれた原稿を光学的に読み取るスキャナなどを挙げることができる。
【0016】
領域指定部2は、画像データ入力部1から取り込んだ画像データ上の任意の位置に閉領域を指定するための手段である。領域指定部2としては、例えば、キーボードから領域の位置と大きさを数値形式で入力する構成を用いることができる。また、ディスプレイ上に表示された画像上で、タッチペンやマウス等のポインティングデバイスを用いて領域を視覚的且つ直感的に領域を指定する構成を用いることもできる。
【0017】
切り替え部3は、ユーザが指定した領域を示す領域情報を領域指定部2より受け取り、画像データ入力部1が取り込んだ画像データを、その領域情報に従って後段の第1の属性分離部4または第2の属性分離部5に振り分ける。
【0018】
第1の属性分離部4および第2の属性分離部5は、文字・線画と絵柄が混在する入力画像データを、文字・線画に属する画像データと絵柄に属する画像データと、に属性分離する手段である。第1の属性分離部4と第2の属性分離部5とは、互いに異なる属性分離方式を用いる。ここでは、第1の属性分離部4としては、分離性能はそれほど高いものではないが、比較的簡単な処理で文字・線画部分と絵柄部分とを高速に分離できるものを用い、第2の属性分離部5としては、処理速度は低いが分離性能の高いものを用いる。第1の属性分離部4には、例えば画像データの局所的な性質を解析することで文字・線画部分と絵柄部分を分離する構成を用いることができる。また、第2の属性分離部5には、例えば画像データ全体を文書とみなして構造解析することで文字・線画部分と絵柄部分を分離する構成を用いることができる。
【0019】
全体の動作の概要について、図1と図3を参照しつつ説明する。図3は、画像データ入力部1から読み込まれる文字・線画部分と絵柄部分が混在する画像データの一例を示している。この画像は、絵柄と文字が重畳する部分31、文字・線画だけからなる部分32、絵柄だけからなる部分33を含んでいる。
【0020】
一般のビジネス文書では、文字や線の色は黒であることが多く、この点に着目すると画像データの「黒色」画素を検出していくことで多くの文字・線画部分を抽出することができる。そこで、以下の例では、第1の属性分離部4は、そのような単純な属性分離アルゴリズムを用いた手段とする。
【0021】
一方、ビジネス文書であっても強調したい文字や線の色は黒以外にしたり、あるいは文字・線画部分の背景に絵柄を配置することがある。このような箇所は、第1の属性分離部4では分離が難しい。このような箇所は、例えば、画像データの局所的性質を統計処理によって解析したり、あるいは文書構造解析を行ったりするアルゴリズムを用いることで、文字・線画部分と絵柄部分とに分離することができる。ここでは第2の属性分離部5は、そのような複雑な属性分離アルゴリズムを用いるものとする。
【0022】
領域指定部2は、文字・線画と絵柄が混在する画像データの中で複雑な処理を必要とする部分(すなわち第2の属性分離部5で処理する部分)を指定するために用いる。図3に例示した画像を処理する場合、ユーザは領域指定部2を用いて、絵柄と文字が重畳する部分33を閉領域として指定する。
【0023】
切り替え部3は、領域指定部2が出力する領域情報に基づいて、処理対象の画像データのうち絵柄と文字が重畳する部分33に該当する領域内の画像データを第2の属性分離部5へ、それ以外の領域の画像データを第1の属性分離部4へと、それぞれ振り分ける。
【0024】
そして第1の属性分離部4および第2の属性分離部5は、それぞれ切り替え部3から入力される画像データを、自己の有する所定の属性分離アルゴリズムに従って文字・線画部分と、絵柄部分とに属性分離する。
【0025】
以上の例では、切り替え部3によるスイッチングで画像データを2つの属性分離部4,5に振り分ける例を示したが、このような切り替え部3は必ずしも必要な構成ではない。例えば、入力部1から入力される入力画像のデータを第1の属性分離部4と第2の属性分離部5の両方に並列的に入力する構成とし、領域指定部2が出力する領域情報に応じ、それら両分離部4,5の一方を選択的に動作させるような構成も可能である。これには例えば、領域指定部2の出力をそれら両分離部4,5に供給するようにし、領域指定部2が、入力部1から両分離部4,5への画像データ供給に同期して、供給される画素のデータに応じた領域情報(すなわち指定された閉領域内の画素であるか否かを示す信号)を両分離部4,5に供給するようにし、各分離部4,5がその領域情報に応じて動作又は停止するように制御すればよい。
【0026】
このように、領域指定部2が出力する領域情報に基づいて複数の属性分離アルゴリズムを選択的に切り替え可能としたことにより、画像の大部分を高速処理が可能な属性分離アルゴリズムで処理し、分離性能が要求される領域だけ、処理速度は遅いが分離性能が高い属性分離アルゴリズムで処理することができる。即ち、処理速度を大きく低下させることなく、精度よく画像全体を属性分離することができ。
【0027】
次に第1の属性分離部4及び第2の属性分離部5の構成について、図2を用いて説明する。なお、第1の属性分離部4と第2の属性分離部5とは、共に図2に示すモジュール構成を有するものであるが、文字形状抽出部21内での処理内容は両者で異なる。また、以下では、文字・線画部分の形状に注目して属性分離を行う場合を例にとって説明する。しかし、これはあくまで一例であり、それ以外にも例えば、文字部分の外接矩形の集合体で文字領域を抽出したりするなどの方法で行ってもよい。
【0028】
文字形状抽出部21は、入力される画像データから文字や線画などの形状を抽出し(抽出方法については後述)、抽出された文字・線画部分に対して「1」を、文字・線画部分の背景に相当する部分(すなわち抽出した形状の外側)に対しては「0」を出力する。文字形状抽出部21の出力は第1画像データDT1(以下の説明における文字色データに対応)と第2画像データDT2(以下の説明における背景画像データに対応)の一方を一義的に選択する選択データSELとして用いることができる。なお、文字形状抽出部21に入力すべき画像データの色空間は、以下の説明ではCIE−L*a*b*均等色空間を想定しているが、これに限定されるものではない。
【0029】
マルチプレクサ(MUX)22は、文字色データDT1と背景画像データDT2との、2系統の出力を備える。マルチプレクサ22には、処理対象であるL*a*b*画像データと、文字形状抽出部21からの選択データSELとが入力される。そして、マルチプレクサ22は、選択データが「1」を示した時は、その時の(すなわち当該選択データに対応する画素の)L*a*b*画像データの値を文字色データDT1として出力すると同時に、背景画像データDT2としては、所定値の画像データ、例えばL*=a*=b*=0、を出力する。また、選択データが「0」を示した時は、マルチプレクサ22は、その時の入力L*a*b*画像データの値を背景画像データDT2として出力すると同時に、文字色データDT1として所定値の画像データ、例えばL*=a*=b*=0、を出力する。従って、第1属性分離部4及び第2属性分離部5からそれぞれ出力される選択データSEL、文字色データDT1、及び背景画像データDT2は全て、主走査方向と副走査方向が同じ大きさとなる。この3つの出力を、ITU−T勧告T.44(MRC)の3つのプレーンとして用いることができる。
【0030】
以上説明した文字形状抽出による属性分離を、文字部分と絵柄部分が混在した画像データに対して適用した結果について、図6を参照しつつ説明する。
【0031】
図6(a)は、入力される原稿画像60の一例であり、絵柄部分に相当する「日本地図」と色付き文字部分に相当する「JAPAN」が混在している。これに対し図6(b)は、その原稿画像に対する属性分離処理の結果としてできる3つの画像プレーン61,62,63を示す図である。属性分離処理によって抽出された「JAPAN」の文字形状は、選択データSELのプレーン61(選択プレーン)となる。また、第1画像データDT1のプレーン62(文字色プレーン)には、原稿画像60のうち選択データSELが「1」(即ち図6(b)における選択データSELの「黒」の部分)に該当する領域のデータが選択され、ここでは色付き文字の「JAPAN」となる。そして第2画像データDT2のプレーン63(背景画像プレーン)には、原稿画像60のうち選択データSELが「0」である領域のデータが選択される。従って、図6の例では、第2画像データDT2のプレーン63「日本地図」の図形が選択される。
【0032】
属性分離の結果得られた図6(b)の3つのプレーンを、そのままMRCの3つの画像データプレーンとしてもよいが、データ圧縮効率を考えると、文字色プレーンや背景画像プレーンには改善の余地がある。図6(c)に、圧縮効率がより良好な画像データプレーンの組を示す。この例では、選択プレーン66は図6(b)の例と同じものを用いるが、文字色プレーン64及び背景画像プレーン67については、画像パターンの単純化を図る。
【0033】
すなわち、文字・線画部分の形状は選択プレーン66に表現されているので、文字色プレーンは64、その文字・線画部分の色の情報を持っていればよく、形状の情報まで持っている必要はない。このため、図6(b)に示した文字色のプレーン61の代わりに、各文字を包摂する領域を当該文字の色のパッチ65で表した文字プレーン64を用いれば、元の原稿画像64の文字部分を再現できる。データ圧縮効率の観点から、パッチ65としては、単純な形状のものを用いることが好適である。図6(c)の例では、文字色のパッチ65として、各辺が主走査方向及び副走査方向に平行でかつ各文字に外接する矩形領域を用いている。文字色プレーンとして、単純な形状のパッチ65からなるプレーン64を用いることで、文字形状そのものを含んでいたプレーン61よりもエッジ情報が大幅に少なくなるため、ITU−T勧告T.81に示されたJPEG方式で高能率にデータ圧縮することが可能となる。
【0034】
また、背景画像のプレーン67については、次のような改善が可能である。すなわち、マルチプレクサ22の背景画像DT2の出力では、原稿画像60の文字・線画部分の領域内は0値となっており、有意な画像データは残っていないので、その領域内に対し、その周辺の画像データに基づいた穴埋め処理を施して平坦化する。すなわち、その領域内の各画素をその領域の周囲の画素の値に置き換えていく。これにより、JPEG方式で圧縮率を低下させる要因となる文字の外形部エッジが緩やかになることから高能率にデータ圧縮することが可能となる。このようにして、図6(c)に示すような多層の画像データプレーンが生成される。
【0035】
次に、第1の属性分離部4と第2の属性分離部5のそれぞれについて、文字形状抽出部21の処理内容を説明する。
【0036】
図4は、第1の属性分離部4の文字形状抽出部21で実行される、画像データの「黒色」部分を文字・線画部分として抽出する簡単な属性分離アルゴリズムを説明するフローチャートである。この処理では、画像データは、例えばラスタ走査順などの所定順序に従って逐次処理されていく。この順序に従って1画素のデータが入力されるごとに、先ず輝度成分L*と所定の閾値τ1との比較を行う(S41)。ここでは黒色に近い低輝度の画素を文字・線画部分として検出することから、閾値τ1としては小さい所定の値を予め設定しておく。もし当該画素の輝度信号L*がτ1よりも大きい値の時は黒色でない、即ち文字・線画の一部ではないと判定し、当該画素に対する選択データSELを「0」とする(S42)。一方、当該画素の輝度信号L*がτ1以下の場合には、色差成分a*,b*の大きさから黒色かどうかを判定する。色差成分は負の値を取り得ることから、ここではそれぞれの二乗和を求めて所定の閾値τ2との比較を行う(S43)。黒色に近い色は色差成分の大きさが小さいことから、この閾値τ2としては比較的小さな所定の値を予め設定する。色差成分a*,b*の二乗和がτ2よりも小さい値であれば、黒色に近い色、即ち文字・線画の一部であると判定し、当該画素に対する選択データを「1」とする(S44)。色差成分の二乗和がτ2以上の時は黒色ではない、即ち文字・線画の一部でないと判定し、当該画素に対する選択データを「0」とする(S42)。この処理を全ての画像データに対して繰り返し行う(S45)。以上の処理により、画像データ中の黒色に近い部分が2値の「1」を示す選択データSELを得ることができる。
【0037】
以上の説明からも明らかなように、第1の属性分離部4で実行される本アルゴリズムは、簡単な処理なので、ASIC化等によるハードウェア実装が容易であると共に、ソフトウェアで実装する場合でも高速処理が可能である。
【0038】
次に第2の属性分離部5で実行される、第1の属性分離部4よりも複雑なアルゴリズムの一例について、図5を参照しつつ説明する。
【0039】
まず、処理対象のL*a*b*画像データのL*,a*,b*各成分毎に、当該成分の画像データを所定の大きさ(例えば8×8画素)のブロック毎にブロック化し(S51)、当該ブロック内の各画素の当該成分の画素値のヒストグラムを求める。そして、その中での最大画素値Maxと最小画素値Minの差分を求め、この差分が所定の第1閾値TH1より大きいかどうかを調べ、更にそのブロック内の画素値の分散値σを求め、この分散値σが所定の第2閾値TH2より大きいかどうかを調べる(S52)。画素値の差分と分散値が、共に、対応する閾値TH1,TH2より大きいと判定された場合、当該ブロックは画素値変化が急峻な部分を含んでいるということなので、文字・線画部分を含んだブロック(文字・線画ブロックと呼ぶ)と判定し、ステップS53に進む。ステップS52で、差分値または分散値のいずれか一方でもしきい値以下である場合は、当該ブロックが文字・線画ブロックでないと判定し、当該ブロック内の各画素についての選択データを全て「0」とする(S57)。なお、ここで求めた選択データの値は、最終結果ではなく、後に他の成分についての処理で求めた選択データの値と総合して、最終的な各画素の選択データを求めることになる。
【0040】
ステップS52で文字・線画ブロックと判定されたブロックについては、当該ブロックの最大画素値Maxと最小画素値Minの平均値を求め、これを当該ブロックの二値化処理に関わる閾値Bとする(S53)。そして当該ブロックに属する画素(i,j)(i,jはブロック内での画素の縦座標、横座標を示す番号)の画素値Dijと閾値Bとの比較を行い(S54)、閾値Bより値が大きい画素に対しては選択データSELとして「1」を割り当て(S56)、閾値Bより値が小さい画素に対しては選択データSELとして「0」を割り当てる(S55)。この処理をブロック内の全画素について繰り返す(LOOP1)。これにより、当該成分についての当該ブロック内の各画素の選択データが求められる。ステップS55及びS56で求められる選択データも、ステップS57の場合と同様、仮の値であり、後で別の成分について求めた選択データと総合される。
【0041】
同じブロックについて、以上のステップS51〜S56の処理を、L*,a* ,b*の各成分について繰り返す(LOOP2)。これにより、それら各成分ごとに、当該ブロック内の各画素の選択データの値(「0」又は「1」)が得られる。そのブロック内の画素毎に、これら3つの成分の選択データの値の論理和を求め、これを当該画素の最終的な選択データとして出力する(S58)。
【0042】
以上が1ブロック分の処理である。この1ブロック分の処理を、1ページ分の画像データ全てを処理するまで繰り返す(LOOP3)。これにより1ページ全体についての属性分離が完了する。
【0043】
以上の説明では、画像データの輝度信号L*、色差信号a*,b*のそれぞれについての統計分析結果をすべて用いて最終の属性分離結果を判定していたが、これは必須ではない。例えば、輝度信号L*の統計分析結果だけに基づいて最終的な属性分離結果を求める構成でも、良好な結果が得られる。
【0044】
文字形状抽出部21の処理としては、この他にも例えば、画像データの空間周波数分布を直交変換処理などにより求め、この結果を基に文字・線画部分の形状を抽出するような処理を用いることもできる。
【0045】
以上、図1に例示した第1の属性分離部4と第2の属性分離部5で行われる属性分離アルゴリズムの一例をそれぞれ説明した。図1の構成では、領域指定部2での領域指定に応じ、第1の属性分離部4と第2の属性分離部5から、それぞれ、当該属性分離部(4又は5)に振り分けられた領域についての属性分離結果のデータ(すなわち選択データ、文字色データ、背景画像データの3つ)が出力される。この構成では、各属性分離部4及び5の各々から、属性分離結果である3つの出力データがそれぞれ出力されることになるが、入力される画像データは、切り替え部3の振り分けにより、同じ画素については一方の属性分離部4又は5にしか入力されないので、これら両属性分離部4及び5の出力を時系列順に統合することができ、これにより入力画像全体についての属性分離結果の3プレーンのデータを得ることができる。
【0046】
以上説明した実施の形態によれば、画像中で属性分離がしやすい領域は比較的簡単な処理で高速に属性分離を行い、属性分離が困難な領域については高度な分離処理を適用することで、例えば自然画像上に配置された文字を分離するなどの高度な属性分離を行うことができる。本実施形態によれば、属性分離処理をソフトウェア的に実現する場合に、全体としての処理速度を大きく低下させることなく、高度な属性分離を実現することができる。
【0047】
次に、本発明に係る装置の別の構成について図7を参照して説明する。
【0048】
この構成において、画像データ入力部71は、文字・線画と絵柄が混在した画像データを画像処理装置の内部に取り込むブロックであり、図1の構成の入力部1に対応する。領域指定部72は、画像データ入力部71が取り込む画像データ上の任意の位置に閉領域を指定するブロックであり、図1の構成の領域指定部2に対応する。オペレータは図示しないディスプレイなどを参照しながら、文字・線画と絵柄が複雑に重畳している部分を囲むよう、領域指定部72より閉領域を指定する。領域指定部72が後段の第1および第2の文字形状抽出部73,74へ出力する領域情報信号は、閉領域の内部を示すときに「1」に、閉領域の外部を示すときに「0」になるものとする。
【0049】
第1の文字形状抽出部73は、例えば図4を参照して説明した、分離性能はそれほど高くないが処理速度が速い属性分離アルゴリズムを実行することができるブロックである。第2の文字形状抽出部74は、例えば図5を参照して説明した、処理速度はそれほど速くないが分離性能が高い属性分離アルゴリズムを実行することができるブロックである。それぞれの文字形状抽出部73,74は、領域指定部72が出力する領域情報信号の論理レベルによって動作を制御されており、領域情報信号が「0」を示す位置、即ちオペレータにより指定された閉領域の外側、では処理速度が速い第1の文字形状抽出部73のみ動作可能となる。また、領域情報信号が「1」を示す位置、即ち閉領域の内側、では分離性能が高い第2の文字形状抽出部74のみ動作可能となる。
【0050】
図4および図5の説明からも明らかなように、第1および第2の文字形状抽出部の出力は文字・線画に分類される画素に対して「1」を示し、文字・線画に属さない絵柄などの背景に分類される画素に対して「0」を示すので、それぞれの文字形状抽出部が出力する選択データに対して論理和を演算することにより、画像全体に対する1つの選択データを求めることができる。論理和回路75は、第1の文字形状抽出部73が出力する選択データSEL1と第2の文字形状抽出部74が出力する選択データSEL2の論理和演算を行って、最終的な選択データを求めるブロックである。
【0051】
マルチプレクサ76は、入力L*a*b*画像データを選択データが「1」を示した時は文字色データとして出力すると同時に、背景画像データとして所定値の画像データ、例えばL*=a*=b*=0を出力する。また、選択データが「0」を示した時は、マルチプレクサ76は入力画像データを背景画像データとして出力すると同時に、文字色データとして所定値の画像データ、例えばL*=a*=b*=0を出力する。ITU−T勧告T.44に従えば、以上説明した選択データがマスクレイヤに、文字色データがフォアグラウンドレイヤに、そして背景画像データがバックグラウンドレイヤにそれぞれ対応する。
【0052】
以上説明したように、図7の構成でも、図1を用いて説明した上記実施形態と同等の属性分離結果を得ることができる。図7の構成では、マルチプレクサ部76が1つで済む。
【0053】
次に、本発明に係る装置の更なる別の構成について図8及び9を参照して説明する。
【0054】
ITU−T勧告T.44では、その付属書Aにおいて、3層以上に拡張されたMRCに関する記載がある。これによると、3層以上のMRCは、一番下のレイヤをレイヤ1として、上に昇順にレイヤ2、レイヤ3、…、レイヤNが重ね合わされる。この多層構造では、奇数番号のレイヤを多値画像データからなるイメージレイヤとし、偶数番号のレイヤを二値の選択データからなるマスクレイヤと称している。イメージレイヤとマスクレイヤの重ね合わせルールは、図8に示すように、一番下にイメージレイヤがバックグラウンド(背景)として配置され、その上にマスクレイヤとイメージレイヤとが対になって重ね合わされることとなっている。この規則に従うと、上述の実施形態で説明した2つの異なる属性分離アルゴリズムでの属性分離結果を、3層以上のMRCとして扱うことができる。この装置構成例を図9に示す。
【0055】
図9において、画像データ入力部91は、文字・線画と絵柄が混在した画像データを画像処理装置の内部に取り込むブロックであり、図1の入力部1に対応する。領域指定部92は、画像データ入力部91が取り込む画像データ上の任意の位置に閉領域を指定するブロックであり、図1の領域指定部2に対応する。これまでの説明と同様に、オペレータは図示しないディスプレイなどを参照しながら、文字・線画と絵柄が複雑に重畳している部分を囲むよう、領域指定部92より閉領域を指定する。領域指定部92が出力する領域情報信号は、閉領域の内部を示すときに「1」に、閉領域の外部を示すときに「0」になるものとする。
【0056】
第1の属性分離部93は、図4で説明されるような分離性能はそれほど高くないが処理速度が速い属性分離アルゴリズムを実行可能なブロックである。ただし、この例での第1の属性分離部93は、上述の実施形態とは異なり、領域指定部92の領域情報信号によらず、入力される画像データを全て属性分離処理していく。
【0057】
第2の属性分離部94は、図5で説明されるような処理速度はそれほど速くないが分離性能が高い属性分離アルゴリズムを実行可能なブロックであって、領域情報信号が閉領域の内部を示す「1」のときのみ属性分離処理を行う。
【0058】
ここで、第2の属性分離部94が出力する属性分離結果は、領域情報信号が「1」のときに有効となることから、領域情報信号を第2のマスクレイヤ(マスク2)とすることにより、この第2マスクレイヤの論理が「1」の時は第2マスクレイヤより上のレイヤに含まれる画像データが有効となって、第2の属性分離部94による属性分離結果をその上に重ね合わせることができる。
【0059】
なお、この構成では、領域指定部92で指定された閉領域に含まれる画像データの属性分離結果が、第1および第2の属性分離部93及び94から出力されることになるが、ここで第1の属性分離部93の出力には結果的に上書きされる部分に無駄な画像データが含まれることになる。属性分離した結果を属性毎に最適な方法、具体的には第1バックグラウンドレイヤ(バックグラウンド1。背景画像データ)や第1フォアグラウンドレイヤ(フォアグラウンド1。前景画像データもしくは文字色データ)は、多値画像であることからITU−T勧告T.81に示されたJPEG方式で圧縮し、第1マスクレイヤ(選択データ)は二値画像であることからITU−T勧告T.4に示されたMH/MR方式や、T.6に示されたMMR方式、T.85に示されたJBIG方式などで圧縮する場合、無駄なデータが残っていることは圧縮率を稼げない方向に作用するので望ましくない場合がある。このような場合は、必要に応じて第1の属性分離部93の属性分離結果の内、領域指定部92で指定された領域に含まれている部分の分離結果を削除して所定の初期値に置き換える処理機構を追加してもよい。
【0060】
次に、パーソナルコンピュータを使用した本発明の別の実施例を図10により説明する。
【0061】
文字・線画と絵柄が混在した画像データを取り込む手段としてのスキャナ101は、プラテンガラス上に置かれた原稿を蛍光灯ランプなどで照射し、反射光をCCDなどの撮像デバイスを用いて光学的に読み取り、読み取り信号のオフセット調整、ゲイン調整を行った後にアナログ画像データをディジタル画像データに変換する画像読取部102を内部に備えている。画像読取部102が出力する信号は、スキャナ101内部の属性分離部103に入力される。属性分離部103は、上述の実施形態と同様、入力画像データを文字色データプレーン、背景画像データプレーン、及び選択データプレーンに分離し、それら3つのプレーンからなる多層画像データプレーンとしてスキャナ101から外部へ出力する機能を備える。ここで、属性分離部103が実行する属性分離処理は、スキャナの原稿走査時間に対してほぼリアルタイムで処理が可能な高速な処理方式が望ましい。以下の説明では、属性分離部103は、図4で説明した高速処理可能な属性分離アルゴリズムを実行可能なものとする。なお、スキャナ101内の読み取った原稿画像を一次記憶するバッファ手段を設ければ、属性分離部103として、原稿走査時間に対してリアルタイム処理ができないものを用いることもできる。
【0062】
スキャナ101は、パーソナルコンピュータ105とネットワークケーブル104を介して接続されており、このネットワークケーブル104を経由して、スキャナ101の動作を制御する信号やスキャナ101の内部状態を示す信号などをパーソナルコンピュータ105とやり取りしたり、スキャナ101が出力する属性分離された画像データプレーンをパーソナルコンピュータ105内部に取り込んだりすることができる。
【0063】
パーソナルコンピュータ105は、CD−ROM106もしくはフレキシブルディスク107などの可搬記憶メディアを着脱可能なディスクドライブを有し、当該可搬記憶メディアに記憶されたソフトウェアプログラムをディスクドライブ経由でパーソナルコンピュータ105本体の内蔵メモリに読込むことができる。
【0064】
図11は、パーソナルコンピュータを説明する図である。パーソナルコンピュータ105は、ディスプレイ111、キーボード112、ポインティングデバイスとしてのマウス113を備えている。ディスプレイ111に処理対象の画像を表示し、マウス113の操作により、高度な方の属性分離処理の対象となる領域を指定することができる。これが、上述の実施形態での領域指定部の機能を果たす。
【0065】
ディスプレイ111には、スキャナ101が出力する多層画像データプレーンに基づいて、スキャナ101が読み取った元の画像データに対応する表示画像115や、選択データプレーンに対応する表示画像117、背景画像データプレーンに対応する表示画像118などが表示される。元の画像に対応する表示画像の代わりに前景画像データプレーンに対応する画像を表示してもよいし、背景画像データプレーンに対応する表示画像118を表示しなくてもよい。
【0066】
図11では、背景画像データプレーンに対応する表示画像118の中に文字(ただし黒色文字ではない)と絵柄が重畳した部分が混在しており、選択データプレーンに対応する表示画像117の中には当該部分の文字が抽出されていないことを例示している。このように属性分離部103の分離処理で分離できていない文字・線画部分を分離するために、本実施形態では、分離できなかった部分をパーソナルコンピュータで実行する、より分離精度の高い属性分離アルゴリズムで再度分離処理する。この再分離処理のため、オペレータは、対象とする閉領域を、ディスプレイ111上に表示した元の画像データの表示画像115を参照して指定する。ディスプレイ111を参照して所望の閉領域を指定する方法としては、オペレータがマウス113を操作し、例えば属性分離結果を修正したい領域116の開始点(矩形領域の左上点)にマウスポインタ114を合わせてマウス113の左ボタンを押下し、そのまま領域116の終了点(矩形領域の右下点)までマウス113を操作してマウスポインタ114をドラッグするなどの操作方法が可能である。なお、この領域指定操作はあくまで一例であり、これ以外の操作による領域指定が可能であることは明らかであろう。
【0067】
図10に示した画像処理装置の動作について、図12のフローチャートを参照しつつ説明する。オペレータは先ず最初に、文字・線画部分と絵柄部分を属性分離してその結果を保存したい原稿をスキャナ101のプラテン上にセットする(S1201)。次いでオペレータはパーソナルコンピュータ105よりスキャナ103に対して走査開始命令を発行しスキャナを起動させる(S1202)。この走査開始命令に応じ、スキャナ101はプラテン上の原稿を光学的に走査することで当該原稿に対応するディジタル画像データを生成し、属性分離部103に入力する。ここで、必要に応じて、属性分離部103に入力する画像データに対し、該分離部103での属性分離処理に適した色空間への変換を行う。属性分離部103では、入力される画像データに対して、例えば図4に示すアルゴリズムにより原稿に含まれる黒文字部分を検出することで第1の属性分離を行い、この分離結果に基づき、文字色データプレーン、背景画像データプレーン、選択データプレーンからなる第1の多層画像データを生成する(S1204)。パーソナルコンピュータ105は、スキャナ101における第1の属性分離処理を特に制御する必要はないので、スキャナ101での属性分離処理が終了するのを監視する(S1203)。スキャナ101で属性分離処理が終了したことを検知すると、スキャナ101より第1の多層画像データをネットワークケーブル104を経由してパーソナルコンピュータ105内部に取り込む(S1205)。
【0068】
パーソナルコンピュータ105は、スキャナ101での属性分離の結果をオペレータに確認させるために、取り込んだ第1の多層画像データをもとに、ディスプレイ111に表示する表示画像115,117,118等を生成する(S1206)。ここで、もとの原稿画像を示す表示画像115は、第1の多層画像データの選択データの論理に従って文字色データプレーンと背景画像データプレーンとを合成することで生成できる。なお、多層画像データプレーンの各プレーンをそのまま表示することも可能であり、その場合は合成処理を実施する必要はない。
【0069】
次に、分離結果をディスプレイに表示するために、第1の多層画像データの選択データプレーンと背景画像データプレーン、および合成された第1の多層画像データの解像度をディスプレイ解像度に適合するように解像度変換処理を行う(S1207)。解像度変換された各画像は、図11に例示したように、第1の分離結果としてディスプレイ上に表示される(S1208)。
【0070】
オペレータはディスプレイ上に表示された第1の分離結果を参照し、分離結果を修正したり、さらに精度よく属性分離を施したい部分を閉領域として指定する(S1209)。このとき、複数の閉領域を指定することもできる。パーソナルコンピュータ105は、合成された画像データ(原稿を読み取ったときの画像データに対応)のうち、このようにして指定された閉領域内の画像データのみを切り出す(S1210)。そしてパーソナルコンピュータ105は、切り出した閉領域内の画像データに対し、図5に示すフローチャートに従って画像の局所的性質に基づく第2の属性分離処理を実行し(S1211)、当該属性分離結果に基づいて第2の多層画像データを生成する(S1212)。図7で説明したように、第2の多層画像データに含まれる選択データは、第1の多層画像データに含まれる選択データと合成することができるので、2種類の属性分離アルゴリズムから生成されたこれら2つの選択データを1つの選択データへと合成する(S1213)。次に、ステップS1206で生成した合成多層画像データを、この合成された選択データを使用して属性分離し、背景画像データプレーンと文字色データプレーンを生成する(S1214)。この分離結果を第2分離結果と呼ぶ。第2分離結果が作成されると、その結果の良否をオペレータに判断させるために、この第2分離結果に対して解像度変換を必要に応じて施した上でディスプレイに表示する(S1215)。
【0071】
オペレータはその結果を見て所望の属性分離処理が行えたかどうかを判断し(S1216)、結果が満足できない場合はステップS1209に戻り再度領域の指定から作業を繰り返す。結果が満足されるものであれば、第2分離結果を最終的な属性分離結果として保存する(S1217)。
【0072】
なお、第2分離結果の良否の確認は、選択データプレーンの表示だけでもかなりの程度可能なので、ステップS1215では選択データプレーンのみを表示するだけでもよい。この場合、ステップS1214の段階で属性分離を行う必要はなく、ステップS1213で合成した選択データが良好であると判断した後で属性分離を行えばよい。
【0073】
以上、本発明の好適な実施形態を説明した。以上の実施形態では、異なる2種類の属性分離処理方式を適宜割り振って属性分離処理を行う場合について説明を行ってきたが、属性分離処理方式の種類が3以上の場合であっても本発明は適用可能である。この場合、オペレータは、領域毎にどの属性分離処理を割り当てるかを別途指定すればよい。
【0074】
以上説明した図1,図7,図9等の各装置構成は、ソフトウェアで実現することもできるし、ハードウェア回路で構成することもできる。また以上では、処理能力が異なる複数の属性分離方式として、図4及び図7に示したものを例示したが、これに限らず様々な方式を採用することができる。
【0075】
以上説明してきたように、本実施形態によれば、属性分離を施したい画像データに対して閉領域を指定し、閉領域毎に、例えば分離性能はそれほど高くはないが処理速度が速い属性分離処理方法や、処理速度は遅いが分離性能が高い属性分離処理方法を割り当てることができるため、画像全体の処理速度の低下を抑えつつ精度の高い属性分離処理を実行することができる。
【図面の簡単な説明】
【図1】本発明に係る画像処理装置の概略の構成を示す図である。
【図2】属性分離部の構成を示す図である。
【図3】文字・線画部分と絵柄部分が混在する画像データの一例を示す図である。
【図4】簡単な属性分離アルゴリズムを説明するフローチャートである。
【図5】複雑な属性分離アルゴリズムを説明するフローチャートである。
【図6】文字・線画部分の形状を抽出するアルゴリズムを適用して属性分離を行った結果を説明する図である。
【図7】本発明に係る画像処理装置の別の実施例を説明する図である。
【図8】3層以上のMRCを説明する図である。
【図9】3層以上のMRCを生成することができる本発明の別の態様を説明する図である。
【図10】本発明の別の実施態様を説明する図である。
【図11】パーソナルコンピュータを説明する図である。
【図12】パーソナルコンピュータを用いた構成における処理手順の例を示すフローチャートである。
【符号の説明】
1 画像データ入力部、2 領域指定部、3 切り替え部、4 第1の属性分離部、5 第2の属性分離部。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus and method for processing image data in which characters / line drawings and pictures are mixed.
[0002]
[Prior art]
In recent years, ITU-T Recommendation T. In an MRC (Mixed Raster Content) defined in 44, image data in which a character / line drawing and a continuous tone pattern such as a photograph are mixed is indicated by a background plane, a foreground plane, or both of them. The system is divided into a total of three layers, that is, a selection plane, and a method for individually compressing and encoding each plane is defined. This ITU-T Recommendation T. According to 44, the character / line drawing portion and the picture portion can be separated into separate planes, and each plane can be compression-encoded by a compression encoding method suitable for the characteristics of the image data included in each plane. For example, the plane of the picture portion is in accordance with ITU-T Recommendation T. 81, compression encoding is performed by a lossy compression method such as the JPEG method, and the plane of the character / line drawing portion is in accordance with ITU-T Recommendation T.81. For example, compression encoding is performed by a lossless compression method such as the MMR method shown in FIG.
[0003]
As described above, the technique of separating image data in which characters / line drawings and pictures are mixed into three layers of image data planes according to the local characteristics and selectively switching the compression encoding method for each plane is disclosed in JPEG. There is an advantage that the compression image quality can be kept high while the compression efficiency is improved as compared with the case where the text / photo mixed image data is compressed by the method alone.
[0004]
On the other hand, how to separate a character / line drawing portion from a picture portion is described in ITU-T Recommendation T. 44, not standardized. Therefore, as an attribute separation method for generating the MRC format, a simple method of performing separation on a pixel basis based on a pixel value is disclosed in, for example, JP-A-2001-223903 and JP-A-2001-127999 by the present applicant. Various methods have been proposed, up to the complicated one.
[0005]
[Problems to be solved by the invention]
However, the attribute separation technology disclosed as a conventional technology has the following problems.
[0006]
First, a relatively simple attribute separation algorithm can quickly separate an image in which characters and line drawings and pictures are mixed, but the separation capability is not so good. For example, characters and lines that are superimposed on a pattern part It is difficult to separate the parts well.
[0007]
On the other hand, with a complicated separation algorithm, it is generally possible to separate an image having a complicated structure since the separation performance is high.For example, it is possible to satisfactorily separate a character / line drawing portion superimposed on a picture portion. On the other hand, the processing becomes complicated and the processing speed decreases.
[0008]
The present invention solves the above-mentioned problems of the prior art. In the present invention, an image in which a character / line drawing and a pattern photographic image are mixed is converted into a character / line drawing portion and a pattern with high speed and high separation performance according to the local property. It is an object of the present invention to provide an image processing device that can be separated into parts.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, an apparatus according to the present invention accepts a plurality of attribute separating means for separating image data into a character / line drawing part and a picture part by different methods, and receives designation of area division for an image to be processed. And control means for causing the corresponding attribute separating means to process data of each area of the image to be processed in accordance with the area division designation.
[0010]
Further, the apparatus according to the present invention selects the image data from first foreground image data, first background image data, and any one of the first foreground image data and the first background image data. A first selection data indicating whether each pixel is to be divided into three layers: first selection data indicating whether the image data is divided into three layers, and second foreground image data in a different method from the first separation means. A second background image data, and second selection data indicating which of the second foreground image data and the second background image data is to be selected. Receiving the designation of area division for the image to be processed, and distributing the data of each area of the image to be processed to the first separation means and the second separation means according to the area division designation. Control means for performing the processing.
[0011]
According to a preferred aspect of the present invention, the first selection data generated by the first separation unit and the second selection data generated by the second separation unit are combined to generate combined selection data. Means.
[0012]
In another preferred aspect of the present invention, the third selection data is generated based on the area specifying information output by the area specifying means, and the three-layer data output by the first separating means includes: The image processing apparatus further includes a multi-layer image data generation unit that generates a multi-layer image data plane including the three-layer data output by the second separation unit and the third selection data.
[0013]
In addition, the apparatus according to the present invention includes a first attribute separating unit that separates image data into a character / line drawing portion and a picture portion, and a display that displays information related to a separation result output by the first attribute separating unit. Means, area designation means for receiving designation of a closed area on the image data in association with the display of the display means, and image data included in the closed area designated by the area designation means, There is provided a second attribute separating unit that separates a character / line drawing part and a picture part by a method different from the attribute separating unit.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a diagram showing a schematic configuration of an image processing apparatus according to the present invention.
[0015]
The image
[0016]
The
[0017]
The
[0018]
The first
[0019]
An outline of the entire operation will be described with reference to FIGS. FIG. 3 shows an example of image data in which a character / line drawing part and a picture part read from the image
[0020]
In general business documents, the color of characters and lines is often black, and by paying attention to this point, many characters and line drawings can be extracted by detecting "black" pixels of image data. . Therefore, in the following example, the first
[0021]
On the other hand, even in a business document, the color of characters or lines to be emphasized may be other than black, or a picture may be arranged in the background of a character / line drawing portion. Such a portion is difficult to be separated by the first
[0022]
The
[0023]
The
[0024]
The first
[0025]
In the above example, an example in which the image data is distributed to the two
[0026]
As described above, since a plurality of attribute separation algorithms can be selectively switched based on the area information output from the
[0027]
Next, the configurations of the first
[0028]
The character
[0029]
The multiplexer (MUX) 22 has two systems of outputs: character color data DT1 and background image data DT2. The
[0030]
The result of applying the above-described attribute separation by character shape extraction to image data in which a character portion and a picture portion are mixed will be described with reference to FIG.
[0031]
FIG. 6A shows an example of an
[0032]
The three planes shown in FIG. 6B obtained as a result of the attribute separation may be directly used as the three image data planes of the MRC. However, considering the data compression efficiency, there is room for improvement in the character color plane and the background image plane. There is. FIG. 6C shows a set of image data planes having better compression efficiency. In this example, the
[0033]
That is, since the shape of the character / line drawing portion is represented on the
[0034]
The following improvements can be made to the plane 67 of the background image. That is, in the output of the background image DT2 of the
[0035]
Next, the processing contents of the character
[0036]
FIG. 4 is a flowchart illustrating a simple attribute separation algorithm executed by the character
[0037]
As is clear from the above description, the present algorithm executed by the first
[0038]
Next, an example of an algorithm executed by the second
[0039]
First, the L to be processed * a * b * L of image data * , A * , B * For each component, the image data of the component is divided into blocks of a predetermined size (for example, 8 × 8 pixels) (S51), and a histogram of the pixel values of the component of each pixel in the block is obtained. Then, a difference between the maximum pixel value Max and the minimum pixel value Min is obtained, it is checked whether the difference is larger than a predetermined first threshold value TH1, and a variance σ of the pixel values in the block is obtained. It is checked whether the variance value σ is greater than a predetermined second threshold value TH2 (S52). If it is determined that both the difference between the pixel values and the variance value are larger than the corresponding threshold values TH1 and TH2, it means that the block includes a portion where the pixel value change is steep, and thus the character / line drawing portion is included. It is determined to be a block (referred to as a character / line drawing block), and the process proceeds to step S53. In step S52, if either one of the difference value or the variance value is equal to or smaller than the threshold value, it is determined that the block is not a character / line drawing block, and all the selection data for each pixel in the block is “0”. (S57). It should be noted that the value of the selection data obtained here is not the final result, but is combined with the value of the selection data obtained later in the processing for other components to obtain the final selection data for each pixel.
[0040]
For the block determined to be a character / line drawing block in step S52, an average value of the maximum pixel value Max and the minimum pixel value Min of the block is obtained, and this is set as a threshold value B relating to the binarization processing of the block (S53). ). Then, the pixel value Dij of the pixel (i, j) (i, j is a number indicating the ordinate and abscissa of the pixel in the block) belonging to the block is compared with the threshold value B (S54). “1” is assigned to the pixel having a large value as the selection data SEL (S56), and “0” is assigned to the pixel having a value smaller than the threshold B as the selection data SEL (S55). This process is repeated for all pixels in the block (LOOP1). Thereby, selection data of each pixel in the block for the component is obtained. The selection data obtained in steps S55 and S56 are also temporary values, as in the case of step S57, and are combined with the selection data obtained for another component later.
[0041]
For the same block, the processing of steps S51 to S56 * , A * , B * (LOOP2). Thereby, the value (“0” or “1”) of the selection data of each pixel in the block is obtained for each of these components. For each pixel in the block, the logical sum of the values of the selection data of these three components is obtained, and this is output as the final selection data of the pixel (S58).
[0042]
The above is the processing for one block. This processing for one block is repeated until all the image data for one page is processed (LOOP3). This completes attribute separation for the entire page.
[0043]
In the above description, the luminance signal L of the image data * , Color difference signal a * , B * Was used to determine the final attribute separation result, but this is not essential. For example, the luminance signal L * Even in a configuration in which the final attribute separation result is obtained based only on the statistical analysis result, a favorable result can be obtained.
[0044]
As a process of the character
[0045]
An example of the attribute separation algorithm performed by the first
[0046]
According to the above-described embodiment, by performing attribute separation at high speed with a relatively simple process in a region where attribute separation is easy in an image, and by applying an advanced separation process to a region where attribute separation is difficult. For example, advanced attribute separation such as separating characters arranged on a natural image can be performed. According to the present embodiment, when the attribute separation processing is realized by software, advanced attribute separation can be realized without greatly lowering the overall processing speed.
[0047]
Next, another configuration of the device according to the present invention will be described with reference to FIG.
[0048]
In this configuration, the image
[0049]
The first character
[0050]
As is clear from the description of FIG. 4 and FIG. 5, the output of the first and second character shape extraction units indicates “1” for the pixel classified as character / line drawing and does not belong to the character / line drawing. Since “0” is indicated for a pixel classified as a background such as a picture, one selection data for the entire image is obtained by performing a logical sum on the selection data output by each character shape extraction unit. be able to. The OR
[0051]
The
[0052]
As described above, even with the configuration of FIG. 7, the same attribute separation result as that of the above-described embodiment described with reference to FIG. 1 can be obtained. In the configuration of FIG. 7, only one
[0053]
Next, still another configuration of the device according to the present invention will be described with reference to FIGS.
[0054]
ITU-T Recommendation T. 44, in Annex A, there is a description of MRC extended to three or more layers. According to this, in the MRC of three or more layers,
[0055]
9, an image
[0056]
The first
[0057]
The second
[0058]
Here, since the attribute separation result output by the second
[0059]
In this configuration, the attribute separation results of the image data included in the closed area specified by the
[0060]
Next, another embodiment of the present invention using a personal computer will be described with reference to FIG.
[0061]
The
[0062]
The
[0063]
The
[0064]
FIG. 11 is a diagram illustrating a personal computer. The
[0065]
The
[0066]
In FIG. 11, the
[0067]
The operation of the image processing apparatus shown in FIG. 10 will be described with reference to the flowchart in FIG. First, the operator first sets a document whose attribute is to be separated into a character / line drawing portion and a picture portion on the platen of the scanner 101 (S1201). Next, the operator issues a scan start command to the
[0068]
The
[0069]
Next, in order to display the separation result on a display, the resolution of the selected data plane and the background image data plane of the first multilayer image data and the resolution of the synthesized first multilayer image data are adjusted to match the display resolution. Conversion processing is performed (S1207). Each image whose resolution has been converted is displayed on a display as a first separation result, as illustrated in FIG. 11 (S1208).
[0070]
The operator refers to the first separation result displayed on the display, corrects the separation result, and designates a portion where attribute separation is to be performed more accurately as a closed area (S1209). At this time, a plurality of closed areas can be specified. The
[0071]
The operator determines whether or not the desired attribute separation processing has been performed by viewing the result (S1216). If the result is not satisfied, the operator returns to step S1209 and repeats the operation from the designation of the area again. If the result is satisfied, the second separation result is stored as a final attribute separation result (S1217).
[0072]
It should be noted that the quality of the second separation result can be confirmed to a considerable extent only by displaying the selected data plane. Therefore, in step S1215, only the selected data plane may be displayed. In this case, it is not necessary to perform attribute separation at the stage of step S1214, and the attribute separation may be performed after determining that the selected data synthesized in step S1213 is good.
[0073]
The preferred embodiment of the present invention has been described above. In the above embodiment, the case where the attribute separation processing is performed by appropriately allocating two different types of attribute separation processing methods has been described. However, even when the number of types of the attribute separation processing methods is three or more, the present invention Applicable. In this case, the operator may separately designate which attribute separation process is to be assigned to each area.
[0074]
Each device configuration of FIGS. 1, 7, 9 and the like described above can be realized by software or can be configured by a hardware circuit. In the above description, the method shown in FIGS. 4 and 7 is exemplified as a plurality of attribute separation methods having different processing capacities. However, the present invention is not limited to this, and various methods can be adopted.
[0075]
As described above, according to the present embodiment, a closed region is specified for image data to be subjected to attribute separation, and for each closed region, for example, the attribute separation is not so high but the processing speed is high. Since a processing method and an attribute separation processing method having a low processing speed but a high separation performance can be assigned, it is possible to execute the attribute separation processing with high accuracy while suppressing a reduction in the processing speed of the entire image.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of an image processing apparatus according to the present invention.
FIG. 2 is a diagram illustrating a configuration of an attribute separating unit.
FIG. 3 is a diagram showing an example of image data in which a character / line drawing portion and a picture portion are mixed.
FIG. 4 is a flowchart illustrating a simple attribute separation algorithm.
FIG. 5 is a flowchart illustrating a complicated attribute separation algorithm.
FIG. 6 is a diagram illustrating a result of attribute separation performed by applying an algorithm for extracting a shape of a character / line drawing portion.
FIG. 7 is a diagram for explaining another embodiment of the image processing apparatus according to the present invention.
FIG. 8 is a diagram illustrating an MRC having three or more layers.
FIG. 9 is a diagram illustrating another embodiment of the present invention that can generate an MRC having three or more layers.
FIG. 10 is a diagram illustrating another embodiment of the present invention.
FIG. 11 is a diagram illustrating a personal computer.
FIG. 12 is a flowchart illustrating an example of a processing procedure in a configuration using a personal computer.
[Explanation of symbols]
1 image data input section, 2 area designation section, 3 switching section, 4 first attribute separation section, 5 second attribute separation section.
Claims (9)
処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータを、それぞれ対応する属性分離手段に処理させる制御手段と、
を備える画像処理装置。A plurality of attribute separating means for separating image data into a character / line drawing portion and a picture portion by different methods,
Control means for receiving designation of area division for the image to be processed, and causing the corresponding attribute separation means to process data of each area of the image to be processed according to the designation of area division;
An image processing apparatus comprising:
画像データを、前記第1の分離手段とは異なる方式で、第2の前景画像データと、第2の背景画像データと、前記第2の前景画像データ及び前記第2の背景画像データのうちのいずれを選択するかを示す第2の選択データと、の3層に分離する第2の分離手段と、
処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータを、前記第1の分離手段と前記第2の分離手段とに振り分けて処理させる制御手段と、
を備える画像処理装置。The image data is a first foreground image data, a first background image data, and a first pixel for each pixel indicating which one of the first foreground image data and the first background image data is to be selected. First separation means for separating the data into three layers, namely, one selection data;
The image data is converted into a second foreground image data, a second background image data, and the second foreground image data and the second background image data by a method different from the first separation means. Second selection data indicating which one to select, and second separation means for separating into three layers:
A control unit that receives designation of area division for an image to be processed, and distributes and processes data of each area of the image to be processed to the first separation unit and the second separation unit in accordance with the region division designation When,
An image processing apparatus comprising:
前記第1の属性分離手段が出力する分離結果に関連する情報を表示する表示手段と、
前記表示手段の表示に対応付けて、前記画像データ上で閉領域の指定を受け付ける領域指定手段と、
前記領域指定手段で指定された閉領域に含まれる画像データを、前記第1の属性分離手段とは異なる方式で文字・線画部分と絵柄部分に分離する第2の属性分離手段と、
を備えたことを特徴とする画像処理装置。First attribute separating means for separating image data into a character / line drawing portion and a picture portion;
Display means for displaying information related to the separation result output by the first attribute separation means;
Area designation means for receiving designation of a closed area on the image data in association with the display of the display means,
A second attribute separating unit that separates the image data included in the closed region specified by the region specifying unit into a character / line drawing portion and a picture portion in a different manner from the first attribute separating unit;
An image processing apparatus comprising:
画像データを、前記第1の分離ステップとは異なる方式で、第2の前景画像データと、第2の背景画像データと、前記第2の前景画像データ及び前記第2の背景画像データのうちのいずれを選択するかを示す第2の選択データと、の3層に分離する第2の分離ステップと、
処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータに対して、前記第1の分離ステップ又は前記第2の分離ステップを選択的に実行させる制御ステップと、
を含む画像処理方法。The image data is a first foreground image data, a first background image data, and a first pixel for each pixel indicating which one of the first foreground image data and the first background image data is to be selected. A first separation step of separating the selected data into three layers;
The image data is converted into a second foreground image data, a second background image data, and the second foreground image data and the second background image data by a method different from the first separation step. Second selection data indicating which to select, a second separation step of separating into three layers,
Receiving designation of area division for the image to be processed, and selectively executing the first separation step or the second separation step on data of each area of the image to be processed in accordance with the designation of area division. A control step;
An image processing method including:
前記第1の属性分離ステップの分離結果に関連する情報を表示する表示ステップと、
前記表示ステップの表示に対応付けて、前記画像データ上で閉領域の指定を受け付ける領域指定手段と、
前記領域指定手段で指定された閉領域に含まれる画像データを、前記第1の属性分離ステップとは異なる方式で文字・線画部分と絵柄部分に分離する第2の属性分離ステップと、
を含む画像処理方法。A first attribute separation step of separating the image data into a character / line drawing part and a picture part;
A display step of displaying information related to a separation result of the first attribute separation step;
Area designation means for accepting designation of a closed area on the image data in association with the display of the display step;
A second attribute separating step of separating the image data included in the closed area specified by the area specifying means into a character / line drawing portion and a picture portion in a manner different from the first attribute separating step;
An image processing method including:
画像データを、前記第1の分離手段とは異なる方式で、第2の前景画像データと、第2の背景画像データと、前記第2の前景画像データ及び前記第2の背景画像データのうちのいずれを選択するかを示す第2の選択データと、の3層に分離する第2の分離手段、
処理対象の画像に対する領域分けの指定を受け付け、この領域分け指定に従って、処理対象の画像の各領域のデータを、前記第1の分離手段と前記第2の分離手段とに振り分けて処理させる制御手段、
としてコンピュータシステムを動作させるためのプログラム。The image data is a first foreground image data, a first background image data, and a first pixel for each pixel indicating which one of the first foreground image data and the first background image data is to be selected. A first separation unit for separating the data into three layers:
The image data is converted into a second foreground image data, a second background image data, and the second foreground image data and the second background image data by a method different from the first separation means. Second selection data indicating which one to select, and second separation means for separating into three layers:
A control unit that receives designation of region division for an image to be processed, and distributes and processes data of each region of the image to be processed to the first separation unit and the second separation unit in accordance with the region division designation ,
As a program for operating a computer system.
前記第1の属性分離手段が出力する分離結果に関連する情報を示す表示データを生成する表示手段と、
前記表示手段で生成した表示データに対応付けて、前記画像データ上で閉領域の指定を受け付ける領域指定手段、
前記領域指定手段で指定された閉領域に含まれる画像データを、前記第1の属性分離手段とは異なる方式で文字・線画部分と絵柄部分に分離する第2の属性分離手段、
としてコンピュータシステムを動作させるためのプログラム。First attribute separating means for separating image data into a character / line drawing portion and a picture portion;
Display means for generating display data indicating information related to the separation result output by the first attribute separation means;
Area specifying means for receiving designation of a closed area on the image data in association with the display data generated by the display means;
A second attribute separating unit that separates the image data included in the closed region specified by the region specifying unit into a character / line drawing portion and a picture portion by a method different from the first attribute separating unit;
As a program for operating a computer system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002188662A JP2004032554A (en) | 2002-06-27 | 2002-06-27 | Image processor and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002188662A JP2004032554A (en) | 2002-06-27 | 2002-06-27 | Image processor and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004032554A true JP2004032554A (en) | 2004-01-29 |
Family
ID=31183342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002188662A Pending JP2004032554A (en) | 2002-06-27 | 2002-06-27 | Image processor and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004032554A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006185336A (en) * | 2004-12-28 | 2006-07-13 | Canon Inc | Image processor, method and computer program |
US7639880B2 (en) | 2004-12-10 | 2009-12-29 | Ricoh Company, Ltd. | Compressing a multivalue image with control of memory space requirement |
JP2010130214A (en) * | 2008-11-26 | 2010-06-10 | Ricoh Co Ltd | Image processing apparatus, image processing method, and program |
JP2014072556A (en) * | 2012-09-27 | 2014-04-21 | Oki Data Corp | Image processing apparatus, program and method |
-
2002
- 2002-06-27 JP JP2002188662A patent/JP2004032554A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7639880B2 (en) | 2004-12-10 | 2009-12-29 | Ricoh Company, Ltd. | Compressing a multivalue image with control of memory space requirement |
JP2006185336A (en) * | 2004-12-28 | 2006-07-13 | Canon Inc | Image processor, method and computer program |
JP4574347B2 (en) * | 2004-12-28 | 2010-11-04 | キヤノン株式会社 | Image processing apparatus, method, and program |
JP2010130214A (en) * | 2008-11-26 | 2010-06-10 | Ricoh Co Ltd | Image processing apparatus, image processing method, and program |
JP2014072556A (en) * | 2012-09-27 | 2014-04-21 | Oki Data Corp | Image processing apparatus, program and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6941014B2 (en) | Method and apparatus for segmenting an image using a combination of image segmentation techniques | |
US7889974B2 (en) | Method and apparatus for editing images, and method and apparatus for reproducing the edited images | |
JP5180670B2 (en) | Image processing apparatus and image processing method | |
US8384964B2 (en) | Image processing apparatus and image processing method | |
JP2006005923A (en) | Image inputting system and method for dynamically controlling file size of digital image | |
US20180220032A1 (en) | Image processing method that obtains special data from an external apparatus based on information multiplexed in image data and apparatus therefor | |
JP5645612B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
US6924909B2 (en) | High-speed scanner having image processing for improving the color reproduction and visual appearance thereof | |
JP2010056827A (en) | Apparatus and program for processing image | |
US7929185B2 (en) | System and method for switching screens from overview and preview | |
US7307760B2 (en) | Raster image path architecture | |
US20090110313A1 (en) | Device for performing image processing based on image attribute | |
JP2010146218A (en) | Image processing apparatus, image processing method, computer program | |
JP2004032554A (en) | Image processor and method | |
JP2005275854A (en) | Image processor, image processing method, image processing program and recording medium with this program stored thereon | |
JP2002369011A (en) | Image processing apparatus, image processing method and image processing program | |
JP2007088912A (en) | Image processing apparatus and program | |
JP5212451B2 (en) | Region specifying method, region specifying device, program, server, and system | |
JP2011053901A (en) | Device, system, method and program for providing document image data, and background processing program | |
JP2008092419A (en) | Image processor and image processing method | |
US8515186B2 (en) | Image processor, image processing method and storage medium | |
JP3882657B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded | |
US8553294B2 (en) | Outlining method for properly representing curved line and straight line, and image compression method using the same | |
JP2005323066A (en) | Image processing apparatus | |
JP3882603B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070724 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070925 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080603 |