JP3826983B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP3826983B2 JP3826983B2 JP36894198A JP36894198A JP3826983B2 JP 3826983 B2 JP3826983 B2 JP 3826983B2 JP 36894198 A JP36894198 A JP 36894198A JP 36894198 A JP36894198 A JP 36894198A JP 3826983 B2 JP3826983 B2 JP 3826983B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- separation
- plane
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、入力された画像データをその画像中の属性に応じて複数の画像データに分離する画像処理装置に関するものである。
【0002】
【従来の技術】
近年、複写機のディジタル化の進展とともにファクシミリ機能やプリンタ機能との複合化が進んでいる。また、これらの機器やコンピュータ、プリンタなど、各種の機器がLANや回線などのネットワークを介して接続されたネットワークシステムが出現している。最近はこれらの機器のカラー化も進み、カラーFAXやカラープリンタも主流になりつつある。このようなネットワークシステムでは、例えば、解像度がそれぞれ異なる異機種装置間での相互接続や、カラー複写機と白黒複写機といったような色空間がそれぞれ異なる異機種装置間での相互接続が可能である。
【0003】
このような異機種装置間で画像データをやりとりする場合、通常は入力した原稿画像を1枚のプレーン画像として扱う。つまり1枚のプレーン画像に対して、入力側機器で原稿タイプを判別して原稿に適した画像処理をプレーン画像全体に施して出力側機器へ送信する。このように原稿画像を1枚のプレーン画像として扱った場合、原稿画像が文字のみ、あるいは写真のみといった1種類の属性の画像データだけで構成されるのであれば特に問題はない。しかし、文字と写真が混在しているような複数の属性の画像データから構成されている場合には不都合が生じる。例えば文字と写真が混在している画像データを圧縮しようとした場合、1枚のプレーン画像に対して同じ圧縮処理を施すので、適用する圧縮手法によっては文字部あるいは写真部のいずれかの圧縮率が低下して通信時間が長くなったり、あるいはいずれかの画質が劣化してしまうという問題があった。
【0004】
これに対し、入力原稿の画像の特徴を判別し、判別結果から画像を属性毎に分離して複数のプレーン画像に分けて扱う手法がある。図15は、入力画像データを複数のプレーン画像に分離する手法を用いる場合における各プレーン画像の具体例の説明図である。この例では、入力画像データから文字情報プレーンと絵柄情報プレーン、それに分離情報プレーンを生成する。例えば図15(A)に示したように赤い文字「ABCDE」と、青い文字列と、写真などの絵柄部分(矩形で囲んだ部分)が同じ画像中に存在している。なお、図示の都合上、青い文字列については線分によって示している。この場合、図15(B)に示すように赤い文字[ABCDE」および青い文字列の色成分のみからなる文字情報プレーンと、図15(D)に示すように文字部分を除いた絵柄部分や背景部分からなる絵柄画像プレーンに分離する。さらに、図15(B)に示す文字情報プレーンあるいは図15(D)に示す絵柄情報プレーンのいずれかを選択するために、図15(C)に示す分離情報プレーンが生成される。この分離情報プレーンには、文字の形状に関する情報が含まれる。
【0005】
このようにして、この例では入力された画像は3つのプレーンに分離される。分離された文字情報プレーンは色情報と大まかな領域情報を有していればよい。また、分離情報プレーンは、細かな文字形状の情報を有しているものの、文字情報プレーンあるいは絵柄情報プレーンのいずれかを選択できればよいので、2値のデータで構成することができる。また、絵柄情報プレーンは、写真データなどが含まれるが、文字のような細かなエッジはそれほど重要視されない。
【0006】
このように各プレーンの画像はそれぞれの特徴を有した画像に分離されているので、例えば文字画像プレーンには文字データに適した圧縮手法を、絵柄画像プレーンには写真データに適した圧縮手法を、さらに分離情報プレーンには2値データに適した圧縮手法を適用できる。そのため、圧縮率も向上し、また画質劣化もそれほど目立たなくなる。さらに、これら各プレーンに対して最適な解像度変換処理手法を用いて解像度を変換することによって、それぞれ影響の少ない範囲でデータ量を削減することが可能となる。
【0007】
このような方法の類似技術として特開平8−186711号公報に記載されている符号化装置がある。この装置では、カラー画像から文字情報を抽出し、抽出した文字情報は可逆圧縮し、文字情報を除いた絵柄情報は解像度変換して非可逆圧縮を施すというものである。
【0008】
一般的に、このような複数のプレーン画像に分けて扱う画像処理手法においては、像域分離処理を行って原画像から分離情報プレーンを作成し、分離情報プレーンをもとに原画像から文字情報プレーンと絵柄情報プレーンを生成している。
【0009】
しかしながら、単純に分離情報プレーンから文字情報プレーンや絵柄情報プレーンを生成した場合には、特に絵柄情報プレーンにおいて著しい画質劣化が見られる。図16は、複数プレーンへの分離時の絵柄情報プレーンの画質劣化の説明図、図17は、入力画像信号から分離情報を生成する際の信号処理の説明図である。例えば図15(C)に示すように、分離情報プレーンが文字線画の形状情報を含むとき、単純に分離情報プレーンを使って入力された画像データから文字線画部分を除外して絵柄情報プレーンを生成すると、絵柄情報プレーンに文字線画の輪郭が薄く残ってしまう。例えば図16(A)に示すような文字部分を除去して絵柄情報プレーンを生成すると、絵柄情報プレーンに図16(B)に示すような文字の輪郭が残ってしまう。
【0010】
このような現象は、特にスキャン入力した画像の場合に高い頻度で発生する。これはスキャン入力時に文字線画のエッジ部分において鮮鋭度が低下してしまうことによる。スキャン入力された画像信号は、例えば図17に示すようにエッジ部分の鮮鋭度が低下している。例えば所定の閾値で文字線画情報を抽出して分離情報プレーンを生成すると、分離情報プレーンの文字線画は図17中のbの領域となり、原稿画像の文字線画(幅a)に対して若干線幅が細くなってしまう。この線幅が細くなった文字線画(=分離情報プレーン)を使って、スキャン入力された画像から文字線画部分を除外すると、絵柄情報プレーンには除外しきれなかった文字線画の輪郭部分(図17中のcの領域)が低濃度で残ってしまう。このように、絵柄情報プレーンに文字線画の輪郭が残った状態で絵柄情報プレーンに圧縮処理を施した場合には、高周波成分が存在してしまうので全体の圧縮率が低下してしまう。また、解像度変換処理を施した場合には、合成後の画像において文字線画のエッジ部の画質が大きく劣化してしまうという問題があった。
【0011】
このような問題に対し、文字線画を抽出する際の閾値を下げるなどして、エッジの低濃度部分まで文字線画として抽出するようにすれば、ある程度、この現象は解消される。しかしその場合には文字線画でない領域が文字線画として抽出されてしまい、画像の分離処理の精度が低下し、分離処理自体に支障をきたしてしまう。また、圧縮率の低下や画質劣化が発生してしまうという問題がある。
【0012】
【発明が解決しようとする課題】
本発明は、上述した事情に鑑みてなされたもので、画像の分離処理、特に文字線画の分離を良好に行い、解像度変換処理や圧縮処理を施しても画質劣化がほとんどなく、より高画質かつ高圧縮率で画像を送信あるいは蓄積可能な画像処理装置を提供するとことを目的とするものである。
【0013】
【課題を解決するための手段】
本発明は、入力画像データから第1画像データ、第2画像データ、および第1画像データまたは第2画像データのいずれかを選択する選択データのうち少なくとも選択データを含む2以上の画像データを生成する画像処理装置および画像処理方法において、入力画像データから選択データを生成し、選択データに膨張処理を施して膨張選択データを生成し、膨張選択データを用いて入力画像データを第1画像データまたは第2画像データに分離し、入力画像データから生成した選択データと、分離した第1画像データ及び第2画像データの少なくとも一方を出力する。また、入力画像データから文字線画領域を分離して選択データを生成し、生成された選択データに膨張処理を施して膨張選択データを生成し、生成された膨張選択データに基づいて文字線画を含む第1の画像データとそれ以外の画像を含む第2の画像データに前記入力画像データを分離し、入力画像データから生成された選択データと、分離した第1の画像データ及び第2の画像データを出力する。
【0014】
このように膨張処理した選択データを用いることによって、例えば文字線画においてはそのエッジ部が別の画像データとして分離されることがなくなり、良好に分離処理を行うことができる。そのため、解像度変換処理や圧縮処理を施しても画質劣化がほとんどなく、より高画質かつ高圧縮率で画像を送信可能となる。
【0015】
また、このような膨張選択データを用いて分離処理を行うと、例えば文字線画の輪郭に接した部分が文字線画として分離される。文字線画と絵柄が隣接している場合、絵柄部分が文字線画として分離される。しかし合成時に膨張処理前の選択データを用いると、合成時に白画素が文字線画の輪郭に沿って発生する場合がある。これを防止するため、膨張選択データを用いて分離した画像データについて分離されなかった領域の一部の画素を補正する。これによって、合成時に文字線画などの輪郭部に白画素の発生を防止することができる。
【0016】
【発明の実施の形態】
図1は、本発明の第1の実施の形態を示すブロック構成図である。図中、1は色空間変換部、2は選択データ生成部、3は輝度信号抽出部、4は像域分離部、5は膨張処理部、6は多層分離部、7,9,11は解像度変換部、8,10,12は圧縮部、13は画像フォーマットラッピング部である。
【0017】
色空間変換部1は、入力画像データを入力デバイスの色空間(例えばRGB色空間など)から所定の色空間(例えばCIE−L* a* b* などデバイスに依存しない色空間)に変換する。なお、所定の色空間で表現されている入力画像データが入力される場合には、この色空間変換部1を設けずに構成してもよい。
【0018】
選択データ生成部2は、第1画像データまたは第2画像データのいずれかを選択する選択データを生成する。以下、選択データが含まれる画像プレーンを分離情報プレーンと呼ぶ。選択データ生成部2は、輝度信号抽出部3および像域分離部4を有している。輝度信号抽出部3は、色空間変換部1で色空間変換された入力画像データから輝度成分(例えばCIE−L* a* b* 色空間であればL* 成分)だけを抽出する。像域分離部4は、輝度信号抽出部3で抽出した輝度信号に基づいて、画像を属性に応じて分離し、分離情報プレーンを生成して出力する。
【0019】
膨張処理部5は、選択データ生成部2で生成された分離情報プレーンに対し、膨張処理を施して、膨張選択データからなる膨張分離情報プレーンを生成する。
【0020】
多層分離部6は、膨張処理部5で生成された膨張分離情報プレーンによって、色空間変換部1で色空間変換された入力画像データを属性ごとに複数の画像データ、例えば第1画像データと第2画像データに分離する。ここでは、文字や線画などの画像データと、写真やグラフィックなどの画像データの2つの画像データに分離する例を示している。以下の説明では、文字や線画などの画像データを文字情報プレーン、写真やグラフィックなどの画像データを絵柄情報プレーンと呼ぶ。もちろん、多層分離部6で分離する画像データは2つに限られるものではないし、また、例えば写真とグラフィックスを別の画像データとして分離するなど、分離する属性も文字と絵柄に限られるものではない。また、プレーン画像が一様な画像であれば、固定値を出力してプレーン画像を生成しないように構成することもできる。
【0021】
解像度変換部7は、文字情報プレーンに対して、文字画像に最適な手法で解像度変換処理を施す。もちろん、解像度変換処理が必要なければ設ける必要はない。圧縮部8は、文字情報プレーンに対して、文字画像に最適な手法で圧縮処理を施す。
【0022】
解像度変換部9は、絵柄情報プレーンに対して、写真やグラフィック画像に最適な手法で解像度変換処理を施す。もちろん、解像度変換処理が必要なければ設ける必要はない。圧縮部10は、絵柄情報プレーンに対して、写真やグラフィック画像に最適な手法で圧縮処理を施す。
【0023】
解像度変換部11は、選択データ生成部2で生成された分離情報プレーンに対して、分離情報プレーンに最適な手法で解像度変換処理を施す。もちろん、解像度変換処理が必要なければ設ける必要はない。圧縮部12は、分離情報プレーンに対して、分離情報プレーンに最適な手法で圧縮処理を施す。
【0024】
画像フォーマットラッピング部13は、解像度変換処理や圧縮処理が施された文字情報プレーン、絵柄情報プレーン、分離情報プレーンを所定の画像フォーマットに組み込んで出力する。出力されたデータは、例えば送信手段により送信したり、あるいは記憶装置などに格納することができる。
【0025】
なお、この例では多層分離部6において各情報プレーンに分離した後の処理として、解像度変換部7,9,11による解像度変換処理と、圧縮部8,10,12による圧縮処理を示しているが、これらの処理に限らず、種々の処理を行うことができる。特に、属性に応じて分離されたデータが処理対象であるので、属性に応じて異なる処理を施すことが望まれる処理を行うとよい。もちろん、選択データ生成部2および多層分離部6から出力される各情報プレーンをそのまま本発明の画像処理装置の出力としてもよい。また、色空間変換部1における色空間変換処理以外にも、入力画像データに対して一律に行う種々の画像処理を行ってもよい。
【0026】
図2は、本発明の第1の実施の形態における動作の一例を示すフローチャートである。まずS41において、入力画像データが色空間変換部1に入力される。入力画像データは、例えば原稿を入力する手段として図示しないスキャナを用い、原稿をスキャン入力することができる。あるいは、例えば予めCD−ROMやその他の大容量記憶メディアに記憶された画像データを入力したり、予めハードディスクなどの蓄積装置に蓄積された画像データを入力してもよい。さらにはデジタルカメラで撮影した画像データを入力してもよく、特に入力方法は限定されない。
【0027】
画像データが入力されると、S42において、色空間変換部1にて所定の色空間に変換する。入力機器に依存した色空間(例えばDeviceRGBなど)をデバイスに依存しない色空間(例えばCIE−L* a* b* など)に変換することによって、多様な出力機器に対して高品質な画像を提供できるようにすることができる。もちろん、入力画像データとしてデバイスに依存しない色空間の画像データが入力される場合には、この処理は必要ない。
【0028】
色空間変換が完了したら、S43において、選択データ生成部2の輝度信号抽出部3にて、画像データ中に含まれる輝度信号を抽出する。これは後段の像域分離部4が基本的に輝度信号をもとに像域分離処理するために行っている。例えば色空間変換部1でCIE−L* a* b* 色空間に変換したのであれば、L* 成分を輝度信号として抽出すればよい。また、像域分離部4が輝度信号以外の、例えば色差信号a* 、b* なども使って像域分離処理するのであれば、像域分離部4には色差信号を入力しなければならない。
【0029】
輝度信号を抽出したら、S44において、像域分離部4は像域分離処理を開始する。ここでは一例として、像域分離処理に輝度信号のみを参照し、分離情報プレーンには文字線画情報を抽出するものとする。像域分離方法については特に限定しない。一例としては、所定のブロック単位(8×8画素単位など)で属性を判定して、例えば
階調のちらばり大→文字線画領域
階調のちらばり小→文字線画以外の領域(写真領域/背景領域)
などのように像域分離することができる。もちろん、他の像域分離方式を用いてもよい。分離結果(=分離情報プレーン)は、ここでは2つのプレーンに分離したので2値データで構成することができる。例えば文字線画と判定された画素には“1(黒)”を、それ以外の画素には“0(白)”を割り当てることができる。もちろん、逆の値であってもよい。このようにして、白黒2値の分離情報プレーンが生成される。S45において、像域分離処理が完了したか否かを判定し、入力原稿1ページ分の全ブロックについて像域分離処理が完了するまでS44の像域分離処理を行う。
【0030】
像域分離処理が完了したら、S46において、膨張処理部5で分離情報プレーンに対して膨張処理を施し、膨張分離情報プレーンを生成する。膨張処理とは基本的に文字線画を太らせる処理である。図3は、膨張処理の一例の説明図、図4は、膨張処理で用いる判定領域の一例の説明図である。例えば分離情報プレーンに、図3(A)に示したように“F”という文字が抽出されているとする。このとき、抽出された文字“F”に対して、文字線画の周囲1画素を膨張させる処理を施すことにより、膨張分離情報プレーンは図3(B)に示すようになる。
【0031】
具体的な膨張処理アルゴリズムとしては、例えば図4に示すような3×3画素ブロック単位で判定を行う。注目画素に対し、
のように変換処理を行う。これを分離情報プレーンのすべての画素が注目画素となるよう一通りスキャンして1ページの膨張処理を行う。実際には注目画素を1画素ずらしていくごとに参照画素が一部重複するので、例えば前ブロックで変換処理した画素であっても次ブロックの判定の際に注目画素になる画素については変換前の画素値を考慮する必要がある。なお、ここではブロックサイズを3×3としたが、膨張させる画素数に応じてサイズを変えることができる。また、膨張処理アルゴリズムについては、上述の方式に限定されるものではなく、種々の公知の技術を用いることができる。S47において膨張処理の完了を判定し、膨張処理が終了するまでS46における膨張処理を繰り返す。
【0032】
膨張処理が完了したら、S48において、膨張分離情報プレーンを用いて多層分離部6にて各プレーンを生成する。ここでは図15に示すように、文字線画部の色情報を文字情報プレーンに格納し、文字線画部以外の絵柄情報と背景画像を絵柄情報プレーンに格納する。もちろん、分離する情報はこの例に限られるものではない。例えば文字情報プレーンに文字の形状情報も含めて分離してもよい。また、グラフィックデータをさらに別に分離するなど、多層分離部6で生成するプレーン数は2に限らない。なお、この例では選択データ生成部2で生成された分離情報プレーンをそのまま用いるので、分離情報プレーンを含めると3プレーンが生成される。
【0033】
この例で生成する図15(B)に示すような文字情報プレーンは、文字線画の色情報を含んでいればよいので、例えば文字を覆う領域に文字色を配した情報であればよい。図5は、文字情報プレーン生成処理の一例の説明図である。例えば図5に示すように、8×8画素単位で膨張分離情報プレーンを参照し、文字情報プレーンに分離すべきデータが含まれていれば、その文字色を8×8画素の色情報として文字情報プレーンに格納すればよい。例えば図5(A)に示すように膨張分離情報プレーンの8×8画素内に文字‘F’の形状が存在した場合、その8×8画素の文字情報プレーンには文字色を格納する。このような矩形領域ごとの色情報とすることによって、解像度変換処理における劣化をほとんどなくし、また高圧縮率で圧縮が可能となる。もちろん、処理単位は8×8画素に限らないし、他の方法によって文字情報プレーンを生成してもよい。
【0034】
S49において各プレーンへの分離処理が終了したか否かを判定し、すべての色変換後の画像データについて分離処理が終了するまでS48における分離処理を行う。
【0035】
各プレーンへの分離処理が完了したら、S50において、解像度変換部7、解像度変換部9、解像度変換部11で各プレーンにそれぞれ解像度変換処理を施す。解像度変換アルゴリズムおよびパラメータについては任意である。文字情報プレーンには文字情報に適した解像度変換アルゴリズム、この例では色パレット情報に適した解像度変換アルゴリズムを適用すればよい。また、絵柄情報プレーンには写真、グラフィック画像などの絵柄情報に適した解像度変換アルゴリズムを適用すればよい。さらに、分離情報プレーンには選択データ、ここでは2値の文字線画の形状情報に適した解像度変換アルゴリズムを適用すればよい。また、解像度変換処理を施さないプレーンについては解像度変換を行わなくてよく、さらに解像度変換部を設けなくてもよい。
【0036】
各プレーンの解像度変換処理が完了したら、S51において解像度変換後の各プレーンに圧縮部8、圧縮部10、圧縮部12にて圧縮処理を施す。圧縮アルゴリズムおよびパラメータについては任意である。文字情報プレーンには文字情報、この例では色パレット情報に適した圧縮アルゴリズム、絵柄情報プレーンには写真・グラフィック画像などの絵柄情報に適した圧縮アルゴリズム、分離情報プレーンには選択データ(この例では文字線画の形状を示す2値データ)に適した圧縮アルゴリズムを適用すればよい。また圧縮処理を施さないプレーンについては圧縮処理を行わなくてよく、さらに圧縮処理部を設けなくてもよい。
【0037】
各プレーンの圧縮処理が完了したら、S52において、画像フォーマットラッピング部13にて各プレーンの画像データをまとめて1つの画像ファイルフォーマットに組み込む。画像ファイルフォーマットとしては、例えばTIFF(Tag Image File Format)やPDF(Portable Document Format)など、現在広く普及しているものを使ってもよいし、あるいは別の画像ファイルフォーマットを使ってもよく、特に限定されない。
【0038】
所定の画像ファイルフォーマットに組み込まれた画像データは、S53において、ネットワークもしくは公衆回線などを介して他の受信機器に送信される。送信時に受信機器を指定する方法としては、サリュテーションマネージャー(SLM)プロトコルを用いて複数の受信機器の中から特定の機器を指定したり、あるいは公衆回線を用いてFAXとして使用するのであれば相手の電話番号を入力してもよい。また、電子メールとして相手のメールアドレスを指定したり、あるいはそれ以外の方法によって受信機器を指定してもよく、方法は特に限定されない。また、この実施の形態における像域分離処理や膨張処理、各プレーン生成処理はページ単位で行っているが、これに限らず、例えば所定ライン、例えば8ブロックラインごとに、分離、膨張、各プレーン生成処理を行って、最終的に1ページを処理してもよい。
【0039】
以上述べたように、この実施の形態によれば、膨張処理を施した膨張分離情報プレーンを使って原稿画像から文字線画情報を除外して絵柄情報プレーンを生成するので、絵柄情報プレーンに文字の輪郭が残ってしまうなどの問題の発生を防止することができる。例えば図16(B)において絵柄情報プレーンに残っていた文字線画部の輪郭は、膨張分離情報プレーンによって絵柄情報プレーンから除去される。このため各プレーンに解像度変換処理や圧縮処理を施しても画質劣化がほとんどなく、より高画質かつ高圧縮率な画像送信を実現することができる。また、送信を行わない場合にも、データ量を削減することができるので、記憶容量などの削減を図ることができる。
【0040】
図6は、本発明の第2の実施の形態を示すブロック構成図である。図中、図1と同様の部分には同じ符号を付して説明を省略する。21は像域分離部である。この第2の実施の形態は、基本的な装置の構成および処理手順とも、上述の第1の実施の形態とほとんど同様であるが、分離情報プレーンに抽出する対象が文字線画情報ではなく特定の色を有する情報であるという点が上述の第1の実施の形態と異なる。すなわち、選択データ生成部2は、像域分離部21を有しており、像域分離部21は、特定の色を有する情報を分離情報プレーンとして分離する。
【0041】
図7は、本発明の第2の実施の形態における動作の一例を示すフローチャートである。まずS61において、入力画像データが色空間変換部1に入力される。入力画像データは、例えば原稿を入力する手段として図示しないスキャナを用い、原稿をスキャン入力することができる。あるいは、例えば予めCD−ROMやその他の大容量記憶メディアに記憶された画像データを入力したり、予めハードディスクなどの蓄積装置に蓄積された画像データを入力してもよい。さらにはデジタルカメラで撮影した画像データを入力してもよく、特に入力方法は限定されない。
【0042】
画像データが入力されると、S62において、色空間変換部1にて所定の色空間に変換する。入力機器に依存した色空間(例えばDeviceRGBなど)をデバイスに依存しない色空間(例えばCIE−L* a* b* など)に変換することによって、多様な出力機器に対して高品質な画像を提供できるようにすることができる。もちろん、入力画像データとしてデバイスに依存しない色空間の画像データが入力される場合には、この処理は必要ない。色空間変換が完了したら、色空間変換後の画像データを選択データ生成部2の像域分離部21へ送る。例えば色空間変換でCIE−L* a* b* に変換したのであれば、輝度信号L* 、色差信号a* 、b* をすべて像域分離部21へ送る。
【0043】
S63において、像域分離部21では輝度信号L* 、色差信号a* 、b* を参照して像域分離処理を開始する。この実施の形態においては、像域分離処理に輝度信号と色差信号の両方を参照し、分離情報プレーンには特定の色情報を抽出する。ここでは特定の色情報として黒を抽出するとする。理由は、一般的なビジネス文書において使用される文字線画がたいてい黒色で構成されているからである。
【0044】
像域分離アルゴリズムとしては任意の手法を用いることができる。一例としては、1画素単位で属性を判定して、例えばある特定のしきい値でL* を2値化し、なおかつa* ,b* が0に近い領域(=無彩色に近い領域)を黒領域と判定し、それ以外をグラフィック領域(背景領域)と判別する。しきい値についてはここでは特に限定しない。これを式で表すと以下のようになる。
L* ≧K かつ (a* )2 +(b* )2 ≦M → 黒領域
L* <K あるいは(a* )2 +(b* )2 >M → グラフィック領域(背景領域)
L* :輝度信号。0−100の範囲をとりL* =100で黒。
a* ,b* :色差信号。−128≦a* ,b* ≦127の範囲をとる。
K:ある特定のしきい値(0≦K≦100)。
M:ある特定のしきい値(0≦M≦(‐128)2 =16384)
分離結果(=分離情報プレーン)は2値データで構成され、例えば黒領域と判定された画素には“1(黒)”を、それ以外の画素には“0(白)”を割り当てることができる。このようにして、白黒2値の分離情報プレーンが生成される。入力原稿1ページ分について像域分離処理が完了したか否かをS64で判定し、像分離処理が完了するまでS63における像分離処理を繰り返す。
【0045】
分離処理が完了したら、S65において、分離結果である分離情報プレーンに対して膨張処理部5で膨張処理を施す。膨張処理は上述の第1の実施の形態と同様である。例えば図5(A)に示す文字‘F’状の黒領域は、膨張処理によって図5(B)に示すような膨張分離情報プレーンとなる。S66で膨張処理が終了したか否かを判定し、膨張処理が終了するまでS65における膨張処理を行う。
【0046】
膨張処理が完了したら、S67において、膨張処理を施した分離情報プレーンを用いて多層分離部6にて各プレーンを生成する。ここでは分離情報プレーンに特定の色情報、例えば黒領域の色情報を抽出しているので、文字情報プレーンには黒領域の色情報が格納され、それ以外の色領域が絵柄情報プレーンに格納される。この例においては、文字情報プレーンには全黒データしか格納されないので、分離情報プレーンがあれば黒領域の画像データは合成時に復元できる。したがって文字情報プレーンを省略し、分離情報プレーンと絵柄情報プレーンの2プレーンで構成してもよい。文字情報プレーンを作成する場合の作成方法については、上述の第1の実施の形態と同様である。S68において、各プレーンへの分離処理が終了したか否かを判定し、各プレーンの生成が終了するまでS67における分離処理を行う。
【0047】
各プレーンの生成が完了したら、S69において、解像度変換部7、解像度変換部9、解像度変換部11で各プレーンにそれぞれ解像度変換処理を施す。解像度変換アルゴリズムおよびパラメータについては任意である。文字情報プレーンには文字情報に適した解像度変換アルゴリズム、この例では特定の色情報に適した解像度変換アルゴリズムを適用すればよい。また、絵柄情報プレーンには写真、グラフィック画像などの絵柄情報に適した解像度変換アルゴリズムを適用すればよい。さらに、分離情報プレーンには選択データ、ここでは2値の文字線画の形状情報に適した解像度変換アルゴリズムを適用すればよい。また、解像度変換処理を施さないプレーンについては解像度変換を行わなくてよく、さらに解像度変換部を設けなくてもよい。また、文字情報プレーンを用いない場合には、もちろん、文字情報プレーンに対する解像度変換処理は行わない。
【0048】
各プレーンの解像度変換処理が完了したら、S70において解像度変換後の各プレーンに圧縮部8、圧縮部10、圧縮部12にて圧縮処理を施す。圧縮アルゴリズムおよびパラメータについては任意である。文字情報プレーンには文字情報、この例では特定の色情報に適した圧縮アルゴリズム、絵柄情報プレーンには写真・グラフィック画像などの絵柄情報に適した圧縮アルゴリズム、分離情報プレーンには選択データ(この例では2値データ)に適した圧縮アルゴリズムを適用すればよい。また圧縮処理を施さないプレーンについては圧縮処理を行わなくてよく、さらに圧縮処理部を設けなくてもよい。また、文字情報プレーンを用いない場合には、文字情報プレーンの圧縮は行われない。
【0049】
各プレーンの圧縮処理が完了したら、S71において、画像フォーマットラッピング部13にて各プレーンの画像データをまとめて1つの画像ファイルフォーマットに組み込む。画像ファイルフォーマットとしては、例えばTIFF(Tag Image File Format)やPDF(Portable Document Format)など、現在広く普及しているものを使ってもよいし、あるいは別の画像ファイルフォーマットを使ってもよく、特に限定されない。なお、文字情報プレーンを用いない場合に、文字情報プレーンの代わりに特定の色を示す情報を付加することもできる。
【0050】
所定の画像ファイルフォーマットに組み込まれた画像データは、S72において、ネットワークもしくは公衆回線などを介して他の受信機器に送信される。送信時に受信機器を指定する方法としては、サリュテーションマネージャー(SLM)プロトコルを用いて複数の受信機器の中から特定の機器を指定したり、あるいは公衆回線を用いてFAXとして使用するのであれば相手の電話番号を入力してもよい。また、電子メールとして相手のメールアドレスを指定したり、あるいはそれ以外の方法によって受信機器を指定してもよく、方法は特に限定されない。また、この実施の形態における像域分離処理や膨張処理、各プレーン生成処理はページ単位で行っているが、これに限らず、例えば所定ライン、例えば8ブロックラインごとに、分離、膨張、各プレーン生成処理を行って、最終的に1ページを処理してもよい。
【0051】
以上述べたように、この第2の実施の形態によれば、膨張処理を施した膨張分離情報プレーンを使って原稿画像から特定の色情報(上述の例では黒情報)を除外して絵柄情報プレーンを生成するので、絵柄情報プレーンに特定の色情報(例えば黒情報)の輪郭が残ってしまうなどの問題がなくなる。このため、各プレーンに解像度変換処理や圧縮処理を施しても画質劣化がほとんどなく、より高画質かつ高圧縮率な画像送信を実現することができる。また、送信を行わない場合にも、データ量を削減することができるので、記憶容量などの削減を図ることができる。
【0052】
図8は、本発明の第3の実施の形態を示すブロック構成図である。図中、図1と同様の部分には同じ符号を付して説明を省略する。22は画像補正部である。この第3の実施の形態は、基本的な装置の構成および処理手順とも、上述の第1、第2の実施の形態とほとんど同様であるが、絵柄情報プレーンを生成した後に補正処理を施す点が上述の第1、第2の実施の形態と異なる。
【0053】
画像補正部22は、多層分離部6で生成された絵柄情報プレーンに対し、補正処理を施す。ここでいう補正処理とは、膨張処理した分離情報プレーンを使ったことにより消失してしまった絵柄情報プレーン上の有効画像領域を復元する処理である。
【0054】
この補正処理についてさらに説明する。図9は、絵柄情報プレーンの生成過程の一例の説明図である。図9(A)に示すように、赤色グラフィック部分(図中、ハッチングを施して示した部分)が黒の細線で囲まれた原稿画像が入力画像データとして入力された場合を考える。例えば上述の第1の実施の形態で説明したような処理手順によって、選択データ生成部2では図9(B)に示したように黒の細線部分が分離情報プレーンに分離される。そして膨張処理部5によって、分離情報プレーンに膨張処理が施され、図9(C)に示すような膨張分離情報プレーンが得られる。この図9(C)に示すような膨張分離情報プレーンに従って、多層分離部6は色空間変換部1で色変換された入力画像データを文字情報プレーンと絵柄情報プレーンに分離する。すなわち、図9(C)に示す膨張分離情報プレーンにおいて、黒く図示した画素については文字情報プレーンに分離され、白く図示した画素についてのみ絵柄情報プレーンに分離される。この結果、図9(D)に示すような絵柄情報プレーンが生成される。
【0055】
図9からわかるように、黒の細線を分離情報プレーンに抽出し、膨張処理を施した膨張分離情報プレーンをもとに生成した絵柄情報プレーンには、赤色のグラフィック部が原稿画像より一回り小さくなってしまっている。この例では、周囲1画素小さくなっている。
【0056】
図10は、補正処理を行わない場合の合成後の画像の一例の説明図である。図9に示すようにして生成された分離情報プレーン、絵柄情報プレーン、および図示しない文字情報プレーンを用い、もとの原稿画像を復元すべく合成処理を行うと、図9(B)に示す分離情報プレーンの黒く図示した画素では黒の細線が復元され、その他の画素では図9(D)に示す絵柄情報プレーンが選択される。そのため、図10に示すような画像が合成される。このようにして合成された画像は、図9(A)と図10とを比較してわかるように、黒い細線と赤色のグラフィック部の間に白い細線が挿入されてしまっている。
【0057】
例えば図15に示した例のように、白色の原稿上に文字線画と写真などの絵柄が分かれているような原稿では、このような白い細線が発生しても問題はない。しかし、白以外の背景色あるいは絵柄上に文字が存在するような原稿画像では、この白の細線が顕著に現れることがある。
【0058】
図11は、補正処理部による補正処理後の絵柄情報プレーンの一例の説明図である。補正処理部22では、図10に示すように白の細線が現れる位置に相当する画素について補正処理を施し、上述のような文字線画の輪郭周辺における白の細線の発生を防止している。例えば図9に示したように、赤色のグラフィック部と黒の細線だけの原稿の場合、実際の補正方法は、
“膨張分離情報プレーン上の有効領域(黒画素領域)”
なおかつ
“原稿画像中の赤色グラフィック部”
という条件で白の細線が挿入されてしまう領域を検出する。検出された領域については、例えば絵柄情報プレーン生成後に隣接する赤色グラフィックの画素をコピーする。この処理により、有効画像の消失がない図11に示すような絵柄情報プレーンを生成することができる。
【0059】
なお、この補正処理については、上述の方式に限定されるものではない。例えば白の細線が挿入されてしまう領域の検出方法としては、分離情報プレーンと膨張分離情報プレーンを比較することによって行ったり、膨張分離情報プレーンの輪郭画素として検出してもよい。また、絵柄情報プレーンに対する膨張処理を実施してもよい。さらに、補正する画素について、隣接する画素をコピーするほか、もとの色変換後の画像データをコピーしてもよい。ただしこの場合、図16で説明したような文字線画の輪郭がなるべく絵柄情報プレーンに入らないように、例えば白い細線が顕著になるか否かを判定して、顕著となる場合に限ってもとの画像データをコピーするなどの処理を設けておくとよい。あるいは、文字情報プレーンに分離した色成分を除去するなどの処理を行ってもよい。
【0060】
図12は、補正処理を行った場合の合成後の画像の一例の説明図である。図9(B)に示す分離情報プレーンと、図11に示す補正処理後の絵柄情報プレーン、および図示しない文字情報プレーンを用い、もとの原稿画像を復元すべく合成処理を行う。すると、図9(B)に示す分離情報プレーンの黒く図示した画素では黒の細線が復元され、その他の画素では図11に示す絵柄情報プレーンが選択される。これによって、図12に示すように黒い細線と赤色のグラフィック部の間に白い細線が存在しない合成画像を得ることができる。
【0061】
図13は、本発明の第3の実施の形態における動作の一例を示すフローチャートである。まずS81において、入力画像データが色空間変換部1に入力される。入力画像データは、上述の第1の実施の形態と同様、例えばスキャナにより原稿をスキャン入力したり、あるいは、例えば予めCD−ROMやその他の大容量記憶メディアに記憶された画像データを入力したり、予めハードディスクなどの蓄積装置に蓄積された画像データを入力してもよい。さらにはデジタルカメラで撮影した画像データを入力してもよく、特に入力方法は限定されない。
【0062】
画像データが入力されると、S82において、色空間変換部1にて所定の色空間に変換する。入力機器に依存した色空間(例えばDeviceRGBなど)をデバイスに依存しない色空間(例えばCIE−L* a* b* など)に変換する。もちろん、入力画像データとしてデバイスに依存しない色空間の画像データが入力される場合には、この処理は必要ない。
【0063】
色空間変換が完了したら、S83において、選択データ生成部2の輝度信号抽出部3にて、画像データ中に含まれる輝度信号を抽出する。例えば色空間変換部1でCIE−L* a* b* 色空間に変換したのであれば、L* 成分を輝度信号として抽出すればよい。また、像域分離部4が輝度信号以外の、例えば色差信号a* 、b* なども使って像域分離処理するのであれば、像域分離部4には色差信号を入力しなければならない。
【0064】
輝度信号を抽出したら、S84において、像域分離部4は像域分離処理を開始する。ここでは一例として、像域分離処理に輝度信号のみを参照し、分離情報プレーンには文字線画情報を抽出するものとする。像域分離方法については特に限定しない。一例としては、所定のブロック単位で属性を判定して、例えば
階調のちらばり大→文字線画領域
階調のちらばり小→文字線画以外の領域(写真領域/背景領域)
などのように像域分離することができる。もちろん、他の像域分離方式を用いてもよい。分離結果(=分離情報プレーン)は、ここでは2つのプレーンに分離したので2値データで構成することができる。例えば文字線画と判定された画素には“1(黒)”を、それ以外の画素には“0(白)”を割り当てることができる。もちろん、逆の値であってもよい。このようにして、白黒2値の分離情報プレーンが生成される。S85において、像域分離処理が完了したか否かを判定し、入力原稿1ページ分の全ブロックについて像域分離処理が完了するまでS84の像域分離処理を行う。
【0065】
像域分離処理が完了したら、S86において、膨張処理部5で分離情報プレーンに対して膨張処理を施し、膨張分離情報プレーンを生成する。膨張処理とは基本的に文字線画を太らせる処理である。膨張処理の方式は任意であり、例えば上述の第1の実施の形態で示した具体例を利用してもよい。S87において膨張処理の完了を判定し、膨張処理が終了するまでS86における膨張処理を繰り返す。
【0066】
膨張処理が完了したら、S88において、膨張分離情報プレーンを用いて多層分離部6にて各プレーンを生成する。ここでは図15に示すように、文字線画部の色情報を文字情報プレーンに格納し、文字線画部以外の絵柄情報と背景画像を絵柄情報プレーンに格納する。もちろん、分離する情報はこの例に限られるものではない。S89において各プレーンへの分離処理が終了したか否かを判定し、すべての色変換後の画像データについて分離処理が終了するまでS88における分離処理を行う。
【0067】
各プレーンの生成が完了したら、S90において、絵柄情報プレーンに対し補正処理部22で補正処理を施す。この補正処理は上述したとおりである。例えば図9(D)に示すように生成された絵柄情報プレーンに対し、合成時に白の細線が挿入されてしまう領域を検出し、検出された領域の画素に対して補正処理を施す。これによって例えば図11に示すような絵柄情報プレーンを生成する。
【0068】
絵柄情報プレーンの補正処理が完了したら、S91において、解像度変換部7、解像度変換部9、解像度変換部11で各プレーンにそれぞれ解像度変換処理を施す。解像度変換アルゴリズムおよびパラメータについては任意である。文字情報プレーンには文字情報に適した解像度変換アルゴリズム、この例では色パレット情報に適した解像度変換アルゴリズムを適用すればよい。また、絵柄情報プレーンには写真、グラフィック画像などの絵柄情報に適した解像度変換アルゴリズムを適用すればよい。さらに、分離情報プレーンには選択データ、ここでは2値の文字線画の形状情報に適した解像度変換アルゴリズムを適用すればよい。また、解像度変換処理を施さないプレーンについては解像度変換を行わなくてよく、さらに解像度変換部を設けなくてもよい。
【0069】
各プレーンの解像度変換処理が完了したら、S92において解像度変換後の各プレーンに圧縮部8、圧縮部10、圧縮部12にて圧縮処理を施す。圧縮アルゴリズムおよびパラメータについては任意である。文字情報プレーンには文字情報、この例では色パレット情報に適した圧縮アルゴリズム、絵柄情報プレーンには写真・グラフィック画像などの絵柄情報に適した圧縮アルゴリズム、分離情報プレーンには選択データ(この例では文字線画の形状を示す2値データ)に適した圧縮アルゴリズムを適用すればよい。また圧縮処理を施さないプレーンについては圧縮処理を行わなくてよく、さらに圧縮処理部を設けなくてもよい。
【0070】
各プレーンの圧縮処理が完了したら、S93において、画像フォーマットラッピング部13にて各プレーンの画像データをまとめて1つの画像ファイルフォーマットに組み込む。画像ファイルフォーマットとしては、例えばTIFF(Tag Image File Format)やPDF(Portable Document Format)など、現在広く普及しているものを使ってもよいし、あるいは別の画像ファイルフォーマットを使ってもよく、特に限定されない。
【0071】
所定の画像ファイルフォーマットに組み込まれた画像データは、S94において、ネットワークもしくは公衆回線などを介して他の受信機器に送信される。送信時に受信機器を指定する方法としては、サリュテーションマネージャー(SLM)プロトコルを用いて複数の受信機器の中から特定の機器を指定したり、あるいは公衆回線を用いてFAXとして使用するのであれば相手の電話番号を入力してもよい。また、電子メールとして相手のメールアドレスを指定したり、あるいはそれ以外の方法によって受信機器を指定してもよく、方法は特に限定されない。また、この実施の形態における像域分離処理や膨張処理、各プレーン生成処理はページ単位で行っているが、これに限らず、例えば所定ライン、例えば8ブロックラインごとに、分離、膨張、各プレーン生成処理を行って、最終的に1ページを処理してもよい。
【0072】
以上述べたように、この第3の実施の形態によれば、膨張処理を施した膨張分離情報プレーンを使って原稿画像から文字線画情報を除外して絵柄情報プレーンを生成する際に、消失した絵柄情報プレーンの有効画像領域を補正する。したがって絵柄情報プレーンに文字線画の輪郭が残らず、なおかつ有効画像の消失もない。このため各プレーンに解像度変換処理や圧縮処理を施しても画質劣化がほとんどなく、より高画質かつ高圧縮率な画像送信を実現することができる。また、送信を行わない場合にも、データ量を削減することができるので、記憶容量などの削減を図ることができる。さらにこの第3の実施の形態では、各プレーンに分離した画像を合成しても、文字線画の輪郭部に白抜けが発生せず、画質の劣化を防止することができる。
【0073】
図14は、本発明の画像処理装置および画像処理方法の応用例を示すシステム構成図である。図中、31,32は送信機器、33〜35は受信機器、36はネットワークである。この例では、上述の第1ないし第3の実施の形態で説明した本発明の画像処理装置および画像処理方法を送信機器に組み込んで、ネットワークを介した画像通信に用いる例を示している。
【0074】
送信機器31,32は、スキャナやデジタルカメラなどの入力装置で入力された画像や、グラフィック機能によって作成された画像、ネットワークを介して図示しないホストコンピュータ等から受信した電子文書等を、ネットワーク36を介して画像データを送信するものである。この送信機器31,32は、上述の第1ないし第3の実施の形態で説明したような本発明の画像処理装置または画像処理方法を含んでいる。受信機器33〜35は、ネットワーク36を介して送信機器31もしくは送信機器32から送信されてきた所定の画像フォーマットの画像データを受信し、蓄積装置に蓄積したり、ディスプレイ装置への表示や紙などの被記録媒体に記録して出力する。ネットワーク36は、公衆回線やLANなどのネットワーク回線で構成されており、送信機器31,32および受信機器33〜35を相互に接続している。なお図9では、わかりやすくするために送信機器と受信機器の機能をそれぞれ独立させているが、それぞれが送信機能と受信機能を備えた複合機であってもよい。
【0075】
例えば送信機器31から画像を送信する場合、本発明の第1ないし第3の実施の形態で説明したようにして、送信すべき画像に適した分離処理によって1以上のデータを生成し、それぞれ所定の画像処理を施した後、圧縮し、画像フォーマットラッピング処理によって1つにまとめて送信する。分離された各データは、属性によって最適に分離されているため、各属性に最適な画像処理および圧縮処理がなされる。特に本発明では、膨張処理した膨張分離情報プレーンを用いて分離処理を行っているので、絵柄情報プレーンに文字線画の輪郭部が残ることはない。そのため、各プレーンに解像度変換処理や圧縮処理を施しても画質劣化がほとんどなく、より高画質かつ高圧縮率な画像送信を実現することができる。また、データ量も少なくすることができるので、高速な送信を行うことができる。
【0076】
受信機器33〜35では、送信機器31からネットワーク36を介して送られてきた情報を受信し、文字情報プレーン、絵柄情報プレーン、分離情報プレーンなどに分解する。もちろん、上述の第2の実施の形態でも一例として示したように文字情報プレーンがない場合など、いずれかのプレーンが送信されない場合もある。その場合には、受信情報から送られてこなかったプレーンを作成すればよい。そして、各プレーンの解像度を合わせた後、画素ごとに、分離情報プレーンに従って文字情報プレーンまたは絵柄情報プレーンのいずれかの画素を選択する。これによって元の画像を復元することができる。復元した画像は、例えば蓄積装置に蓄積したり、ディスプレイ装置で表示したり、あるいは記録装置によって紙などの被記録媒体に記録して出力することができる。
【0077】
もちろん、本発明の応用としては図14に示したシステム構成に限られるものではなく、画像通信を伴う各種の画像通信機器や、画像の蓄積を伴う各種の機器に適用可能である。もちろん、通信や蓄積のための手段を具備しない画像処理装置単体として構成してもよい。
【0078】
【発明の効果】
以上の説明から明らかなように、本発明によれば、選択データを含む分離情報プレーンに膨張処理を施し、膨張処理後の膨張分離情報プレーンを使って分離処理を行うので、例えば文字線画の輪郭が文字線画とは別のプレーンに残ってしまうなどの問題の発生を防止することができるという効果がある。このため各プレーンに解像度変換処理や圧縮処理を施しても画質劣化がほとんどなく、より高画質で、かつデータ量も少なく、また高圧縮率を実現することが可能となる。これによって、例えば高速な画像送信を実現し、また、記憶容量などの削減を図ることができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態を示すブロック構成図である。
【図2】 本発明の第1の実施の形態における動作の一例を示すフローチャートである。
【図3】 膨張処理の一例の説明図である。
【図4】 膨張処理で用いる判定領域の一例の説明図である。
【図5】 文字情報プレーン生成処理の一例の説明図である。
【図6】 本発明の第2の実施の形態を示すブロック構成図である。
【図7】 本発明の第2の実施の形態における動作の一例を示すフローチャートである。
【図8】 本発明の第3の実施の形態を示すブロック構成図である。
【図9】 絵柄情報プレーンの生成過程の一例の説明図である。
【図10】 補正処理を行わない場合の合成後の画像の一例の説明図である。
【図11】 補正処理部による補正処理後の絵柄情報プレーンの一例の説明図である。
【図12】 補正処理を行った場合の合成後の画像の一例の説明図である。
【図13】 本発明の第3の実施の形態における動作の一例を示すフローチャートである。
【図14】 本発明の画像処理装置および画像処理方法の応用例を示すシステム構成図である。
【図15】 入力画像データを複数のプレーン画像に分離する手法を用いる場合における各プレーン画像の具体例の説明図である。
【図16】 複数プレーンへの分離時の絵柄情報プレーンの画質劣化の説明図である。
【図17】 入力画像信号から分離情報を生成する際の信号処理の説明図である。
【符号の説明】
1…色空間変換部、2…選択データ生成部、3…輝度信号抽出部、4…像域分離部、5…膨張処理部、6…多層分離部、7,9,11…解像度変換部、8,10,12…圧縮部、13…画像フォーマットラッピング部、21…像域分離部、22…画像補正部、31,32…送信機器、33〜35…受信機器、36…ネットワーク。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that separates input image data into a plurality of image data according to attributes in the image.
[0002]
[Prior art]
In recent years, with the progress of digitization of copying machines, compounding with facsimile functions and printer functions has progressed. In addition, network systems in which various devices such as these devices, computers, and printers are connected via a network such as a LAN or a line have appeared. Recently, colorization of these devices is also progressing, and color FAX and color printers are becoming mainstream. In such a network system, for example, interconnection between different types of devices having different resolutions, or interconnection between different types of devices having different color spaces such as a color copying machine and a monochrome copying machine is possible. .
[0003]
When exchanging image data between such heterogeneous apparatuses, the input document image is normally handled as one plain image. That is, with respect to one plain image, the input-side device determines the document type, performs image processing suitable for the document on the entire plain image, and transmits it to the output-side device. In this way, when the document image is handled as a single plain image, there is no particular problem as long as the document image is composed of only image data of one kind of attribute such as only characters or only photos. However, inconvenience arises when it is composed of image data having a plurality of attributes in which characters and photographs are mixed. For example, when trying to compress image data in which characters and photos are mixed, the same compression processing is applied to one plain image, so the compression ratio of either the character portion or the photo portion depends on the compression method applied. There is a problem that the communication time becomes longer due to the decrease in the image quality, or one of the image quality deteriorates.
[0004]
On the other hand, there is a technique for determining the characteristics of the image of the input document, separating the image for each attribute from the determination result, and dividing the image into a plurality of plane images. FIG. 15 is an explanatory diagram of a specific example of each plane image when a method of separating input image data into a plurality of plane images is used. In this example, a character information plane, a pattern information plane, and a separation information plane are generated from input image data. For example, as shown in FIG. 15A, a red character “ABCDE”, a blue character string, and a pattern portion (portion surrounded by a rectangle) such as a photograph are present in the same image. For convenience of illustration, blue character strings are indicated by line segments. In this case, as shown in FIG. 15 (B), a character information plane consisting only of color components of red characters [ABCDE] and a blue character string, and a pattern portion and background excluding the character portion as shown in FIG. 15 (D). The pattern image plane is divided into parts. Furthermore, in order to select either the character information plane shown in FIG. 15B or the pattern information plane shown in FIG. 15D, a separation information plane shown in FIG. 15C is generated. This separation information plane includes information on the shape of the character.
[0005]
In this way, the input image is separated into three planes in this example. The separated character information plane may have color information and rough area information. In addition, although the separation information plane has fine character shape information, it is sufficient that either the character information plane or the picture information plane can be selected, so that the separation information plane can be constituted by binary data. The picture information plane includes photo data and the like, but fine edges such as characters are not so important.
[0006]
In this way, the images of each plane are separated into images having respective characteristics. For example, a compression method suitable for character data is used for a character image plane, and a compression method suitable for photo data is used for a picture image plane. Furthermore, a compression method suitable for binary data can be applied to the separation information plane. For this reason, the compression rate is improved, and image quality deterioration is not so noticeable. Furthermore, by converting the resolution using an optimum resolution conversion processing method for each of these planes, it is possible to reduce the amount of data within a range where there is little influence.
[0007]
As a technique similar to such a method, there is an encoding apparatus described in Japanese Patent Laid-Open No. 8-186711. In this apparatus, character information is extracted from a color image, the extracted character information is reversibly compressed, and the pattern information excluding character information is subjected to resolution conversion and subjected to lossy compression.
[0008]
In general, in such an image processing method that handles a plurality of plane images separately, image separation processing is performed to create a separation information plane from the original image, and character information from the original image based on the separation information plane. A plane and a pattern information plane are generated.
[0009]
However, when a character information plane or a pattern information plane is simply generated from the separation information plane, significant image quality degradation is seen particularly in the pattern information plane. FIG. 16 is an explanatory diagram of image quality degradation of the pattern information plane during separation into a plurality of planes, and FIG. 17 is an explanatory diagram of signal processing when generating separation information from an input image signal. For example, as shown in FIG. 15C, when the separation information plane includes the shape information of the character / line drawing, the pattern information plane is generated by simply excluding the character / line drawing portion from the input image data using the separation information plane. As a result, the outline of the character / line drawing remains thin on the pattern information plane. For example, if a character information portion as shown in FIG. 16A is removed to generate a picture information plane, a character outline as shown in FIG. 16B remains in the picture information plane.
[0010]
Such a phenomenon occurs at a high frequency particularly in the case of an image input by scanning. This is because the sharpness is lowered at the edge portion of the character line image at the time of scanning input. For example, as shown in FIG. 17, the sharpness of the edge portion of the scanned image signal is lowered. For example, when character / line drawing information is extracted at a predetermined threshold value to generate a separation information plane, the character / line drawing of the separation information plane becomes an area b in FIG. 17, which is slightly wider than the character / line drawing (width a) of the original image. Will become thinner. When a character line drawing portion (= separation information plane) having a narrow line width is used to exclude a character line drawing portion from the scanned image, the outline portion of the character line drawing that cannot be completely excluded from the pattern information plane (FIG. 17). The area c in the figure remains at a low concentration. As described above, when compression processing is performed on the pattern information plane in a state where the outline of the character / line drawing remains on the pattern information plane, since the high-frequency component exists, the overall compression rate decreases. In addition, when the resolution conversion process is performed, there is a problem that the image quality of the edge portion of the character / line image is greatly deteriorated in the combined image.
[0011]
In order to solve such a problem, this phenomenon can be solved to some extent by extracting a character line drawing up to a low-density portion of the edge by lowering the threshold when extracting the character line drawing. However, in that case, an area that is not a character line drawing is extracted as a character line drawing, the accuracy of the image separation processing is lowered, and the separation processing itself is hindered. In addition, there is a problem that the compression rate is lowered and the image quality is deteriorated.
[0012]
[Problems to be solved by the invention]
The present invention has been made in view of the above-described circumstances, and performs image separation processing, particularly character / line image separation, and there is almost no deterioration in image quality even when resolution conversion processing or compression processing is performed. An object of the present invention is to provide an image processing apparatus capable of transmitting or storing images at a high compression rate.
[0013]
[Means for Solving the Problems]
The present invention generates, from input image data, first image data, second image data, and two or more image data including at least selection data among selection data for selecting either the first image data or the second image data. In the image processing apparatus and the image processing method, the selection data is generated from the input image data, the selection data is subjected to expansion processing to generate expansion selection data, and the input image data is converted into the first image data or Separated into second image data, selection data generated from input image data and at least one of the separated first image data and second image data are output. In addition, character / line drawing regions are separated from input image data to generate selection data, expansion processing is performed on the generated selection data to generate expansion selection data, and character / line drawings are included based on the generated expansion selection data. The input image data is separated into first image data and second image data including other images, selection data generated from the input image data, and separated first image data and second image data Is output.
[0014]
By using the selection data expanded in this way, for example, in a character / line image, the edge portion is not separated as separate image data, and the separation process can be performed satisfactorily. Therefore, even if resolution conversion processing or compression processing is performed, image quality is hardly deteriorated, and an image can be transmitted with higher image quality and higher compression rate.
[0015]
Further, when separation processing is performed using such expansion selection data, for example, a portion in contact with the outline of a character line drawing is separated as a character line drawing. When the character line drawing and the pattern are adjacent, the pattern portion is separated as a character line drawing. However, if selection data before expansion processing is used at the time of composition, white pixels may occur along the outline of the character / line image at the time of composition. In order to prevent this, some pixels in the unseparated area are corrected for the image data separated using the expansion selection data. As a result, white pixels can be prevented from being generated in the outline portion of a character line drawing or the like during synthesis.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing a first embodiment of the present invention. In the figure, 1 is a color space conversion unit, 2 is a selection data generation unit, 3 is a luminance signal extraction unit, 4 is an image area separation unit, 5 is an expansion processing unit, 6 is a multi-layer separation unit, and 7, 9 and 11 are resolutions. A conversion unit, 8, 10, and 12 are compression units, and 13 is an image format wrapping unit.
[0017]
The color
[0018]
The selection
[0019]
The
[0020]
The
[0021]
The
[0022]
The
[0023]
The
[0024]
The image
[0025]
In this example, as the processing after separation into each information plane in the
[0026]
FIG. 2 is a flowchart showing an example of the operation according to the first embodiment of the present invention. First, in S <b> 41, input image data is input to the color
[0027]
When the image data is input, the color
[0028]
When the color space conversion is completed, in S43, the luminance
[0029]
If the luminance signal is extracted, in S44, the image
Large gradation gradation → Text line drawing area
Small gradation gradation → Area other than character line drawing (photo area / background area)
The image area can be separated as shown in FIG. Of course, other image area separation methods may be used. Since the separation result (= separation information plane) is separated into two planes here, it can be composed of binary data. For example, “1 (black)” can be assigned to pixels determined to be a character / line image, and “0 (white)” can be assigned to other pixels. Of course, the opposite value may be used. In this way, a black and white binary separation information plane is generated. In S45, it is determined whether or not the image area separation process has been completed, and the image area separation process in S44 is performed until the image area separation process is completed for all the blocks of one page of the input document.
[0030]
When the image area separation processing is completed, in step S46, the
[0031]
As a specific expansion processing algorithm, for example, the determination is performed in units of 3 × 3 pixel blocks as shown in FIG. For the pixel of interest
The conversion process is performed as follows. This is scanned one by one so that all the pixels of the separation information plane become the target pixel, and one page expansion processing is performed. In practice, every time the target pixel is shifted by one pixel, the reference pixel partially overlaps. For example, even if the pixel is converted in the previous block, the pixel that becomes the target pixel in the determination of the next block is not converted. It is necessary to consider the pixel value. Although the block size is 3 × 3 here, the size can be changed according to the number of pixels to be expanded. Further, the expansion processing algorithm is not limited to the above-described method, and various known techniques can be used. The completion of the expansion process is determined in S47, and the expansion process in S46 is repeated until the expansion process is completed.
[0032]
When the expansion processing is completed, each plane is generated in the
[0033]
The character information plane as shown in FIG. 15B generated in this example only needs to include the color information of the character / line drawing, and may be information in which the character color is arranged in the area covering the character, for example. FIG. 5 is an explanatory diagram of an example of the character information plane generation process. For example, as shown in FIG. 5, if the data to be separated is included in the character information plane by referring to the expansion separation information plane in units of 8 × 8 pixels, the character color is set as color information of 8 × 8 pixels. What is necessary is just to store in an information plane. For example, as shown in FIG. 5A, when the shape of the character “F” exists in 8 × 8 pixels of the dilation / separation information plane, the character color is stored in the character information plane of 8 × 8 pixels. By using such color information for each rectangular area, there is almost no deterioration in resolution conversion processing, and compression can be performed at a high compression rate. Of course, the processing unit is not limited to 8 × 8 pixels, and the character information plane may be generated by other methods.
[0034]
In S49, it is determined whether or not the separation processing for each plane has been completed, and the separation processing in S48 is performed until the separation processing is completed for all color-converted image data.
[0035]
When the separation process for each plane is completed, in S50, the
[0036]
When the resolution conversion processing for each plane is completed, compression processing is performed by the
[0037]
When the compression processing for each plane is completed, in S52, the image
[0038]
The image data incorporated in the predetermined image file format is transmitted to another receiving device via a network or a public line in S53. As a method of designating a receiving device at the time of transmission, if a specific device is designated from among a plurality of receiving devices using a salutation manager (SLM) protocol, or if it is used as a FAX using a public line, the other party You may enter your phone number. Further, the recipient's mail address may be designated as an electronic mail, or the receiving device may be designated by other methods, and the method is not particularly limited. In addition, the image area separation process, the expansion process, and each plane generation process in this embodiment are performed in units of pages. However, the present invention is not limited to this. A generation process may be performed to finally process one page.
[0039]
As described above, according to this embodiment, the graphic information plane is generated by excluding the character / line drawing information from the original image using the expansion separation information plane subjected to the expansion processing. Occurrence of problems such as remaining contours can be prevented. For example, the outline of the character / line drawing portion remaining in the pattern information plane in FIG. 16B is removed from the pattern information plane by the expansion separation information plane. For this reason, even if resolution conversion processing or compression processing is performed on each plane, image quality is hardly deteriorated, and image transmission with higher image quality and higher compression rate can be realized. Even when transmission is not performed, the amount of data can be reduced, so that the storage capacity and the like can be reduced.
[0040]
FIG. 6 is a block diagram showing the second embodiment of the present invention. In the figure, the same parts as those in FIG.
[0041]
FIG. 7 is a flowchart showing an example of operation in the second exemplary embodiment of the present invention. First, in S 61, input image data is input to the color
[0042]
When the image data is input, the color
[0043]
In S63, the image
[0044]
Any method can be used as the image area separation algorithm. As an example, the attribute is determined on a pixel-by-pixel basis. * And binarize a * , B * Is determined to be a black area, and the other area is determined to be a graphic area (background area). The threshold value is not particularly limited here. This is expressed as follows.
L * ≧ K and (a * ) 2 + (B * ) 2 ≦ M → Black area
L * <K or (a * ) 2 + (B * ) 2 > M → Graphic area (background area)
L * : Luminance signal. L is in the range 0-100 * = 100 and black.
a * , B * : Color difference signal. −128 ≦ a * , B * The range of ≦ 127 is taken.
K: A specific threshold value (0 ≦ K ≦ 100).
M: a specific threshold value (0 ≦ M ≦ (−128) 2 = 16384)
The separation result (= separation information plane) is composed of binary data. For example, “1 (black)” is assigned to a pixel determined to be a black region, and “0 (white)” is assigned to other pixels. it can. In this way, a black and white binary separation information plane is generated. In S64, it is determined whether or not the image area separation process has been completed for one page of the input document, and the image separation process in S63 is repeated until the image separation process is completed.
[0045]
When the separation process is completed, expansion processing is performed by the
[0046]
When the expansion process is completed, each plane is generated in the
[0047]
When the generation of each plane is completed, the
[0048]
When the resolution conversion processing for each plane is completed, compression processing is performed by the
[0049]
When the compression processing for each plane is completed, the image
[0050]
In S72, the image data incorporated in the predetermined image file format is transmitted to another receiving device via a network or a public line. As a method of designating a receiving device at the time of transmission, if a specific device is designated from among a plurality of receiving devices using a salutation manager (SLM) protocol, or if it is used as a FAX using a public line, the other party You may enter your phone number. Further, the recipient's mail address may be designated as an electronic mail, or the receiving device may be designated by other methods, and the method is not particularly limited. In addition, the image area separation process, the expansion process, and each plane generation process in this embodiment are performed in units of pages. However, the present invention is not limited to this. A generation process may be performed to finally process one page.
[0051]
As described above, according to the second embodiment, the pattern information is obtained by excluding specific color information (black information in the above example) from the original image using the expansion separation information plane subjected to expansion processing. Since the plane is generated, there is no problem that the contour of specific color information (for example, black information) remains in the pattern information plane. For this reason, even if resolution conversion processing or compression processing is performed on each plane, image quality is hardly deteriorated, and image transmission with higher image quality and higher compression rate can be realized. Even when transmission is not performed, the amount of data can be reduced, so that the storage capacity and the like can be reduced.
[0052]
FIG. 8 is a block diagram showing the third embodiment of the present invention. In the figure, the same parts as those in FIG.
[0053]
The
[0054]
This correction process will be further described. FIG. 9 is an explanatory diagram of an example of a process of generating a picture information plane. As shown in FIG. 9A, a case is considered in which a document image in which a red graphic portion (the hatched portion in the drawing) is surrounded by a black thin line is input as input image data. For example, according to the processing procedure described in the first embodiment, the selection
[0055]
As can be seen from FIG. 9, the red graphic portion is slightly smaller than the original image in the pattern information plane generated based on the expansion separation information plane obtained by extracting the black thin line into the separation information plane and performing the expansion processing. It has become. In this example, the surrounding pixel is smaller.
[0056]
FIG. 10 is an explanatory diagram of an example of an image after composition when correction processing is not performed. When the separation process is performed to restore the original document image using the separation information plane, the pattern information plane, and the character information plane (not shown) generated as shown in FIG. 9, the separation shown in FIG. 9B is performed. The black thin line is restored in the pixels shown in black in the information plane, and the pattern information plane shown in FIG. 9D is selected in the other pixels. Therefore, an image as shown in FIG. 10 is synthesized. In the image synthesized in this way, a white thin line is inserted between the black thin line and the red graphic part, as can be seen by comparing FIG. 9A and FIG.
[0057]
For example, as in the example shown in FIG. 15, there is no problem even if such a white thin line occurs in a document in which a character line image and a picture such as a photograph are separated on a white document. However, in a manuscript image in which characters exist on a background color other than white or on a design, this white thin line may appear prominently.
[0058]
FIG. 11 is an explanatory diagram of an example of the pattern information plane after the correction processing by the correction processing unit. As shown in FIG. 10, the
“Effective area on the expansion separation information plane (black pixel area)”
Still
"Red graphic part in the original image"
The area where the white thin line is inserted under the condition is detected. For the detected area, for example, adjacent red graphic pixels are copied after the pattern information plane is generated. By this processing, a pattern information plane as shown in FIG. 11 in which no effective image is lost can be generated.
[0059]
Note that this correction processing is not limited to the above-described method. For example, as a method for detecting a region where a white thin line is inserted, the separation information plane may be compared with the expansion separation information plane, or may be detected as a contour pixel of the expansion separation information plane. Moreover, you may implement the expansion process with respect to a pattern information plane. Further, for the pixel to be corrected, the adjacent pixel may be copied, and the original image data after color conversion may be copied. However, in this case, for example, it is determined whether or not a white thin line is conspicuous so that the outline of the character line drawing as described in FIG. 16 does not enter the pattern information plane as much as possible. Processing such as copying the image data may be provided. Alternatively, processing such as removal of color components separated into character information planes may be performed.
[0060]
FIG. 12 is an explanatory diagram of an example of a combined image when correction processing is performed. Using the separation information plane shown in FIG. 9B, the corrected pattern information plane shown in FIG. 11, and a character information plane (not shown), a composition process is performed to restore the original document image. Then, the black thin line is restored in the pixels shown in black in the separation information plane shown in FIG. 9B, and the picture information plane shown in FIG. 11 is selected in the other pixels. As a result, as shown in FIG. 12, a composite image can be obtained in which no white fine line exists between the black fine line and the red graphic portion.
[0061]
FIG. 13 is a flowchart showing an example of operation in the third exemplary embodiment of the present invention. First, in step S <b> 81, input image data is input to the color
[0062]
When the image data is input, the color
[0063]
When the color space conversion is completed, in S83, the luminance
[0064]
After extracting the luminance signal, the image
Large gradation gradation → Text line drawing area
Small gradation gradation → Area other than character line drawing (photo area / background area)
The image area can be separated as shown in FIG. Of course, other image area separation methods may be used. Since the separation result (= separation information plane) is separated into two planes here, it can be composed of binary data. For example, “1 (black)” can be assigned to pixels determined to be a character / line image, and “0 (white)” can be assigned to other pixels. Of course, the opposite value may be used. In this way, a black and white binary separation information plane is generated. In S85, it is determined whether or not the image area separation process is completed, and the image area separation process in S84 is performed until the image area separation process is completed for all blocks of one page of the input document.
[0065]
When the image area separation processing is completed, in step S86, the
[0066]
When the expansion processing is completed, each plane is generated in the
[0067]
When the generation of each plane is completed, the
[0068]
When the pattern information plane correction process is completed, the
[0069]
When the resolution conversion processing for each plane is completed, compression processing is performed by the
[0070]
When the compression processing for each plane is completed, the image
[0071]
In S94, the image data incorporated in the predetermined image file format is transmitted to another receiving device via a network or a public line. As a method of designating a receiving device at the time of transmission, if a specific device is designated from among a plurality of receiving devices using a salutation manager (SLM) protocol, or if it is used as a FAX using a public line, the other party You may enter your phone number. Further, the recipient's mail address may be designated as an electronic mail, or the receiving device may be designated by other methods, and the method is not particularly limited. In addition, the image area separation process, the expansion process, and each plane generation process in this embodiment are performed in units of pages. However, the present invention is not limited to this. A generation process may be performed to finally process one page.
[0072]
As described above, according to the third embodiment, when the graphic information plane is generated by excluding the character / line drawing information from the document image using the expansion separation information plane subjected to the expansion processing, the information is lost. The effective image area of the pattern information plane is corrected. Therefore, the outline of the character line drawing does not remain on the pattern information plane, and the effective image is not lost. For this reason, even if resolution conversion processing or compression processing is performed on each plane, image quality is hardly deteriorated, and image transmission with higher image quality and higher compression rate can be realized. Even when transmission is not performed, the amount of data can be reduced, so that the storage capacity and the like can be reduced. Further, in the third embodiment, even if the images separated into the respective planes are combined, white spots do not occur in the outline portion of the character / line image, and deterioration of the image quality can be prevented.
[0073]
FIG. 14 is a system configuration diagram showing an application example of the image processing apparatus and the image processing method of the present invention. In the figure, 31 and 32 are transmitting devices, 33 to 35 are receiving devices, and 36 is a network. In this example, the image processing apparatus and the image processing method of the present invention described in the first to third embodiments are incorporated in a transmission device and used for image communication via a network.
[0074]
The
[0075]
For example, when transmitting an image from the
[0076]
The receiving
[0077]
Of course, the application of the present invention is not limited to the system configuration shown in FIG. 14, and can be applied to various image communication devices involving image communication and various devices involving image storage. Of course, you may comprise as an image processing apparatus single-piece | unit which does not comprise the means for communication and accumulation | storage.
[0078]
【The invention's effect】
As is clear from the above description, according to the present invention, the separation information plane including selection data is subjected to expansion processing, and separation processing is performed using the expansion separation information plane after expansion processing. However, there is an effect that it is possible to prevent problems such as being left on a plane different from that of the character line drawing. For this reason, even if resolution conversion processing or compression processing is performed on each plane, there is almost no deterioration in image quality, higher image quality, a smaller amount of data, and a higher compression rate. Thereby, for example, high-speed image transmission can be realized, and the storage capacity can be reduced.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram showing a first embodiment of the present invention.
FIG. 2 is a flowchart showing an example of operation in the first embodiment of the present invention.
FIG. 3 is an explanatory diagram of an example of an expansion process.
FIG. 4 is an explanatory diagram of an example of a determination area used in the expansion process.
FIG. 5 is an explanatory diagram of an example of a character information plane generation process;
FIG. 6 is a block configuration diagram showing a second embodiment of the present invention.
FIG. 7 is a flowchart showing an example of an operation in the second embodiment of the present invention.
FIG. 8 is a block diagram showing a third embodiment of the present invention.
FIG. 9 is an explanatory diagram of an example of a process of generating a pattern information plane.
FIG. 10 is an explanatory diagram illustrating an example of a combined image when no correction processing is performed.
FIG. 11 is an explanatory diagram of an example of a pattern information plane after correction processing by a correction processing unit.
FIG. 12 is an explanatory diagram illustrating an example of a combined image when correction processing is performed.
FIG. 13 is a flowchart showing an example of an operation according to the third embodiment of the present invention.
FIG. 14 is a system configuration diagram showing an application example of the image processing apparatus and the image processing method of the present invention.
FIG. 15 is an explanatory diagram of a specific example of each plane image when using a method of separating input image data into a plurality of plane images.
FIG. 16 is an explanatory diagram of image quality deterioration of a pattern information plane at the time of separation into a plurality of planes.
FIG. 17 is an explanatory diagram of signal processing when generating separation information from an input image signal.
[Explanation of symbols]
DESCRIPTION OF
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36894198A JP3826983B2 (en) | 1998-12-25 | 1998-12-25 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36894198A JP3826983B2 (en) | 1998-12-25 | 1998-12-25 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000194857A JP2000194857A (en) | 2000-07-14 |
JP3826983B2 true JP3826983B2 (en) | 2006-09-27 |
Family
ID=18493153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP36894198A Expired - Fee Related JP3826983B2 (en) | 1998-12-25 | 1998-12-25 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3826983B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4085584B2 (en) | 2001-02-28 | 2008-05-14 | コニカミノルタビジネステクノロジーズ株式会社 | Image processing apparatus and image forming apparatus |
JP4101042B2 (en) * | 2002-12-09 | 2008-06-11 | シャープ株式会社 | Reading data transmitter |
JP5292662B2 (en) * | 2004-09-22 | 2013-09-18 | 富士ゼロックス株式会社 | Document display device, document display device control method, and program |
JP2006262204A (en) * | 2005-03-17 | 2006-09-28 | Fuji Xerox Co Ltd | Image processing apparatus and image processing method |
JP5131144B2 (en) * | 2008-10-20 | 2013-01-30 | 富士ゼロックス株式会社 | Image processing apparatus, image processing program, and image forming apparatus |
-
1998
- 1998-12-25 JP JP36894198A patent/JP3826983B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000194857A (en) | 2000-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3063957B2 (en) | Image processing device | |
US7376265B2 (en) | Segmentation-based hybrid compression scheme for scanned documents | |
JP2005020227A (en) | Picture compression device | |
JPH11127340A (en) | Image processor and image processing method | |
JP2003087563A (en) | Image processing device and its control method | |
JP2003163801A (en) | Apparatus, method, and program for image processing, and storage medium | |
US8467085B2 (en) | Image processing apparatus, data amount reducing method, and data amount reducing program embodied on computer readable medium | |
JP2008165381A (en) | Image processing device and image processing method | |
US7307760B2 (en) | Raster image path architecture | |
US6987587B2 (en) | Multiple recognition image processing apparatus | |
JP3959610B2 (en) | Image processing apparatus and program | |
JP3826983B2 (en) | Image processing device | |
US7809199B2 (en) | Image processing apparatus | |
JP3815214B2 (en) | Image processing apparatus and storage medium storing screen processing program | |
JP2003219187A (en) | Image processing method and image processor | |
JP2001186356A (en) | Picture compression device, picture compresion method and computer readable storage medium | |
JP3788496B2 (en) | Image processing apparatus and image processing method | |
JP2004153817A (en) | Method of forming output image by transforming input image | |
JP6163244B2 (en) | Image processing apparatus, image forming apparatus, image processing program, and recording medium | |
JP4720633B2 (en) | Image processing system and image processing program | |
JP2001078049A (en) | Method and device for picture processing | |
JP2001309183A (en) | Image processing unit and method | |
JP6045182B2 (en) | Image processing apparatus, image forming apparatus including the same, computer program, and recording medium | |
JP3882657B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded | |
JP3794171B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060627 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100714 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110714 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110714 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |